कृत्रिम बुद्धिमत्ता (एआई) मॉडल जैसे चैटजीपीटी, क्लाउडऔर मिथुन अक्सर यह आभास देते हैं कि मशीन के भीतर एक दिमाग काम कर रहा है। इन दिनों वे प्रश्नों के उत्तर में “सोचें”।वापस जाएं और खुद को सुधारें, गलतियों के लिए माफी मांगें, और मानव संचार के कई तरीकों की नकल करें।
हालाँकि आज तक इस बात का कोई प्रत्यक्ष भौतिक प्रमाण नहीं है कि मशीनी दिमाग का अस्तित्व होता है। वास्तव में, यह विश्वास करने का अच्छा कारण है कि ये मशीनें जो कर रही हैं जब वे कहती हैं कि वे “सोच” रही हैं तो वास्तव में एक भौतिक घटना से निपट रही हैं।
यह भी पढ़ें | विचार की अंतिम सीमा पर: क्या AI रचनात्मकता को ख़त्म कर देगा?
1980 के दशक में, जॉन हॉपफील्ड और जेफ्री हिंटन के नेतृत्व में भौतिकविदों के एक समूह ने महसूस किया कि यदि आपके पास लाखों न्यूरॉन्स वाला नेटवर्क है, तो आप उन्हें व्यक्तिगत ‘कणों’ के रूप में मानना बंद कर सकते हैं और उन्हें एक प्रणाली के रूप में संबोधित करना शुरू कर सकते हैं। और इन प्रणालियों के व्यवहार और गुणों को थर्मोडायनामिक्स और सांख्यिकीय यांत्रिकी के नियमों द्वारा वर्णित किया जा सकता है।
होपफील्ड और हिंटन ने जीत हासिल की इस कार्य के लिए 2024 में भौतिकी का नोबेल पुरस्कार. में प्रकाशित अध्ययनों की एक जोड़ी शारीरिक समीक्षा ई उसी विचार को दोहराते हुए दिखाया गया है कि एआई मॉडल को बेहतर बनाने के लिए इंजीनियरों द्वारा उपयोग की जाने वाली दो सामान्य ‘ट्रिक्स’ भी ऐसी ही भौतिक घटनाएं हैं।
कण्डरा एड़ी
तंत्रिका नेटवर्क मानव मस्तिष्क में न्यूरॉन्स की तरह एक दूसरे से जुड़े प्रोसेसर का एक नेटवर्क है और जो मस्तिष्क की तरह जानकारी सीखता है और उसका उपयोग करता है। उन्हें कई परतों में भी रखा जा सकता है, ताकि एक परत अगली के लिए इनपुट तैयार कर सके और इसी तरह। न्यूरल नेटवर्क जेनरेटिव एआई, सेल्फ-ड्राइविंग कार, कंप्यूटर विज़न और मॉडलिंग जैसे मशीन लर्निंग अनुप्रयोगों के केंद्र में हैं।
उनके पास एक अकिलीज़ हील भी है जिसे ओवरफिटिंग कहा जाता है: एक नेटवर्क अपने प्रशिक्षण के दौरान देखे गए कुछ विशिष्ट उदाहरणों से इतना ग्रस्त हो जाता है कि वह व्यापक पैटर्न को समझने में विफल हो जाता है। इसे रोकने के लिए इंजीनियरों ने कुछ तकनीकें विकसित की हैं। उदाहरण के लिए, अक्टूबर 2025 का पेपर ऑक्सफोर्ड विश्वविद्यालय और प्रिंसटन विश्वविद्यालय के शोधकर्ताओं फ्रांसेस्को मोरी और फ्रांसेस्का मिग्नाको ने ड्रॉपआउट नामक तकनीक पर ध्यान केंद्रित किया। प्रशिक्षण के दौरान, तंत्रिका नेटवर्क को अपने न्यूरॉन्स के एक निश्चित प्रतिशत को यादृच्छिक रूप से बंद करने के लिए बनाया जाता है, जिससे शेष लोगों को अधिक मेहनत करने और अवधारणाओं को स्वतंत्र रूप से सीखने के लिए मजबूर किया जाता है।
फ़्लैटिरॉन इंस्टीट्यूट और न्यूयॉर्क यूनिवर्सिटी के अब्दुलकादिर कैनटार और सूयेओन चुंग ने अपने जीवन में सहिष्णुता नामक बाधा की ओर रुख किया। अगस्त पेपर. उन्होंने विश्लेषण किया कि क्या होता है जब एआई को एक छोटी सीमा के भीतर आने वाली किसी भी त्रुटि को नजरअंदाज करने के लिए कहा जाता है। इसलिए हर छोटी विसंगति को ठीक करने की कोशिश करने के बजाय, नेटवर्क किसी भी उत्तर को ‘काफी करीब’ मानता है और उसे काफी अच्छा मानता है।
जबकि ड्रॉपआउट और सहिष्णुता अलग-अलग प्रोग्रामिंग विकल्पों की तरह दिखते हैं, दोनों पेपर के लेखकों ने (अलग-अलग) जोर देकर कहा कि वे दोनों एक ही अंतर्निहित भौतिक घटना द्वारा शासित हैं।
शिक्षक-छात्र प्रयोग
दोनों जोड़ी ने यह समझाने के लिए शिक्षक-छात्र रूपरेखा नामक एक उपकरण का उपयोग किया। टीचर एक तंत्रिका नेटवर्क है जो पहले से ही डेटासेट से परिचित है जबकि स्टूडेंट एक नेटवर्क है जो पूरी तरह से खाली शुरू हो रहा है। छात्र का लक्ष्य उसी डेटासेट को सीखना है जब तक कि उसकी आंतरिक सेटिंग्स शिक्षक की सेटिंग्स के साथ संरेखित न हो जाएं।
मोरी और मिग्नाको ने लिखा कि सबसे पहले, छात्र एक “अविशिष्ट चरण” में फंस गया था जब उसके सभी न्यूरॉन्स एक ही काम कर रहे थे। लेखकों के गणितीय मॉडल में, यह त्रुटि ग्राफ़ में एक पठार, या एक सपाट रेखा के रूप में दिखाई देता है, और यह दर्शाता है कि छात्र सीख नहीं रहा था।
सीखने के तीन चरण. | फोटो साभार: भौतिक. रेव. ई 112, 045301
इसलिए उन्होंने तर्क दिया कि विद्यार्थी को होशियार बनने के लिए पहले उसे “विशेषज्ञता परिवर्तन” से गुजरना होगा। भौतिक विज्ञानी ऐसे संक्रमणों से परिचित हैं क्योंकि वे तरल पानी के वाष्प में बदलने का वर्णन करने के लिए उसी गणित का उपयोग करते हैं, इस प्रक्रिया को चरण संक्रमण कहा जाता है।
मोरी और मिग्नाको ने बताया कि न्यूरॉन्स को बेतरतीब ढंग से बंद करके, ड्रॉपआउट ने सिस्टम में एक निश्चित मात्रा में शोर इंजेक्ट किया, जिसने नेटवर्क को उसके पठार से बाहर और विशेष बुद्धिमत्ता की ओर धकेल दिया – एक चरण संक्रमण। यह विवरण हॉपफील्ड और हिंटन के काम से भी मेल खाता है, जिन्होंने साबित किया कि तंत्रिका नेटवर्क की ऊर्जा एक वास्तविक चीज़ है, जिसमें हेरफेर करके नेटवर्क को बेहतर प्रदर्शन के लिए बनाया जा सकता है।
उन्होंने एक सूत्र की भी सूचना दी जिसके बारे में उन्होंने कहा कि यह अनुमानित आदर्श ड्रॉपआउट दर का पता लगा सकता है: सक्रियण संभावना से संबंधित, जो कि एक न्यूरॉन इनपुट के दिए गए सेट के लिए एक विशेष आउटपुट को सीखने की दर, शोर स्तर और शिक्षक और छात्र नेटवर्क की सीखने की क्षमता से बाहर निकालता है।
परमाणुओं की तरह
कैनाटर और चुंग ने यह भी पाया कि नेटवर्क पर सहिष्णुता को बदलने के परिणामों को भौतिकी के नियमों का उपयोग करके वर्णित किया जा सकता है, जिसे उन्होंने डबल-डिसेंट समस्या पर अपने निष्कर्षों को लागू करके चित्रित किया है। जब आप किसी नेटवर्क को अधिक डेटा देते हैं, तो उसका प्रदर्शन अचानक बेहतर होने से पहले कभी-कभी खराब हो जाता है। कैनाटर और चुंग के अनुसार, जब कोई नेटवर्क उतने ही उदाहरण सीखता है जितनी उसकी आंतरिक सेटिंग्स होती हैं, तो वह एक ऐसे बिंदु पर पहुंच जाता है जहां वह अधिक जानकारी की तलाश में होता है। जब उसे वह जानकारी नहीं मिलती है, तो वह अपने रास्ते में आने वाली हर समस्या के बारे में जो कुछ पहले से ही ‘जानता है’ उस पर हावी होना शुरू कर देता है।
उन्होंने कहा, मशीन इस ओवरफिटिंग चरण तक नहीं पहुंचती है क्योंकि इसका एल्गोरिदम त्रुटिपूर्ण है, बल्कि इसलिए क्योंकि इसके लाखों पैरामीटर परमाणुओं के एक संग्रह की तरह हैं जो एक चरण संक्रमण से गुजरने की कोशिश कर रहे हैं, और असफल हो रहे हैं, उन्होंने कहा। परिणामस्वरूप, न्यूरॉन्स की गणना के परिणाम त्रुटियों से भरे हुए हैं।
समाधान? “कैनाटार और चुंग ने … सहनशीलता के एक महत्वपूर्ण मूल्य को उजागर किया जो दो व्यवस्थाओं को अलग करता है: एक जिसमें तंत्रिका नेटवर्क प्रशिक्षण डेटा को पूरी तरह से फिट करता है और दूसरा जिसमें अति अनुकूलन से बचा जाता है। भौतिक दृष्टि से, यह शासन क्रॉसओवर एक … चरण संक्रमण से मेल खाता है,” पेरिस-सैकले विश्वविद्यालय और फ्रेंच नेशनल सेंटर फॉर साइंटिफिक रिसर्च के एक शोधकर्ता ह्यूगो कुई ने एक टिप्पणी में लिखा है भौतिक विज्ञान.
कुछ सीमाएँ
मोरी और मिग्नाको दो-परत तंत्रिका नेटवर्क के साथ काम कर रहे थे, जो कि बड़े, बहु-स्तरीय गहन शिक्षण नेटवर्क की तुलना में एक खिलौना मॉडल की तरह है जो चैटजीपीटी या सेल्फ-ड्राइविंग कारों जैसे एआई मॉडल को शक्ति प्रदान करता है। बहरहाल, उन्होंने लिखा है कि जिन “तंत्रों” का उन्होंने खुलासा किया है, वे “ड्रॉपआउट से प्रेरित प्रदर्शन सुधार को चलाने वाले तंत्रों के बारे में कई खुले प्रश्नों” का उत्तर देते हैं।
दूसरी ओर, कैनाटर और चुंग ने अपने समीकरणों को रेसनेट पर लागू किया, जो एक उन्नत प्रकार का तंत्रिका नेटवर्क है जिसका उपयोग कंप्यूटर दृष्टि जैसी वास्तविक दुनिया की समस्याओं को हल करने के लिए किया जाता है। उन्होंने कहा कि इस सेटअप में भी, वही ज्यामितीय और थर्मोडायनामिक नियम सत्य हैं जो उन्होंने अपने सरल मॉडल में पाए थे।
अब दशकों से, इंजीनियरों ने अक्सर मशीन लर्निंग को एक प्रकार के ‘ब्लैक बॉक्स’ के रूप में माना है, जहां वे कोड के साथ तब तक छेड़छाड़ करते हैं जब तक यह काम नहीं करता है, लेकिन यह समझे बिना कि यह क्यों काम करता है। हालाँकि, 1980 के दशक में, यह धारणा प्रचलित थी कि मशीन इंटेलिजेंस एक जटिल उत्पाद है, लेकिन फिर भी सांख्यिकीय यांत्रिकी का एक उत्पाद है, जिसे भौतिक विज्ञानी बहुत अच्छी तरह से समझते हैं। इस तर्क के अनुसार, मशीन की आंतरिक कार्यप्रणाली इतनी गूढ़ नहीं है जितनी कि एक भौतिक प्रणाली जिसे स्नातक भौतिकी का उपयोग करके समझा जा सकता है।
ये अध्ययन एक ऐसे भविष्य का सुझाव देते हैं जहां वैज्ञानिक एआई मॉडल को चालू करने से पहले ही उसके प्रदर्शन का अनुमान लगाने के लिए कागजात में दिए गए विश्लेषणात्मक सिद्धांतों का उपयोग कर सकते हैं।
mukunth.v@thehindu.co.in



