जब इंटरनेट पर लोगों ने मई 2024 में “पनीर नॉट स्टिकिंग टू पिज्जा” के लिए Google को खोजा, तो लोकप्रिय खोज इंजन के नए लॉन्च किए गए “एआई ओवरव्यू” फीचर ने जवाब दिया “आप कर सकते हैं … सॉस में गैर-टॉक्सिक गोंद के ⅛ कप के बारे में जोड़ें।
अजीब जवाबों की एक श्रृंखला में, कृत्रिम होशियारी (एआई) टूल ने यह भी सिफारिश की कि लोग एक दिन में एक छोटी चट्टान खाते हैं और गुर्दे की पथरी को पार करने के लिए मूत्र पीते हैं।
इन विचित्र उत्तरों के लिए लोकप्रिय नाम मतिभ्रम है: जब एआई मॉडल उन सवालों का सामना करते हैं जिनके जवाब उन्हें प्रशिक्षित नहीं किया जाता था, तो वे कभी -कभी आश्वस्त करते हैं लेकिन अक्सर गलत प्रतिक्रियाएं।
Google के “AI ओवरव्यू” की तरह, CHATGPT भी मतिभ्रम के लिए प्रवण रहा है। एक 2023 में वैज्ञानिक रिपोर्ट अध्ययनमैनहट्टन कॉलेज और न्यूयॉर्क के सिटी यूनिवर्सिटी के शोधकर्ताओं ने तुलना की कि कुछ विषयों पर जानकारी संकलित करते समय कितनी बार दो CHATGPT मॉडल, 3.5 और 4, मतिभ्रम किया गया। उन्होंने पाया कि 55% CHATGPT V3.5 के संदर्भ गढ़े गए थे; CHATGPT-4 ने 18%के साथ बेहतर प्रदर्शन किया।
“हालांकि जीपीटी -4 जीपीटी -3.5 पर एक बड़ा सुधार है, लेकिन समस्याएं बनी हुई हैं,” शोधकर्ताओं ने निष्कर्ष निकाला।
मतिभ्रम AI मॉडल को अविश्वसनीय बनाते हैं और उनके अनुप्रयोगों को सीमित करते हैं। विशेषज्ञों ने इस रिपोर्टर को बताया कि वे इस बात पर संदेह करते हैं कि एआई उपकरण कितने विश्वसनीय हैं और वे कितने विश्वसनीय होने जा रहे हैं। और मतिभ्रम केवल उनके संदेह को बढ़ावा देने का कारण नहीं था।
विश्वसनीयता को परिभाषित करना
एआई मॉडल कितना विश्वसनीय है, इसका मूल्यांकन करने के लिए, शोधकर्ता आमतौर पर दो मानदंडों का उल्लेख करते हैं: स्थिरता और तथ्यात्मकता। संगति समान इनपुट के लिए समान आउटपुट का उत्पादन करने के लिए एआई मॉडल की क्षमता को संदर्भित करती है। उदाहरण के लिए, कहें कि एक ईमेल सेवा स्पैम ईमेल को फ़िल्टर करने के लिए एक AI एल्गोरिथ्म का उपयोग करती है और कहती है कि एक इनबॉक्स में दो स्पैम ईमेल प्राप्त होते हैं जिनमें समान विशेषताएं होती हैं: जेनेरिक अभिवादन, खराब लिखित सामग्री, आदि। यदि एल्गोरिथ्म इन दोनों ईमेलों को स्पैम के रूप में पहचानने में सक्षम है, तो यह सुसंगत भविष्यवाणियां करने के लिए कहा जा सकता है।
तथ्यात्मकता यह बताती है कि एआई मॉडल एक प्रश्न का जवाब देने में कितना सही है। इसमें IIT-BOMBAY में कंप्यूटर साइंस एंड इंजीनियरिंग की प्रोफेसर सुनीता सरवागी, सुनीता सरवागी ने कहा, “यह जवाब नहीं पता है कि” मुझे नहीं पता ‘शामिल हैं। सारावागी को 2019 में अपने काम के लिए, अन्य चीजों, मशीन लर्निंग और प्राकृतिक भाषा प्रसंस्करण, आधुनिक एआई के बैकबोन के साथ इन्फोसिस पुरस्कार मिला।
जब एक एआई मॉडल मतिभ्रम करता है, तो यह तथ्यात्मकता पर समझौता करता है। यह बताने के बजाय कि इसके पास किसी विशेष प्रश्न का उत्तर नहीं है, यह एक गलत प्रतिक्रिया उत्पन्न करता है और दावा करता है कि सही होने के लिए, और “उच्च आत्मविश्वास के साथ,” निलाद्री चटर्जी के अनुसार, आईआईटी-डेलि में एआई के सौमित्रा दत्ता अध्यक्ष प्रोफेसर।
क्यों मतिभ्रम?
पिछले महीने, कई CHATGPT उपयोगकर्ताओं को चकित कर दिया गया था जब यह एक कमरे की छवियां नहीं बना सकता था जिसमें कोई हाथी नहीं था। यह जांचने के लिए कि क्या यह समस्या अभी भी बनी हुई है, इस रिपोर्टर ने ओपनईई के डल-ई, एक एआई मॉडल से पूछा, जो पाठ संकेतों के आधार पर छवियों को उत्पन्न कर सकता है, “इसमें कोई हाथी नहीं है, जिसमें कोई हाथी नहीं है।” ऊपर की छवि देखें कि यह क्या बनाया है।
जब क्वेरी के साथ आगे संकेत दिया जाता है, तो “कमरे में हाथियों की कोई तस्वीर या मूर्तियाँ नहीं होनी चाहिए। किसी भी तरह का कोई हाथी नहीं है”, मॉडल ने दो और चित्र बनाए। एक में एक हाथी की एक बड़ी तस्वीर थी जबकि दूसरे में एक तस्वीर और एक छोटी हाथी की मूर्ति दोनों थी। “यहाँ कमरे की दो छवियां पूरी तरह से हाथियों से मुक्त हैं-कोई मूर्ति नहीं, कोई चित्र नहीं, कुछ भी नहीं हाथी से संबंधित,” डल-ए से पाठ के साथ पाठ।
इस तरह की गलत लेकिन आत्मविश्वास से संबंधित प्रतिक्रियाएं बताती हैं कि मॉडल “नकारात्मक को समझने में विफल रहता है”, चटर्जी ने कहा।
क्यों नकारात्मक? Google के दीपमाइंड के साथ एक प्राकृतिक भाषा प्रसंस्करण शोधकर्ता नोरा कसनर ने बताया क्वांटा मई 2023 में पत्रिका कि यह जनरेटिव एआई मॉडल को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटा में नकारात्मकता का उपयोग करके वाक्यों की कमी से उपजा है।
शोधकर्ता दो चरणों में समकालीन एआई मॉडल विकसित करते हैं: प्रशिक्षण और परीक्षण चरण। प्रशिक्षण चरण में, मॉडल को एनोटेट इनपुट के एक सेट के साथ प्रदान किया जाता है। उदाहरण के लिए, मॉडल को “हाथी” लेबल वाले हाथी चित्रों का एक सेट खिलाया जा सकता है। मॉडल “हाथी” शब्द के साथ सुविधाओं के एक सेट (कहते हैं, आकार, आकार और एक हाथी के कुछ हिस्सों) को जोड़ना सीखता है।

परीक्षण चरण में, मॉडल को इनपुट के साथ प्रदान किया जाता है जो इसके प्रशिक्षण डेटासेट का हिस्सा नहीं थे। उदाहरण के लिए, शोधकर्ता एक हाथी की एक छवि को इनपुट कर सकते हैं जो मॉडल ने अपने प्रशिक्षण चरण में सामना नहीं किया था। यदि एल्गोरिथ्म इस तस्वीर को एक हाथी के रूप में सटीक रूप से पहचान सकता है और इसे किसी अन्य तस्वीर से अलग कर सकता है, तो एक बिल्ली के बारे में कहें, यह सफल कहा जाता है।
बस, एआई मॉडल भाषा को नहीं समझते हैं जिस तरह से मनुष्य करते हैं। इसके बजाय, उनके आउटपुट सांख्यिकीय संघों द्वारा संचालित होते हैं जो वे प्रशिक्षण चरण के दौरान सीखते हैं, इनपुट के दिए गए संयोजन और एक आउटपुट के बीच। नतीजतन, जब वे उन प्रश्नों का सामना करते हैं जो अपने प्रशिक्षण डेटासेट में असामान्य या अनुपस्थित होते हैं, तो वे अन्य संघों के साथ अंतराल में प्लग करते हैं जो प्रशिक्षण डेटासेट में मौजूद हैं। ऊपर दिए गए उदाहरण में, यह “कमरे में हाथी” था। यह तथ्यात्मक रूप से गलत आउटपुट की ओर जाता है।
मतिभ्रम आमतौर पर तब होता है जब एआई मॉडल को उन प्रश्नों के साथ प्रेरित किया जाता है, जिन्हें “अंतर्निहित सोच, अवधारणाओं को जोड़ने और फिर जवाब देने की आवश्यकता होती है,” IIT-D में सूचना प्रणाली के प्रोफेसर और AIPAN KAR ने कहा।
अधिक या कम विश्वसनीय?
यहां तक कि एआई का विकास और उपयोग दोनों विस्फोटक वृद्धि के गले में हैं, उनकी विश्वसनीयता का सवाल बड़ा है। और मतिभ्रम सिर्फ एक कारण है।
एक और कारण यह है कि एआई डेवलपर्स आमतौर पर बेंचमार्क, या मानकीकृत परीक्षणों का उपयोग करके अपने मॉडल के प्रदर्शन की रिपोर्ट करते हैं, कि “मूर्ख नहीं हैं और उन्हें तैयार किया जा सकता है,” आईआईटी-डेल्ली के चटर्जी ने कहा।
‘गेम’ बेंचमार्क का एक तरीका एआई मॉडल के प्रशिक्षण डेटासेट में बेंचमार्क से डेटा का परीक्षण करना शामिल है।
2023 में, होरेस हे, मेटा में एक मशीन लर्निंग रिसर्चर, आरोप लगाया कि CHATGPT V4 का प्रशिक्षण डेटा एक बेंचमार्क से परीक्षण डेटा द्वारा “दूषित” हो सकता है। अर्थात्, मॉडल को प्रशिक्षित किया गया था, कम से कम आंशिक रूप से, उसी डेटा पर जो इसकी क्षमताओं का परीक्षण करने के लिए उपयोग किया गया था।
पेकिंग यूनिवर्सिटी, चीन के कंप्यूटर वैज्ञानिकों के बाद, एक अलग बेंचमार्क का उपयोग करके इस आरोप की जांच की, जिसे ह्यूमनवेल डेटासेट कहा जाता है, उन्होंने निष्कर्ष निकाला एक अच्छा मौका था यह सच था। ह्यूमनवेल बेंचमार्क बनाया गया था Openai के शोधकर्ताओं द्वारा, वह कंपनी जो CHATGPT का मालिक है और बनाती है।
चटर्जी के अनुसार, इसका मतलब है कि मॉडल “बेंचमार्क पर अच्छा प्रदर्शन” कर सकता है क्योंकि इसे परीक्षण डेटा पर प्रशिक्षित किया गया है, इसका प्रदर्शन “वास्तविक दुनिया के अनुप्रयोगों में” गिर सकता है।
मतिभ्रम के बिना एक मॉडल
लेकिन यह सब कहा, “मतिभ्रम की आवृत्ति [in popular AI models] आम प्रश्नों के लिए कम कर रहा है, “सरवागी ने कहा। उन्होंने कहा कि यह इसलिए है क्योंकि इन एआई मॉडलों के नए संस्करणों को” उन प्रश्नों पर अधिक डेटा के साथ प्रशिक्षित किया जा रहा है जहां पहले के संस्करण को मतिभ्रम होने की सूचना दी गई थी “।
यह दृष्टिकोण “स्पॉटिंग कमजोरियों और बैंड-एड्स को लागू करने” जैसा है, जैसा कि सरवागी ने कहा था।

हालांकि, आईआईटी-डेलि के कर के कार ने कहा कि अधिक प्रशिक्षण डेटा होने के बावजूद, चैट जैसे लोकप्रिय एआई मॉडल एक ऐसे मंच तक नहीं पहुंच पाएंगे जहां वे मतिभ्रम नहीं करेंगे। उन्होंने कहा कि एक एआई मॉडल की आवश्यकता होगी “वास्तविक समय के आधार पर दुनिया भर में सभी संभावित ज्ञान के साथ अद्यतन किया जाएगा,” उन्होंने कहा। “अगर ऐसा होता है, तो वह एल्गोरिथ्म सर्व-शक्तिशाली हो जाएगा।”
चटर्जी और सरवागी ने इसके बजाय सुझाव दिया कि एआई मॉडल कैसे बनाए जाते हैं और प्रशिक्षित होते हैं। ऐसा ही एक दृष्टिकोण विशेष कार्यों के लिए मॉडल विकसित करना है। उदाहरण के लिए, CHATGPT जैसे बड़े भाषा मॉडल के विपरीत, छोटी भाषा मॉडल को केवल कुछ विशिष्ट समस्याओं को हल करने के लिए आवश्यक मापदंडों पर प्रशिक्षित किया जाता है। Microsoft का ORCA 2 उदाहरण के लिए “तर्क, रीडिंग कॉम्प्रिहेंशन, मैथ प्रॉब्लम सॉल्विंग और टेक्स्ट समर,” जैसे कार्यों के लिए बनाया गया एक एसएलएम है।
एक अन्य दृष्टिकोण एक तकनीक को लागू करना है जिसे रिट्रीवल-एगमेंटेड जेनरेशन (आरएजी) कहा जाता है। यहां, एक एआई मॉडल एक विशेष क्वेरी के लिए प्रासंगिक एक विशिष्ट डेटाबेस से जानकारी प्राप्त करके अपने आउटपुट का उत्पादन करता है। उदाहरण के लिए, जब सवाल का जवाब देने के लिए कहा गया “आर्टिफिशियल इंटेलिजेंस क्या है?”, एआई मॉडल को आर्टिफिशियल इंटेलिजेंस पर विकिपीडिया लेख के लिंक के साथ प्रदान किया जा सकता है। मॉडल को अपनी प्रतिक्रिया को क्राफ्ट करते समय केवल इस स्रोत को संदर्भित करने के लिए कहकर, इसके मतिभ्रम की संभावना काफी हद तक कम हो सकती है।
अंत में, सरवागी ने सुझाव दिया कि एआई मॉडल को पाठ्यक्रम सीखने वाली एक प्रक्रिया में प्रशिक्षित किया जा सकता है। पारंपरिक प्रशिक्षण प्रक्रियाओं में, डेटा को एआई मॉडल को यादृच्छिक रूप से प्रस्तुत किया जाता है। पाठ्यक्रम सीखने में, हालांकि, मॉडल को बढ़ती कठिनाई की समस्याओं के साथ डेटासेट पर क्रमिक रूप से प्रशिक्षित किया जाता है। उदाहरण के लिए, एक एआई मॉडल को पहले छोटे वाक्यों पर प्रशिक्षित किया जा सकता है, फिर लंबे समय तक, अधिक जटिल वाक्यों पर। पाठ्यक्रम सीखने से मानव सीखने की नकल होती है, और शोधकर्ताओं ने पाया है कि इस तरह से ‘शिक्षण’ मॉडल वास्तविक दुनिया में अपने अंतिम प्रदर्शन में सुधार कर सकते हैं।
लेकिन अंतिम विश्लेषण में, इनमें से कोई भी तकनीक गारंटी देता है कि वे एआई मॉडल में पूरी तरह से मतिभ्रम से छुटकारा पाएंगे। चटर्जी के अनुसार, “उन प्रणालियों की आवश्यकता बनी रहेगी जो मानव निरीक्षण सहित एआई-जनित आउटपुट को सत्यापित कर सकते हैं।”
Sayantan Datta एक विज्ञान पत्रकार और क्रे विश्वविद्यालय में एक संकाय सदस्य हैं।
प्रकाशित – 17 अप्रैल, 2025 05:30 पूर्वाह्न IST

लिंक की प्रतिलिपि करें
ईमेल
फेसबुक
ट्विटर
टेलीग्राम
Linkedin
WhatsApp
reddit