जब सैन फ्रांसिस्को ने ओपनएआई शुरू किया पिछले साल के अंत में अपने ChatGPT ऑनलाइन चैटबॉट का अनावरण कियाइसके मानवीय तरीके से सवालों के जवाब देने, कविता लिखने और लगभग किसी भी विषय पर चर्चा करने के तरीके से लाखों लोग आश्चर्यचकित रह गए। लेकिन ज़्यादातर लोगों को इस नए तरह के चैटबॉट के बारे में समझने में देर हुई अक्सर बातें बनाता है.
जब Google ने कई सप्ताह बाद एक समान चैटबॉट पेश किया, तो यह जेम्स वेब टेलीस्कोप के बारे में बकवास उगल दी. अगले दिन, माइक्रोसॉफ्ट का नया बिंग चैटबॉट सभी प्रकार की फर्जी जानकारी पेश की गैप, मैक्सिकन नाइटलाइफ़ और गायक बिली इलिश के बारे में। फिर, मार्च में, चैटजीपीटी आधा दर्जन फर्जी कोर्ट केस का हवाला दिया एक वकील ने मैनहट्टन में एक संघीय न्यायाधीश को 10-पृष्ठ का कानूनी विवरण लिखते हुए प्रस्तुत किया।
अब Google के पूर्व कर्मचारियों द्वारा स्थापित वेक्टारा नामक एक नया स्टार्ट-अप यह पता लगाने की कोशिश कर रहा है कि कितनी बार चैटबॉट सच्चाई से भटक जाते हैं। कंपनी के शोध का अनुमान है कि ऐसा होने से रोकने के लिए डिज़ाइन की गई स्थितियों में भी, चैटबॉट कम से कम 3 प्रतिशत समय – और अधिकतम 27 प्रतिशत तक जानकारी का आविष्कार करते हैं।
विशेषज्ञ इस चैटबॉट व्यवहार को “मतिभ्रम” कहते हैं। अपने निजी कंप्यूटर पर चैटबॉट के साथ छेड़छाड़ करने वाले लोगों के लिए यह कोई समस्या नहीं हो सकती है, लेकिन अदालती दस्तावेजों, चिकित्सा जानकारी या संवेदनशील व्यावसायिक डेटा के साथ इस तकनीक का उपयोग करने वाले किसी भी व्यक्ति के लिए यह एक गंभीर मुद्दा है।
क्योंकि ये चैटबॉट असीमित संख्या में लगभग किसी भी अनुरोध का जवाब दे सकते हैं, इसलिए निश्चित रूप से यह निर्धारित करने का कोई तरीका नहीं है कि वे कितनी बार मतिभ्रम करते हैं। इस परियोजना का नेतृत्व करने वाले वेक्टारा शोधकर्ता साइमन ह्यूजेस ने कहा, “आपको दुनिया की सारी जानकारी देखनी होगी।”
डॉ. ह्यूजेस और उनकी टीम ने इन प्रणालियों को एक एकल, सीधा कार्य करने के लिए कहा जो आसानी से सत्यापित हो: समाचार लेखों को सारांशित करें। फिर भी, चैटबॉट्स ने लगातार जानकारी का आविष्कार किया।
वेक्टारा के मुख्य कार्यकारी और गूगल के पूर्व कार्यकारी अमर अवदल्लाह ने कहा, “हमने सिस्टम को 10 से 20 तथ्य दिए और उन तथ्यों का सारांश मांगा।” “सिस्टम अभी भी त्रुटियाँ उत्पन्न कर सकता है यह एक मूलभूत समस्या है।”
शोधकर्ताओं का तर्क है कि जब ये चैटबॉट केवल संक्षेपण से परे अन्य कार्य करते हैं तो मतिभ्रम की दर अधिक हो सकती है।
उनके शोध से यह भी पता चला कि प्रमुख एआई कंपनियों के बीच मतिभ्रम की दर व्यापक रूप से भिन्न होती है। ओपनएआई की प्रौद्योगिकियों की दर सबसे कम, लगभग 3 प्रतिशत थी। मेटा का सिस्टम, जो फेसबुक और इंस्टाग्राम का मालिक है, 5 प्रतिशत के आसपास रहा। सैन फ्रांसिस्को स्थित ओपनएआई प्रतिद्वंद्वी एंथ्रोपिक द्वारा पेश किया गया क्लाउड 2 सिस्टम 8 प्रतिशत से ऊपर रहा। Google प्रणाली, पाम चैट, की दर 27 प्रतिशत पर उच्चतम थी।
एंथ्रोपिक प्रवक्ता, सैली एल्डस ने कहा, “हमारे सिस्टम को सहायक, ईमानदार और हानिरहित बनाना, जिसमें मतिभ्रम से बचना भी शामिल है, एक कंपनी के रूप में हमारे मुख्य लक्ष्यों में से एक है।”
Google ने टिप्पणी करने से इनकार कर दिया, और OpenAI और मेटा ने टिप्पणी के अनुरोधों का तुरंत जवाब नहीं दिया।
इस शोध के साथ, डॉ. ह्यूजेस और श्री अवदाल्लाह लोगों को यह दिखाना चाहते हैं कि उन्हें चैटबॉट्स से आने वाली जानकारी और यहां तक कि वेक्टारा द्वारा व्यवसायों को बेची जाने वाली सेवा से भी सावधान रहना चाहिए। कई कंपनियां अब व्यावसायिक उपयोग के लिए इस तरह की तकनीक पेश कर रही हैं।
पालो ऑल्टो, कैलिफ़ोर्निया में स्थित, वेक्टारा एक 30-व्यक्ति स्टार्ट-अप है जिसे $28.5 मिलियन की सीड फंडिंग का समर्थन प्राप्त है। इसके संस्थापकों में से एक, अमीन अहमद, जो कि पूर्व Google कृत्रिम बुद्धिमत्ता शोधकर्ता हैं, 2017 से इस तरह की तकनीक के साथ काम कर रहे हैं, जब इसे Google और कुछ अन्य कंपनियों के अंदर विकसित किया गया था।
जिस तरह माइक्रोसॉफ्ट का बिंग सर्च चैटबॉट खुले इंटरनेट से जानकारी प्राप्त कर सकता है, उसी तरह वेक्टारा की सेवा कंपनी के ईमेल, दस्तावेजों और अन्य फाइलों के निजी संग्रह से जानकारी प्राप्त कर सकती है।
शोधकर्ताओं को यह भी उम्मीद है कि उनके तरीके – जिन्हें वे सार्वजनिक रूप से साझा कर रहे हैं और अपडेट करना जारी रखेंगे – मतिभ्रम को कम करने के लिए उद्योग भर में प्रयासों को बढ़ावा देने में मदद करेंगे। OpenAI, Google और अन्य विभिन्न तकनीकों के माध्यम से समस्या को कम करने के लिए काम कर रहे हैं, हालांकि यह स्पष्ट नहीं है कि वे समस्या को खत्म कर सकते हैं या नहीं।
सेल्सफोर्स के एक शोधकर्ता फिलिप लाबान ने, जिन्होंने लंबे समय से इस तरह की तकनीक की खोज की है, कहा, “एक अच्छा सादृश्य एक सेल्फ-ड्राइविंग कार है।” “आप सेल्फ-ड्राइविंग कार को दुर्घटनाग्रस्त होने से नहीं बचा सकते। लेकिन आप यह सुनिश्चित करने का प्रयास कर सकते हैं कि यह मानव चालक से अधिक सुरक्षित है।
ChatGPT जैसे चैटबॉट्स नामक तकनीक द्वारा संचालित होते हैं बड़ा भाषा मॉडल, या एलएलएम, जो पुस्तकों, विकिपीडिया लेखों और ऑनलाइन चैट लॉग सहित भारी मात्रा में डिजिटल पाठ का विश्लेषण करके अपने कौशल सीखता है। उस सभी डेटा में पैटर्न को इंगित करके, एक एलएलएम विशेष रूप से एक काम करना सीखता है: शब्दों के क्रम में अगले शब्द का अनुमान लगाएं.
क्योंकि इंटरनेट असत्य सूचनाओं से भरा पड़ा है, ये प्रणालियाँ उन्हीं असत्य को दोहराती हैं। वे संभावनाओं पर भी भरोसा करते हैं: गणितीय संभावना क्या है कि अगला शब्द “नाटककार” है? समय-समय पर वे गलत अनुमान लगाते हैं।
वेक्टारा के नए शोध से पता चलता है कि ऐसा कैसे हो सकता है। समाचार लेखों के सारांश में, चैटबॉट इंटरनेट के अन्य हिस्सों से झूठ नहीं दोहराते हैं। वे केवल संक्षेपण को ग़लत समझते हैं।
उदाहरण के लिए, शोधकर्ताओं ने Google के बड़े भाषा मॉडल, पाम चैट से एक समाचार लेख के इस संक्षिप्त अंश को सारांशित करने के लिए कहा:
ये पौधे शनिवार सुबह एशबोर्न के पास एक गोदाम की तलाशी के दौरान पाए गए। पुलिस ने कहा कि वे “एक विस्तृत ग्रो हाउस” में थे। घटनास्थल पर लगभग 40 वर्षीय एक व्यक्ति को गिरफ्तार किया गया।
इसने यह सारांश दिया, उन पौधों के लिए पूरी तरह से एक मूल्य का आविष्कार किया जिन्हें आदमी उगा रहा था और मान रहा था – शायद गलत तरीके से – कि वे भांग के पौधे थे:
एशबोर्न के पास एक गोदाम में अनुमानित £100,000 मूल्य के भांग के पौधे पाए जाने के बाद पुलिस ने लगभग 40 वर्षीय एक व्यक्ति को गिरफ्तार किया है।
यह घटना यह भी दिखाती है कि माइक्रोसॉफ्ट का बिंग चैटबॉट जैसा टूल इंटरनेट से जानकारी पुनर्प्राप्त करते समय चीजें गलत क्यों कर सकता है। यदि आप चैटबॉट से कोई प्रश्न पूछते हैं, तो यह माइक्रोसॉफ्ट के बिंग सर्च इंजन को कॉल कर सकता है और इंटरनेट सर्च चला सकता है। लेकिन इसका सही उत्तर बताने का कोई तरीका नहीं है। यह उस इंटरनेट खोज के परिणामों को पकड़ता है और उन्हें आपके लिए सारांशित करता है।
कभी-कभी, यह सारांश बहुत त्रुटिपूर्ण होता है। कुछ बॉट उन इंटरनेट पतों का हवाला देंगे जो पूरी तरह से बने हुए हैं।
OpenAI, Google और Microsoft जैसी कंपनियों ने अपनी प्रौद्योगिकियों की सटीकता में सुधार करने के तरीके विकसित किए हैं। उदाहरण के लिए, ओपनएआई मानव परीक्षकों के फीडबैक के साथ अपनी तकनीक को परिष्कृत करने का प्रयास करता है, जो चैटबॉट की प्रतिक्रियाओं को रेट करते हैं, उपयोगी और सच्चे उत्तरों को उन उत्तरों से अलग करते हैं जो नहीं हैं। फिर, सुदृढीकरण सीखने नामक तकनीक का उपयोग करके, सिस्टम बेहतर ढंग से समझने के लिए रेटिंग का विश्लेषण करने में सप्ताह बिताता है कि यह क्या तथ्य है और क्या कल्पना है।
लेकिन शोधकर्ताओं ने चेतावनी दी है कि चैटबॉट मतिभ्रम को हल करना आसान समस्या नहीं है। क्योंकि चैटबॉट डेटा में पैटर्न से सीखते हैं और संभावनाओं के अनुसार काम करते हैं, वे कम से कम कुछ समय में अवांछित तरीके से व्यवहार करते हैं।
यह निर्धारित करने के लिए कि समाचार लेखों को सारांशित करते समय चैटबॉट कितनी बार मतिभ्रम करते हैं, वेक्टारा के शोधकर्ताओं ने प्रत्येक सारांश की सटीकता की जांच करने के लिए एक और बड़े भाषा मॉडल का उपयोग किया। इतनी बड़ी संख्या में सारांशों की कुशलतापूर्वक जाँच करने का यही एकमात्र तरीका था।
लेकिन स्टैनफोर्ड कंप्यूटर विज्ञान के प्रोफेसर जेम्स ज़ू ने कहा कि यह विधि एक चेतावनी के साथ आई है। जाँच करने वाला भाषा मॉडल भी गलतियाँ कर सकता है।
“मतिभ्रम डिटेक्टर को मूर्ख बनाया जा सकता है – या स्वयं मतिभ्रम किया जा सकता है,” उन्होंने कहा।
2023-11-06 10:02:58
#चटबट #कई #लग #क #एहसस #स #भ #अधक #बर #मतभरम #कर #सकत #ह