मुंबई, 3 जुलाई, (न्यूज़ हेल्पलाइन) ओपनएआई के सीईओ सैम ऑल्टमैन ने चैटजीपीटी के उपयोगकर्ताओं से लोकप्रिय एआई चैटबॉट पर आंख मूंदकर भरोसा न करने का आग्रह किया है। उन्होंने चेतावनी दी है कि यह तकनीक शक्तिशाली होने के बावजूद भी परिपूर्ण नहीं है। ओपनएआई के आधिकारिक पॉडकास्ट के पहले एपिसोड में बोलते हुए, ऑल्टमैन ने चैटजीपीटी में उपयोगकर्ताओं के विश्वास के आश्चर्यजनक स्तर को स्वीकार किया, भले ही इसकी प्रसिद्ध सीमाएँ हों। उन्होंने कहा, "लोगों को चैटजीपीटी पर बहुत अधिक भरोसा है, जो दिलचस्प है, क्योंकि एआई भ्रम पैदा करता है।" "यह ऐसी तकनीक होनी चाहिए जिस पर आपको इतना भरोसा न हो।"
इस टिप्पणी ने तकनीकी हलकों और रोज़मर्रा के उपयोगकर्ताओं के बीच बहस छेड़ दी है, जिनमें से कई लोग लेखन, शोध, पालन-पोषण संबंधी सलाह और बहुत कुछ के लिए चैटजीपीटी पर भरोसा करते हैं। लेकिन ऑल्टमैन का संदेश स्पष्ट था: चैटजीपीटी, सभी बड़े भाषा मॉडल की तरह, विश्वसनीय लेकिन झूठे या भ्रामक दावे कर सकता है - और इसका उपयोग सावधानी से किया जाना चाहिए।
चैटजीपीटी उस डेटा में पैटर्न के आधार पर वाक्य में अगले शब्द की भविष्यवाणी करके काम करता है जिस पर इसे प्रशिक्षित किया गया है। यह मानवीय अर्थों में दुनिया को नहीं समझता है और कभी-कभी गलत या पूरी तरह से मनगढ़ंत जानकारी देता है। AI की दुनिया में, इसे "भ्रम" कहा जाता है।
ऑल्टमैन ने पारदर्शिता और उपयोगकर्ता अपेक्षाओं के प्रबंधन के महत्व पर जोर दिया। उन्होंने कहा, "यह बहुत विश्वसनीय नहीं है।" "हमें इसके बारे में ईमानदार होने की आवश्यकता है।" इन खामियों के बावजूद, चैटबॉट का इस्तेमाल हर दिन लाखों लोग करते हैं। ऑल्टमैन ने इस लोकप्रियता को स्वीकार किया, लेकिन अत्यधिक निर्भरता के संभावित जोखिमों की ओर इशारा किया, खासकर जब उपयोगकर्ता इसके उत्तरों को अंकित मूल्य पर लेते हैं।
उन्होंने चैटजीपीटी में आने वाली कुछ नई सुविधाओं के बारे में भी बात की, जिसमें लगातार मेमोरी और विज्ञापन-समर्थित मॉडल की संभावना शामिल है। जबकि इन विकासों का उद्देश्य वैयक्तिकरण और मुद्रीकरण में सुधार करना है, उन्होंने गोपनीयता और डेटा उपयोग के बारे में नई चिंताएँ पैदा की हैं।
उनकी टिप्पणियाँ AI समुदाय के भीतर चल रही बहसों को भी प्रतिध्वनित करती हैं। जेफ्री हिंटन, जिन्हें अक्सर "एआई का गॉडफादर" कहा जाता है, ने भी इस पर अपनी राय दी है। हाल ही में CBS के साथ एक साक्षात्कार में, हिंटन ने खुलासा किया कि सुपर इंटेलिजेंट एआई के खतरों के बारे में चेतावनी देने के बावजूद, वह खुद GPT-4 पर जितना भरोसा करना चाहिए, उससे कहीं ज़्यादा भरोसा करते हैं।
हिंटन ने स्वीकार किया, "मैं जो कहता हूँ, उस पर यकीन करता हूँ, भले ही मुझे शायद संदेह हो।" मॉडल की सीमाओं को प्रदर्शित करने के लिए, उन्होंने एक सरल पहेली के साथ GPT-4 का परीक्षण किया: "सैली के तीन भाई हैं। उसके प्रत्येक भाई की दो बहनें हैं। सैली की कितनी बहनें हैं?" GPT-4 ने गलत उत्तर दिया। सही उत्तर एक है- सैली खुद। हिंटन ने कहा, "मुझे आश्चर्य है कि यह अभी भी उस पर गड़बड़ कर रहा है," इससे पहले उन्होंने कहा कि उनका मानना है कि भविष्य के मॉडल, जैसे कि GPT-5, इसे सही कर सकते हैं।
ऑल्टमैन और हिंटन दोनों सहमत हैं कि AI अविश्वसनीय रूप से उपयोगी हो सकता है, लेकिन इसे सत्य के दोषरहित स्रोत के रूप में गलत नहीं समझा जाना चाहिए। जैसे-जैसे AI दैनिक जीवन में अधिक अंतर्निहित होता जा रहा है, ये चेतावनियाँ एक महत्वपूर्ण अनुस्मारक के रूप में काम करती हैं: भरोसा करें, लेकिन सत्यापित करें।