हिंदी
OpenAI की रिपोर्ट में खुलासा हुआ है कि कुछ ChatGPT उपयोगकर्ताओं में मेनिया, भ्रम और आत्महत्या जैसे विचारों के संकेत मिले हैं। 0.07% यूजर्स में मानसिक स्वास्थ्य के लक्षण और 0.15% में आत्महत्या की योजना के संकेत दिखे, विशेषज्ञों ने सतर्क रहने की सलाह दी है।
OpenAI ने ChatGPT में किए सुरक्षा अपडेट
New Delhi: OpenAI ने हाल ही में जारी अपनी रिपोर्ट में चेतावनी दी है कि कुछ ChatGPT उपयोगकर्ताओं में मानसिक स्वास्थ्य से जुड़ी गंभीर समस्याओं के संकेत देखे गए हैं। रिपोर्ट के अनुसार, कुछ उपयोगकर्ताओं में मेनिया, सायकोसिस (भ्रम) और आत्महत्या जैसे विचारों का संकेत मिला है। हालांकि OpenAI का कहना है कि यह मामले बेहद दुर्लभ हैं, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या लाखों तक पहुंच सकती है।
कंपनी के अनुसार, किसी भी सप्ताह में सक्रिय उपयोगकर्ताओं में लगभग 0.07% ने ऐसे मानसिक स्वास्थ्य संकेत दिखाए हैं। OpenAI का कहना है कि उसका AI चैटबॉट इन संवेदनशील संकेतों को पहचानने में सक्षम है और उसी के अनुसार सहानुभूतिपूर्ण और सुरक्षित प्रतिक्रिया देता है।
ChatGPT के बाद अब OpenAI देगा युवाओं को नौकरी, LinkedIn को होगी सीधी टक्कर
OpenAI ने कहा है कि यह दुर्लभ मामले हैं, लेकिन विशेषज्ञों का मानना है कि इस तरह के संकेत वाले उपयोगकर्ताओं की संख्या कम नहीं आंकनी चाहिए। कैलिफोर्निया यूनिवर्सिटी, सैन फ्रांसिस्को के प्रोफेसर डॉ. जेसन नगाटा ने कहा, "भले ही 0.07% छोटा आंकड़ा लगे, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या चिंताजनक हो सकती है। AI मानसिक स्वास्थ्य सहायता को व्यापक बना सकता है, लेकिन इसकी सीमाओं को समझना बेहद जरूरी है।"
रिपोर्ट में यह भी बताया गया कि 0.15% ChatGPT उपयोगकर्ताओं की बातचीत में ऐसे संकेत मिले हैं जो आत्महत्या की योजना या इरादे की ओर इशारा करते हैं। इस प्रकार, मानसिक स्वास्थ्य से जुड़े जोखिम को नजरअंदाज नहीं किया जा सकता।
प्रतीकात्मक छवि (फोटो सोर्स-इंटरनेट)
OpenAI ने इस स्थिति को संभालने के लिए दुनिया भर के मानसिक स्वास्थ्य विशेषज्ञों का एक नेटवर्क तैयार किया है। इसमें 60 देशों के 170 से अधिक मनोचिकित्सक, मनोवैज्ञानिक और डॉक्टर शामिल हैं। ये विशेषज्ञ ChatGPT के जवाबों को इस तरह तैयार करते हैं कि उपयोगकर्ता वास्तविक जीवन में मदद लेने के लिए प्रेरित हों।
OpenAI का कहना है कि AI को इस तरह प्रशिक्षित किया गया है कि अगर किसी बातचीत में मानसिक संकट के संकेत दिखें तो उसे सुरक्षित मॉडल पर रीडायरेक्ट कर दिया जाए। इससे उपयोगकर्ता को उचित और संवेदनशील प्रतिक्रिया मिल सके।
OpenAI ने हाल ही में ChatGPT में ऐसे सुरक्षा अपडेट किए हैं जो भ्रम, मेनिया या आत्म-हानि जैसे संकेतों पर सुरक्षित प्रतिक्रिया देने में सक्षम हैं। इन अपडेट्स का उद्देश्य यह सुनिश्चित करना है कि संवेदनशील उपयोगकर्ता को सही दिशा में मार्गदर्शन मिले।
हालांकि, कंपनी कई कानूनी जांचों और मुकदमों का भी सामना कर रही है। कैलिफोर्निया में एक दंपति ने OpenAI पर मुकदमा दायर किया है, यह आरोप लगाते हुए कि ChatGPT ने उनके 16 वर्षीय बेटे को आत्महत्या के लिए उकसाया। यह OpenAI के खिलाफ दर्ज पहला ‘वॉन्गफुल डेथ केस’ (गलत मृत्यु मामला) है। इसी तरह, कनेक्टिकट में एक हत्या-आत्महत्या के आरोपी ने भी ChatGPT के साथ अपनी बातचीत ऑनलाइन साझा की, जो कथित तौर पर उसके भ्रम को बढ़ा रही थी।
Tech News: WhatsApp पर ChatGPT की सुविधा बंद, मेटा ने यूजर्स को किया अपडेट; जानें क्या है वजह?
कैलिफोर्निया यूनिवर्सिटी की प्रोफेसर रॉबिन फेल्डमैन ने कहा, "AI चैटबॉट्स लोगों के सामने एक ऐसी वास्तविकता पेश कर रहे हैं जो असल में मौजूद नहीं होती। यह एक बेहद शक्तिशाली भ्रम है।" उन्होंने OpenAI की पारदर्शिता की सराहना की लेकिन चेताया कि स्क्रीन पर कितनी भी चेतावनियां दिखा दी जाएं, मानसिक संकट से गुजर रहा व्यक्ति उन्हें समझ या मान नहीं पाता।