New Delhi: OpenAI ने हाल ही में जारी अपनी रिपोर्ट में चेतावनी दी है कि कुछ ChatGPT उपयोगकर्ताओं में मानसिक स्वास्थ्य से जुड़ी गंभीर समस्याओं के संकेत देखे गए हैं। रिपोर्ट के अनुसार, कुछ उपयोगकर्ताओं में मेनिया, सायकोसिस (भ्रम) और आत्महत्या जैसे विचारों का संकेत मिला है। हालांकि OpenAI का कहना है कि यह मामले बेहद दुर्लभ हैं, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या लाखों तक पहुंच सकती है।
कंपनी के अनुसार, किसी भी सप्ताह में सक्रिय उपयोगकर्ताओं में लगभग 0.07% ने ऐसे मानसिक स्वास्थ्य संकेत दिखाए हैं। OpenAI का कहना है कि उसका AI चैटबॉट इन संवेदनशील संकेतों को पहचानने में सक्षम है और उसी के अनुसार सहानुभूतिपूर्ण और सुरक्षित प्रतिक्रिया देता है।
ChatGPT के बाद अब OpenAI देगा युवाओं को नौकरी, LinkedIn को होगी सीधी टक्कर
दुर्लभ लेकिन गंभीर मामला
OpenAI ने कहा है कि यह दुर्लभ मामले हैं, लेकिन विशेषज्ञों का मानना है कि इस तरह के संकेत वाले उपयोगकर्ताओं की संख्या कम नहीं आंकनी चाहिए। कैलिफोर्निया यूनिवर्सिटी, सैन फ्रांसिस्को के प्रोफेसर डॉ. जेसन नगाटा ने कहा, “भले ही 0.07% छोटा आंकड़ा लगे, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या चिंताजनक हो सकती है। AI मानसिक स्वास्थ्य सहायता को व्यापक बना सकता है, लेकिन इसकी सीमाओं को समझना बेहद जरूरी है।”
रिपोर्ट में यह भी बताया गया कि 0.15% ChatGPT उपयोगकर्ताओं की बातचीत में ऐसे संकेत मिले हैं जो आत्महत्या की योजना या इरादे की ओर इशारा करते हैं। इस प्रकार, मानसिक स्वास्थ्य से जुड़े जोखिम को नजरअंदाज नहीं किया जा सकता।
विश्वव्यापी विशेषज्ञ नेटवर्क
OpenAI ने इस स्थिति को संभालने के लिए दुनिया भर के मानसिक स्वास्थ्य विशेषज्ञों का एक नेटवर्क तैयार किया है। इसमें 60 देशों के 170 से अधिक मनोचिकित्सक, मनोवैज्ञानिक और डॉक्टर शामिल हैं। ये विशेषज्ञ ChatGPT के जवाबों को इस तरह तैयार करते हैं कि उपयोगकर्ता वास्तविक जीवन में मदद लेने के लिए प्रेरित हों।
OpenAI का कहना है कि AI को इस तरह प्रशिक्षित किया गया है कि अगर किसी बातचीत में मानसिक संकट के संकेत दिखें तो उसे सुरक्षित मॉडल पर रीडायरेक्ट कर दिया जाए। इससे उपयोगकर्ता को उचित और संवेदनशील प्रतिक्रिया मिल सके।
सुरक्षा अपडेट और कानूनी मामले
OpenAI ने हाल ही में ChatGPT में ऐसे सुरक्षा अपडेट किए हैं जो भ्रम, मेनिया या आत्म-हानि जैसे संकेतों पर सुरक्षित प्रतिक्रिया देने में सक्षम हैं। इन अपडेट्स का उद्देश्य यह सुनिश्चित करना है कि संवेदनशील उपयोगकर्ता को सही दिशा में मार्गदर्शन मिले।
हालांकि, कंपनी कई कानूनी जांचों और मुकदमों का भी सामना कर रही है। कैलिफोर्निया में एक दंपति ने OpenAI पर मुकदमा दायर किया है, यह आरोप लगाते हुए कि ChatGPT ने उनके 16 वर्षीय बेटे को आत्महत्या के लिए उकसाया। यह OpenAI के खिलाफ दर्ज पहला ‘वॉन्गफुल डेथ केस’ (गलत मृत्यु मामला) है। इसी तरह, कनेक्टिकट में एक हत्या-आत्महत्या के आरोपी ने भी ChatGPT के साथ अपनी बातचीत ऑनलाइन साझा की, जो कथित तौर पर उसके भ्रम को बढ़ा रही थी।
Tech News: WhatsApp पर ChatGPT की सुविधा बंद, मेटा ने यूजर्स को किया अपडेट; जानें क्या है वजह?
विशेषज्ञों की चेतावनी ChatGPT Becoming a New Cause of Mental Health Crises? OpenAI Report Reveals Shocking Findings
कैलिफोर्निया यूनिवर्सिटी की प्रोफेसर रॉबिन फेल्डमैन ने कहा, “AI चैटबॉट्स लोगों के सामने एक ऐसी वास्तविकता पेश कर रहे हैं जो असल में मौजूद नहीं होती। यह एक बेहद शक्तिशाली भ्रम है।” उन्होंने OpenAI की पारदर्शिता की सराहना की लेकिन चेताया कि स्क्रीन पर कितनी भी चेतावनियां दिखा दी जाएं, मानसिक संकट से गुजर रहा व्यक्ति उन्हें समझ या मान नहीं पाता।

