
OpenAI ने ChatGPT में किए सुरक्षा अपडेट
New Delhi: OpenAI ने हाल ही में जारी अपनी रिपोर्ट में चेतावनी दी है कि कुछ ChatGPT उपयोगकर्ताओं में मानसिक स्वास्थ्य से जुड़ी गंभीर समस्याओं के संकेत देखे गए हैं। रिपोर्ट के अनुसार, कुछ उपयोगकर्ताओं में मेनिया, सायकोसिस (भ्रम) और आत्महत्या जैसे विचारों का संकेत मिला है। हालांकि OpenAI का कहना है कि यह मामले बेहद दुर्लभ हैं, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या लाखों तक पहुंच सकती है।
कंपनी के अनुसार, किसी भी सप्ताह में सक्रिय उपयोगकर्ताओं में लगभग 0.07% ने ऐसे मानसिक स्वास्थ्य संकेत दिखाए हैं। OpenAI का कहना है कि उसका AI चैटबॉट इन संवेदनशील संकेतों को पहचानने में सक्षम है और उसी के अनुसार सहानुभूतिपूर्ण और सुरक्षित प्रतिक्रिया देता है।
ChatGPT के बाद अब OpenAI देगा युवाओं को नौकरी, LinkedIn को होगी सीधी टक्कर
OpenAI ने कहा है कि यह दुर्लभ मामले हैं, लेकिन विशेषज्ञों का मानना है कि इस तरह के संकेत वाले उपयोगकर्ताओं की संख्या कम नहीं आंकनी चाहिए। कैलिफोर्निया यूनिवर्सिटी, सैन फ्रांसिस्को के प्रोफेसर डॉ. जेसन नगाटा ने कहा, "भले ही 0.07% छोटा आंकड़ा लगे, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या चिंताजनक हो सकती है। AI मानसिक स्वास्थ्य सहायता को व्यापक बना सकता है, लेकिन इसकी सीमाओं को समझना बेहद जरूरी है।"
रिपोर्ट में यह भी बताया गया कि 0.15% ChatGPT उपयोगकर्ताओं की बातचीत में ऐसे संकेत मिले हैं जो आत्महत्या की योजना या इरादे की ओर इशारा करते हैं। इस प्रकार, मानसिक स्वास्थ्य से जुड़े जोखिम को नजरअंदाज नहीं किया जा सकता।
प्रतीकात्मक छवि (फोटो सोर्स-इंटरनेट)
OpenAI ने इस स्थिति को संभालने के लिए दुनिया भर के मानसिक स्वास्थ्य विशेषज्ञों का एक नेटवर्क तैयार किया है। इसमें 60 देशों के 170 से अधिक मनोचिकित्सक, मनोवैज्ञानिक और डॉक्टर शामिल हैं। ये विशेषज्ञ ChatGPT के जवाबों को इस तरह तैयार करते हैं कि उपयोगकर्ता वास्तविक जीवन में मदद लेने के लिए प्रेरित हों।
OpenAI का कहना है कि AI को इस तरह प्रशिक्षित किया गया है कि अगर किसी बातचीत में मानसिक संकट के संकेत दिखें तो उसे सुरक्षित मॉडल पर रीडायरेक्ट कर दिया जाए। इससे उपयोगकर्ता को उचित और संवेदनशील प्रतिक्रिया मिल सके।
OpenAI ने हाल ही में ChatGPT में ऐसे सुरक्षा अपडेट किए हैं जो भ्रम, मेनिया या आत्म-हानि जैसे संकेतों पर सुरक्षित प्रतिक्रिया देने में सक्षम हैं। इन अपडेट्स का उद्देश्य यह सुनिश्चित करना है कि संवेदनशील उपयोगकर्ता को सही दिशा में मार्गदर्शन मिले।
हालांकि, कंपनी कई कानूनी जांचों और मुकदमों का भी सामना कर रही है। कैलिफोर्निया में एक दंपति ने OpenAI पर मुकदमा दायर किया है, यह आरोप लगाते हुए कि ChatGPT ने उनके 16 वर्षीय बेटे को आत्महत्या के लिए उकसाया। यह OpenAI के खिलाफ दर्ज पहला ‘वॉन्गफुल डेथ केस’ (गलत मृत्यु मामला) है। इसी तरह, कनेक्टिकट में एक हत्या-आत्महत्या के आरोपी ने भी ChatGPT के साथ अपनी बातचीत ऑनलाइन साझा की, जो कथित तौर पर उसके भ्रम को बढ़ा रही थी।
Tech News: WhatsApp पर ChatGPT की सुविधा बंद, मेटा ने यूजर्स को किया अपडेट; जानें क्या है वजह?
कैलिफोर्निया यूनिवर्सिटी की प्रोफेसर रॉबिन फेल्डमैन ने कहा, "AI चैटबॉट्स लोगों के सामने एक ऐसी वास्तविकता पेश कर रहे हैं जो असल में मौजूद नहीं होती। यह एक बेहद शक्तिशाली भ्रम है।" उन्होंने OpenAI की पारदर्शिता की सराहना की लेकिन चेताया कि स्क्रीन पर कितनी भी चेतावनियां दिखा दी जाएं, मानसिक संकट से गुजर रहा व्यक्ति उन्हें समझ या मान नहीं पाता।
Location : New Delhi
Published : 29 October 2025, 5:02 PM IST
Topics : AI Updates ChatGPT mental health Open AI tech news