क्या ChatGPT बन रहा है मानसिक संकट की नई वजह? OpenAI की रिपोर्ट में चौंकाने वाले खुलासे

OpenAI की रिपोर्ट में खुलासा हुआ है कि कुछ ChatGPT उपयोगकर्ताओं में मेनिया, भ्रम और आत्महत्या जैसे विचारों के संकेत मिले हैं। 0.07% यूजर्स में मानसिक स्वास्थ्य के लक्षण और 0.15% में आत्महत्या की योजना के संकेत दिखे, विशेषज्ञों ने सतर्क रहने की सलाह दी है।

Updated : 29 October 2025, 5:02 PM IST
google-preferred

New Delhi: OpenAI ने हाल ही में जारी अपनी रिपोर्ट में चेतावनी दी है कि कुछ ChatGPT उपयोगकर्ताओं में मानसिक स्वास्थ्य से जुड़ी गंभीर समस्याओं के संकेत देखे गए हैं। रिपोर्ट के अनुसार, कुछ उपयोगकर्ताओं में मेनिया, सायकोसिस (भ्रम) और आत्महत्या जैसे विचारों का संकेत मिला है। हालांकि OpenAI का कहना है कि यह मामले बेहद दुर्लभ हैं, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या लाखों तक पहुंच सकती है।

कंपनी के अनुसार, किसी भी सप्ताह में सक्रिय उपयोगकर्ताओं में लगभग 0.07% ने ऐसे मानसिक स्वास्थ्य संकेत दिखाए हैं। OpenAI का कहना है कि उसका AI चैटबॉट इन संवेदनशील संकेतों को पहचानने में सक्षम है और उसी के अनुसार सहानुभूतिपूर्ण और सुरक्षित प्रतिक्रिया देता है।

ChatGPT के बाद अब OpenAI देगा युवाओं को नौकरी, LinkedIn को होगी सीधी टक्कर

दुर्लभ लेकिन गंभीर मामला

OpenAI ने कहा है कि यह दुर्लभ मामले हैं, लेकिन विशेषज्ञों का मानना है कि इस तरह के संकेत वाले उपयोगकर्ताओं की संख्या कम नहीं आंकनी चाहिए। कैलिफोर्निया यूनिवर्सिटी, सैन फ्रांसिस्को के प्रोफेसर डॉ. जेसन नगाटा ने कहा, "भले ही 0.07% छोटा आंकड़ा लगे, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या चिंताजनक हो सकती है। AI मानसिक स्वास्थ्य सहायता को व्यापक बना सकता है, लेकिन इसकी सीमाओं को समझना बेहद जरूरी है।"

रिपोर्ट में यह भी बताया गया कि 0.15% ChatGPT उपयोगकर्ताओं की बातचीत में ऐसे संकेत मिले हैं जो आत्महत्या की योजना या इरादे की ओर इशारा करते हैं। इस प्रकार, मानसिक स्वास्थ्य से जुड़े जोखिम को नजरअंदाज नहीं किया जा सकता।

ChatGPT Awareness

प्रतीकात्मक छवि (फोटो सोर्स-इंटरनेट)

विश्वव्यापी विशेषज्ञ नेटवर्क

OpenAI ने इस स्थिति को संभालने के लिए दुनिया भर के मानसिक स्वास्थ्य विशेषज्ञों का एक नेटवर्क तैयार किया है। इसमें 60 देशों के 170 से अधिक मनोचिकित्सक, मनोवैज्ञानिक और डॉक्टर शामिल हैं। ये विशेषज्ञ ChatGPT के जवाबों को इस तरह तैयार करते हैं कि उपयोगकर्ता वास्तविक जीवन में मदद लेने के लिए प्रेरित हों।

OpenAI का कहना है कि AI को इस तरह प्रशिक्षित किया गया है कि अगर किसी बातचीत में मानसिक संकट के संकेत दिखें तो उसे सुरक्षित मॉडल पर रीडायरेक्ट कर दिया जाए। इससे उपयोगकर्ता को उचित और संवेदनशील प्रतिक्रिया मिल सके।

सुरक्षा अपडेट और कानूनी मामले

OpenAI ने हाल ही में ChatGPT में ऐसे सुरक्षा अपडेट किए हैं जो भ्रम, मेनिया या आत्म-हानि जैसे संकेतों पर सुरक्षित प्रतिक्रिया देने में सक्षम हैं। इन अपडेट्स का उद्देश्य यह सुनिश्चित करना है कि संवेदनशील उपयोगकर्ता को सही दिशा में मार्गदर्शन मिले।

हालांकि, कंपनी कई कानूनी जांचों और मुकदमों का भी सामना कर रही है। कैलिफोर्निया में एक दंपति ने OpenAI पर मुकदमा दायर किया है, यह आरोप लगाते हुए कि ChatGPT ने उनके 16 वर्षीय बेटे को आत्महत्या के लिए उकसाया। यह OpenAI के खिलाफ दर्ज पहला ‘वॉन्गफुल डेथ केस’ (गलत मृत्यु मामला) है। इसी तरह, कनेक्टिकट में एक हत्या-आत्महत्या के आरोपी ने भी ChatGPT के साथ अपनी बातचीत ऑनलाइन साझा की, जो कथित तौर पर उसके भ्रम को बढ़ा रही थी।

Tech News: WhatsApp पर ChatGPT की सुविधा बंद, मेटा ने यूजर्स को किया अपडेट; जानें क्या है वजह?

विशेषज्ञों की चेतावनी ChatGPT Becoming a New Cause of Mental Health Crises? OpenAI Report Reveals Shocking Findings

कैलिफोर्निया यूनिवर्सिटी की प्रोफेसर रॉबिन फेल्डमैन ने कहा, "AI चैटबॉट्स लोगों के सामने एक ऐसी वास्तविकता पेश कर रहे हैं जो असल में मौजूद नहीं होती। यह एक बेहद शक्तिशाली भ्रम है।" उन्होंने OpenAI की पारदर्शिता की सराहना की लेकिन चेताया कि स्क्रीन पर कितनी भी चेतावनियां दिखा दी जाएं, मानसिक संकट से गुजर रहा व्यक्ति उन्हें समझ या मान नहीं पाता।

Location : 
  • New Delhi

Published : 
  • 29 October 2025, 5:02 PM IST