क्या ChatGPT बन रहा है मानसिक संकट की नई वजह? OpenAI की रिपोर्ट में चौंकाने वाले खुलासे

OpenAI की रिपोर्ट में खुलासा हुआ है कि कुछ ChatGPT उपयोगकर्ताओं में मेनिया, भ्रम और आत्महत्या जैसे विचारों के संकेत मिले हैं। 0.07% यूजर्स में मानसिक स्वास्थ्य के लक्षण और 0.15% में आत्महत्या की योजना के संकेत दिखे, विशेषज्ञों ने सतर्क रहने की सलाह दी है।

Post Published By: ईशा त्यागी
Updated : 29 October 2025, 5:02 PM IST

New Delhi: OpenAI ने हाल ही में जारी अपनी रिपोर्ट में चेतावनी दी है कि कुछ ChatGPT उपयोगकर्ताओं में मानसिक स्वास्थ्य से जुड़ी गंभीर समस्याओं के संकेत देखे गए हैं। रिपोर्ट के अनुसार, कुछ उपयोगकर्ताओं में मेनिया, सायकोसिस (भ्रम) और आत्महत्या जैसे विचारों का संकेत मिला है। हालांकि OpenAI का कहना है कि यह मामले बेहद दुर्लभ हैं, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या लाखों तक पहुंच सकती है।

कंपनी के अनुसार, किसी भी सप्ताह में सक्रिय उपयोगकर्ताओं में लगभग 0.07% ने ऐसे मानसिक स्वास्थ्य संकेत दिखाए हैं। OpenAI का कहना है कि उसका AI चैटबॉट इन संवेदनशील संकेतों को पहचानने में सक्षम है और उसी के अनुसार सहानुभूतिपूर्ण और सुरक्षित प्रतिक्रिया देता है।

ChatGPT के बाद अब OpenAI देगा युवाओं को नौकरी, LinkedIn को होगी सीधी टक्कर

दुर्लभ लेकिन गंभीर मामला

OpenAI ने कहा है कि यह दुर्लभ मामले हैं, लेकिन विशेषज्ञों का मानना है कि इस तरह के संकेत वाले उपयोगकर्ताओं की संख्या कम नहीं आंकनी चाहिए। कैलिफोर्निया यूनिवर्सिटी, सैन फ्रांसिस्को के प्रोफेसर डॉ. जेसन नगाटा ने कहा, "भले ही 0.07% छोटा आंकड़ा लगे, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या चिंताजनक हो सकती है। AI मानसिक स्वास्थ्य सहायता को व्यापक बना सकता है, लेकिन इसकी सीमाओं को समझना बेहद जरूरी है।"

रिपोर्ट में यह भी बताया गया कि 0.15% ChatGPT उपयोगकर्ताओं की बातचीत में ऐसे संकेत मिले हैं जो आत्महत्या की योजना या इरादे की ओर इशारा करते हैं। इस प्रकार, मानसिक स्वास्थ्य से जुड़े जोखिम को नजरअंदाज नहीं किया जा सकता।

प्रतीकात्मक छवि (फोटो सोर्स-इंटरनेट)

विश्वव्यापी विशेषज्ञ नेटवर्क

OpenAI ने इस स्थिति को संभालने के लिए दुनिया भर के मानसिक स्वास्थ्य विशेषज्ञों का एक नेटवर्क तैयार किया है। इसमें 60 देशों के 170 से अधिक मनोचिकित्सक, मनोवैज्ञानिक और डॉक्टर शामिल हैं। ये विशेषज्ञ ChatGPT के जवाबों को इस तरह तैयार करते हैं कि उपयोगकर्ता वास्तविक जीवन में मदद लेने के लिए प्रेरित हों।

OpenAI का कहना है कि AI को इस तरह प्रशिक्षित किया गया है कि अगर किसी बातचीत में मानसिक संकट के संकेत दिखें तो उसे सुरक्षित मॉडल पर रीडायरेक्ट कर दिया जाए। इससे उपयोगकर्ता को उचित और संवेदनशील प्रतिक्रिया मिल सके।

सुरक्षा अपडेट और कानूनी मामले

OpenAI ने हाल ही में ChatGPT में ऐसे सुरक्षा अपडेट किए हैं जो भ्रम, मेनिया या आत्म-हानि जैसे संकेतों पर सुरक्षित प्रतिक्रिया देने में सक्षम हैं। इन अपडेट्स का उद्देश्य यह सुनिश्चित करना है कि संवेदनशील उपयोगकर्ता को सही दिशा में मार्गदर्शन मिले।

हालांकि, कंपनी कई कानूनी जांचों और मुकदमों का भी सामना कर रही है। कैलिफोर्निया में एक दंपति ने OpenAI पर मुकदमा दायर किया है, यह आरोप लगाते हुए कि ChatGPT ने उनके 16 वर्षीय बेटे को आत्महत्या के लिए उकसाया। यह OpenAI के खिलाफ दर्ज पहला ‘वॉन्गफुल डेथ केस’ (गलत मृत्यु मामला) है। इसी तरह, कनेक्टिकट में एक हत्या-आत्महत्या के आरोपी ने भी ChatGPT के साथ अपनी बातचीत ऑनलाइन साझा की, जो कथित तौर पर उसके भ्रम को बढ़ा रही थी।

Tech News: WhatsApp पर ChatGPT की सुविधा बंद, मेटा ने यूजर्स को किया अपडेट; जानें क्या है वजह?

विशेषज्ञों की चेतावनी ChatGPT Becoming a New Cause of Mental Health Crises? OpenAI Report Reveals Shocking Findings

कैलिफोर्निया यूनिवर्सिटी की प्रोफेसर रॉबिन फेल्डमैन ने कहा, "AI चैटबॉट्स लोगों के सामने एक ऐसी वास्तविकता पेश कर रहे हैं जो असल में मौजूद नहीं होती। यह एक बेहद शक्तिशाली भ्रम है।" उन्होंने OpenAI की पारदर्शिता की सराहना की लेकिन चेताया कि स्क्रीन पर कितनी भी चेतावनियां दिखा दी जाएं, मानसिक संकट से गुजर रहा व्यक्ति उन्हें समझ या मान नहीं पाता।

Location : 
  • New Delhi

Published : 
  • 29 October 2025, 5:02 PM IST