ChatGPT ने सुसाइड के लिए उकसाया! 16 साल के युवक की मौत के बाद OpenAI के खिलाफ मुकदमा

अमेरिका के कैलिफोर्निया में 16 साल के किशोर की सुसाइड से मौत के बाद उसके माता-पिता ने OpenAI पर मुकदमा ठोका है। आरोप है कि ChatGPT ने बच्चे को फांसी का फंदा बनाने से लेकर सुसाइड नोट लिखने तक में मदद की और उसे मरने के लिए उकसाया।

Post Published By: Nidhi Kushwaha
Updated : 27 August 2025, 4:22 PM IST
google-preferred

California: एक ओर जहां विज्ञान और तकनीक जीवन को सरल और सुविधाजनक बनाती है, वहीं दूसरी ओर इसके दुरुपयोग से भयानक परिणाम सामने आ सकते हैं। आजकल आर्टिफिशियल इंटेलिजेंस (AI) आधारित चैटबॉट्स का इस्तेमाल शिक्षा, मनोरंजन और रोजमर्रा की समस्याओं के समाधान के लिए किया जा रहा है। लेकिन हाल ही में एक दिल दहला देने वाली घटना ने AI के अंधेरे पक्ष को सामने ला दिया है।

अमेरिका के कैलिफोर्निया राज्य में रहने वाले एक 16 वर्षीय किशोर की सुसाइड से मौत हो गई और उसके माता-पिता ने OpenAI कंपनी के खिलाफ मुकदमा दायर किया है। आरोप है कि कंपनी का चैटबॉट ChatGPT ने बच्चे को सुसाइड के लिए उकसाया और विस्तृत तरीके से मदद प्रदान की।

AI की सीमाओं पर उठे सवाल

यह मामला न केवल AI की नैतिक सीमाओं पर सवाल उठाता है, बल्कि माता-पिता और समाज को भी सतर्क करता है कि तकनीक का अंधाधुंध उपयोग कितना घातक साबित हो सकता है। मैथ्यू और मारिया राइन नामक दंपति ने कैलिफोर्निया की अदालत में सोमवार को शिकायत दर्ज कराई। उनके अनुसार, उनका बेटा एडम 2024 से 2025 के बीच कई महीनों तक ChatGPT के साथ गहन बातचीत करता रहा। शुरुआत में यह चैटबॉट होमवर्क और पढ़ाई में मदद के लिए इस्तेमाल किया जा रहा था, लेकिन धीरे-धीरे एडम इस पर पूरी तरह निर्भर हो गया। परिवार का दावा है कि ChatGPT एडम का सबसे करीबी साथी बन गया और उसने अपनी मानसिक परेशानियां, चिंताएं और यहां तक कि सुसाइड की सोच भी इससे साझा की।

सुसाइड नोट लिखने में की मदद

शिकायत में विस्तार से बताया गया है कि जनवरी 2025 से एडम ने ChatGPT के साथ आत्महत्या के विभिन्न तरीकों पर चर्चा शुरू कर दी। चैट लॉग्स के अनुसार, चैटबॉट ने एडम को कहा कि "तुम्हें किसी और के लिए जीवित रहने की कोई बाध्यता नहीं है।" इतना ही नहीं, ChatGPT ने सुसाइड नोट लिखने में मदद का प्रस्ताव भी दिया। परिवार ने अदालत में इन चैट्स के स्क्रीनशॉट्स प्रस्तुत किए हैं, जिनमें स्पष्ट रूप से दिखता है कि एडम ने अपनी तस्वीरें अपलोड कीं, जिनमें स्वयं को नुकसान पहुंचाने के निशान थे। ChatGPT ने इसे एक मेडिकल इमरजेंसी के रूप में पहचाना, लेकिन फिर भी सुसाइड संबंधी बातचीत जारी रखी और अधिक जानकारी प्रदान की।

सबसे चौंकाने वाली बात 11 अप्रैल, 2025 की अंतिम बातचीत से जुड़ी है। एडम ने ChatGPT को बताया कि वह सुसाइड करने की योजना बना रहा है। चैटबॉट ने कथित तौर पर जवाब दिया, "इसके बारे में ईमानदार होने के लिए धन्यवाद। आपको इसे मेरे साथ छिपाने की जरूरत नहीं है - मुझे पता है कि आप क्या पूछ रहे हैं और मैं इससे मुंह नहीं मोड़ूंगा।" इसके अलावा, एडम ने घर से वोडका चुराने में मदद मांगी, जिसे चैटबॉट ने निर्देश देकर सहायता प्रदान की। एडम ने फांसी का फंदा बनाया और उसकी तस्वीर चैटबॉट को दिखाई। ChatGPT ने प्रतिक्रिया दी कि "गांठ सही बनी है, यह एक इंसान को हवा में लटका सकता है।" कुछ घंटों बाद एडम को फांसी पर लटका पाया गया और मौत की पुष्टि हुई।

क्या बोला ओपनएआई?

OpenAI, जो ChatGPT का निर्माता है, उसने इस शिकायत पर प्रतिक्रिया देते हुए कहा कि वे परिवार के दुख में उनके साथ हैं और मामले की जांच कर रहे हैं। कंपनी ने एक बयान में अपनी गहरी संवेदना व्यक्त की। इसके अलावा, मंगलवार को जारी एक ब्लॉग पोस्ट में OpenAI ने चैटबॉट में सुधार की घोषणा की। कंपनी का कहना है कि वे मानसिक स्वास्थ्य संबंधी मुद्दों को बेहतर तरीके से पहचानने और उन पर उचित प्रतिक्रिया देने के लिए अपडेट्स लाएंगे। सुसाइड से जुड़ी बातचीत के दौरान सुरक्षा उपायों को मजबूत किया जाएगा। साथ ही, माता-पिता के लिए नए कंट्रोल विकसित किए जा रहे हैं, जिनसे वे बच्चों के चैटबॉट उपयोग को मॉनिटर कर सकेंगे और प्रतिबंध लगा सकेंगे।

इस घटना के बाद, कई देशों में AI के लिए नियम बनाने की मांग उठ रही है। अमेरिका में भी ऐसे कानूनों पर विचार हो रहा है। इस मामले में OpenAI पर लापरवाही और उत्पाद दायित्व के आरोप लगाए गए हैं, जो कंपनी को कानूनी चुनौतियों में डाल सकते हैं।

Location : 
  • California

Published : 
  • 27 August 2025, 4:22 PM IST