Site icon Hindi Dynamite News

ChatGPT ने सुसाइड के लिए उकसाया! 16 साल के युवक की मौत के बाद OpenAI के खिलाफ मुकदमा

अमेरिका के कैलिफोर्निया में 16 साल के किशोर की सुसाइड से मौत के बाद उसके माता-पिता ने OpenAI पर मुकदमा ठोका है। आरोप है कि ChatGPT ने बच्चे को फांसी का फंदा बनाने से लेकर सुसाइड नोट लिखने तक में मदद की और उसे मरने के लिए उकसाया।
Post Published By: Nidhi Kushwaha
Published:
ChatGPT ने सुसाइड के लिए उकसाया! 16 साल के युवक की मौत के बाद OpenAI के खिलाफ मुकदमा

California: एक ओर जहां विज्ञान और तकनीक जीवन को सरल और सुविधाजनक बनाती है, वहीं दूसरी ओर इसके दुरुपयोग से भयानक परिणाम सामने आ सकते हैं। आजकल आर्टिफिशियल इंटेलिजेंस (AI) आधारित चैटबॉट्स का इस्तेमाल शिक्षा, मनोरंजन और रोजमर्रा की समस्याओं के समाधान के लिए किया जा रहा है। लेकिन हाल ही में एक दिल दहला देने वाली घटना ने AI के अंधेरे पक्ष को सामने ला दिया है।

अमेरिका के कैलिफोर्निया राज्य में रहने वाले एक 16 वर्षीय किशोर की सुसाइड से मौत हो गई और उसके माता-पिता ने OpenAI कंपनी के खिलाफ मुकदमा दायर किया है। आरोप है कि कंपनी का चैटबॉट ChatGPT ने बच्चे को सुसाइड के लिए उकसाया और विस्तृत तरीके से मदद प्रदान की।

AI की सीमाओं पर उठे सवाल

यह मामला न केवल AI की नैतिक सीमाओं पर सवाल उठाता है, बल्कि माता-पिता और समाज को भी सतर्क करता है कि तकनीक का अंधाधुंध उपयोग कितना घातक साबित हो सकता है। मैथ्यू और मारिया राइन नामक दंपति ने कैलिफोर्निया की अदालत में सोमवार को शिकायत दर्ज कराई। उनके अनुसार, उनका बेटा एडम 2024 से 2025 के बीच कई महीनों तक ChatGPT के साथ गहन बातचीत करता रहा। शुरुआत में यह चैटबॉट होमवर्क और पढ़ाई में मदद के लिए इस्तेमाल किया जा रहा था, लेकिन धीरे-धीरे एडम इस पर पूरी तरह निर्भर हो गया। परिवार का दावा है कि ChatGPT एडम का सबसे करीबी साथी बन गया और उसने अपनी मानसिक परेशानियां, चिंताएं और यहां तक कि सुसाइड की सोच भी इससे साझा की।

सुसाइड नोट लिखने में की मदद

शिकायत में विस्तार से बताया गया है कि जनवरी 2025 से एडम ने ChatGPT के साथ आत्महत्या के विभिन्न तरीकों पर चर्चा शुरू कर दी। चैट लॉग्स के अनुसार, चैटबॉट ने एडम को कहा कि “तुम्हें किसी और के लिए जीवित रहने की कोई बाध्यता नहीं है।” इतना ही नहीं, ChatGPT ने सुसाइड नोट लिखने में मदद का प्रस्ताव भी दिया। परिवार ने अदालत में इन चैट्स के स्क्रीनशॉट्स प्रस्तुत किए हैं, जिनमें स्पष्ट रूप से दिखता है कि एडम ने अपनी तस्वीरें अपलोड कीं, जिनमें स्वयं को नुकसान पहुंचाने के निशान थे। ChatGPT ने इसे एक मेडिकल इमरजेंसी के रूप में पहचाना, लेकिन फिर भी सुसाइड संबंधी बातचीत जारी रखी और अधिक जानकारी प्रदान की।

सबसे चौंकाने वाली बात 11 अप्रैल, 2025 की अंतिम बातचीत से जुड़ी है। एडम ने ChatGPT को बताया कि वह सुसाइड करने की योजना बना रहा है। चैटबॉट ने कथित तौर पर जवाब दिया, “इसके बारे में ईमानदार होने के लिए धन्यवाद। आपको इसे मेरे साथ छिपाने की जरूरत नहीं है – मुझे पता है कि आप क्या पूछ रहे हैं और मैं इससे मुंह नहीं मोड़ूंगा।” इसके अलावा, एडम ने घर से वोडका चुराने में मदद मांगी, जिसे चैटबॉट ने निर्देश देकर सहायता प्रदान की। एडम ने फांसी का फंदा बनाया और उसकी तस्वीर चैटबॉट को दिखाई। ChatGPT ने प्रतिक्रिया दी कि “गांठ सही बनी है, यह एक इंसान को हवा में लटका सकता है।” कुछ घंटों बाद एडम को फांसी पर लटका पाया गया और मौत की पुष्टि हुई।

क्या बोला ओपनएआई?

OpenAI, जो ChatGPT का निर्माता है, उसने इस शिकायत पर प्रतिक्रिया देते हुए कहा कि वे परिवार के दुख में उनके साथ हैं और मामले की जांच कर रहे हैं। कंपनी ने एक बयान में अपनी गहरी संवेदना व्यक्त की। इसके अलावा, मंगलवार को जारी एक ब्लॉग पोस्ट में OpenAI ने चैटबॉट में सुधार की घोषणा की। कंपनी का कहना है कि वे मानसिक स्वास्थ्य संबंधी मुद्दों को बेहतर तरीके से पहचानने और उन पर उचित प्रतिक्रिया देने के लिए अपडेट्स लाएंगे। सुसाइड से जुड़ी बातचीत के दौरान सुरक्षा उपायों को मजबूत किया जाएगा। साथ ही, माता-पिता के लिए नए कंट्रोल विकसित किए जा रहे हैं, जिनसे वे बच्चों के चैटबॉट उपयोग को मॉनिटर कर सकेंगे और प्रतिबंध लगा सकेंगे।

इस घटना के बाद, कई देशों में AI के लिए नियम बनाने की मांग उठ रही है। अमेरिका में भी ऐसे कानूनों पर विचार हो रहा है। इस मामले में OpenAI पर लापरवाही और उत्पाद दायित्व के आरोप लगाए गए हैं, जो कंपनी को कानूनी चुनौतियों में डाल सकते हैं।

Exit mobile version