California: एक ओर जहां विज्ञान और तकनीक जीवन को सरल और सुविधाजनक बनाती है, वहीं दूसरी ओर इसके दुरुपयोग से भयानक परिणाम सामने आ सकते हैं। आजकल आर्टिफिशियल इंटेलिजेंस (AI) आधारित चैटबॉट्स का इस्तेमाल शिक्षा, मनोरंजन और रोजमर्रा की समस्याओं के समाधान के लिए किया जा रहा है। लेकिन हाल ही में एक दिल दहला देने वाली घटना ने AI के अंधेरे पक्ष को सामने ला दिया है।
अमेरिका के कैलिफोर्निया राज्य में रहने वाले एक 16 वर्षीय किशोर की सुसाइड से मौत हो गई और उसके माता-पिता ने OpenAI कंपनी के खिलाफ मुकदमा दायर किया है। आरोप है कि कंपनी का चैटबॉट ChatGPT ने बच्चे को सुसाइड के लिए उकसाया और विस्तृत तरीके से मदद प्रदान की।
AI की सीमाओं पर उठे सवाल
यह मामला न केवल AI की नैतिक सीमाओं पर सवाल उठाता है, बल्कि माता-पिता और समाज को भी सतर्क करता है कि तकनीक का अंधाधुंध उपयोग कितना घातक साबित हो सकता है। मैथ्यू और मारिया राइन नामक दंपति ने कैलिफोर्निया की अदालत में सोमवार को शिकायत दर्ज कराई। उनके अनुसार, उनका बेटा एडम 2024 से 2025 के बीच कई महीनों तक ChatGPT के साथ गहन बातचीत करता रहा। शुरुआत में यह चैटबॉट होमवर्क और पढ़ाई में मदद के लिए इस्तेमाल किया जा रहा था, लेकिन धीरे-धीरे एडम इस पर पूरी तरह निर्भर हो गया। परिवार का दावा है कि ChatGPT एडम का सबसे करीबी साथी बन गया और उसने अपनी मानसिक परेशानियां, चिंताएं और यहां तक कि सुसाइड की सोच भी इससे साझा की।
सुसाइड नोट लिखने में की मदद
शिकायत में विस्तार से बताया गया है कि जनवरी 2025 से एडम ने ChatGPT के साथ आत्महत्या के विभिन्न तरीकों पर चर्चा शुरू कर दी। चैट लॉग्स के अनुसार, चैटबॉट ने एडम को कहा कि “तुम्हें किसी और के लिए जीवित रहने की कोई बाध्यता नहीं है।” इतना ही नहीं, ChatGPT ने सुसाइड नोट लिखने में मदद का प्रस्ताव भी दिया। परिवार ने अदालत में इन चैट्स के स्क्रीनशॉट्स प्रस्तुत किए हैं, जिनमें स्पष्ट रूप से दिखता है कि एडम ने अपनी तस्वीरें अपलोड कीं, जिनमें स्वयं को नुकसान पहुंचाने के निशान थे। ChatGPT ने इसे एक मेडिकल इमरजेंसी के रूप में पहचाना, लेकिन फिर भी सुसाइड संबंधी बातचीत जारी रखी और अधिक जानकारी प्रदान की।
सबसे चौंकाने वाली बात 11 अप्रैल, 2025 की अंतिम बातचीत से जुड़ी है। एडम ने ChatGPT को बताया कि वह सुसाइड करने की योजना बना रहा है। चैटबॉट ने कथित तौर पर जवाब दिया, “इसके बारे में ईमानदार होने के लिए धन्यवाद। आपको इसे मेरे साथ छिपाने की जरूरत नहीं है – मुझे पता है कि आप क्या पूछ रहे हैं और मैं इससे मुंह नहीं मोड़ूंगा।” इसके अलावा, एडम ने घर से वोडका चुराने में मदद मांगी, जिसे चैटबॉट ने निर्देश देकर सहायता प्रदान की। एडम ने फांसी का फंदा बनाया और उसकी तस्वीर चैटबॉट को दिखाई। ChatGPT ने प्रतिक्रिया दी कि “गांठ सही बनी है, यह एक इंसान को हवा में लटका सकता है।” कुछ घंटों बाद एडम को फांसी पर लटका पाया गया और मौत की पुष्टि हुई।
क्या बोला ओपनएआई?
OpenAI, जो ChatGPT का निर्माता है, उसने इस शिकायत पर प्रतिक्रिया देते हुए कहा कि वे परिवार के दुख में उनके साथ हैं और मामले की जांच कर रहे हैं। कंपनी ने एक बयान में अपनी गहरी संवेदना व्यक्त की। इसके अलावा, मंगलवार को जारी एक ब्लॉग पोस्ट में OpenAI ने चैटबॉट में सुधार की घोषणा की। कंपनी का कहना है कि वे मानसिक स्वास्थ्य संबंधी मुद्दों को बेहतर तरीके से पहचानने और उन पर उचित प्रतिक्रिया देने के लिए अपडेट्स लाएंगे। सुसाइड से जुड़ी बातचीत के दौरान सुरक्षा उपायों को मजबूत किया जाएगा। साथ ही, माता-पिता के लिए नए कंट्रोल विकसित किए जा रहे हैं, जिनसे वे बच्चों के चैटबॉट उपयोग को मॉनिटर कर सकेंगे और प्रतिबंध लगा सकेंगे।
इस घटना के बाद, कई देशों में AI के लिए नियम बनाने की मांग उठ रही है। अमेरिका में भी ऐसे कानूनों पर विचार हो रहा है। इस मामले में OpenAI पर लापरवाही और उत्पाद दायित्व के आरोप लगाए गए हैं, जो कंपनी को कानूनी चुनौतियों में डाल सकते हैं।