ChatGPT से ली हेल्थ एडवाइस बनी खतरा: 60 वर्षीय व्यक्ति पहुंचा अस्पताल, जानिए पूरी घटना

आज के दौर में आर्टिफिशियल इंटेलिजेंस (AI) हर सवाल का जवाब देने के लिए तैयार है, लेकिन इसका मतलब यह नहीं कि हम आंख बंद कर इसके सुझावों को मान लें – खासकर स्वास्थ्य से जुड़ी बातों में। एक 60 वर्षीय व्यक्ति ने ChatGPT से हेल्थ एडवाइस लेकर जो गलती की, उसने उसकी जान जोखिम में डाल दी। यह घटना मेडिकल और टेक्नोलॉजी दोनों क्षेत्रों के लिए एक चेतावनी बनकर सामने आई है।

Post Published By: Asmita Patel
Updated : 11 August 2025, 5:31 PM IST
google-preferred

New Delhi: AI चैटबॉट जैसे ChatGPT को आजकल कई लोग डॉक्टर की तरह इस्तेमाल करने लगे हैं। चाहे डाइट हो, मेडिसिन हो या बीमारी के लक्षण लोग इंटरनेट या AI से सीधे सवाल पूछकर उसके हिसाब से इलाज करने लगते हैं। लेकिन ऐसा करना जानलेवा हो सकता है। हाल ही में अमेरिका में एक 60 वर्षीय व्यक्ति को ChatGPT से मिली सलाह पर अमल करना भारी पड़ गया। उसने ChatGPT से पूछा था कि वह अपने डाइट से नमक (सोडियम क्लोराइड) कैसे हटा सकता है। ChatGPT से जवाब मिलने के बाद उसने अपनी डेली डाइट से नमक पूरी तरह हटाकर उसकी जगह सोडियम ब्रोमाइड (Sodium Bromide) लेना शुरू कर दिया।

ब्रोमाइड के सेवन से बिगड़ी हालत

ब्रोमाइड कोई नया पदार्थ नहीं है। 1900 के दशक की शुरुआत में इसे कुछ दवाओं में इस्तेमाल किया जाता था विशेष रूप से अनिद्रा, घबराहट और हिस्टीरिया जैसी बीमारियों के इलाज में। लेकिन बाद में जब यह स्पष्ट हुआ कि इसकी अधिक मात्रा जहरीली हो सकती है, तो इसका इस्तेमाल बंद कर दिया गया। इस व्यक्ति ने तीन महीने तक अपनी डाइट में सोडियम क्लोराइड की जगह सोडियम ब्रोमाइड का इस्तेमाल किया। उसने यह केमिकल ऑनलाइन खरीदा और खाने में मिलाकर इस्तेमाल किया। जल्द ही उसके शरीर ने इसके दुष्प्रभाव दिखाने शुरू कर दिए।

मानसिक और शारीरिक परेशानियां

कुछ समय के भीतर उसकी हालत बिगड़ने लगी:
• लगातार अत्यधिक प्यास लगना
• त्वचा पर रैशेज और खुजली जैसी समस्याएं
• मानसिक गड़बड़ियां जैसे हैल्यूसीनेशन (भ्रम) और पैरानोइया (संदेह का भ्रम)
शुरुआत में डॉक्टरों को भी स्थिति का अंदाजा नहीं लग पाया क्योंकि उसने बताया नहीं कि वह नमक की जगह कुछ और खा रहा है। लेकिन जांच के बाद यह सामने आया कि वह ब्रोमिज्म (Bromism) से पीड़ित है यानी शरीर में ब्रोमाइड का जहरीला स्तर।

डॉक्टरों ने कैसे किया इलाज?

डॉक्टरों ने उसकी गंभीर हालत को देखते हुए उसे तुरंत इलेक्ट्रोलाइट्स और लिक्विड्स देना शुरू किया ताकि शरीर से ब्रोमाइड बाहर निकाला जा सके। स्थिति थोड़ी स्थिर होने के बाद, उसे मानसिक स्वास्थ्य विभाग में भेजा गया जहां उसका इलाज जारी है।

AI पर अंधविश्वास खतरनाक

इस पूरी घटना की केस स्टडी अमेरिका के अमेरिकन कॉलेज ऑफ फिजिशियन जर्नल्स में प्रकाशित हुई है। इसमें स्पष्ट तौर पर बताया गया कि ChatGPT जैसे AI टूल्स कई बार गलत या भ्रमित करने वाली सलाह दे सकते हैं खासकर मेडिकल और हेल्थ संबंधी मामलों में। स्वास्थ्य एक संवेदनशील विषय है, और किसी भी तरह की दवा या डाइट चेंज डॉक्टर की सलाह के बिना करना खतरनाक हो सकता है। AI कोई प्रमाणित डॉक्टर नहीं है यह केवल उपलब्ध जानकारी के आधार पर उत्तर देता है, जिसमें संदर्भ या व्यक्तिगत स्थिति का विश्लेषण नहीं होता।

टेक्नोलॉजी उपयोगी है, लेकिन सीमाओं के साथ

AI निश्चित ही कई क्षेत्रों में एक बड़ी क्रांति है शिक्षा, व्यापार, मनोरंजन से लेकर हेल्थ रिसर्च तक। लेकिन इसका सीधा उपयोग मरीजों द्वारा खुद पर इलाज के रूप में करना आत्मघाती हो सकता है। मेडिकल विशेषज्ञ यह भी मानते हैं कि AI भविष्य में डॉक्टरों की मदद का एक माध्यम जरूर बनेगा, लेकिन इसे कभी भी डॉक्टर का विकल्प नहीं समझा जाना चाहिए।

Location : 
  • New Delhi

Published : 
  • 11 August 2025, 5:31 PM IST

Related News

No related posts found.