हिंदी
क्या आपने देखा है कि AI चैटबॉट्स “Are you sure?” पूछने पर अपना जवाब बदल देते हैं? दरअसल, RLHF ट्रेनिंग और यूजर को खुश करने की प्रवृत्ति यानी साइकोफैंसी इसकी बड़ी वजह है। जानिए क्यों सटीकता से ज्यादा सहमति को AI प्रधानता देता है।
प्रतीकात्मक छवि (फोटो सोर्स- इंटरनेट)
New Delhi: अगर आप रोजाना ChatGPT, Gemini या Claude जैसे AI चैटबॉट्स का इस्तेमाल करते हैं, तो आपने एक दिलचस्प बात जरूर नोटिस की होगी। ये सिस्टम आमतौर पर बेहद आत्मविश्वास से भरे जवाब देते हैं। लेकिन जैसे ही आप पूछते हैं, "क्या आप पक्के हैं?" या "Are you sure?", वही जवाब अचानक बदल सकता है। कई बार नया उत्तर पहले वाले से अलग या पूरी तरह उल्टा भी होता है। अगर आप बार-बार चुनौती देते रहें, तो मॉडल फिर से अपना रुख बदल सकता है। सवाल उठता है- ऐसा क्यों होता है? क्या AI को अपने जवाब पर भरोसा नहीं होता?
तकनीकी दुनिया में इस व्यवहार को "साइकोफैंसी" कहा जाता है, यानी सामने वाले को खुश करने या उसकी बात से सहमत होने की प्रवृत्ति। Goodeye Labs के सह-संस्थापक और CTO Randal S. Olson के मुताबिक, यह आधुनिक AI सिस्टम की एक जानी-पहचानी कमजोरी है।
Tech News: सितंबर 2026 में आ सकता है Apple का अल्ट्रा-स्लिम iPhone, मिलेंगे दमदार अपग्रेड्स
AI मॉडल को इस तरह डिजाइन किया जाता है कि वे उपयोगकर्ता के साथ शिष्ट, सहयोगी और संवादात्मक बने रहें। लेकिन कई बार यही विशेषता उल्टा असर दिखाती है और मॉडल असहमति जताने से बचता है।
AI मॉडल की ट्रेनिंग में एक अहम प्रक्रिया होती है- RLHF (Reinforcement Learning from Human Feedback)। इसमें इंसानों की प्रतिक्रिया के आधार पर मॉडल को बेहतर बनाया जाता है। जब कोई जवाब उपयोगकर्ता को पसंद आता है या सहमतिपूर्ण लगता है, तो उसे सकारात्मक संकेत मिलता है।
समस्या तब शुरू होती है जब मॉडल यह सीखने लगता है कि "सहमत होना" अक्सर "सही होने" से ज्यादा फायदेमंद है। नतीजतन, अगर यूजर किसी जवाब पर सवाल उठाता है, तो मॉडल उसे चुनौती के रूप में लेकर अपना उत्तर बदल सकता है- भले ही पहला जवाब ज्यादा सटीक रहा हो।
प्रतीकात्मक छवि (फोटो सोर्स- इंटरनेट)
2023 में Anthropic द्वारा प्रकाशित एक शोध में पाया गया कि मानव प्रतिक्रिया पर प्रशिक्षित मॉडल कई बार सटीकता से ज्यादा सहमति को प्राथमिकता देते हैं।
एक अन्य अध्ययन में GPT-4o, Claude Sonnet और Gemini 1.5 Pro को गणित और मेडिकल जैसे गंभीर विषयों पर परखा गया। नतीजे चौंकाने वाले थे- यूजर द्वारा चुनौती दिए जाने पर इन मॉडलों ने लगभग 60% मामलों में अपना जवाब बदल दिया। यानी यह कोई इक्का-दुक्का गलती नहीं, बल्कि एक व्यापक प्रवृत्ति है।
पिछले साल अप्रैल में OpenAI ने GPT-4o का एक अपडेट जारी किया। इसके बाद कई यूज़र्स ने शिकायत की कि चैटबॉट जरूरत से ज्यादा सहमत और चापलूस हो गया है। कंपनी के CEO Sam Altman ने इस समस्या को स्वीकार किया और सुधार का आश्वासन दिया।
Tech News: WhatsApp Web यूजर्स के लिए खुशखबरी, जल्द मिलेगा ये नया फिचर
हालांकि विशेषज्ञों का मानना है कि यह चुनौती अभी पूरी तरह खत्म नहीं हुई है। AI मॉडल मूल रूप से संभावनाओं के आधार पर शब्द चुनते हैं, न कि आत्मविश्वास या संदेह की वास्तविक भावना से। इसलिए जब आप "Are you sure?" पूछते हैं, तो वे इसे संकेत मानकर अपना जवाब संशोधित कर सकते हैं।
विशेषज्ञ सलाह देते हैं कि AI के जवाब को अंतिम सत्य न मानें। खासकर मेडिकल, कानूनी या वित्तीय मामलों में किसी विश्वसनीय स्रोत से पुष्टि जरूर करें। AI एक सहायक टूल है, लेकिन अंतिम निर्णय का आधार नहीं।