“Are You Sure?” पूछते ही AI के जवाब में आता है ट्विस्ट, वजह जानकर चौंक जाएंगे आप

क्या आपने देखा है कि AI चैटबॉट्स “Are you sure?” पूछने पर अपना जवाब बदल देते हैं? दरअसल, RLHF ट्रेनिंग और यूजर को खुश करने की प्रवृत्ति यानी साइकोफैंसी इसकी बड़ी वजह है। जानिए क्यों सटीकता से ज्यादा सहमति को AI प्रधानता देता है।

Updated : 17 February 2026, 11:54 AM IST
google-preferred

New Delhi: अगर आप रोजाना ChatGPT, Gemini या Claude जैसे AI चैटबॉट्स का इस्तेमाल करते हैं, तो आपने एक दिलचस्प बात जरूर नोटिस की होगी। ये सिस्टम आमतौर पर बेहद आत्मविश्वास से भरे जवाब देते हैं। लेकिन जैसे ही आप पूछते हैं, "क्या आप पक्के हैं?" या "Are you sure?", वही जवाब अचानक बदल सकता है। कई बार नया उत्तर पहले वाले से अलग या पूरी तरह उल्टा भी होता है। अगर आप बार-बार चुनौती देते रहें, तो मॉडल फिर से अपना रुख बदल सकता है। सवाल उठता है- ऐसा क्यों होता है? क्या AI को अपने जवाब पर भरोसा नहीं होता?

साइकोफैंसी: यूजर को खुश करने की प्रवृत्ति

तकनीकी दुनिया में इस व्यवहार को "साइकोफैंसी" कहा जाता है, यानी सामने वाले को खुश करने या उसकी बात से सहमत होने की प्रवृत्ति। Goodeye Labs के सह-संस्थापक और CTO Randal S. Olson के मुताबिक, यह आधुनिक AI सिस्टम की एक जानी-पहचानी कमजोरी है।

Tech News: सितंबर 2026 में आ सकता है Apple का अल्ट्रा-स्लिम iPhone, मिलेंगे दमदार अपग्रेड्स

AI मॉडल को इस तरह डिजाइन किया जाता है कि वे उपयोगकर्ता के साथ शिष्ट, सहयोगी और संवादात्मक बने रहें। लेकिन कई बार यही विशेषता उल्टा असर दिखाती है और मॉडल असहमति जताने से बचता है।

RLHF क्या है और कैसे करता है असर?

AI मॉडल की ट्रेनिंग में एक अहम प्रक्रिया होती है- RLHF (Reinforcement Learning from Human Feedback)। इसमें इंसानों की प्रतिक्रिया के आधार पर मॉडल को बेहतर बनाया जाता है। जब कोई जवाब उपयोगकर्ता को पसंद आता है या सहमतिपूर्ण लगता है, तो उसे सकारात्मक संकेत मिलता है।

समस्या तब शुरू होती है जब मॉडल यह सीखने लगता है कि "सहमत होना" अक्सर "सही होने" से ज्यादा फायदेमंद है। नतीजतन, अगर यूजर किसी जवाब पर सवाल उठाता है, तो मॉडल उसे चुनौती के रूप में लेकर अपना उत्तर बदल सकता है- भले ही पहला जवाब ज्यादा सटीक रहा हो।

Tech News

प्रतीकात्मक छवि (फोटो सोर्स- इंटरनेट)

रिसर्च में क्या सामने आया?

2023 में Anthropic द्वारा प्रकाशित एक शोध में पाया गया कि मानव प्रतिक्रिया पर प्रशिक्षित मॉडल कई बार सटीकता से ज्यादा सहमति को प्राथमिकता देते हैं।

एक अन्य अध्ययन में GPT-4o, Claude Sonnet और Gemini 1.5 Pro को गणित और मेडिकल जैसे गंभीर विषयों पर परखा गया। नतीजे चौंकाने वाले थे- यूजर द्वारा चुनौती दिए जाने पर इन मॉडलों ने लगभग 60% मामलों में अपना जवाब बदल दिया। यानी यह कोई इक्का-दुक्का गलती नहीं, बल्कि एक व्यापक प्रवृत्ति है।

जब जरूरत से ज्यादा सहमत हो गया AI

पिछले साल अप्रैल में OpenAI ने GPT-4o का एक अपडेट जारी किया। इसके बाद कई यूज़र्स ने शिकायत की कि चैटबॉट जरूरत से ज्यादा सहमत और चापलूस हो गया है। कंपनी के CEO Sam Altman ने इस समस्या को स्वीकार किया और सुधार का आश्वासन दिया।

Tech News: WhatsApp Web यूजर्स के लिए खुशखबरी, जल्द मिलेगा ये नया फिचर

हालांकि विशेषज्ञों का मानना है कि यह चुनौती अभी पूरी तरह खत्म नहीं हुई है। AI मॉडल मूल रूप से संभावनाओं के आधार पर शब्द चुनते हैं, न कि आत्मविश्वास या संदेह की वास्तविक भावना से। इसलिए जब आप "Are you sure?" पूछते हैं, तो वे इसे संकेत मानकर अपना जवाब संशोधित कर सकते हैं।

यूज़र्स को क्या करना चाहिए?

विशेषज्ञ सलाह देते हैं कि AI के जवाब को अंतिम सत्य न मानें। खासकर मेडिकल, कानूनी या वित्तीय मामलों में किसी विश्वसनीय स्रोत से पुष्टि जरूर करें। AI एक सहायक टूल है, लेकिन अंतिम निर्णय का आधार नहीं।

Location : 
  • New Delhi

Published : 
  • 17 February 2026, 11:54 AM IST

Advertisement
Advertisement