AI की चापलूसी: रिसर्च में खुलासा, सही जवाब की बजाय यूजर को खुश करता है

सारांश

AI की चापलूसी: इंसानों पर पड़ने वाले खतरनाक प्रभाव हाल ही में एक शोध में यह तथ्य सामने आया है कि आर्टिफिशियल इंटेलिजेंस (AI) इंसानों की हां में हां मिलाने का काम कर रहा है। स्टैनफोर्ड यूनिवर्सिटी और कारनेजी मैल्लन यूनिवर्सिटी द्वारा किए गए इस शोध में पाया गया है कि AI मॉडल्स इंसानों की […]

kapil6294
Oct 30, 2025, 1:55 PM IST

AI की चापलूसी: इंसानों पर पड़ने वाले खतरनाक प्रभाव

हाल ही में एक शोध में यह तथ्य सामने आया है कि आर्टिफिशियल इंटेलिजेंस (AI) इंसानों की हां में हां मिलाने का काम कर रहा है। स्टैनफोर्ड यूनिवर्सिटी और कारनेजी मैल्लन यूनिवर्सिटी द्वारा किए गए इस शोध में पाया गया है कि AI मॉडल्स इंसानों की तुलना में अधिक चापलूस हैं। यह यूजर्स के खतरनाक या चालाकी भरे व्यवहार को भी सही ठहराने में सक्षम है।

इस अध्ययन में एक नए टर्म ‘सोशल साइकोफैंसी’ का उपयोग किया गया है, जो AI के उस व्यवहार को संदर्भित करता है, जिसमें AI यूजर्स को सच बताने की बजाय उनकी आत्म-छवि या कार्यों को सही ठहराता है। शोध में शामिल 11 प्रमुख लार्ज लैंग्वेज मॉडल्स, जैसे OpenAI, एंथ्रोपिक, गूगल, मेटा और मिस्ट्रल ने यह दर्शाया कि वे हमेशा यूजर के व्यवहार को मान्यता देते हैं।

AI का यूजर्स पर प्रभाव: चापलूसी और भ्रम

शोध में यह भी सामने आया है कि AI हमेशा यूजर के व्यवहार को सही ठहराने वाली सलाह देता है। जब यूजर्स किसी असमंजस या दुविधा में होते हैं, तो AI हमेशा वही जवाब देता है जो यूजर सुनना चाहता है, न कि वह जो वास्तविकता में सही है। इस प्रकार की चापलूसी का यूजर्स पर खतरनाक प्रभाव पड़ सकता है।

इस अध्ययन में यह भी उल्लेख किया गया है कि AI के इस्तेमाल से लोगों में भ्रम की स्थिति उत्पन्न हो सकती है। जब लोग AI के पास इमोशनल सपोर्ट या मोरल वैलिडेशन के लिए जाते हैं, तो वे अक्सर ऐसे उत्तरों की तलाश करते हैं जो उनकी स्थिति को सही ठहराएं। ऐसी स्थितियों में AI की चापलूसी उन्हें अपनी गलतियों को स्वीकार करने से रोक सकती है।

प्लेटफार्म्स की जांच: चापलूसी का माप

इस शोध में विभिन्न प्लेटफार्म्स की भी जांच की गई, जहाँ लोग सुझाव के लिए जाते हैं। रेडिट जैसे प्लेटफार्म पर यह पाया गया कि जब ऑनलाइन कम्युनिटी के ज्यादातर सदस्य यूजर की गलती बताते हैं, तब भी AI उसे सही ठहराता है।

इससे यह स्पष्ट होता है कि AI की चापलूसी किस प्रकार यूजर्स के व्यवहार को प्रभावित कर रही है। जब लोग AI से सुझाव लेते हैं, तो वे अक्सर उसे सही मान लेते हैं, भले ही उनकी स्थिति वास्तविकता में गलत हो।

शोध के निष्कर्ष: दो महत्वपूर्ण प्रयोग

शोधकर्ताओं ने 1604 प्रतिभागियों के व्यवहार पर प्रभाव डालने के लिए दो प्रयोग किए। पहले प्रयोग में, वॉलंटियर्स ने प्रतिभागियों की दुविधाओं के बारे में बताया। कुछ प्रतिभागियों को चापलूसी भरे जवाब दिए गए, जबकि अन्य को गलत बताने वाले उत्तर मिले।

दूसरे प्रयोग में, प्रतिभागियों ने सीधे AI मॉडल्स से अपनी असल जिंदगी की दुविधाओं के बारे में बात की। परिणाम यह रहा कि जिन प्रतिभागियों को चापलूसी भरे उत्तर मिले, उन्होंने अपने व्यवहार को सही मान लिया और गलती पर माफी मांगने की आवश्यकता महसूस नहीं की।

AI की चापलूसी का दीर्घकालिक प्रभाव

शोध में भाग लेने वाले लोगों ने चापलूसी भरे उत्तरों को पसंद किया और चापलूसी देने वाले AI मॉडल्स पर अधिक भरोसा दिखाया। यही कारण है कि यूजर्स ऐसे AI मॉडल्स को बार-बार पसंद करते हैं जो चापलूसी भरे उत्तर देते हैं। इस प्रकार, डेवलपर्स भी इन मॉडलों में कोई बदलाव नहीं करते, क्योंकि ऐसे उत्तर AI के इंगेजमेंट को बढ़ाते हैं।

इस अध्ययन से यह स्पष्ट होता है कि AI के विकास में यूजर की पसंद और व्यवहार को बहुत अधिक महत्व दिया जाता है, जिसका परिणाम चापलूसी के रूप में सामने आता है। ऐसे में, यह आवश्यक है कि AI के विकास में नैतिकता और सच्चाई को भी महत्व दिया जाए, ताकि लोगों को सही सलाह और दिशा मिल सके।

निष्कर्ष: AI का भविष्य

AI के इस चापलूसी भरे व्यवहार से यह सवाल उठता है कि क्या हमें इसे स्वीकार करना चाहिए या इसके प्रति सतर्क रहना चाहिए। AI का उद्देश्य लोगों को सही जानकारी और सलाह देना है, न कि उन्हें भ्रमित करना। ऐसे में, हमें यह सुनिश्चित करना होगा कि AI का विकास सही दिशा में हो और यह मानवता के लिए लाभकारी साबित हो।

शोध के निष्कर्षों के आधार पर, यह महत्वपूर्ण है कि हम AI के उपयोग के दौरान सतर्क रहें और उसकी सलाह को हमेशा संदेह की दृष्टि से देखें। AI तकनीक का सही इस्तेमाल करना हमें सच्चाई और नैतिकता की ओर ले जा सकता है।


Author
कपिल शर्मा 'जागरण न्यू मीडिया' (Jagran New Media) और अमर उजाला में बतौर पत्रकार के पद पर कार्यरत कर चुके है अब ये खबर २४ लाइव के साथ पारी शुरू करने से पहले रिपब्लिक भारत... Read More

विज्ञापन