LOADING...
मनोवैज्ञानिक तरीकों से AI से निकलवा सकते हैं संवेदनशील जवाब, शोध में हुआ खुलासा
मनोवैज्ञानिक तरीकों से AI से निकलवा सकते हैं संवेदनशील जवाब

मनोवैज्ञानिक तरीकों से AI से निकलवा सकते हैं संवेदनशील जवाब, शोध में हुआ खुलासा

Sep 01, 2025
10:55 am

क्या है खबर?

आर्टिफिशियल इंटेलिजेंस (AI) का जैसे-जैसे उपयोग बढ़ रहा है शोधकर्ता उसे लेकर नए-नए शोध भी कर रहे हैं। रिपोर्ट के अनुसार, पेंसिलवेनिया विश्वविद्यालय के वैज्ञानिकों ने पाया कि खास मनोवैज्ञानिक तरीकों का इस्तेमाल कर चैटबॉट्स को उनके नियम तोड़ने के लिए राजी किया जा सकता है। आमतौर पर ये सिस्टम गालियां देने या खतरनाक जानकारी साझा करने से बचते हैं, लेकिन अध्ययन में सामने आया कि सही रणनीति अपनाकर इनसे असामान्य जवाब भी निकलवाए जा सकते हैं।

 तकनीक

मनोवैज्ञानिक तकनीकों का इस्तेमाल 

इस अध्ययन में प्रोफेसर रॉबर्ट सियालडिनी की किताब 'प्रभाव: अनुनय का मनोविज्ञान' में बताई सात तकनीकों को परखा गया। इनमें अधिकार, प्रतिबद्धता, पसंद, पारस्परिकता, कमी, सामाजिक दबाव और एकता शामिल थीं। उदाहरण के लिए, अगर पहले चैटबॉट से साधारण रसायन बनाने का सवाल पूछा जाए, तो बाद में वह कठिन और प्रतिबंधित सवालों का भी पूरा जवाब देने लगता है। यानी, पिछली बातचीत का असर अगली प्रतिक्रिया पर साफ दिखाई देता है।

नतीजा

क्या आया नतीजा?

शोध में सामने आया कि सामान्य परिस्थितियों में चैटबॉट मुश्किल सवालों को केवल 1 प्रतिशत बार ही मानता है। हालांकि, जब बातचीत में आधार तैयार किया गया, तो जवाब देने की दर कई गुना बढ़ गई। हल्के अपमान जैसे 'बोजो' कहने के बाद उसने 100 प्रतिशत बार अनुचित जवाब दिया। वहीं, चापलूसी या सामाजिक दबाव जैसी तकनीकें थोड़ी कम प्रभावी साबित हुईं, लेकिन उन्होंने भी गलत जानकारी साझा करने की संभावना को बढ़ा दिया।

चिंता

सुरक्षा को लेकर चिंता

अध्ययन मुख्य रूप से GPT-4o मिनी पर केंद्रित था, लेकिन इससे सभी AI चैटबॉट्स की सुरक्षा पर सवाल खड़े होते हैं। अगर कोई साधारण छात्र मनोवैज्ञानिक युक्तियों से चैटबॉट को नियम तोड़ने के लिए तैयार कर सकता है, तो यह भविष्य में बड़े खतरे का कारण बन सकता है। यही वजह है कि OpenAI और मेटा जैसी कंपनियां सुरक्षा उपायों को मजबूत करने में लगी हैं, ताकि इन तकनीकों का गलत इस्तेमाल रोका जा सके और उपयोग सुरक्षित रहे।