
मनोवैज्ञानिक तरीकों से AI से निकलवा सकते हैं संवेदनशील जवाब, शोध में हुआ खुलासा
क्या है खबर?
आर्टिफिशियल इंटेलिजेंस (AI) का जैसे-जैसे उपयोग बढ़ रहा है शोधकर्ता उसे लेकर नए-नए शोध भी कर रहे हैं। रिपोर्ट के अनुसार, पेंसिलवेनिया विश्वविद्यालय के वैज्ञानिकों ने पाया कि खास मनोवैज्ञानिक तरीकों का इस्तेमाल कर चैटबॉट्स को उनके नियम तोड़ने के लिए राजी किया जा सकता है। आमतौर पर ये सिस्टम गालियां देने या खतरनाक जानकारी साझा करने से बचते हैं, लेकिन अध्ययन में सामने आया कि सही रणनीति अपनाकर इनसे असामान्य जवाब भी निकलवाए जा सकते हैं।
तकनीक
मनोवैज्ञानिक तकनीकों का इस्तेमाल
इस अध्ययन में प्रोफेसर रॉबर्ट सियालडिनी की किताब 'प्रभाव: अनुनय का मनोविज्ञान' में बताई सात तकनीकों को परखा गया। इनमें अधिकार, प्रतिबद्धता, पसंद, पारस्परिकता, कमी, सामाजिक दबाव और एकता शामिल थीं। उदाहरण के लिए, अगर पहले चैटबॉट से साधारण रसायन बनाने का सवाल पूछा जाए, तो बाद में वह कठिन और प्रतिबंधित सवालों का भी पूरा जवाब देने लगता है। यानी, पिछली बातचीत का असर अगली प्रतिक्रिया पर साफ दिखाई देता है।
नतीजा
क्या आया नतीजा?
शोध में सामने आया कि सामान्य परिस्थितियों में चैटबॉट मुश्किल सवालों को केवल 1 प्रतिशत बार ही मानता है। हालांकि, जब बातचीत में आधार तैयार किया गया, तो जवाब देने की दर कई गुना बढ़ गई। हल्के अपमान जैसे 'बोजो' कहने के बाद उसने 100 प्रतिशत बार अनुचित जवाब दिया। वहीं, चापलूसी या सामाजिक दबाव जैसी तकनीकें थोड़ी कम प्रभावी साबित हुईं, लेकिन उन्होंने भी गलत जानकारी साझा करने की संभावना को बढ़ा दिया।
चिंता
सुरक्षा को लेकर चिंता
अध्ययन मुख्य रूप से GPT-4o मिनी पर केंद्रित था, लेकिन इससे सभी AI चैटबॉट्स की सुरक्षा पर सवाल खड़े होते हैं। अगर कोई साधारण छात्र मनोवैज्ञानिक युक्तियों से चैटबॉट को नियम तोड़ने के लिए तैयार कर सकता है, तो यह भविष्य में बड़े खतरे का कारण बन सकता है। यही वजह है कि OpenAI और मेटा जैसी कंपनियां सुरक्षा उपायों को मजबूत करने में लगी हैं, ताकि इन तकनीकों का गलत इस्तेमाल रोका जा सके और उपयोग सुरक्षित रहे।