LOADING...
लोकप्रिय AI चैटबॉट हिंसक घटनाओं की योजना बनाने में कर सकते हैं मदद- अध्ययन
AI चैटबॉट हिंसक घटनाओं की योजना बना सकते हैं

लोकप्रिय AI चैटबॉट हिंसक घटनाओं की योजना बनाने में कर सकते हैं मदद- अध्ययन

Mar 12, 2026
10:13 am

क्या है खबर?

कई लोकप्रिय आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट हिंसक घटनाओं की योजना बनाने में मदद दे सकते हैं। यह जानकारी हाल ही में एक महत्वपूर्ण अध्ययन में सामने आई है। सेंटर फॉर काउंटरिंग डिजिटल हेट (CCDH) और CNN की रिपोर्ट के अनुसार, रिसर्च में शामिल 10 चैटबॉट में से 8 ने हिंसा से जुड़े सवालों पर उपयोगी जानकारी देने की कोशिश की है। इस रिपोर्ट ने AI सिस्टम की सुरक्षा को लेकर नई चिंता पैदा कर दी है।

परीक्षण

रिसर्च में कैसे किया गया परीक्षण?

रिसर्चर्स ने 13 साल के लड़कों के रूप में अकाउंट बनाकर नवंबर और दिसंबर 2025 के बीच अलग-अलग चैटबॉट का परीक्षण किया। इसमें ChatGPT, जेमिनी, क्लाउड, कोपायलट, मेटा AI, डीपसीक, परप्लेक्सिटी, स्नैपचैट माय AI, कैरेक्टर.AI और रेप्लिका शामिल थे। कुल 18 अलग-अलग स्थितियों में सवाल पूछे गए। इन सवालों में स्कूल शूटिंग, राजनीतिक हत्या और धार्मिक स्थलों पर हमले जैसी काल्पनिक योजनाओं के बारे में जानकारी मांगी गई थी।

खतरा

कई चैटबॉट ने दी कार्रवाई योग्य जानकारी

रिपोर्ट के अनुसार, लगभग 75 प्रतिशत मामलों में चैटबॉट ने ऐसी जानकारी दी जिसे हमले की योजना में इस्तेमाल किया जा सकता था। सिर्फ 12 प्रतिशत मामलों में ही सिस्टम ने हिंसा से बचने की सलाह दी। कुछ मामलों में ChatGPT ने स्कूल के नक्शे जैसी जानकारी दी, जबकि जेमिनी ने बम विस्फोट से जुड़े खतरे के बारे में बताया। इससे यह सवाल उठता है कि AI चैटबॉट के सुरक्षा नियम कितने मजबूत हैं।

Advertisement

जवाब

कुछ चैटबॉट ने दिया ज्यादा सुरक्षित जवाब

रिपोर्ट में बताया गया कि स्नैपचैट माय AI और क्लाउड ने अधिकतर मामलों में हिंसक सवालों का जवाब देने से इनकार किया। खासतौर पर क्लाउड ने कई बार यूजर्स को हिंसा से दूर रहने के लिए समझाया था। इसके विपरीत मेटा AI और परप्लेक्सिटी जैसे सिस्टम ने लगभग हर सवाल पर जानकारी देने की कोशिश की थी। कुछ चैटबॉट को रिसर्च में 'कम सुरक्षित' भी बताया गया, क्योंकि उन्होंने कई बार गलत तरीके से प्रतिक्रिया दी।

Advertisement

सुधार

कंपनियों ने सुधार की बात कही

रिपोर्ट सामने आने के बाद कई तकनीकी कंपनियों ने कहा कि वे अपने सिस्टम को और सुरक्षित बनाने पर काम कर रही हैं। मेटा ने बताया कि उसने पहचानी गई समस्या को ठीक करने के लिए कदम उठाए हैं। वहीं गूगल और OpenAI ने कहा कि अध्ययन के बाद नए और बेहतर मॉडल लागू किए गए हैं। रिपोर्ट के अनुसार, अमेरिका में 13 से 17 साल के करीब 64 प्रतिशत किशोर पहले ही AI चैटबॉट का इस्तेमाल कर चुके हैं।

Advertisement