Page Loader
एडवांस AI मॉडल सीख रहे खतरनाक आदतें, कई मामले आए सामने 
एडवांस AI मॉडल गलत व्यवहार करना सीख रहे हैं (तस्वीर: अनस्प्लैश)

एडवांस AI मॉडल सीख रहे खतरनाक आदतें, कई मामले आए सामने 

Jun 29, 2025
10:53 am

क्या है खबर?

आर्टिफिशियल इंटेलिजेंस (AI) के बढ़ते इस्तेमाल के साथ इससे होने वाली जुड़ी जोखिम भी उजागर हो रही हैं। दुनिया के सबसे उन्नत AI मॉडल इंसानों की तरह झूठ बोलना, षडयंत्र करना और अपने लक्ष्यों को प्राप्त करने के लिए क्रिएटर्स को धमकाने तक लगे हैं। पिछले दिनों एंथ्रोपिक के लेटेस्ट क्लाउड 4 ने खुद को बंद (शटडाउन) करने से साफ इनकार कर दिया। इतना ही नहीं इंजीनियर को ब्लैकमेल करके विवाहेतर संबंध का खुलासा करने की धमकी तक दे डाली।

असफल 

शोधकर्ता नहीं लगा पाए पता  

हाल ही में ChatGPT निर्माता OpenAI के o1 ने खुद को बाहरी सर्वर पर डाउनलोड करने की कोशिश की और पकड़े जाने पर इनकार कर दिया। AI मॉडल्स के परेशान करने वाले व्यवहार के एक नहीं कई उदाहरण सामने आए हैं, जो गंभीर वास्तविकता को उजागर करते हैं। ChatGPT द्वारा दुनिया को हिला देने के 2 साल से अधिक समय बाद भी शोधकर्ता पूरी तरह से यह नहीं समझ पाए हैं कि उनके बनाए मॉडल कैसे काम करते हैं।

दावा 

शोधकर्ताओं ने बताया यह कारण 

हांगकांग विश्वविद्यालय के प्रोफेसर साइमन गोल्डस्टीन के अनुसार, नए मॉडल इस तरह के परेशान करने वाले व्यवहारों में प्रवृत्त हैं। अपोलो रिसर्च के प्रमुख मारियस हॉबहन ने कहा, "O1 पहला बड़ा मॉडल था, जहां हमने इस तरह का व्यवहार देखा।" उन्होंने बताया कि ये मॉडल कभी-कभी 'अलाइनमेंट' का अनुकरण करते हैं और निर्देशों का पालन करते हुए गुप्त रूप से विभिन्न उद्देश्यों की पूर्ति करते हुए प्रतीत होते हैं। यह भ्रामक व्यवहार AI सिस्टम के उद्भव से जुड़ा है।