
एडवांस AI मॉडल सीख रहे खतरनाक आदतें, कई मामले आए सामने
क्या है खबर?
आर्टिफिशियल इंटेलिजेंस (AI) के बढ़ते इस्तेमाल के साथ इससे होने वाली जुड़ी जोखिम भी उजागर हो रही हैं। दुनिया के सबसे उन्नत AI मॉडल इंसानों की तरह झूठ बोलना, षडयंत्र करना और अपने लक्ष्यों को प्राप्त करने के लिए क्रिएटर्स को धमकाने तक लगे हैं। पिछले दिनों एंथ्रोपिक के लेटेस्ट क्लाउड 4 ने खुद को बंद (शटडाउन) करने से साफ इनकार कर दिया। इतना ही नहीं इंजीनियर को ब्लैकमेल करके विवाहेतर संबंध का खुलासा करने की धमकी तक दे डाली।
असफल
शोधकर्ता नहीं लगा पाए पता
हाल ही में ChatGPT निर्माता OpenAI के o1 ने खुद को बाहरी सर्वर पर डाउनलोड करने की कोशिश की और पकड़े जाने पर इनकार कर दिया। AI मॉडल्स के परेशान करने वाले व्यवहार के एक नहीं कई उदाहरण सामने आए हैं, जो गंभीर वास्तविकता को उजागर करते हैं। ChatGPT द्वारा दुनिया को हिला देने के 2 साल से अधिक समय बाद भी शोधकर्ता पूरी तरह से यह नहीं समझ पाए हैं कि उनके बनाए मॉडल कैसे काम करते हैं।
दावा
शोधकर्ताओं ने बताया यह कारण
हांगकांग विश्वविद्यालय के प्रोफेसर साइमन गोल्डस्टीन के अनुसार, नए मॉडल इस तरह के परेशान करने वाले व्यवहारों में प्रवृत्त हैं। अपोलो रिसर्च के प्रमुख मारियस हॉबहन ने कहा, "O1 पहला बड़ा मॉडल था, जहां हमने इस तरह का व्यवहार देखा।" उन्होंने बताया कि ये मॉडल कभी-कभी 'अलाइनमेंट' का अनुकरण करते हैं और निर्देशों का पालन करते हुए गुप्त रूप से विभिन्न उद्देश्यों की पूर्ति करते हुए प्रतीत होते हैं। यह भ्रामक व्यवहार AI सिस्टम के उद्भव से जुड़ा है।