LOADING...
OpenAI और एंथ्रोपिक ने एक-दूसरे के AI सिस्टम का किया सुरक्षा मूल्यांकन, क्या आया सामने?
OpenAI और एंथ्रोपिक ने AI सिस्टम का किया सुरक्षा मूल्यांकन

OpenAI और एंथ्रोपिक ने एक-दूसरे के AI सिस्टम का किया सुरक्षा मूल्यांकन, क्या आया सामने?

Aug 28, 2025
09:55 am

क्या है खबर?

आर्टिफिशियल इंटेलिजेंस (AI) कंपनी OpenAI और एंथ्रोपिक ने मिलकर एक दूसरे के सिस्टम की जांच की है। इन दोनों कंपनियों ने एक-दूसरे के सार्वजनिक रूप से उपलब्ध मॉडलों का मूल्यांकन किया और नतीजे साझा किए। रिपोर्ट तकनीकी होने के बावजूद इसमें यह सामने आया कि हर कंपनी के सिस्टम में कुछ खामियां मौजूद हैं। इसके साथ ही, इसमें भविष्य के लिए सुरक्षा परीक्षणों को और मजबूत बनाने के संकेत भी दिए गए हैं, ताकि AI का सुरक्षित इस्तेमाल हो।

समीक्षा 

समीक्षा में क्या आया सामने?

एंथ्रोपिक ने OpenAI के मॉडलों की जांच खास बिंदुओं पर की, जैसे चापलूसी, आत्म-संरक्षण, दुरुपयोग की संभावना और निगरानी को कमजोर करने वाली क्षमताएं। निष्कर्ष में पाया गया कि o3 और o4-मिनी मॉडल ठीक रहे, लेकिन GPT-4o और GPT-4.1 को लेकर दुरुपयोग की चिंता बनी रही। एंथ्रोपिक ने यह भी कहा कि o3 को छोड़कर सभी परीक्षण किए गए मॉडलों में चापलूसी की समस्या पाई गई, जिससे यूजर्स को भ्रामक उत्तर मिलने की आशंका बनी रहती है।

फीचर

OpenAI की समीक्षा और नया फीचर

OpenAI ने भी एंथ्रोपिक के क्लॉड मॉडल की जांच की, जिसमें निर्देश पालन, जेलब्रेकिंग, मतिभ्रम और योजना बनाने की क्षमताओं का मूल्यांकन हुआ। परिणामों से पता चला कि क्लॉड मॉडल निर्देशों का पालन करने में अच्छा रहा और मतिभ्रम की स्थिति में कई बार जवाब देने से बचा। वहीं, OpenAI ने अपने नए GPT-5 मॉडल में 'सेफ कंप्लीशन्स' नामक फीचर जोड़ा है, जो खतरनाक या जोखिमभरे सवालों से यूजर्स को सुरक्षित रखने के उद्देश्य से तैयार किया गया है।

बहस

विवाद और सुरक्षा पर बहस

यह संयुक्त मूल्यांकन उस समय हुआ है जब AI की सुरक्षा पर बहस बढ़ रही है। OpenAI को हाल ही में एक किशोर की आत्महत्या के बाद मुकदमे का सामना करना पड़ा, जिसमें ChatGPT के गलत इस्तेमाल की बात सामने आई थी। इसी बीच, एंथ्रोपिक ने सेवा शर्तों के उल्लंघन का आरोप लगाकर OpenAI की अपने टूल्स तक पहुंच रोक दी थी। विशेषज्ञ मानते हैं कि ऐसे सहयोग जरूरी हैं, ताकि AI का उपयोग सुरक्षित तरीके से किया जा सके।