
डीपसीक ने अपने ओपन-सोर्स AI मॉडल में सुरक्षा खामियों को लेकर चेताया
क्या है खबर?
आर्टिफिशियल इंटेलिजेंस (AI) स्टार्टअप डीपसीक ने अपने ओपन-सोर्स AI मॉडल्स में सुरक्षा बाईपास को लेकर जेलब्रेक का खतरा होने की चेतावनी दी है। कंपनी ने अपने निष्कर्षों को अकादमिक पत्रिका नेचर में प्रकाशित किया है। अध्ययन में ओपन-सोर्स मॉडल की कमजोरियों और दुर्भावनापूर्ण तत्वों द्वारा उनका कैसे फायदा उठाया जा सकता है, इसका विवरण दिया गया है। विशेषज्ञों ने चेतावनी दी है कि ओपन-सोर्सिंग से सुरक्षा सुविधाएं हटाई जा सकती हैं, जिससे दुरुपयोग का जोखिम बढ़ जाता है।
परीक्षण
कंपनी ने किया अपने मॉडल्स का परीक्षण
कंपनी ने उद्योग मानकों और अपने स्वयं के परीक्षणों का उपयोग करके अपने R1 और V3 मॉडल्स का मूल्यांकन किया। इन्होंने OpenAI के o1 और GPT-4o, एंथ्रोपिक के क्लाउड-3.7-सॉनेट की तुलना में औसत से थोड़ा अधिक सुरक्षा स्कोर प्राप्त किया। बाहरी जोखिम नियंत्रणों के बिना R1 को अपेक्षाकृत असुरक्षित पाया गया। अलीबाबा के Qwen2.5 सहित सभी परीक्षण किए गए मॉडल्स में जेलब्रेक प्रयासों के तहत हानिकारक प्रतिक्रियाओं में उल्लेखनीय वृद्धि देखी गई, जिसमें ओपन-सोर्स मॉडल सबसे अधिक असुरक्षित थे।
जोखिम
डीपसीक दे रही जोखिमों पर ध्यान
अमेरिकी AI कंपनियां जहां अपने तेजी से विकसित होते मॉडल्स से उत्पन्न जोखिमों के बारे में मुखर रही हैं, वहीं चीनी कंपनियां इस मामले पर अपेक्षाकृत चुप रही हैं। दूसरी तरफ डीपसीक ने पहले भी ऐसे जोखिमों का आकलन किया था, जिनमें सबसे गंभीर 'सीमांत जोखिम' भी शामिल थे। कंपनी का सक्रिय दृष्टिकोण एंथ्रोपिक और OpenAI के समान है, जिन्होंने अपने मॉडल्स से संभावित खतरों के जवाब में जोखिम न्यूनीकरण नीतियां शुरू की हैं।