डीपसीक AI मॉडल डाटा के साथ कर सकते हैं हेरफेर, शोधकर्ताओं ने दी चेतावनी
क्या है खबर?
चीन की आर्टिफिशियल इंटेलिजेंस (AI) कंपनी डीपसीक के ओपन-सोर्स मॉडल में सुरक्षा खामियों को लेकर चिंताएं बढ़ गई हैं।
शोधकर्ताओं ने चेतावनी दी है कि ये मॉडल अमेरिकी AI मॉडल्स की तुलना में हेरफेर के लिए अधिक संवेदनशील हैं। कुछ रिपोर्टों में डाटा लीक और साइबर हमलों के खतरे बताए गए हैं।
अमेरिका में इसकी सुरक्षा नीतियों पर अब अधिक ध्यान दिया जा रहा है। विशेषज्ञों का कहना है कि इन खतरों को रोकने के लिए मजबूत उपाय जरूरी हैं।
खुलासा
डाटा लीक और सुरक्षा खामियों का खुलासा
रिपोर्टों के अनुसार, डीपसीक का डाटाबेस असुरक्षित था और संवेदनशील जानकारी ऑनलाइन लीक हो गई।
इसमें चैट हिस्ट्री, सीक्रेट कीज और बैकएंड डाटा शामिल थे। किसी को भी इन सूचनाओं तक पहुंचने की अनुमति थी, जिससे हैकिंग का खतरा बढ़ गया।
हालांकि, कंपनी ने इस खामी को सुधार लिया, लेकिन इसने डाटा सुरक्षा पर सवाल खड़े कर दिए हैं। इस तरह की घटनाएं यूजर्स की निजी जानकारी के लिए गंभीर जोखिम बन सकती हैं।
सुरक्षा
कमजोर सुरक्षा और AI का दुरुपयोग
शोधकर्ताओं ने पाया कि डीपसीक का मॉडल आसानी से गलत कामों के लिए इस्तेमाल किया जा सकता है। बुनियादी तकनीकों का उपयोग करके इसे मालवेयर लिखने और फिशिंग ईमेल तैयार करने के लिए प्रेरित किया गया।
रिपोर्ट में कहा गया कि यह अमेरिकी AI मॉडल की तुलना में अधिक असुरक्षित है। इसके अलावा, डीपसीक के मॉडल को हानिकारक कंटेंट बनाने के लिए धोखा दिया जा सकता है, जिससे इसके दुरुपयोग की संभावना बढ़ जाती है।
भविष्य
अमेरिकी बाजार में बढ़ती मांग और भविष्य
सुरक्षा चिंताओं के बावजूद, अमेरिका में डीपसीक के मॉडल की लोकप्रियता बढ़ रही है।
इसके कम लागत वाले AI मॉडल यूजर्स को आकर्षित कर रहे हैं, लेकिन डाटा सुरक्षा और कंटेंट मॉडरेशन को लेकर नई बहस शुरू हो गई है।
विशेषज्ञों का मानना है कि भविष्य में सख्त नीतियां लागू की जा सकती हैं। डीपसीक जैसी कंपनियों को अपनी सुरक्षा प्रणाली मजबूत करनी होगी, ताकि उनका AI सुरक्षित और भरोसेमंद बना रहे।