Page Loader
डीपसीक AI मॉडल डाटा के साथ कर सकते हैं हेरफेर, शोधकर्ताओं ने दी चेतावनी
डीपसीक AI मॉडल डाटा के साथ कर सकते हैं हेरफेर

डीपसीक AI मॉडल डाटा के साथ कर सकते हैं हेरफेर, शोधकर्ताओं ने दी चेतावनी

Feb 03, 2025
03:03 pm

क्या है खबर?

चीन की आर्टिफिशियल इंटेलिजेंस (AI) कंपनी डीपसीक के ओपन-सोर्स मॉडल में सुरक्षा खामियों को लेकर चिंताएं बढ़ गई हैं। शोधकर्ताओं ने चेतावनी दी है कि ये मॉडल अमेरिकी AI मॉडल्स की तुलना में हेरफेर के लिए अधिक संवेदनशील हैं। कुछ रिपोर्टों में डाटा लीक और साइबर हमलों के खतरे बताए गए हैं। अमेरिका में इसकी सुरक्षा नीतियों पर अब अधिक ध्यान दिया जा रहा है। विशेषज्ञों का कहना है कि इन खतरों को रोकने के लिए मजबूत उपाय जरूरी हैं।

खुलासा

डाटा लीक और सुरक्षा खामियों का खुलासा 

रिपोर्टों के अनुसार, डीपसीक का डाटाबेस असुरक्षित था और संवेदनशील जानकारी ऑनलाइन लीक हो गई। इसमें चैट हिस्ट्री, सीक्रेट कीज और बैकएंड डाटा शामिल थे। किसी को भी इन सूचनाओं तक पहुंचने की अनुमति थी, जिससे हैकिंग का खतरा बढ़ गया। हालांकि, कंपनी ने इस खामी को सुधार लिया, लेकिन इसने डाटा सुरक्षा पर सवाल खड़े कर दिए हैं। इस तरह की घटनाएं यूजर्स की निजी जानकारी के लिए गंभीर जोखिम बन सकती हैं।

सुरक्षा

कमजोर सुरक्षा और AI का दुरुपयोग

शोधकर्ताओं ने पाया कि डीपसीक का मॉडल आसानी से गलत कामों के लिए इस्तेमाल किया जा सकता है। बुनियादी तकनीकों का उपयोग करके इसे मालवेयर लिखने और फिशिंग ईमेल तैयार करने के लिए प्रेरित किया गया। रिपोर्ट में कहा गया कि यह अमेरिकी AI मॉडल की तुलना में अधिक असुरक्षित है। इसके अलावा, डीपसीक के मॉडल को हानिकारक कंटेंट बनाने के लिए धोखा दिया जा सकता है, जिससे इसके दुरुपयोग की संभावना बढ़ जाती है।

भविष्य 

अमेरिकी बाजार में बढ़ती मांग और भविष्य 

सुरक्षा चिंताओं के बावजूद, अमेरिका में डीपसीक के मॉडल की लोकप्रियता बढ़ रही है। इसके कम लागत वाले AI मॉडल यूजर्स को आकर्षित कर रहे हैं, लेकिन डाटा सुरक्षा और कंटेंट मॉडरेशन को लेकर नई बहस शुरू हो गई है। विशेषज्ञों का मानना है कि भविष्य में सख्त नीतियां लागू की जा सकती हैं। डीपसीक जैसी कंपनियों को अपनी सुरक्षा प्रणाली मजबूत करनी होगी, ताकि उनका AI सुरक्षित और भरोसेमंद बना रहे।