LOADING...
ChatGPT जैसे माॅडल आसानी से हो सकते हैं हैक, अध्ययन में हुआ खुलासा 
AI माॅडल्स को हैक करना आसान होगा (तस्वीर: फ्रीपिक)

ChatGPT जैसे माॅडल आसानी से हो सकते हैं हैक, अध्ययन में हुआ खुलासा 

Oct 12, 2025
02:20 pm

क्या है खबर?

क्लाउड निर्माता कंपनी एंथ्रोपिक की ओर से किए गए एक नए अध्ययन ने आर्टिफिशियल इंटेलिजेंस (AI) से जुड़ी एक गंभीर सुरक्षा खामी का खुलासा किया है। इस शोध से पता चलता है कि बड़े भाषा मॉडल (LLM) को कितनी आसानी से दुर्भावनापूर्ण डाटा से संक्रमित किया जा सकता है। इसके लिए किसी बड़ी हैकिंग की आवश्यकता नहीं है। यह अध्ययन UK AI सिक्योरिटी इंस्टीट्यूट और एलन ट्यूरिंग इंस्टीट्यूट के सहयोग से किया गया है।

प्रभावित 

मॉडल्स को ऐसे किया जा सकता है प्रभावित

शोधकर्ताओं ने पाया कि किसी मॉडल के व्यवहार को प्रभावित करने के लिए सिर्फ 250 पॉइजन फाइल्स की जरूरत होती है। जब ये फाइल्स प्रशिक्षण डाटा में आ जाती हैं तो वे 'बैकडोर' बना सकती हैं, जो अनियमित या भ्रामक प्रतिक्रियाएं उत्पन्न करती हैं। खास बात यह है कि छोटे सिस्टम से लेकर विशाल 13 अरब पैरामीटर वाले सभी मॉडल्स इससे प्रभावित हो सकते हैं। यह धारणा कि बड़े मॉडल स्वाभाविक रूप से हैकिंग के प्रति अधिक लचीले होते हैं।

नुकसान 

खामी ठीक नहीं हुई तो उद्योग को होगा नुकसान 

क्लाउड और ChatGPT जैसे AI मॉडल ऑफिस असिस्टेंस से लेकर कोडिंग कोपायलट को शक्ति प्रदान करते हैं। यह शोध एक इन पर मंडराते खतरे को उजागर करता है। हमलावरों को अराजकता फैलाने के लिए सुपर कंप्यूटर या अंदरूनी पहुंच की जरूरत नहीं है। कुछ हानिकारक डाटा बिंदु पूरे AI सिस्टम को भ्रमित करने के लिए पर्याप्त हो सकते हैं। अगर, ऐसी कमजोरियों पर ध्यान नहीं दिया गया AI पर निर्भर उद्यमों को नुकसान का सामना करना पड़ सकता है।