
ChatGPT जैसे माॅडल आसानी से हो सकते हैं हैक, अध्ययन में हुआ खुलासा
क्या है खबर?
क्लाउड निर्माता कंपनी एंथ्रोपिक की ओर से किए गए एक नए अध्ययन ने आर्टिफिशियल इंटेलिजेंस (AI) से जुड़ी एक गंभीर सुरक्षा खामी का खुलासा किया है। इस शोध से पता चलता है कि बड़े भाषा मॉडल (LLM) को कितनी आसानी से दुर्भावनापूर्ण डाटा से संक्रमित किया जा सकता है। इसके लिए किसी बड़ी हैकिंग की आवश्यकता नहीं है। यह अध्ययन UK AI सिक्योरिटी इंस्टीट्यूट और एलन ट्यूरिंग इंस्टीट्यूट के सहयोग से किया गया है।
प्रभावित
मॉडल्स को ऐसे किया जा सकता है प्रभावित
शोधकर्ताओं ने पाया कि किसी मॉडल के व्यवहार को प्रभावित करने के लिए सिर्फ 250 पॉइजन फाइल्स की जरूरत होती है। जब ये फाइल्स प्रशिक्षण डाटा में आ जाती हैं तो वे 'बैकडोर' बना सकती हैं, जो अनियमित या भ्रामक प्रतिक्रियाएं उत्पन्न करती हैं। खास बात यह है कि छोटे सिस्टम से लेकर विशाल 13 अरब पैरामीटर वाले सभी मॉडल्स इससे प्रभावित हो सकते हैं। यह धारणा कि बड़े मॉडल स्वाभाविक रूप से हैकिंग के प्रति अधिक लचीले होते हैं।
नुकसान
खामी ठीक नहीं हुई तो उद्योग को होगा नुकसान
क्लाउड और ChatGPT जैसे AI मॉडल ऑफिस असिस्टेंस से लेकर कोडिंग कोपायलट को शक्ति प्रदान करते हैं। यह शोध एक इन पर मंडराते खतरे को उजागर करता है। हमलावरों को अराजकता फैलाने के लिए सुपर कंप्यूटर या अंदरूनी पहुंच की जरूरत नहीं है। कुछ हानिकारक डाटा बिंदु पूरे AI सिस्टम को भ्रमित करने के लिए पर्याप्त हो सकते हैं। अगर, ऐसी कमजोरियों पर ध्यान नहीं दिया गया AI पर निर्भर उद्यमों को नुकसान का सामना करना पड़ सकता है।