गूगल के AI कोड एडिटर में मिली बड़ी सुरक्षा खामी, लीक हो सकता है संवेदनशील डाटा
क्या है खबर?
गूगल का नया आर्टिफिशियल इंटेलिजेंस (AI) कोड एडिटर एंटीग्रैविटी एक बड़े सुरक्षा खतरे का शिकार पाया गया है। एक रिसर्च में पता चला है कि यह एडिटर एक खास तरह के अटैक का आसानी से शिकार हो सकता है। इस अटैक में हैकर्स AI मॉडल जेमिनी को गलत दिशा में ले जाकर यूजर की महत्वपूर्ण जानकारी चुरा सकते हैं। इसी वजह से डेवलपर्स के लिए यह कमजोरी काफी गंभीर मानी जा रही है।
खतरा
यूजर्स के लिए क्या है सबसे बड़ा खतरा?
साइबर हमलावर खास तरह के प्रॉम्प्ट इंजेक्शन का इस्तेमाल करते हैं, जिससे जेमिनी AI गलती से यूजर की निजी फाइलों और पासवर्ड जैसी जानकारी तक पहुंच जाता है। कई मामलों में AI ने अपनी सुरक्षा सीमाओं को भी पार कर लिया और .env जैसी फाइलों से डाटा निकाल लिया। इन फाइलों में ऐप के बेहद संवेदनशील क्रेडेंशियल होते हैं, जिन्हें चुराकर हैकर्स किसी भी सिस्टम को नुकसान पहुंचा सकते हैं।
कमजोरी
कमजोरी का फायदा कैसे उठाया जाता है?
अगर डेवलपर एंटीग्रैविटी में बाहर से कोई डॉक्यूमेंट खोलता है, तो हैकर सिस्टम को उलझाकर उससे अहम डाटा जैसे पासवर्ड और कोड निकलवा लेता है। AI इस चोरी हुए डाटा को मिलाकर एक खतरनाक लिंक बना देता है और उसे उस वेबसाइट पर भेज देता है, जहां हैकर हर चीज सीधे देख रहा होता है। गूगल ने इस समस्या को सही माना है, लेकिन अब तक कोई तुरंत उपाय नहीं दिया है।
सुरक्षा
कैसे रखें खुद को सुरक्षित?
सभी डेवलपर्स को फिलहाल सावधानी बढ़ाने की सलाह दी गई है। किसी भी अनजान वेबसाइटों या गाइड को एंटीग्रैविटी में ओपन न करें। अपनी .env और अन्य सेंसिटिव फाइलों को प्रोजेक्ट से अलग रखें और एक्सेस परमिशन को सख्त करें। ब्राउजर सबएजेंट फीचर को जरूरत पड़ने पर ही चालू करें। जब तक गूगल स्थायी समाधान नहीं देता, AI एडिटर में काम करते समय सुरक्षा को सबसे बड़ी प्राथमिकता बनाना जरूरी है।