हैकर्स ने की जेमिनी AI का क्लोन बनाने की कोशिश, समय रहते गूगल ने ऐसे पकड़ा
क्या है खबर?
हैकर्स के एक समूह ने हाल ही में गूगल के आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट जेमिनी AI का क्लोन बनाने की कोशिश की है। टेक दिग्गज कंपनी ने बताया है कि जेमिनी का क्लोन बनाने के लिए हैकर्स ने सीधे सर्वर से कोड चुराने की बजाय सिस्टम को बार-बार खास तरह के सवाल भेजे। कंपनी के अनुसार, 1 लाख से ज्यादा सावधानी से तैयार किए गए प्रॉम्प्ट डालकर मॉडल के जवाब देने के तरीके को समझने की कोशिश की गई।
हमला
कैसे किया गया प्रॉम्प्ट हमला?
गूगल के मुताबिक, यह हमला 'मॉडल एक्सट्रैक्शन' या 'डिस्टिलेशन अटैक' जैसा था। इसमें हैकर्स ने जेमिनी से अलग-अलग तरह के सवाल पूछकर उसके जवाबों के पैटर्न को समझने की कोशिश की थी। उनका मकसद यह जानना था कि मॉडल तर्क कैसे करता है, जानकारी को कैसे जोड़ता है और समस्याओं को कैसे हल करता है। इस तरीके से बिना असली कोड पाए, सिस्टम की काम करने की शैली का अंदाजा लगाया जा सकता है।
हमला
गूगल ने कैसे रोका हमला?
इस गतिविधि को गूगल की आंतरिक सुरक्षा टीम ने पकड़ लिया है। संदिग्ध अकाउंट्स को ब्लॉक किया गया और अतिरिक्त सुरक्षा उपाय लागू किए गए। कंपनी ने बताया कि वह ऑटोमैटिक सिस्टम की मदद से असामान्य सवालों और बार-बार की जा रही क्वेरी की पहचान करती है। इसके बाद ऐसे प्रयासों को सीमित किया जाता है, ताकि कोई भी व्यक्ति लगातार सवाल पूछकर मॉडल की संवेदनशील जानकारी का अनुमान न लगा सके।
खतरा
AI कंपनियों के लिए बढ़ता खतरा
गूगल ने चेतावनी दी है कि इस तरह के हमले अन्य कंपनियों के AI सिस्टम को भी निशाना बना सकते हैं। लार्ज लैंग्वेज मॉडल खुले तौर पर जवाब देते हैं, इसलिए उनके व्यवहार को समझने की कोशिश आसान हो सकती है। विशेषज्ञों का मानना है कि भविष्य में कंपनियों को सिर्फ डाटा ही नहीं, बल्कि अपने AI सिस्टम की समझ और निर्णय लेने की क्षमता को भी सुरक्षित रखना होगा।