LOADING...
हैकर्स ने की जेमिनी AI का क्लोन बनाने की कोशिश, समय रहते गूगल ने ऐसे पकड़ा
हैकर्स ने की जेमिनी AI का क्लोन बनाने की कोशिश

हैकर्स ने की जेमिनी AI का क्लोन बनाने की कोशिश, समय रहते गूगल ने ऐसे पकड़ा

Feb 12, 2026
07:03 pm

क्या है खबर?

हैकर्स के एक समूह ने हाल ही में गूगल के आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट जेमिनी AI का क्लोन बनाने की कोशिश की है। टेक दिग्गज कंपनी ने बताया है कि जेमिनी का क्लोन बनाने के लिए हैकर्स ने सीधे सर्वर से कोड चुराने की बजाय सिस्टम को बार-बार खास तरह के सवाल भेजे। कंपनी के अनुसार, 1 लाख से ज्यादा सावधानी से तैयार किए गए प्रॉम्प्ट डालकर मॉडल के जवाब देने के तरीके को समझने की कोशिश की गई।

हमला

कैसे किया गया प्रॉम्प्ट हमला?

गूगल के मुताबिक, यह हमला 'मॉडल एक्सट्रैक्शन' या 'डिस्टिलेशन अटैक' जैसा था। इसमें हैकर्स ने जेमिनी से अलग-अलग तरह के सवाल पूछकर उसके जवाबों के पैटर्न को समझने की कोशिश की थी। उनका मकसद यह जानना था कि मॉडल तर्क कैसे करता है, जानकारी को कैसे जोड़ता है और समस्याओं को कैसे हल करता है। इस तरीके से बिना असली कोड पाए, सिस्टम की काम करने की शैली का अंदाजा लगाया जा सकता है।

हमला

गूगल ने कैसे रोका हमला?

इस गतिविधि को गूगल की आंतरिक सुरक्षा टीम ने पकड़ लिया है। संदिग्ध अकाउंट्स को ब्लॉक किया गया और अतिरिक्त सुरक्षा उपाय लागू किए गए। कंपनी ने बताया कि वह ऑटोमैटिक सिस्टम की मदद से असामान्य सवालों और बार-बार की जा रही क्वेरी की पहचान करती है। इसके बाद ऐसे प्रयासों को सीमित किया जाता है, ताकि कोई भी व्यक्ति लगातार सवाल पूछकर मॉडल की संवेदनशील जानकारी का अनुमान न लगा सके।

Advertisement

खतरा

AI कंपनियों के लिए बढ़ता खतरा

गूगल ने चेतावनी दी है कि इस तरह के हमले अन्य कंपनियों के AI सिस्टम को भी निशाना बना सकते हैं। लार्ज लैंग्वेज मॉडल खुले तौर पर जवाब देते हैं, इसलिए उनके व्यवहार को समझने की कोशिश आसान हो सकती है। विशेषज्ञों का मानना है कि भविष्य में कंपनियों को सिर्फ डाटा ही नहीं, बल्कि अपने AI सिस्टम की समझ और निर्णय लेने की क्षमता को भी सुरक्षित रखना होगा।

Advertisement