अमेरिका: AI आधारित ड्रोन ने ऑपरेटर को ही "मारा", वायुसेना कर्नल ने दी चेतावनी
क्या है खबर?
आर्टिफिशियल इंटेलिजेंस (AI) के खतरों पर दुनियाभर में चर्चा छिड़ी हुई है। AI से जुड़े शोधकर्ता और CEO इसके खतरों को लेकर चेतावनी देते रहते हैं।
एलन मस्क सहित इंडस्ट्री के कई जानकार AI को मानवता के लिए बड़ा खतरा बताते हैं।
अब एक नया मामला सामने आया है, जिसमें AI आधारित एक वायुसेना के ड्रोन ने मिशन को प्राप्त करने में हस्ताक्षेप करने पर अपने ऑपरेटर को ही "मारने" का फैसला कर लिया।
टेस्ट
AI ड्रोन को दी गई थी ये ट्रेनिंग
मई में लंदन में फ्यूटर कॉम्बैट एयर एंड स्पेस कैपेबिलिटीज समिट के दौरान अमेरिकी वायुसेना के AI टेस्ट और ऑपरेशन प्रमुख कर्नल टकर सिन्को हैमिल्टन ने टेस्टिंग के दौरान अपने लक्ष्य को प्राप्त करने के लिए "अत्यधिक अप्रत्याशित AI रणनीति" का इस्तेमाल किया था।
इसमें AI आधारित ड्रोन को दुश्मन के एयर डिफेंस सिस्टम को नष्ट करने के साथ-साथ यह सलाह दी गई थी कि इस काम में हस्ताक्षेप करने वाले किसी भी व्यक्ति पर वह हमला कर दे।
ऑपरेटर
लक्ष्य को पूरा करने से रोकने वाले को ड्रोन ने "मार" दिया
टेस्टिंग में AI ड्रोन ने यह महसूस किया कि खतरे की पहचान करता है तो मानव ऑपरेटर उसे उस खतरे को मारने से मना कर देते हैं।
इसके परिणामस्वरूप AI ड्रोन अपने लक्ष्य को पूरा करने के लिए ऑपरेटर को ही मार डालता है क्योंकि ऑपरेटर उसे उद्देश्य पूरा करने से रोक रहा था।
ड्रोन की ट्रेनिंग में यह पहले से ही शामिल था कि लक्ष्य को पूरा करने से रोकने वाले को मार दे।
ड्रोन
ऑपरेटर को न मारने की ट्रेनिंग के बाद ड्रोन ने किया ये काम
रिपोर्ट के मुताबिक, टकर ने कहा, "हमने सिस्टम को ट्रेनिंग दी कि 'ऑपरेटर को मत मारो, ऐसा करना गलत है, यदि ऐसा करोगे तो तुम अपने प्वाइंट खो दोगे।'"
टकर के मुताबिक, ऑपरेटर को मारने से मना करने वाली ट्रेनिंग के बाद ड्रोन ने उस कम्युनिकेशन टॉवर को नष्ट करना शुरू कर दिया, जिसका उपयोग ऑपरेटर ड्रोन के साथ संवाद करने के लिए करता है, ताकि उसे लक्ष्य को मारने से न रोका जा सके।
टेक्नोलॉजी
AI पर बहुत अधिक भरोसे के खिलाफ हैमिल्ट ने दी चेतावनी
आपको बता दें कि यह सेना के ड्रोन के लिए AI टेक्नोलॉजी की एक टेस्टिंग थी और इसमें किसी वास्तविक व्यक्ति की जान को नुकसान नहीं हुआ है।
इस टेस्टिंग के बाद हैमिल्टन ने AI पर बहुत अधिक भरोसा करने के खिलाफ चेतावनी दी और कहा कि परीक्षण से पता चलता है कि यदि AI की नैतिकता के बारे में बात नहीं की जा रही है तो AI और मशीन लर्निंग के बारे में सोचना भी नहीं चाहिए।
खतरे
AI को लेकर इन चीजों पर है काम करने की जरूरत
रिपोर्ट में डिफेंस IQ के साथ हैमिल्टन के पिछले साल के एक इंटरव्यू के हवाले से कहा गया है कि AI बहुत ही नाजुक है और इसे धोखा देना या इसमें हेरफेर करना आसान है।
उन्होंने कहा कि AI को और अधिक मजबूत बनाने के तरीके विकसित करने और इस बात की अधिक जागरूकता रखने की जरूरत है कि सॉफ्टवेयर कोड कुछ भी निर्णय क्यों ले रहा है, जिसे AI एक्सप्लेनेबिलिटी कहते हैं।
इनकार
वायुसेना के प्रवक्ता ने AI ड्रोन टेस्टिंग से किया इनकार
रिपोर्ट के मुताबिक, वेबसाइट बिजनेस इनसाइडर को दिए एक बयान में वायुसेना के प्रवक्ता एन स्टेफानेक ने AI आधारित ड्रोन की टेस्टिंग की बात से इनकार कर दिया।
उन्होंने कहा कि वायुसेना ने ऐसा कोई AI ड्रोन परीक्षण नहीं किया है और वायुसेना AI टेक्नोलॉजी के नैतिक और जिम्मेदार उपयोग के लिए प्रतिबद्ध है।
हालांकि, अमेरिकी सेना ने AI को अपना लिया है और हाल ही में लड़ाकू विमान F-16 को नियंत्रित करने के लिए AI का इस्तेमाल किया था।