
AI शोधकर्ताओं और कई CEO ने इसके खतरे को लेकर दी नई चेतावनी, कही ये बात
क्या है खबर?
आर्टिफिशियल इंटेलिजेंस (AI) को समझने वाले और टेक जगत के कई जानकार इसके संभावित खतरों को लेकर अपनी चिंता जाहिर करते रहे हैं।
कुछ समय पहले टेस्ला और ट्विटर के मालिक एलन मस्क और ऐपल के को-फाउंडर स्टीव वोज्नियाक सहित अन्य लोगों ने AI के विकास को रोकने से जुड़े एक पेपर पर हस्ताक्षर किए थे।
अब AI के शीर्ष शोधकर्ताओं, इंजीनियरों और CEO के एक समूह ने इसके खतरों को लेकर चेतावनी जारी की है।
खतरे
जानकारों ने बयान में कही यह बात
AI के खतरों को लेकर नई चेतावनी जारी करने वालों का मानना है कि ये मानवता के लिए खतरा है। उन लोगों ने इससे जुड़े खतरे को लेकर एक बयान भी दिया है।
बयान के मुताबिक, उन लोगों ने कहा कि AI के खतरों को कम करना वैश्विक प्राथमिकता होनी चाहिए। उनके मुताबिक, महामारी और न्यूक्लियर हमले जैसे सामाजिक-स्तर के जोखिम की तरह ही AI के खतरों को प्राथमिकता देकर कम किया जाना चाहिए।
बयान
इन दिग्गजों ने बयान पर किया हस्ताक्षर
सैन फ्रांसिस्को स्थित एक गैर-लाभकारी संस्था, सेंटर फॉर AI सेफ्टी द्वारा प्रकाशित बयान पर गूगल डीपमाइंड के CEO डेमिस हासाबिस और OpenAI के CEO सैम ऑल्टमैन के साथ-साथ जेफ्री हिंटन और यूशुआ बेंगियो सहित कई हस्तियों ने हस्ताक्षर किए हैं।
जेफ्री और यूशुआ ने AI पर अपने काम के लिए 2018 ट्यूरिंग अवार्ड जीता था। इसे कंप्यूटिंग का नोबेल पुरस्कार के रूप में भी जाना जाता है। ट्यूरिंग जीतने वाले तीसरे विजेता ने इस पर हस्ताक्षर नहीं किए हैं।
बहस
पहले से ही छिड़ी है बहस
यह बयान उस समय आया है, जब AI को लेकर पहले से बहस छिड़ी हुई है। AI के नियमन और और इसके विकास के लिए कानून की मांग हो रही है।
इससे पहले जब मस्क और वोज्नियाक आदि ने AI के विकास पर 6 महीने के रोक की मांग वाले पेपर पर हस्ताक्षर किया था तो कुछ लोगों ने उसकी आलोचना की थी।
कुछ विशेषज्ञों ने कहा था कि ये लोग AI के खतरों को बढ़ा-चढ़ाकर पेश कर रहे हैं।
निदेशक
AI के खतरों से कई लोग निजी तौर पर हैं चिंतित- डैन हेंड्रिक्स
सेंटर फॉर AI सेफ्टी के कार्यकारी निदेशक डैन हेंड्रिक्स ने द न्यू यॉर्क टाइम्स को बताया कि AI समुदाय में एक बहुत ही आम गलत धारणा है कि केवल मुट्ठी भर लोग इसके खतरों को लेकर चिंतित हैं, लेकिन वास्तव में बहुत से लोग निजी तौर पर इन चीजों के बारे में चिंतित हैं।
AI सिस्टम के बारे में कहा जा रहा है कि ये क्षमताओं में तेजी से वृद्धि करते हैं और सुरक्षित रूप से कार्य नहीं करते हैं।
सुधार
AI को लेकर 2 तरह की राय
कई विशेषज्ञ AI के बड़े लैंग्वेज मॉडल सिस्टम में तेजी से सुधार की बात करते हैं। उनका कहना है कि यदि एक बार AI सिस्टम अपनी सीमा तक पहुंच गए तो उनको नियंत्रित करना असंभव हो सकता है।
दूसरी तरफ कई जानकार इन विचारों से सहमत नहीं हैं और AI सिस्टम को बड़ा खतरा नहीं मानते। उनके मुताबिक, AI के बाद भी स्वचलित कार वास्तविकता से दूर हैं तो ये आने वाले सालों में मनुष्य के लिए कैसे खतरा होगा।