AI से इंसानों के विलुप्त होने को लेकर चिंतित OpenAI, सुपरइंटेलिजेंस कंट्रोल के लिए बनाई टीम
क्या है खबर?
OpenAI ने अपने आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट ChatGPT के जरिए दुनिया को जनरेटिव AI की क्षमता दिखाई। इसकी लोकप्रियता ने गूगल और मेटा जैसी दिग्गज टेक कंपनियों तक को हिला दिया।
दूसरी तरफ AI की क्षमता को लेकर जानकार कई तरह के संभावित खतरों को लेकर चिंता भी जाहिर करते रहे हैं। अब खुद OpenAI ने कहा कि AI आगे चलकर मानव के विलुप्त होने का कारण बन सकती है।
इसे रोकने के लिए कंपनी नई टीम बना रही है।
खतरे
अगली पीढ़ी के AI पर विचार कर रही है OpenAI
अब कंपनी अगली पीढ़ी के AI सुपरइंटेलिजेंट AI पर विचार कर रही है और उसके साथ आने वाले जोखिमों को नियंत्रित करने की तैयारी में है।
कंपनी ने एक ब्लॉग पोस्ट में कहा कि सुपरइंटेलिजेंट AI इंसानों द्वारा अब तक अविष्कार की गई सबसे प्रभावशाली टेक्नोलॉजी होगी और यह दुनिया की कई सबसे महत्वपूर्ण समस्याओं को हल करने में मदद कर सकती है।
OpenAI ने यह भी कहा कि सुपरइंटेलिजेंट AI लगभग एक दशक में आ सकती है।
चिंता
सुपरइंटेलिजेंस AI के खतरों के लिए कंपनी बना रही है टीम
ChatGPT निर्माता OpenAI इंसानों से भी अधिक स्मार्ट सुपरइंटेलिजेंट AI के संभावित खतरों के बारे में काफी चिंतित है।
इसके लिए OpenAI एक नई टीम बना रही है, जो यह सुनिश्चित करने का काम करेगी कि ये एडवांस सिस्टम लोगों की भलाई के लिए काम करें, न कि उनके खिलाफ।
ब्लॉग में कहा गया है कि सुपरइंटेलिजेंट AI की विशाल ताकत बहुत खतरनाक हो सकती है और इंसानों के विलुप्त होने का कारण बन सकती है।
योजना
ह्यूमन-लेवल इंटेलिजेंस AI करेगी सुपरइंटेलिजेंट AI की निगरानी
OpenAI के को-फाउंडर और नई टीम के को-हेड जान लेइक ने ब्लॉग ने लिखा, 'वर्तमान में हमारे पास संभावित रूप से सुपरइंटेलिजेंट AI को चलाने या नियंत्रित करने के लिए कोई समाधान नहीं है।' अन्य लेखकों ने लिखा कि यह मानव के विलुप्त होने का कारण बन सकता है।
OpenAI की सुपरएलाइनमेंट नाम की नई टीम ह्यूमन-लेवल इंटेलिजेंस वाली AI डेवलप करने की योजना बना रही है, जो अगले 4 वर्षों के भीतर सुपरइंटेलिजेंट AI की निगरानी कर सके।
खतरे
AI के खतरों को कम करने के लिए जानकारों ने दी थी ये राय
कुछ समय पहले शीर्ष शोधकर्ताओं, इंजीनियरों और CEO के एक समूह ने इसके AI के खतरों को लेकर चेतावनी जारी की थी।
इनमें गूगल डीपमाइंड के CEO डेमिस हासाबिस और OpenAI के CEO सैम ऑल्टमैन के साथ-साथ जेफ्री हिंटन और यूशुआ बेंगियो सहित कई अन्य लोग थे।
इन्होंने एक बयान जारी कर कहा था कि महामारी और परमाणु हमले की तरह प्राथमकिता देकर AI के खतरों को वैश्विक स्तर पर कम किया जाना चाहिए।