Page Loader
AI से इंसानों के विलुप्त होने को लेकर चिंतित OpenAI, सुपरइंटेलिजेंस कंट्रोल के लिए बनाई टीम
OpenAI ने सुपरइंटेलिजेंट AI से मानव के विलुप्त होने का खतरा जताया है

AI से इंसानों के विलुप्त होने को लेकर चिंतित OpenAI, सुपरइंटेलिजेंस कंट्रोल के लिए बनाई टीम

लेखन रजनीश
Jul 07, 2023
04:52 pm

क्या है खबर?

OpenAI ने अपने आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट ChatGPT के जरिए दुनिया को जनरेटिव AI की क्षमता दिखाई। इसकी लोकप्रियता ने गूगल और मेटा जैसी दिग्गज टेक कंपनियों तक को हिला दिया। दूसरी तरफ AI की क्षमता को लेकर जानकार कई तरह के संभावित खतरों को लेकर चिंता भी जाहिर करते रहे हैं। अब खुद OpenAI ने कहा कि AI आगे चलकर मानव के विलुप्त होने का कारण बन सकती है। इसे रोकने के लिए कंपनी नई टीम बना रही है।

खतरे

अगली पीढ़ी के AI पर विचार कर रही है OpenAI

अब कंपनी अगली पीढ़ी के AI सुपरइंटेलिजेंट AI पर विचार कर रही है और उसके साथ आने वाले जोखिमों को नियंत्रित करने की तैयारी में है। कंपनी ने एक ब्लॉग पोस्ट में कहा कि सुपरइंटेलिजेंट AI इंसानों द्वारा अब तक अविष्कार की गई सबसे प्रभावशाली टेक्नोलॉजी होगी और यह दुनिया की कई सबसे महत्वपूर्ण समस्याओं को हल करने में मदद कर सकती है। OpenAI ने यह भी कहा कि सुपरइंटेलिजेंट AI लगभग एक दशक में आ सकती है।

चिंता

सुपरइंटेलिजेंस AI के खतरों के लिए कंपनी बना रही है टीम

ChatGPT निर्माता OpenAI इंसानों से भी अधिक स्मार्ट सुपरइंटेलिजेंट AI के संभावित खतरों के बारे में काफी चिंतित है। इसके लिए OpenAI एक नई टीम बना रही है, जो यह सुनिश्चित करने का काम करेगी कि ये एडवांस सिस्टम लोगों की भलाई के लिए काम करें, न कि उनके खिलाफ। ब्लॉग में कहा गया है कि सुपरइंटेलिजेंट AI की विशाल ताकत बहुत खतरनाक हो सकती है और इंसानों के विलुप्त होने का कारण बन सकती है।

योजना

ह्यूमन-लेवल इंटेलिजेंस AI करेगी सुपरइंटेलिजेंट AI की निगरानी

OpenAI के को-फाउंडर और नई टीम के को-हेड जान लेइक ने ब्लॉग ने लिखा, 'वर्तमान में हमारे पास संभावित रूप से सुपरइंटेलिजेंट AI को चलाने या नियंत्रित करने के लिए कोई समाधान नहीं है।' अन्य लेखकों ने लिखा कि यह मानव के विलुप्त होने का कारण बन सकता है। OpenAI की सुपरएलाइनमेंट नाम की नई टीम ह्यूमन-लेवल इंटेलिजेंस वाली AI डेवलप करने की योजना बना रही है, जो अगले 4 वर्षों के भीतर सुपरइंटेलिजेंट AI की निगरानी कर सके।

खतरे

AI के खतरों को कम करने के लिए जानकारों ने दी थी ये राय

कुछ समय पहले शीर्ष शोधकर्ताओं, इंजीनियरों और CEO के एक समूह ने इसके AI के खतरों को लेकर चेतावनी जारी की थी। इनमें गूगल डीपमाइंड के CEO डेमिस हासाबिस और OpenAI के CEO सैम ऑल्टमैन के साथ-साथ जेफ्री हिंटन और यूशुआ बेंगियो सहित कई अन्य लोग थे। इन्होंने एक बयान जारी कर कहा था कि महामारी और परमाणु हमले की तरह प्राथमकिता देकर AI के खतरों को वैश्विक स्तर पर कम किया जाना चाहिए।