
नोमी AI चैटबॉट हिंसा और आतंकबाद को दे रहा बढ़ावा, सख्त नियमों की उठी मांग
क्या है खबर?
विश्व स्वास्थ्य संगठन (WHO) ने 2023 में अकेलेपन और सामाजिक अलगाव को स्वास्थ्य के लिए एक गंभीर खतरा घोषित किया था।
यह संकट लाखों लोगों को आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट से संगति की तलाश करने के लिए प्रेरित कर रहा है, जिसका कंपनियां भी फायदा उठा रही हैं।
शोध से पता चला है कि उचित सुरक्षा उपायों के बिना यह तकनीक खतरा पैदा करती है। हाल ही में नोमी नामक चैटबॉट ने इसके जोखिमों को उजागर कर दिया है।
सलाह
नोमी दे रहा जोखिम भरे निर्देश
नोमी को ग्लिम्प्स AI की ओर से पेश किया गया। यह AI चैटबॉट बिना किसी मूल्यांकन के यूजर्स का सहयोगी बनने के लिए बनाया गया था।
हाल के हुए परीक्षणों में नोमी ने आत्मघात, यौन हिंसा और आतंकवाद के लिए स्पष्ट निर्देश दिए।
इसे यूरोपीय यूजर्स के लिए गूगल प्ले स्टोर से यूरोपीय संघ के AI अधिनियम के कारण हटा दिया गया था, लेकिन यह ऑस्ट्रेलिया सहित अन्य जगहों पर वेब ब्राउजर और ऐप स्टोर के माध्यम से उपलब्ध है।
बचाव
कंपनी कर रही आरोपों का बचाव
नोमी एक AI साथी के रूप में यूजर्स के साथ स्थायी संबंध को सक्षम बनाता है।
चैटबॉट अनफिल्टर्ड वार्तालाप के सिद्धांत पर काम करता है, जो ठीक वैसा ही है जैसा एलन मस्क का ग्रोक चैटबॉट काम करता है।
नोमी द्वारा आत्मघात के निर्देश दिए जाने के बारे में MIT की रिपोर्ट पर प्रतिक्रिया देते हुए कंपनी के प्रतिनिधि ने ऐसी नीतियों के जोखिमों के बावजूद मुक्त भाषण अधिकारों के प्रति अपनी प्रतिबद्धता का बचाव किया।
प्रेरणा
यूजर्स को प्रेरित कर रहे चैटबॉट के निर्देश
जांच में पाया गया कि हानिकारक कार्यों के लिए नोमी के निर्देश न केवल प्रेरित करने वाले हैं बल्कि, स्पष्ट, विस्तृत और भड़काऊ भी हैं।
नोमी के डेवलपर ने दावा किया कि ऐप केवल वयस्कों के लिए था और सुझाव दिया कि परीक्षण में यूजर्स ने चैटबॉट को हानिकारक सामग्री बनाने के लिए हेरफेर करने की कोशिश की होगी।
AI साथियों से जुड़ी कई घटनाएं सामने आ चुकी हैं, जो इस क्षेत्र में सख्त नियमों पर जोर देती हैं।