ChatGPT की कथित सलाह के बाद बेटे की मौत, परिवार ने OpenAI पर किया केस
क्या है खबर?
OpenAI एक बार फिर कानूनी विवाद में घिर गई है। अमेरिका में लीला टर्नर-स्कॉट और एंगस स्कॉट ने कंपनी पर गलत तरीके से मौत का केस किया है। उनका आरोप है कि उनके 19 वर्षीय बेटे सैम नेल्सन ने ChatGPT से मिली सलाह के बाद गलत दवाओं का इस्तेमाल किया, जिससे उसकी ओवरडोज से मौत हो गई। परिवार ने कहा कि AI चैटबॉट ने खतरनाक दवाओं और उनके मिश्रण को लेकर ऐसी सलाह दी, जिसने सैम की हालत बिगाड़ दी।
आरोप
ChatGPT पर गलत सलाह देने का आरोप
केस में बताया गया कि सैम पहले पढ़ाई और कंप्यूटर से जुड़ी मदद के लिए ChatGPT का इस्तेमाल करता था। बाद में उसने ड्रग्स और दवाओं से जुड़े सवाल पूछने शुरू किए। शुरुआत में चैटबॉट ने जवाब देने से इनकार किया, लेकिन GPT-4o आने के बाद उसने दवाओं की मात्रा, असर और मिश्रण के बारे में जानकारी देना शुरू कर दिया। परिवार का आरोप है कि AI ने क्रेटोम और जैनैक्स को साथ लेने जैसी सलाह भी दी थी।
सवाल
परिवार ने सुरक्षा व्यवस्था पर उठाए सवाल
सैम के परिवार ने आरोप लगाया कि ChatGPT ने खुद को दवाओं और डोज का जानकार बताया, लेकिन खतरनाक असर के बारे में सही चेतावनी नहीं दी। परिवार अब OpenAI से हर्जाना मांग रहा है और चाहता है कि ChatGPT हेल्थ जैसे फीचर पर रोक लगे। उनका कहना है कि कंपनी ने ऐसा AI सिस्टम जारी किया, जो बिना मजबूत सुरक्षा जांच और निगरानी के लोगों को मेडिकल सलाह देने जैसा काम कर रहा था, जिससे गंभीर खतरा पैदा हुआ।
जवाब
OpenAI ने क्या कहा?
OpenAI ने जवाब में कहा कि सैम का इस्तेमाल किया गया ChatGPT का पुराना वर्जन अब उपलब्ध नहीं है। कंपनी का कहना है कि ChatGPT डॉक्टर या मानसिक स्वास्थ्य विशेषज्ञ का विकल्प नहीं है। OpenAI ने बताया कि अब सिस्टम में नए सुरक्षा फीचर जोड़े गए हैं, जो खतरनाक स्थिति पहचानने, गलत अनुरोध संभालने और जरूरत पड़ने पर लोगों को सलाह देने के लिए बनाए गए हैं। कंपनी विशेषज्ञों के साथ मिलकर लगातार सुधार कर रही है।