LOADING...
ChatGPT की कथित सलाह के बाद बेटे की मौत, परिवार ने OpenAI पर किया केस
OpenAI पर एक और बड़ा केस

ChatGPT की कथित सलाह के बाद बेटे की मौत, परिवार ने OpenAI पर किया केस

May 13, 2026
01:44 pm

क्या है खबर?

OpenAI एक बार फिर कानूनी विवाद में घिर गई है। अमेरिका में लीला टर्नर-स्कॉट और एंगस स्कॉट ने कंपनी पर गलत तरीके से मौत का केस किया है। उनका आरोप है कि उनके 19 वर्षीय बेटे सैम नेल्सन ने ChatGPT से मिली सलाह के बाद गलत दवाओं का इस्तेमाल किया, जिससे उसकी ओवरडोज से मौत हो गई। परिवार ने कहा कि AI चैटबॉट ने खतरनाक दवाओं और उनके मिश्रण को लेकर ऐसी सलाह दी, जिसने सैम की हालत बिगाड़ दी।

आरोप

ChatGPT पर गलत सलाह देने का आरोप

केस में बताया गया कि सैम पहले पढ़ाई और कंप्यूटर से जुड़ी मदद के लिए ChatGPT का इस्तेमाल करता था। बाद में उसने ड्रग्स और दवाओं से जुड़े सवाल पूछने शुरू किए। शुरुआत में चैटबॉट ने जवाब देने से इनकार किया, लेकिन GPT-4o आने के बाद उसने दवाओं की मात्रा, असर और मिश्रण के बारे में जानकारी देना शुरू कर दिया। परिवार का आरोप है कि AI ने क्रेटोम और जैनैक्स को साथ लेने जैसी सलाह भी दी थी।

सवाल

परिवार ने सुरक्षा व्यवस्था पर उठाए सवाल

सैम के परिवार ने आरोप लगाया कि ChatGPT ने खुद को दवाओं और डोज का जानकार बताया, लेकिन खतरनाक असर के बारे में सही चेतावनी नहीं दी। परिवार अब OpenAI से हर्जाना मांग रहा है और चाहता है कि ChatGPT हेल्थ जैसे फीचर पर रोक लगे। उनका कहना है कि कंपनी ने ऐसा AI सिस्टम जारी किया, जो बिना मजबूत सुरक्षा जांच और निगरानी के लोगों को मेडिकल सलाह देने जैसा काम कर रहा था, जिससे गंभीर खतरा पैदा हुआ।

Advertisement

जवाब

OpenAI ने क्या कहा?

OpenAI ने जवाब में कहा कि सैम का इस्तेमाल किया गया ChatGPT का पुराना वर्जन अब उपलब्ध नहीं है। कंपनी का कहना है कि ChatGPT डॉक्टर या मानसिक स्वास्थ्य विशेषज्ञ का विकल्प नहीं है। OpenAI ने बताया कि अब सिस्टम में नए सुरक्षा फीचर जोड़े गए हैं, जो खतरनाक स्थिति पहचानने, गलत अनुरोध संभालने और जरूरत पड़ने पर लोगों को सलाह देने के लिए बनाए गए हैं। कंपनी विशेषज्ञों के साथ मिलकर लगातार सुधार कर रही है।

Advertisement