LOADING...
युवक ने ड्रग सेवन को लेकर ChatGPT से मांगी सलाह, ओवरडोज से हुई मौत
युवक ने ड्रग सेवन को लेकर ChatGPT से मांगी सलाह

युवक ने ड्रग सेवन को लेकर ChatGPT से मांगी सलाह, ओवरडोज से हुई मौत

Jan 06, 2026
03:55 pm

क्या है खबर?

अमेरिका के कैलिफार्निया में 19 साल के युवक सैम नेल्सन की ड्रग ओवरडोज से मौत का मामला सामने आया है। रिपोर्ट के अनुसार, नेल्सन ने ड्रग्स से जुड़ी जानकारी के लिए ChatGPT का सहारा लिया था और नशे से जुड़ी सलाह और रिकवरी से जुड़े सवाल पूछे थे। यह घटना AI के दुरुपयोग और सुरक्षा सीमाओं पर गंभीर सवाल खड़े करती है। परिवार का कहना है कि सैम लंबे समय से AI टूल पर भरोसा कर रहा था।

 जवाब 

शुरुआत में जवाब देने से इनकार

रिपोर्ट में कहा गया कि शुरुआत में ChatGPT ने नशीली दवाओं से जुड़ी मदद देने से इनकार किया था। उसने स्वास्थ्य विशेषज्ञ से संपर्क करने की सलाह दी। बाद में, अलग-अलग बातचीत के दौरान, AI ने कथित तौर पर जवाब देना शुरू कर दिया। कुछ चैट्स में गलत भाषा और सुझाव दिखे। पीड़ित की मां के अनुसार, सैम होमवर्क और तकनीकी सवालों के लिए भी AI का इस्तेमाल करता था।

घटना 

घटना से ऑनलाइन प्लेटफॉर्म की जिम्मेदारी पर बहस

मई, 2025 में सैम ने परिवार को अपने नशे की समस्या के बारे में बताया था। उसे क्लिनिक ले जाया गया और इलाज की योजना बनी, लेकिन अगली ही रात वह बेहोश पाया गया और बाद में उसकी मौत हो गई। आरोप है कि मौत से पहले वह देर रात AI से चैट कर रहा था। इस घटना ने ऑनलाइन प्लेटफॉर्म की जिम्मेदारी और निगरानी पर दुनियाभर में नई बहस तेज कर दी है।

Advertisement

सवाल

AI सुरक्षा नियमों पर सवाल

मामले के बाद AI की सुरक्षा नीतियों पर सवाल उठे हैं। नियमों के अनुसार, नशीले पदार्थों से जुड़े सवालों पर जवाब देना प्रतिबंधित है। परिवार का कहना है कि ऐसे जवाब नहीं मिलने चाहिए थे। विशेषज्ञों की जगह, यह रिपोर्ट प्लेटफॉर्म की प्रक्रियाओं की जांच की मांग करती है। घटना यह भी दिखाती है कि युवाओं की सुरक्षा के लिए कड़े फिल्टर और बेहतर मॉनिटरिंग जरूरी है, ताकि ऐसी घटनाएं दोबारा न हों कहीं।

Advertisement