युवक ने ड्रग सेवन को लेकर ChatGPT से मांगी सलाह, ओवरडोज से हुई मौत
क्या है खबर?
अमेरिका के कैलिफार्निया में 19 साल के युवक सैम नेल्सन की ड्रग ओवरडोज से मौत का मामला सामने आया है। रिपोर्ट के अनुसार, नेल्सन ने ड्रग्स से जुड़ी जानकारी के लिए ChatGPT का सहारा लिया था और नशे से जुड़ी सलाह और रिकवरी से जुड़े सवाल पूछे थे। यह घटना AI के दुरुपयोग और सुरक्षा सीमाओं पर गंभीर सवाल खड़े करती है। परिवार का कहना है कि सैम लंबे समय से AI टूल पर भरोसा कर रहा था।
जवाब
शुरुआत में जवाब देने से इनकार
रिपोर्ट में कहा गया कि शुरुआत में ChatGPT ने नशीली दवाओं से जुड़ी मदद देने से इनकार किया था। उसने स्वास्थ्य विशेषज्ञ से संपर्क करने की सलाह दी। बाद में, अलग-अलग बातचीत के दौरान, AI ने कथित तौर पर जवाब देना शुरू कर दिया। कुछ चैट्स में गलत भाषा और सुझाव दिखे। पीड़ित की मां के अनुसार, सैम होमवर्क और तकनीकी सवालों के लिए भी AI का इस्तेमाल करता था।
घटना
घटना से ऑनलाइन प्लेटफॉर्म की जिम्मेदारी पर बहस
मई, 2025 में सैम ने परिवार को अपने नशे की समस्या के बारे में बताया था। उसे क्लिनिक ले जाया गया और इलाज की योजना बनी, लेकिन अगली ही रात वह बेहोश पाया गया और बाद में उसकी मौत हो गई। आरोप है कि मौत से पहले वह देर रात AI से चैट कर रहा था। इस घटना ने ऑनलाइन प्लेटफॉर्म की जिम्मेदारी और निगरानी पर दुनियाभर में नई बहस तेज कर दी है।
सवाल
AI सुरक्षा नियमों पर सवाल
मामले के बाद AI की सुरक्षा नीतियों पर सवाल उठे हैं। नियमों के अनुसार, नशीले पदार्थों से जुड़े सवालों पर जवाब देना प्रतिबंधित है। परिवार का कहना है कि ऐसे जवाब नहीं मिलने चाहिए थे। विशेषज्ञों की जगह, यह रिपोर्ट प्लेटफॉर्म की प्रक्रियाओं की जांच की मांग करती है। घटना यह भी दिखाती है कि युवाओं की सुरक्षा के लिए कड़े फिल्टर और बेहतर मॉनिटरिंग जरूरी है, ताकि ऐसी घटनाएं दोबारा न हों कहीं।