महिलाओं का यौन और हिंसक कंटेंट बनाने में ग्रोक AI का हो रहा इस्तेमाल- रिसर्च
क्या है खबर?
एलन मस्क के आर्टिफिशियल इंटेलिजेंस (AI) टूल ग्रोक का इस्तेमाल बीते कुछ समय से महिलाओं को लेकर आपत्तिजनक और हिंसक कंटेंट बनाने में किया जा रहा है। रिपोर्ट के अनुसार, इस टूल से ऐसी तस्वीरें और वीडियो बनाए गए जो बेहद परेशान करने वाले थे। ब्रिटेन के प्रधानमंत्री ने भी ग्रोक से बनी कुछ तस्वीरों की कड़ी आलोचना की है। यह मामला सामने आने के बाद AI टूल्स की सुरक्षा और निगरानी को लेकर गंभीर सवाल खड़े हो गए हैं।
तथ्य
AI फोरेंसिक की रिपोर्ट में चौंकाने वाले तथ्य
पेरिस की गैर-लाभकारी संस्था AI फोरेंसिक की जांच में पाया गया कि ग्रोक इमेजिन ऐप से बनी करीब 800 तस्वीरें और वीडियो आपत्तिजनक श्रेणी में आते हैं। रिसर्चर्स के मुताबिक, यह कंटेंट पेशेवर तरीके से तैयार किया गया था। कई तस्वीरों में महिलाओं को गलत और भ्रामक रूप में दिखाया गया। संस्था ने बताया कि यह कंटेंट शेयरिंग लिंक के जरिए इंटरनेट आर्काइव में कैद हो गया, जिससे इसकी पहचान हो सकी।
कार्रवाई
राजनीतिक प्रतिक्रिया और संभावित कार्रवाई
ब्रिटेन के प्रधानमंत्री कीर स्टारमर ने एक्स प्लेटफॉर्म पर एक पोस्ट में ऐसे सभी कंटेंट को 'शर्मनाक' और 'घिनौना' बताया है। उन्होंने कहा कि इस तरह के कंटेंट पर सख्त नियंत्रण जरूरी है। यूनाइटेड किंगडम (UK) के मीडिया रेगुलेटर ऑफकॉम के पास ऐसे प्लेटफॉर्म पर कार्रवाई करने का अधिकार है। सरकार ने साफ संकेत दिए हैं कि अगर नियमों का पालन नहीं हुआ, तो कड़े कदम उठाए जा सकते हैं।
प्रतिक्रिया
रेगुलेशन की मांग और xAI की प्रतिक्रिया
महिला अधिकार संगठनों ने सरकार से तुरंत सख्त नियम बनाने की मांग की है। उनका कहना है कि बिना मजबूत सुरक्षा के AI टूल्स का दुरुपयोग बढ़ता जाएगा। इस बीच, मस्क की कंपनी xAI ने कहा है कि गैर-कानूनी कंटेंट बनाने वालों के खिलाफ कार्रवाई होगी। विशेषज्ञों का मानना है कि यह मामला AI के इस्तेमाल पर नए नियम और जिम्मेदारी तय करने की दिशा में अहम साबित हो सकता है।
अन्य
आंकड़ों में ग्रोक से बने कंटेंट की सच्चाई
AI फोरेंसिक की रिपोर्ट के मुताबिक, 25 दिसंबर से 1 जनवरी के बीच एक्स पर ग्रोक के करीब 50,000 मेंशन दर्ज किए गए। इनमें से लगभग 20,000 इमेज ग्रोक टूल से बनाई गई थीं। इन मेंशन में से कम से कम 25 प्रतिशत सीधे इमेज बनाने की रिक्वेस्ट से जुड़े थे। जांच में पाया गया कि आधी से ज्यादा तस्वीरों में महिलाएं बहुत कम कपड़ों में दिखाई गईं और 2 प्रतिशत इमेज में नाबालिग जैसे दिखने वाले लोग शामिल थे।