LOADING...
OpenAI ने सोरा पर डीपफेक को लेकर सुरक्षा की कड़ी, जानिए क्यों उठाया कदम 
OpenAI ने सोरा की सुरक्षा को सख्त बना दिया है (तस्वीर: अनस्प्लैश)

OpenAI ने सोरा पर डीपफेक को लेकर सुरक्षा की कड़ी, जानिए क्यों उठाया कदम 

Oct 21, 2025
08:28 pm

क्या है खबर?

आर्टिफिशियल इंटेलिजेंस (AI) कंपनी OpenAI ने मशहूर हस्तियों की तस्वीरों और आवाजों के अनाधिकृत इस्तेमाल को लेकर बढ़ती चिंताओं के बाद अपने AI वीडियो निर्माण ऐप सोरा की सुरक्षा व्यवस्था को कड़ा कर दिया है। कंपनी ने अब यूजर्स को बिना स्पष्ट सहमति के अभिनेताओं और सार्वजनिक हस्तियों सहित मशहूर हस्तियों के चेहरे या आवाज वाले वीडियो बनाने से रोक दिया है। इससे पहले भी कंपनी सोरा की खामियां दूर करने के लिए सुरक्षा को लेकर कदम उठा चुकी है।

कारण 

क्यों उठाया यह कदम?

यह कदम OpenAI, SAG-AFTRA, अभिनेता ब्रायन क्रैंस्टन, यूनाइटेड टैलेंट एजेंसी, क्रिएटिव आर्टिस्ट एजेंसी और एसोसिएशन ऑफ टैलेंट एजेंट्स की ओर से जारी एक संयुक्त बयान के बाद आया है। अभिनेता ब्रायन क्रैन्स्टन ने पहले भी OpenAI की आलोचना की थी, क्योंकि यूजर्स उनकी सहमति या मुआवजे के बिना उनकी तस्वीर और आवाज की नकल करके डीपफेक वीडियो बना पा रहे थे। इस मुद्दे की रॉबिन विलियम्स, जॉर्ज कार्लिन और मार्टिन लूथर किंग जूनियर के परिवारों ने भी आलोचना की थी।

नीति 

पहले की नीति को किया दरकिनार 

AI कंपनी पहले से ही एक 'ऑप्ट-इन' नीति थी, जिसके तहत जीवित व्यक्तियों की नकल करने से पहले सहमति लेना जरूरी था, फिर भी कई यूजर्स क्रैन्स्टन की नकल करने के लिए इस सिस्टम को दरकिनार करने में कामयाब रहे। इसके जवाब में कंपनी ने बिना सत्यापित अनुमति के आवाज या तस्वीर की नकल रोकने के लिए अपनी सुरक्षा व्यवस्था कड़ी कर दी है। कंपनी ने भविष्य में किसी भी शिकायत का तुरंत जवाब देने की भी प्रतिबद्धता जताई है।