Page Loader
ChatGPT को अब हमेशा शब्द दोहराने के लिए कहना होगा नियमों का उल्लंघन
OpenAI का AI चैटबॉट है ChatGPT (तस्वीर: अनस्प्लैश)

ChatGPT को अब हमेशा शब्द दोहराने के लिए कहना होगा नियमों का उल्लंघन

Dec 05, 2023
12:13 pm

क्या है खबर?

पिछले हफ्ते खबर आई थी कि आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट ChatGPT से फोन नंबर और ईमेल एड्रेस लीक हुए हैं। रिसर्चर की एक टीम ने इसे शब्दों को हमेशा के लिए दोहराने को बोला था, जिसके बाद फोन नंबर और ईमेल की जानकारी सामने आ गई थी। हालांकि, अब अगर आप ऐसा करते हैं तो इसे ChatGPT की सेवाओं की शर्तों का उल्लंघन माना जाएगा। अब ChatGPT को एक शब्द हमेशा दोहराने के लिए कहना नियमों का उल्लंघन होगा।

बदलाव

अब शब्द दोहराने के प्रॉम्प्ट पर क्या होता है? 

एंगेजेट की अनुसार, अब अगर कोई ChatGPT को कोई शब्द दोहराने के लिए कहता है तो इसके जवाब में 'यह कंटेट हमारे कंटेट नीति और इस्तेमाल की शर्तों का उल्लंघन हो सकता है। अगर आपको लगता है कि यह कोई एरर है तो अपना फीडबैक जमा करें' आता है। एंगेजेट ने ChatGPT को 'हेल्लो' शब्द दोहराने का प्रॉम्प्ट दिया था। इस बारे में OpenAI से प्रतिक्रिया मांगी गई है, लेकिन अभी तक कोई जवाब नहीं आया।

चिंता

ChatGPT लीक कर सकता है ट्रेनिंग डाटा- डीपमाइंड 

गूगल डीपमाइंड के शोधकर्ताओं ने भी कहा है कि OpenAI का ChatGPT किसी शब्द को दोहराने का प्रॉम्प्ट मिलने पर ट्रेनिंग डाटा लीक कर सकता है। शोधकर्ताओं ने इसे 'एक्स्ट्रेक्टेबल मेमोराइजेशन' कहा है। यह एक तरह का अटैक होता है, जो किसी प्रोग्राम से इसमें स्टोर डाटा को सामने ला सकता है। अब ऐसी कई रिपोर्ट्स सामने आ रही हैं, जिसमें ChatGPT अलग-अलग तरह के शब्दों को दोहराते हुए कई संवेदनशील जानकारियां सामने रख दे रहा है।