ChatGPT को अब हमेशा शब्द दोहराने के लिए कहना होगा नियमों का उल्लंघन
पिछले हफ्ते खबर आई थी कि आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट ChatGPT से फोन नंबर और ईमेल एड्रेस लीक हुए हैं। रिसर्चर की एक टीम ने इसे शब्दों को हमेशा के लिए दोहराने को बोला था, जिसके बाद फोन नंबर और ईमेल की जानकारी सामने आ गई थी। हालांकि, अब अगर आप ऐसा करते हैं तो इसे ChatGPT की सेवाओं की शर्तों का उल्लंघन माना जाएगा। अब ChatGPT को एक शब्द हमेशा दोहराने के लिए कहना नियमों का उल्लंघन होगा।
अब शब्द दोहराने के प्रॉम्प्ट पर क्या होता है?
एंगेजेट की अनुसार, अब अगर कोई ChatGPT को कोई शब्द दोहराने के लिए कहता है तो इसके जवाब में 'यह कंटेट हमारे कंटेट नीति और इस्तेमाल की शर्तों का उल्लंघन हो सकता है। अगर आपको लगता है कि यह कोई एरर है तो अपना फीडबैक जमा करें' आता है। एंगेजेट ने ChatGPT को 'हेल्लो' शब्द दोहराने का प्रॉम्प्ट दिया था। इस बारे में OpenAI से प्रतिक्रिया मांगी गई है, लेकिन अभी तक कोई जवाब नहीं आया।
ChatGPT लीक कर सकता है ट्रेनिंग डाटा- डीपमाइंड
गूगल डीपमाइंड के शोधकर्ताओं ने भी कहा है कि OpenAI का ChatGPT किसी शब्द को दोहराने का प्रॉम्प्ट मिलने पर ट्रेनिंग डाटा लीक कर सकता है। शोधकर्ताओं ने इसे 'एक्स्ट्रेक्टेबल मेमोराइजेशन' कहा है। यह एक तरह का अटैक होता है, जो किसी प्रोग्राम से इसमें स्टोर डाटा को सामने ला सकता है। अब ऐसी कई रिपोर्ट्स सामने आ रही हैं, जिसमें ChatGPT अलग-अलग तरह के शब्दों को दोहराते हुए कई संवेदनशील जानकारियां सामने रख दे रहा है।