Published By: Harshit Harsh | Published: Apr 07, 2023, 04:22 PM (IST)
ChatGPT लॉन्च होने के बाद से ही चर्चा में बना हुआ है। एक बार फिर से यह जेनरेटिव आर्टिफिशियल इंटेलिजेंस टूल विवादों में आ गया है। Samsung के एक कर्मचारी पर कंपनी के सीक्रेट्स ChatGPT को देने का आरोप लगा है। दक्षिण कोरियाई मीडिया रिपोर्ट के मुताबिक, सैमसंग फिलहाल इस मामले की लीपा-पोती करने में लगा है। कंपनी को पता लगा है कि एक कर्मचारी ने जानबूझकर कंपनी के कुछ सीक्रेट कोड्स ChatGPT को दिए हैं। सैमसंग को इस तरह के तीन मामलों का पता चला है। और पढें: OpenAI का बड़ा प्लान, जल्द मिल सकता है ChatGPT में AI वीडियो बनाने का फीचर
सैमसंग के कर्मचारी पर ChatGPT पर फॉल्टी सेमीकंडक्टर का डेटाबेस कॉपी और पेस्ट करने का आरोप लगा है। कोरियन मीडिया रिपोर्ट के मुताबिक, सैमसंग का यह कर्मचारी ChatGPT का इस्तेमाल करके फॉल्टी सेमीकंडक्टर का कोड सही करने का कोशिश कर रहा हैा और पढें: OpenAI ने लॉन्च किया GPT-5.4, अब AI खुद चलाएगा कंप्यूटर और करेगा बड़े काम
वहीं, दूसरा मामला कंपनी के एक कर्मचारी द्वारा खराब हो चुके इक्वीपमेंट को ठीक करने के लिए ChatGPT इस्तेमाल करने का है। वहीं, तीसरा मामला एक कर्मचारी द्वारा कंपनी के कॉन्फिडेंशियल मीटिंग्स को ChatGPT पर पेस्ट करने का है। कर्मचारी ChatGPT के जरिए मीटिंग्स के मिनट्स तैयार कर रहा था। और पढें: OpenAI ने ChatGPT को किया अपडेट, यूजर्स को मिलेगा ये बड़ा फायदा
इन सब मामलों में दिक्कत यह है कि ChatGPT कभी भी टूल पर पूछे गए सवालों को डिलीट नहीं करता है। इसलिए OpenAI ने यूजर्स को चेतावनी भी दी है कि वो कभी भी इस टूल पर कोई भी सेंसेटिव डेटा न डालें। कंपनी का कहना है कि वो अपने टूल के AI को इंप्रूव करने के लिए इससे पूछे गए सवालों यानी क्वेरीज को डिलीट नहीं करती है।
सैमसंग ने फिलहाल अपने सभी कर्मचारियों को ChatGPT इस्तेमाल करने पर रोक लगा दी है। ChatGPT बनाने वाली कंपनी OpenAI ने टूल की इस दिक्कत को दूर करने के लिए 1024 बाइट्स की लिमिट देने की तैयारी में हैं। हालांकि, सैमसंग पहली ऐसी कंपनी नहीं है, जिसके कर्मचारी ने यह गलती की है। इससे पहले भी Walmart और Amazon ने भी ऐसी दिक्कतें फेस की हैं।