Published By: Harshit Harsh | Published: Apr 07, 2023, 04:22 PM (IST)
ChatGPT लॉन्च होने के बाद से ही चर्चा में बना हुआ है। एक बार फिर से यह जेनरेटिव आर्टिफिशियल इंटेलिजेंस टूल विवादों में आ गया है। Samsung के एक कर्मचारी पर कंपनी के सीक्रेट्स ChatGPT को देने का आरोप लगा है। दक्षिण कोरियाई मीडिया रिपोर्ट के मुताबिक, सैमसंग फिलहाल इस मामले की लीपा-पोती करने में लगा है। कंपनी को पता लगा है कि एक कर्मचारी ने जानबूझकर कंपनी के कुछ सीक्रेट कोड्स ChatGPT को दिए हैं। सैमसंग को इस तरह के तीन मामलों का पता चला है। और पढें: OpenAI ने पेश किया ChatGPT 5.5 Instant, मिलेंगे ये सब फीचर्स
सैमसंग के कर्मचारी पर ChatGPT पर फॉल्टी सेमीकंडक्टर का डेटाबेस कॉपी और पेस्ट करने का आरोप लगा है। कोरियन मीडिया रिपोर्ट के मुताबिक, सैमसंग का यह कर्मचारी ChatGPT का इस्तेमाल करके फॉल्टी सेमीकंडक्टर का कोड सही करने का कोशिश कर रहा हैा और पढें: ऑफिस और स्कूल के लिए OpenAI ने पेश किया एक खास ChatGPT App, मिलेंगे भर-भर के AI फीचर्स
वहीं, दूसरा मामला कंपनी के एक कर्मचारी द्वारा खराब हो चुके इक्वीपमेंट को ठीक करने के लिए ChatGPT इस्तेमाल करने का है। वहीं, तीसरा मामला एक कर्मचारी द्वारा कंपनी के कॉन्फिडेंशियल मीटिंग्स को ChatGPT पर पेस्ट करने का है। कर्मचारी ChatGPT के जरिए मीटिंग्स के मिनट्स तैयार कर रहा था। और पढें: ChatGPT की एक ही आवाज से हो गए हैं बोर? ऐसे सेट करें नई वॉइस
इन सब मामलों में दिक्कत यह है कि ChatGPT कभी भी टूल पर पूछे गए सवालों को डिलीट नहीं करता है। इसलिए OpenAI ने यूजर्स को चेतावनी भी दी है कि वो कभी भी इस टूल पर कोई भी सेंसेटिव डेटा न डालें। कंपनी का कहना है कि वो अपने टूल के AI को इंप्रूव करने के लिए इससे पूछे गए सवालों यानी क्वेरीज को डिलीट नहीं करती है।
सैमसंग ने फिलहाल अपने सभी कर्मचारियों को ChatGPT इस्तेमाल करने पर रोक लगा दी है। ChatGPT बनाने वाली कंपनी OpenAI ने टूल की इस दिक्कत को दूर करने के लिए 1024 बाइट्स की लिमिट देने की तैयारी में हैं। हालांकि, सैमसंग पहली ऐसी कंपनी नहीं है, जिसके कर्मचारी ने यह गलती की है। इससे पहले भी Walmart और Amazon ने भी ऐसी दिक्कतें फेस की हैं।