Published By: Harshit Harsh | Published: Apr 07, 2023, 04:22 PM (IST)
ChatGPT लॉन्च होने के बाद से ही चर्चा में बना हुआ है। एक बार फिर से यह जेनरेटिव आर्टिफिशियल इंटेलिजेंस टूल विवादों में आ गया है। Samsung के एक कर्मचारी पर कंपनी के सीक्रेट्स ChatGPT को देने का आरोप लगा है। दक्षिण कोरियाई मीडिया रिपोर्ट के मुताबिक, सैमसंग फिलहाल इस मामले की लीपा-पोती करने में लगा है। कंपनी को पता लगा है कि एक कर्मचारी ने जानबूझकर कंपनी के कुछ सीक्रेट कोड्स ChatGPT को दिए हैं। सैमसंग को इस तरह के तीन मामलों का पता चला है। और पढें: ChatGPT में एक साथ आए नए टूल, यूजर्स के आएंगे बहुत काम
सैमसंग के कर्मचारी पर ChatGPT पर फॉल्टी सेमीकंडक्टर का डेटाबेस कॉपी और पेस्ट करने का आरोप लगा है। कोरियन मीडिया रिपोर्ट के मुताबिक, सैमसंग का यह कर्मचारी ChatGPT का इस्तेमाल करके फॉल्टी सेमीकंडक्टर का कोड सही करने का कोशिश कर रहा हैा और पढें: ChatGPT से अब AI इमेज बनाने के लिए नहीं करना होगा इंतजार, OpenAI ने किया बड़ा अपडेट
वहीं, दूसरा मामला कंपनी के एक कर्मचारी द्वारा खराब हो चुके इक्वीपमेंट को ठीक करने के लिए ChatGPT इस्तेमाल करने का है। वहीं, तीसरा मामला एक कर्मचारी द्वारा कंपनी के कॉन्फिडेंशियल मीटिंग्स को ChatGPT पर पेस्ट करने का है। कर्मचारी ChatGPT के जरिए मीटिंग्स के मिनट्स तैयार कर रहा था। और पढें: OpenAI का बड़ा प्लान, ChatGPT को सिर्फ चैटबॉट नहीं बल्कि बनाया जाएगा पूरा ऑपरेटिंग सिस्टम
इन सब मामलों में दिक्कत यह है कि ChatGPT कभी भी टूल पर पूछे गए सवालों को डिलीट नहीं करता है। इसलिए OpenAI ने यूजर्स को चेतावनी भी दी है कि वो कभी भी इस टूल पर कोई भी सेंसेटिव डेटा न डालें। कंपनी का कहना है कि वो अपने टूल के AI को इंप्रूव करने के लिए इससे पूछे गए सवालों यानी क्वेरीज को डिलीट नहीं करती है।
सैमसंग ने फिलहाल अपने सभी कर्मचारियों को ChatGPT इस्तेमाल करने पर रोक लगा दी है। ChatGPT बनाने वाली कंपनी OpenAI ने टूल की इस दिक्कत को दूर करने के लिए 1024 बाइट्स की लिमिट देने की तैयारी में हैं। हालांकि, सैमसंग पहली ऐसी कंपनी नहीं है, जिसके कर्मचारी ने यह गलती की है। इससे पहले भी Walmart और Amazon ने भी ऐसी दिक्कतें फेस की हैं।