Published By: Harshit Harsh | Published: Apr 07, 2023, 04:22 PM (IST)
ChatGPT लॉन्च होने के बाद से ही चर्चा में बना हुआ है। एक बार फिर से यह जेनरेटिव आर्टिफिशियल इंटेलिजेंस टूल विवादों में आ गया है। Samsung के एक कर्मचारी पर कंपनी के सीक्रेट्स ChatGPT को देने का आरोप लगा है। दक्षिण कोरियाई मीडिया रिपोर्ट के मुताबिक, सैमसंग फिलहाल इस मामले की लीपा-पोती करने में लगा है। कंपनी को पता लगा है कि एक कर्मचारी ने जानबूझकर कंपनी के कुछ सीक्रेट कोड्स ChatGPT को दिए हैं। सैमसंग को इस तरह के तीन मामलों का पता चला है। और पढें: OpenAI ने ChatGPT में किया बड़ा बदलाव, Advanced Voice Mode को सीधे चैट इंटरफेस में जोड़ा, मिलेगा ये फायदा
सैमसंग के कर्मचारी पर ChatGPT पर फॉल्टी सेमीकंडक्टर का डेटाबेस कॉपी और पेस्ट करने का आरोप लगा है। कोरियन मीडिया रिपोर्ट के मुताबिक, सैमसंग का यह कर्मचारी ChatGPT का इस्तेमाल करके फॉल्टी सेमीकंडक्टर का कोड सही करने का कोशिश कर रहा हैा और पढें: ChatGPT ने लॉन्च ‘Shopping Research’ फीचर, अब ऑनलाइन खरीदारी होगी और भी आसान
वहीं, दूसरा मामला कंपनी के एक कर्मचारी द्वारा खराब हो चुके इक्वीपमेंट को ठीक करने के लिए ChatGPT इस्तेमाल करने का है। वहीं, तीसरा मामला एक कर्मचारी द्वारा कंपनी के कॉन्फिडेंशियल मीटिंग्स को ChatGPT पर पेस्ट करने का है। कर्मचारी ChatGPT के जरिए मीटिंग्स के मिनट्स तैयार कर रहा था। और पढें: OpenAI ने लॉन्च किया ChatGPT for Teachers, अब टीचर्स के लिए आया स्पेशल AI Tool
इन सब मामलों में दिक्कत यह है कि ChatGPT कभी भी टूल पर पूछे गए सवालों को डिलीट नहीं करता है। इसलिए OpenAI ने यूजर्स को चेतावनी भी दी है कि वो कभी भी इस टूल पर कोई भी सेंसेटिव डेटा न डालें। कंपनी का कहना है कि वो अपने टूल के AI को इंप्रूव करने के लिए इससे पूछे गए सवालों यानी क्वेरीज को डिलीट नहीं करती है।
सैमसंग ने फिलहाल अपने सभी कर्मचारियों को ChatGPT इस्तेमाल करने पर रोक लगा दी है। ChatGPT बनाने वाली कंपनी OpenAI ने टूल की इस दिक्कत को दूर करने के लिए 1024 बाइट्स की लिमिट देने की तैयारी में हैं। हालांकि, सैमसंग पहली ऐसी कंपनी नहीं है, जिसके कर्मचारी ने यह गलती की है। इससे पहले भी Walmart और Amazon ने भी ऐसी दिक्कतें फेस की हैं।