
ChatGPT लॉन्च होने के बाद से ही चर्चा में बना हुआ है। एक बार फिर से यह जेनरेटिव आर्टिफिशियल इंटेलिजेंस टूल विवादों में आ गया है। Samsung के एक कर्मचारी पर कंपनी के सीक्रेट्स ChatGPT को देने का आरोप लगा है। दक्षिण कोरियाई मीडिया रिपोर्ट के मुताबिक, सैमसंग फिलहाल इस मामले की लीपा-पोती करने में लगा है। कंपनी को पता लगा है कि एक कर्मचारी ने जानबूझकर कंपनी के कुछ सीक्रेट कोड्स ChatGPT को दिए हैं। सैमसंग को इस तरह के तीन मामलों का पता चला है।
सैमसंग के कर्मचारी पर ChatGPT पर फॉल्टी सेमीकंडक्टर का डेटाबेस कॉपी और पेस्ट करने का आरोप लगा है। कोरियन मीडिया रिपोर्ट के मुताबिक, सैमसंग का यह कर्मचारी ChatGPT का इस्तेमाल करके फॉल्टी सेमीकंडक्टर का कोड सही करने का कोशिश कर रहा हैा
वहीं, दूसरा मामला कंपनी के एक कर्मचारी द्वारा खराब हो चुके इक्वीपमेंट को ठीक करने के लिए ChatGPT इस्तेमाल करने का है। वहीं, तीसरा मामला एक कर्मचारी द्वारा कंपनी के कॉन्फिडेंशियल मीटिंग्स को ChatGPT पर पेस्ट करने का है। कर्मचारी ChatGPT के जरिए मीटिंग्स के मिनट्स तैयार कर रहा था।
इन सब मामलों में दिक्कत यह है कि ChatGPT कभी भी टूल पर पूछे गए सवालों को डिलीट नहीं करता है। इसलिए OpenAI ने यूजर्स को चेतावनी भी दी है कि वो कभी भी इस टूल पर कोई भी सेंसेटिव डेटा न डालें। कंपनी का कहना है कि वो अपने टूल के AI को इंप्रूव करने के लिए इससे पूछे गए सवालों यानी क्वेरीज को डिलीट नहीं करती है।
सैमसंग ने फिलहाल अपने सभी कर्मचारियों को ChatGPT इस्तेमाल करने पर रोक लगा दी है। ChatGPT बनाने वाली कंपनी OpenAI ने टूल की इस दिक्कत को दूर करने के लिए 1024 बाइट्स की लिमिट देने की तैयारी में हैं। हालांकि, सैमसंग पहली ऐसी कंपनी नहीं है, जिसके कर्मचारी ने यह गलती की है। इससे पहले भी Walmart और Amazon ने भी ऐसी दिक्कतें फेस की हैं।
टेक्नोलॉजी और ऑटोमोबाइल की लेटेस्ट खबरों के लिए आप हमें व्हाट्सऐप चैनल, फेसबुक, यूट्यूब और X, पर फॉलो करें।Author Name | Harshit Harsh
Select Language