Written By Avanish Upadhyay
Published By: Avanish Upadhyay | Published: Jan 10, 2023, 04:27 PM (IST)
सुपर स्टार अमिताभ बच्चन या शाहरुख खान की आवाज निकलना एक कला है, लेकिन अब एक तकनीक से किसी भी व्यक्ति की आवाज निकाली जा सकती है। दरअसल, Microsoft ने एक ऐसी टेक्नोलॉजी तैयार की है, जो सिर्फ 3 सेकेंड में किसी भी आवाज को कॉपी कर सकेगी। Microsoft की इस तकनीक का नाम VALL-E है। यह तकनीक हजारों टूल्स और सेंसर की मदद से किसी भी आवाज को कॉपी कर सकती है। इस तकनीक के फायदे के साथ नुकसान भी हैं और इसकी मदद से भोले-भाले यूजर्स ठगी के शिकार हो सकते हैं। और पढें: Microsoft CEO Satya Nadella का बड़ा बयान, सिर्फ पढ़ाई से नौकरी नहीं बचेगी, ये क्वालिटी भी सीखना है जरूरी
Microsoft की VALL-E किसी भी आवाज और उसकी भावनाओं को कॉपी करके ड्प्लीकेट वॉयस तैयार कर सकती है। ऐसे में किसी यूजर्स के माता-पिता की आवाज कॉपी करके उसके साथ ठगी की जा सकती है। कई बार यूजर्स माता-पिता या अन्य किसी करीबी परिजन की घबराहट वाली आवाज सुनकर चिंतित हो जाते हैं बगैर कुछ सोचे-समझें उसकी मदद में लग जाते हैं। और पढें: Windows 11 यूजर्स के लिए बड़ी खबर, लॉक स्क्रीन पर पासवर्ड ऑप्शन नहीं दिख रहा, Microsoft ने बताई वजह
Microsoft ने हाल ही में आर्टिफिशियल इंटेलीजेंस टूल VALL-E को पेश किया है, जो किसी भी व्यक्ति कि डुप्लीकेट आवाज को कॉपी कर सकता है। यह किसी भी व्यक्ति की आवाज को सिर्फ 3 सेकेंड में निकाल सकती है। इसमें 60 हजार घंटे का इंग्लीश स्पीड डाटा रिकॉर्ड किया गया है। अभी यह सिर्फ अंग्रेजी भाषा में बोली वॉयस की डुप्लीकेट वॉयस तैयार कर सकता है। और पढें: 15 जनवरी के बाद WhatsApp पर नहीं चलेगा ये AI असिस्टेंट, Meta की नई पॉलिसी के तहत हुआ बड़ा बदलाव
इससे पहले AI जनरेट वॉयस टेक्नोलॉजी में एक रोबोटिक्स जनरेट आवाज आती थी और वह यूजर्स की भावनाओं को कॉपी नहीं कर सकते थे। कॉर्नेल यूनिवर्सिटी के शोधपत्र में बताया है कि VALL-E तकनीक से आवाज और भावनाओं को कॉपी किया जा सकता है। इसके कुछ उदाहरण गिटहब पर उपलब्ध है। हालांकि जैसे जैसे-जैसे AI तकनीक में सुधार होगा, वैसे-वैसे एआई से जनरेट होने वाली रिकॉर्डिंग विश्वनीय होती जाएंगी।
हालांकि यह आवाज की डुप्लीकेसी कई लोगों की प्राइवेसी के लिए बड़ा ही खतरनाक साबित हो सकती है। दरअसल, दुनिया के कई देशों में आवाज से खुलने वाले लॉक आदि मिलते हैं। ऐसे में यह तकनीक उनके लिए बड़ी ही खतरनाक साबित हो सकती है।