03 Sep, 2025 | Wednesday
ट्रेंडिंग : रिचार्ज प्लानInstagramAmazon Offerटिप्स एंड ट्रिक

Microsoft की इस तकनीक से हो सकता है बवाल! आवाज को कॉपी कर कहीं आपके साथ न हो जाए ठगी

Microsoft ने एक ऐसी टेक्नोलॉजी तैयार की है, जो सिर्फ 3 सेकेंड में किसी भी आवाज को कॉपी कर सकेगी। इसका नाम VALL-E है। इस तकनीक के फायदे के साथ नुकसान भी हैं और इसकी मदद से भोले-भाले यूजर्स ठगी के शिकार हो सकते हैं।

Published By: Avanish Upadhyay

Published: Jan 10, 2023, 04:27 PM IST

Microsoft

Story Highlights

  • Microsoft ने हाल ही में पेश की है AI Voice Technology VALL-E।
  • माइक्रोसॉफ्ट की तकनीक किसी भी आवाज को 3 सेकेंड में कॉपी कर सकती है।
  • Microsoft की यह तकनीक आवाज और उसकी टोन को कॉपी कर सकता है।

सुपर स्टार अमिताभ बच्चन या शाहरुख खान की आवाज निकलना एक कला है, लेकिन अब एक तकनीक से किसी भी व्यक्ति की आवाज निकाली जा सकती है। दरअसल, Microsoft ने एक ऐसी टेक्नोलॉजी तैयार की है, जो सिर्फ 3 सेकेंड में किसी भी आवाज को कॉपी कर सकेगी। Microsoft की इस तकनीक का नाम VALL-E है। यह तकनीक हजारों टूल्स और सेंसर की मदद से किसी भी आवाज को कॉपी कर सकती है। इस तकनीक के फायदे के साथ नुकसान भी हैं और इसकी मदद से भोले-भाले यूजर्स ठगी के शिकार हो सकते हैं।

Microsoft की VALL-E किसी भी आवाज और उसकी भावनाओं को कॉपी करके ड्प्लीकेट वॉयस तैयार कर सकती है। ऐसे में किसी यूजर्स के माता-पिता की आवाज कॉपी करके उसके साथ ठगी की जा सकती है। कई बार यूजर्स माता-पिता या अन्य किसी करीबी परिजन की घबराहट वाली आवाज सुनकर चिंतित हो जाते हैं बगैर कुछ सोचे-समझें उसकी मदद में लग जाते हैं।

अंग्रेजी भाषा की डुप्लीकेट वॉयस तैयार कर सकता है

Microsoft ने हाल ही में आर्टिफिशियल इंटेलीजेंस टूल VALL-E को पेश किया है, जो किसी भी व्यक्ति कि डुप्लीकेट आवाज को कॉपी कर सकता है। यह किसी भी व्यक्ति की आवाज को सिर्फ 3 सेकेंड में निकाल सकती है। इसमें 60 हजार घंटे का इंग्लीश स्पीड डाटा रिकॉर्ड किया गया है। अभी यह सिर्फ अंग्रेजी भाषा में बोली वॉयस की डुप्लीकेट वॉयस तैयार कर सकता है।

पहले भावनाओं को कॉपी नहीं कर पाते थे

इससे पहले AI जनरेट वॉयस टेक्नोलॉजी में एक रोबोटिक्स जनरेट आवाज आती थी और वह यूजर्स की भावनाओं को कॉपी नहीं कर सकते थे। कॉर्नेल यूनिवर्सिटी के शोधपत्र में बताया है कि VALL-E तकनीक से आवाज और भावनाओं को कॉपी किया जा सकता है। इसके कुछ उदाहरण गिटहब पर उपलब्ध है। हालांकि जैसे जैसे-जैसे AI तकनीक में सुधार होगा, वैसे-वैसे एआई से जनरेट होने वाली रिकॉर्डिंग विश्वनीय होती जाएंगी।

TRENDING NOW

भविष्य में और बेहतर होगी तकनीक

हालांकि यह आवाज की डुप्लीकेसी कई लोगों की प्राइवेसी के लिए बड़ा ही खतरनाक साबित हो सकती है। दरअसल, दुनिया के कई देशों में आवाज से खुलने वाले लॉक आदि मिलते हैं। ऐसे में यह तकनीक उनके लिए बड़ी ही खतरनाक साबित हो सकती है।

टेक्नोलॉजी और ऑटोमोबाइल की लेटेस्ट खबरों के लिए आप हमें व्हाट्सऐप चैनल, फेसबुक, यूट्यूब और X, पर फॉलो करें।

Author Name | Avanish Upadhyay

Select Language