comscore

क्या GPT-5 देता है गलत जवाब? OpenAI ने किया खुलासा

OpenAI ने खुलासा किया कि GPT-5 में भी “हैलुसिनेशन” यानी गलत जवाब देने की समस्या मौजूद है। आइए जानते हैं क्यों AI कभी-कभी सही जानकारी नहीं देता।

Published By: Ashutosh Ojha | Published: Sep 08, 2025, 06:53 PM (IST)

  • whatsapp
  • twitter
  • facebook
  • whatsapp
  • twitter
  • facebook

news और पढें: इस साल भारत के लोगों ने Google पर सबसे ज्यादा ये सब किया सर्च, A से लेकर Z तक की लिस्ट आई सामने

OpenAI ने हाल ही में स्वीकार किया है कि उनके सबसे नए भाषा मॉडल GPT-5 में भी “हैलुसिनेशन” यानी गलत जानकारी देने की समस्या मौजूद है। कंपनी के ब्लॉग पोस्ट के अनुसार, हेलुसिनेशन का मतलब है AI ऐसे उत्तर देना जो सुनने में सही लगते हैं, लेकिन असल में गलत होते हैं। ये समस्या आसान सवालों में भी दिख सकती है, जैसे किसी रिजर्स के बारें में पूछने पर AI तीन अलग-अलग गलत जवाब दे दे या किसी व्यक्ति की date of birth पूछने पर अलग-अलग उत्तर दे। OpenAI ने यह साफ किया कि यह गलती कोई तकनीकी गड़बड़ी नहीं है, बल्कि AI के ट्रेनिंग और इवैल्यूएशन प्रोसेस का नतीजा है। news और पढें: Google ने बदला अपडेट शेड्यूल, आया Android 16 QPR2, अब फोन में तेजी से आएंगे अपडेट

AI अनुमान क्यों लगाता है और “मुझे नहीं पता” क्यों नहीं कहता?

OpenAI का कहना है कि यह दिक्कत AI के लर्निंग और टेस्टिंग के तरीके में है। AI को ज्यादातर सही जवाब देने की ट्रेनिंग दी जाती है, लेकिन जब AI को जवाब नहीं पता होता, तो वह अक्सर अनुमान लगा देता है, जैसे अगर आप किसी टेस्ट में किसी सवाल का जवाब नहीं जानते और अनुमान लगाते हैं, तो कभी-कभी सही भी निकल सकता है। AI भी इसी तरह “मुझे नहीं पता” कहने की बजाय गलत अनुमान लगाकर जवाब दे देता है, क्योंकि उसे केवल सही जवाब देने के आधार पर आंका जाता है। news और पढें: Google के Gemini App में होगा बड़ा बदलाव, macOS के लिए आएगा स्पेशल वर्जन

क्या पिछले वर्जन की तुलना में GPT-5 में हेलुसिनेशन कम हुआ है?

GPT-5 पिछले वर्जन की तुलना में गलत जवाब (हेलुसिनेशन) कम देता है, खासकर सोच-समझ और reasoning वाले कामों में। OpenAI की स्टडी में पाया गया है कि जब AI को पता नहीं होता और वह जवाब देने से बचता है, तो गलतियां कम होती हैं। इसे AI में “modesty” कहा जाता है। इसका मतलब है कि AI कभी-कभी जवाब देने से बच सकता है, इसलिए टेस्ट में सही जवाब थोड़े कम दिख सकते हैं, लेकिन असली दुनिया में गलत जानकारी फैलने की संभावना बहुत कम हो जाती है।

भविष्य में हेलुसिनेशन कैसे कम होगा?

कंपनी कहती है कि सिर्फ बेहतर AI मॉडल बनाने से गलत जवाब (हेलुसिनेशन) पूरी तरह खत्म नहीं होगा। इसके लिए AI को जांचने और परखने का तरीका बदलना भी जरूरी है, जैसे गलत जवाब देने पर ज्यादा दंड देना और “मुझे नहीं पता” कहने पर कुछ अंक देना। OpenAI के मुताबिक, AI की ट्रेनिंग बड़े टेक्स्ट डेटा पर होती है, लेकिन इसमें यह नहीं बताया जाता कि कौन-सी जानकारी सही है और कौन-सी गलत। इसलिए date of birth जैसी कम मिलने वाली जानकारी का सही अनुमान लगाना मुश्किल होता है। OpenAI कहता है कि हेलुसिनेशन कोई समस्या नहीं है, बल्कि यह ट्रेनिंग और रिवॉर्ड देने के तरीके का नतीजा है। भविष्य में इसे कम करने के लिए ट्रेनिंग और इवैल्यूएशन दोनों में सुधार करना जरूरी है।