Written By Ashutosh Ojha
Published By: Ashutosh Ojha | Published: Sep 08, 2025, 06:53 PM (IST)
Grok Imagine
और पढें: इस साल भारत के लोगों ने Google पर सबसे ज्यादा ये सब किया सर्च, A से लेकर Z तक की लिस्ट आई सामने
OpenAI ने हाल ही में स्वीकार किया है कि उनके सबसे नए भाषा मॉडल GPT-5 में भी “हैलुसिनेशन” यानी गलत जानकारी देने की समस्या मौजूद है। कंपनी के ब्लॉग पोस्ट के अनुसार, हेलुसिनेशन का मतलब है AI ऐसे उत्तर देना जो सुनने में सही लगते हैं, लेकिन असल में गलत होते हैं। ये समस्या आसान सवालों में भी दिख सकती है, जैसे किसी रिजर्स के बारें में पूछने पर AI तीन अलग-अलग गलत जवाब दे दे या किसी व्यक्ति की date of birth पूछने पर अलग-अलग उत्तर दे। OpenAI ने यह साफ किया कि यह गलती कोई तकनीकी गड़बड़ी नहीं है, बल्कि AI के ट्रेनिंग और इवैल्यूएशन प्रोसेस का नतीजा है। और पढें: Google ने बदला अपडेट शेड्यूल, आया Android 16 QPR2, अब फोन में तेजी से आएंगे अपडेट
OpenAI का कहना है कि यह दिक्कत AI के लर्निंग और टेस्टिंग के तरीके में है। AI को ज्यादातर सही जवाब देने की ट्रेनिंग दी जाती है, लेकिन जब AI को जवाब नहीं पता होता, तो वह अक्सर अनुमान लगा देता है, जैसे अगर आप किसी टेस्ट में किसी सवाल का जवाब नहीं जानते और अनुमान लगाते हैं, तो कभी-कभी सही भी निकल सकता है। AI भी इसी तरह “मुझे नहीं पता” कहने की बजाय गलत अनुमान लगाकर जवाब दे देता है, क्योंकि उसे केवल सही जवाब देने के आधार पर आंका जाता है। और पढें: Google के Gemini App में होगा बड़ा बदलाव, macOS के लिए आएगा स्पेशल वर्जन
GPT-5 पिछले वर्जन की तुलना में गलत जवाब (हेलुसिनेशन) कम देता है, खासकर सोच-समझ और reasoning वाले कामों में। OpenAI की स्टडी में पाया गया है कि जब AI को पता नहीं होता और वह जवाब देने से बचता है, तो गलतियां कम होती हैं। इसे AI में “modesty” कहा जाता है। इसका मतलब है कि AI कभी-कभी जवाब देने से बच सकता है, इसलिए टेस्ट में सही जवाब थोड़े कम दिख सकते हैं, लेकिन असली दुनिया में गलत जानकारी फैलने की संभावना बहुत कम हो जाती है।
कंपनी कहती है कि सिर्फ बेहतर AI मॉडल बनाने से गलत जवाब (हेलुसिनेशन) पूरी तरह खत्म नहीं होगा। इसके लिए AI को जांचने और परखने का तरीका बदलना भी जरूरी है, जैसे गलत जवाब देने पर ज्यादा दंड देना और “मुझे नहीं पता” कहने पर कुछ अंक देना। OpenAI के मुताबिक, AI की ट्रेनिंग बड़े टेक्स्ट डेटा पर होती है, लेकिन इसमें यह नहीं बताया जाता कि कौन-सी जानकारी सही है और कौन-सी गलत। इसलिए date of birth जैसी कम मिलने वाली जानकारी का सही अनुमान लगाना मुश्किल होता है। OpenAI कहता है कि हेलुसिनेशन कोई समस्या नहीं है, बल्कि यह ट्रेनिंग और रिवॉर्ड देने के तरीके का नतीजा है। भविष्य में इसे कम करने के लिए ट्रेनिंग और इवैल्यूएशन दोनों में सुधार करना जरूरी है।