Written By Ashutosh Ojha
Published By: Ashutosh Ojha | Published: Sep 08, 2025, 06:53 PM (IST)
और पढें: ChatGPT में जल्द आएंगे Ads, क्या AI के जवाब भी होंगे प्रभावित?
OpenAI ने हाल ही में स्वीकार किया है कि उनके सबसे नए भाषा मॉडल GPT-5 में भी “हैलुसिनेशन” यानी गलत जानकारी देने की समस्या मौजूद है। कंपनी के ब्लॉग पोस्ट के अनुसार, हेलुसिनेशन का मतलब है AI ऐसे उत्तर देना जो सुनने में सही लगते हैं, लेकिन असल में गलत होते हैं। ये समस्या आसान सवालों में भी दिख सकती है, जैसे किसी रिजर्स के बारें में पूछने पर AI तीन अलग-अलग गलत जवाब दे दे या किसी व्यक्ति की date of birth पूछने पर अलग-अलग उत्तर दे। OpenAI ने यह साफ किया कि यह गलती कोई तकनीकी गड़बड़ी नहीं है, बल्कि AI के ट्रेनिंग और इवैल्यूएशन प्रोसेस का नतीजा है। और पढें: Instagram क्रिएटर्स के लिए खुशखबरी, अब हिन्दीं ही नहीं इन 5 भाषाओं में भी बना पाएंगे Reels
OpenAI का कहना है कि यह दिक्कत AI के लर्निंग और टेस्टिंग के तरीके में है। AI को ज्यादातर सही जवाब देने की ट्रेनिंग दी जाती है, लेकिन जब AI को जवाब नहीं पता होता, तो वह अक्सर अनुमान लगा देता है, जैसे अगर आप किसी टेस्ट में किसी सवाल का जवाब नहीं जानते और अनुमान लगाते हैं, तो कभी-कभी सही भी निकल सकता है। AI भी इसी तरह “मुझे नहीं पता” कहने की बजाय गलत अनुमान लगाकर जवाब दे देता है, क्योंकि उसे केवल सही जवाब देने के आधार पर आंका जाता है। और पढें: MediaTek ने लॉन्च किए Dimensity 9500s और Dimensity 8500 चिपसेट, Snapdragon 8 Gen 5 को मिलेगी कड़ी टक्कर
GPT-5 पिछले वर्जन की तुलना में गलत जवाब (हेलुसिनेशन) कम देता है, खासकर सोच-समझ और reasoning वाले कामों में। OpenAI की स्टडी में पाया गया है कि जब AI को पता नहीं होता और वह जवाब देने से बचता है, तो गलतियां कम होती हैं। इसे AI में “modesty” कहा जाता है। इसका मतलब है कि AI कभी-कभी जवाब देने से बच सकता है, इसलिए टेस्ट में सही जवाब थोड़े कम दिख सकते हैं, लेकिन असली दुनिया में गलत जानकारी फैलने की संभावना बहुत कम हो जाती है।
कंपनी कहती है कि सिर्फ बेहतर AI मॉडल बनाने से गलत जवाब (हेलुसिनेशन) पूरी तरह खत्म नहीं होगा। इसके लिए AI को जांचने और परखने का तरीका बदलना भी जरूरी है, जैसे गलत जवाब देने पर ज्यादा दंड देना और “मुझे नहीं पता” कहने पर कुछ अंक देना। OpenAI के मुताबिक, AI की ट्रेनिंग बड़े टेक्स्ट डेटा पर होती है, लेकिन इसमें यह नहीं बताया जाता कि कौन-सी जानकारी सही है और कौन-सी गलत। इसलिए date of birth जैसी कम मिलने वाली जानकारी का सही अनुमान लगाना मुश्किल होता है। OpenAI कहता है कि हेलुसिनेशन कोई समस्या नहीं है, बल्कि यह ट्रेनिंग और रिवॉर्ड देने के तरीके का नतीजा है। भविष्य में इसे कम करने के लिए ट्रेनिंग और इवैल्यूएशन दोनों में सुधार करना जरूरी है।