क्या GPT-5 देता है गलत जवाब? OpenAI ने किया खुलासा

OpenAI ने खुलासा किया कि GPT-5 में भी “हैलुसिनेशन” यानी गलत जवाब देने की समस्या मौजूद है। आइए जानते हैं क्यों AI कभी-कभी सही जानकारी नहीं देता।

Published By: Ashutosh Ojha | Published: Sep 08, 2025, 06:53 PM (IST)

और पढें: Mothers Day पर मां को तोहफे में दें ये स्मार्टफोन, कीमत 10000 रुपये से भी कम

OpenAI ने हाल ही में स्वीकार किया है कि उनके सबसे नए भाषा मॉडल GPT-5 में भी “हैलुसिनेशन” यानी गलत जानकारी देने की समस्या मौजूद है। कंपनी के ब्लॉग पोस्ट के अनुसार, हेलुसिनेशन का मतलब है AI ऐसे उत्तर देना जो सुनने में सही लगते हैं, लेकिन असल में गलत होते हैं। ये समस्या आसान सवालों में भी दिख सकती है, जैसे किसी रिजर्स के बारें में पूछने पर AI तीन अलग-अलग गलत जवाब दे दे या किसी व्यक्ति की date of birth पूछने पर अलग-अलग उत्तर दे। OpenAI ने यह साफ किया कि यह गलती कोई तकनीकी गड़बड़ी नहीं है, बल्कि AI के ट्रेनिंग और इवैल्यूएशन प्रोसेस का नतीजा है। और पढें: अब इंसानों की तरह सीखने लगा AI, Anthropic के Claude में आया खास फीचर

AI अनुमान क्यों लगाता है और “मुझे नहीं पता” क्यों नहीं कहता?

OpenAI का कहना है कि यह दिक्कत AI के लर्निंग और टेस्टिंग के तरीके में है। AI को ज्यादातर सही जवाब देने की ट्रेनिंग दी जाती है, लेकिन जब AI को जवाब नहीं पता होता, तो वह अक्सर अनुमान लगा देता है, जैसे अगर आप किसी टेस्ट में किसी सवाल का जवाब नहीं जानते और अनुमान लगाते हैं, तो कभी-कभी सही भी निकल सकता है। AI भी इसी तरह “मुझे नहीं पता” कहने की बजाय गलत अनुमान लगाकर जवाब दे देता है, क्योंकि उसे केवल सही जवाब देने के आधार पर आंका जाता है। और पढें: Adobe Acrobat हुआ और भी स्मार्ट, अब AI करेगा मिनटों में पूरा काम

क्या पिछले वर्जन की तुलना में GPT-5 में हेलुसिनेशन कम हुआ है?

GPT-5 पिछले वर्जन की तुलना में गलत जवाब (हेलुसिनेशन) कम देता है, खासकर सोच-समझ और reasoning वाले कामों में। OpenAI की स्टडी में पाया गया है कि जब AI को पता नहीं होता और वह जवाब देने से बचता है, तो गलतियां कम होती हैं। इसे AI में “modesty” कहा जाता है। इसका मतलब है कि AI कभी-कभी जवाब देने से बच सकता है, इसलिए टेस्ट में सही जवाब थोड़े कम दिख सकते हैं, लेकिन असली दुनिया में गलत जानकारी फैलने की संभावना बहुत कम हो जाती है।

भविष्य में हेलुसिनेशन कैसे कम होगा?

कंपनी कहती है कि सिर्फ बेहतर AI मॉडल बनाने से गलत जवाब (हेलुसिनेशन) पूरी तरह खत्म नहीं होगा। इसके लिए AI को जांचने और परखने का तरीका बदलना भी जरूरी है, जैसे गलत जवाब देने पर ज्यादा दंड देना और “मुझे नहीं पता” कहने पर कुछ अंक देना। OpenAI के मुताबिक, AI की ट्रेनिंग बड़े टेक्स्ट डेटा पर होती है, लेकिन इसमें यह नहीं बताया जाता कि कौन-सी जानकारी सही है और कौन-सी गलत। इसलिए date of birth जैसी कम मिलने वाली जानकारी का सही अनुमान लगाना मुश्किल होता है। OpenAI कहता है कि हेलुसिनेशन कोई समस्या नहीं है, बल्कि यह ट्रेनिंग और रिवॉर्ड देने के तरीके का नतीजा है। भविष्य में इसे कम करने के लिए ट्रेनिंग और इवैल्यूएशन दोनों में सुधार करना जरूरी है।

टेक्नोलॉजी और ऑटोमोबाइल की लेटेस्ट खबरों के लिए आप हमें व्हाट्सऐप चैनल, फेसबुक, यूट्यूब और X, पर फॉलो करें।