08 Sep, 2025 | Monday
ट्रेंडिंग : रिचार्ज प्लानInstagramAmazon Offerटिप्स एंड ट्रिक

क्या GPT-5 देता है गलत जवाब? OpenAI ने किया खुलासा

OpenAI ने खुलासा किया कि GPT-5 में भी “हैलुसिनेशन” यानी गलत जवाब देने की समस्या मौजूद है। आइए जानते हैं क्यों AI कभी-कभी सही जानकारी नहीं देता।

Published By: Ashutosh Ojha

Published: Sep 08, 2025, 06:53 PM IST

Grok Imagine
Grok Imagine

OpenAI ने हाल ही में स्वीकार किया है कि उनके सबसे नए भाषा मॉडल GPT-5 में भी “हैलुसिनेशन” यानी गलत जानकारी देने की समस्या मौजूद है। कंपनी के ब्लॉग पोस्ट के अनुसार, हेलुसिनेशन का मतलब है AI ऐसे उत्तर देना जो सुनने में सही लगते हैं, लेकिन असल में गलत होते हैं। ये समस्या आसान सवालों में भी दिख सकती है, जैसे किसी रिजर्स के बारें में पूछने पर AI तीन अलग-अलग गलत जवाब दे दे या किसी व्यक्ति की date of birth पूछने पर अलग-अलग उत्तर दे। OpenAI ने यह साफ किया कि यह गलती कोई तकनीकी गड़बड़ी नहीं है, बल्कि AI के ट्रेनिंग और इवैल्यूएशन प्रोसेस का नतीजा है।

AI अनुमान क्यों लगाता है और “मुझे नहीं पता” क्यों नहीं कहता?

OpenAI का कहना है कि यह दिक्कत AI के लर्निंग और टेस्टिंग के तरीके में है। AI को ज्यादातर सही जवाब देने की ट्रेनिंग दी जाती है, लेकिन जब AI को जवाब नहीं पता होता, तो वह अक्सर अनुमान लगा देता है, जैसे अगर आप किसी टेस्ट में किसी सवाल का जवाब नहीं जानते और अनुमान लगाते हैं, तो कभी-कभी सही भी निकल सकता है। AI भी इसी तरह “मुझे नहीं पता” कहने की बजाय गलत अनुमान लगाकर जवाब दे देता है, क्योंकि उसे केवल सही जवाब देने के आधार पर आंका जाता है।

क्या पिछले वर्जन की तुलना में GPT-5 में हेलुसिनेशन कम हुआ है?

GPT-5 पिछले वर्जन की तुलना में गलत जवाब (हेलुसिनेशन) कम देता है, खासकर सोच-समझ और reasoning वाले कामों में। OpenAI की स्टडी में पाया गया है कि जब AI को पता नहीं होता और वह जवाब देने से बचता है, तो गलतियां कम होती हैं। इसे AI में “modesty” कहा जाता है। इसका मतलब है कि AI कभी-कभी जवाब देने से बच सकता है, इसलिए टेस्ट में सही जवाब थोड़े कम दिख सकते हैं, लेकिन असली दुनिया में गलत जानकारी फैलने की संभावना बहुत कम हो जाती है।

भविष्य में हेलुसिनेशन कैसे कम होगा?

कंपनी कहती है कि सिर्फ बेहतर AI मॉडल बनाने से गलत जवाब (हेलुसिनेशन) पूरी तरह खत्म नहीं होगा। इसके लिए AI को जांचने और परखने का तरीका बदलना भी जरूरी है, जैसे गलत जवाब देने पर ज्यादा दंड देना और “मुझे नहीं पता” कहने पर कुछ अंक देना। OpenAI के मुताबिक, AI की ट्रेनिंग बड़े टेक्स्ट डेटा पर होती है, लेकिन इसमें यह नहीं बताया जाता कि कौन-सी जानकारी सही है और कौन-सी गलत। इसलिए date of birth जैसी कम मिलने वाली जानकारी का सही अनुमान लगाना मुश्किल होता है। OpenAI कहता है कि हेलुसिनेशन कोई समस्या नहीं है, बल्कि यह ट्रेनिंग और रिवॉर्ड देने के तरीके का नतीजा है। भविष्य में इसे कम करने के लिए ट्रेनिंग और इवैल्यूएशन दोनों में सुधार करना जरूरी है।

TRENDING NOW

टेक्नोलॉजी और ऑटोमोबाइल की लेटेस्ट खबरों के लिए आप हमें व्हाट्सऐप चैनल, फेसबुक, यूट्यूब और X, पर फॉलो करें।

Author Name | Ashutosh Ojha

Select Language