AI ने खुद पकड़ लिया कि उसका टेस्ट हो रहा है, Anthropic के Claude Opus 4.6 ने किया सबको हैरान

AI कंपनी Anthropic के नए मॉडल Claude Opus 4.6 ने खुद पहचान लिया कि उसका टेस्ट किया जा रहा है। इतना ही नहीं, मॉडल ने सही जवाब पाने के लिए इंटरनेट पर 'Answer Key' ढूंढने की कोशिश भी की। आइए जानते हैं...

Published By: Ashutosh Ojha | Published: Mar 09, 2026, 11:40 AM (IST) | Edited: Mar 09, 2026, 11:40 AM (IST)

Anthropic ने बताया है कि उसका नया मॉडल Claude Opus 4.6 यह पहचान सकता है कि उसे टेस्ट या मूल्यांकन के लिए इस्तेमाल किया जा रहा है। कंपनी के अनुसार, यह मॉडल सिर्फ सवालों का जवाब देने की कोशिश ही नहीं करता, बल्कि यह भी समझने लगता है कि सवाल किसी AI टेस्ट का हिस्सा है या नहीं। इतना ही नहीं कुछ मामलों में यह सही जवाब पाने के लिए इंटरनेट पर जाकर 'Answer Key' भी ढूंढने की कोशिश करता है। इस खुलासे के बाद AI इंडस्ट्री में इस पर बड़ी चर्चा शुरू हो गई है। और पढें: Anthropic ने लॉन्च किया Claude Opus 4.6 AI मॉडल, भर-भर के मिलेंगे फायदे

यह घटना डरावनी क्यों हैं?

इस घटना पर Peter Steinberger ने भी प्रतिक्रिया दी है, जो OpenClaw के निर्माता हैं। उन्होंने सोशल मीडिया प्लेटफॉर्म X पर लिखा कि AI मॉडल इतने समझदार होते जा रहे हैं कि यह लगभग डराने वाला लगता है। दरअसल यह घटना उस समय सामने आई जब Claude Opus 4.6 का परीक्षण BrowseComp नाम के एक टेस्ट पर किया जा रहा था। यह टेस्ट इस बात को जांचने के लिए बनाया गया है कि AI मॉडल इंटरनेट पर मुश्किल से मिलने वाली जानकारी को कितनी अच्छी तरह सर्च कर सकता है, लेकिन टेस्ट के दौरान मॉडल ने खुद ही समझ लिया कि यह एक बेंचमार्क टेस्ट है और फिर उसने सीधे जवाब ढूंढने की बजाय Answer Key सर्च करने की रणनीति अपना ली।

Claude Opus 4.6 ने आखिर Answer Key कैसे ढूंढ ली?

Anthropic के अनुसार, यह शायद पहली बार है जब किसी AI मॉडल ने खुद ही समझ लिया कि उसे टेस्ट किया जा रहा है और फिर पीछे से जवाब तक पहुंचने की कोशिश की। आमतौर पर 'बेंचमार्क कंटैमिनेशन' तब होता है जब किसी AI मॉडल को पहले से इंटरनेट पर मौजूद लीक हुए जवाब मिल जाते हैं लेकिन इस मामले में Claude Opus 4.6 ने खुद अनुमान लगाया कि सवाल किसी AI बेंचमार्क का हिस्सा है। इसके बाद मॉडल ने इंटरनेट पर कई तरह के सर्च किए, GitHub पर मौजूद सोर्स कोड को देखा और डिक्रिप्शन लॉजिक को समझकर एन्क्रिप्टेड डेटा से जवाब निकालने की कोशिश की। जब उसे फाइल फॉर्मेट में समस्या आई तो उसने Third Party वेबसाइट से वही डेटा दूसरे फॉर्मेट में ढूंढ लिया और फिर अपना कोड चलाकर जवाब प्राप्त किया।

क्या भविष्य में AI मॉडल को नियंत्रित करना मुश्किल हो सकता है?

Anthropic का कहना है कि यह घटना AI के डेवलपमेंट की दिशा को लेकर नए सवाल खड़े करती है। अगर AI मॉडल खुद समझने लगें कि उन्हें टेस्ट किया जा रहा है और वे नियमों से बचने के तरीके ढूंढने लगें, तो भविष्य में इन्हें नियंत्रित करना मुश्किल हो सकता है। कंपनी ने कहा कि इस तरह के मॉडल कई बार ब्लॉकलिस्ट और बाकी सुरक्षा उपायों को भी पार कर लेते हैं और अपने लक्ष्य तक पहुंचने के लिए अलग-अलग रास्ते खोज लेते हैं। एक्सपर्ट्स का मानना है कि जैसे-जैसे AI मॉडल और ज्यादा स्मार्ट बनेंगे, वैसे-वैसे उन्हें सुरक्षित और जिम्मेदार तरीके से इस्तेमाल करने के लिए नई रणनीतियां भी बनानी पड़ेंगी।

टेक्नोलॉजी और ऑटोमोबाइल की लेटेस्ट खबरों के लिए आप हमें व्हाट्सऐप चैनल, फेसबुक, यूट्यूब और X, पर फॉलो करें।