comscore

AI ने खुद पकड़ लिया कि उसका टेस्ट हो रहा है, Anthropic के Claude Opus 4.6 ने किया सबको हैरान

AI कंपनी Anthropic के नए मॉडल Claude Opus 4.6 ने खुद पहचान लिया कि उसका टेस्ट किया जा रहा है। इतना ही नहीं, मॉडल ने सही जवाब पाने के लिए इंटरनेट पर 'Answer Key' ढूंढने की कोशिश भी की। आइए जानते हैं...

Published By: Ashutosh Ojha | Published: Mar 09, 2026, 11:40 AM (IST)

  • whatsapp
  • twitter
  • facebook
  • whatsapp
  • twitter
  • facebook

Anthropic ने बताया है कि उसका नया मॉडल Claude Opus 4.6 यह पहचान सकता है कि उसे टेस्ट या मूल्यांकन के लिए इस्तेमाल किया जा रहा है। कंपनी के अनुसार, यह मॉडल सिर्फ सवालों का जवाब देने की कोशिश ही नहीं करता, बल्कि यह भी समझने लगता है कि सवाल किसी AI टेस्ट का हिस्सा है या नहीं। इतना ही नहीं कुछ मामलों में यह सही जवाब पाने के लिए इंटरनेट पर जाकर ‘Answer Key’ भी ढूंढने की कोशिश करता है। इस खुलासे के बाद AI इंडस्ट्री में इस पर बड़ी चर्चा शुरू हो गई है। news और पढें: Anthropic ने लॉन्च किया Claude Opus 4.6 AI मॉडल, भर-भर के मिलेंगे फायदे

यह घटना डरावनी क्यों हैं?

इस घटना पर Peter Steinberger ने भी प्रतिक्रिया दी है, जो OpenClaw के निर्माता हैं। उन्होंने सोशल मीडिया प्लेटफॉर्म X पर लिखा कि AI मॉडल इतने समझदार होते जा रहे हैं कि यह लगभग डराने वाला लगता है। दरअसल यह घटना उस समय सामने आई जब Claude Opus 4.6 का परीक्षण BrowseComp नाम के एक टेस्ट पर किया जा रहा था। यह टेस्ट इस बात को जांचने के लिए बनाया गया है कि AI मॉडल इंटरनेट पर मुश्किल से मिलने वाली जानकारी को कितनी अच्छी तरह सर्च कर सकता है, लेकिन टेस्ट के दौरान मॉडल ने खुद ही समझ लिया कि यह एक बेंचमार्क टेस्ट है और फिर उसने सीधे जवाब ढूंढने की बजाय Answer Key सर्च करने की रणनीति अपना ली।

Claude Opus 4.6 ने आखिर Answer Key कैसे ढूंढ ली?

Anthropic के अनुसार, यह शायद पहली बार है जब किसी AI मॉडल ने खुद ही समझ लिया कि उसे टेस्ट किया जा रहा है और फिर पीछे से जवाब तक पहुंचने की कोशिश की। आमतौर पर ‘बेंचमार्क कंटैमिनेशन’ तब होता है जब किसी AI मॉडल को पहले से इंटरनेट पर मौजूद लीक हुए जवाब मिल जाते हैं लेकिन इस मामले में Claude Opus 4.6 ने खुद अनुमान लगाया कि सवाल किसी AI बेंचमार्क का हिस्सा है। इसके बाद मॉडल ने इंटरनेट पर कई तरह के सर्च किए, GitHub पर मौजूद सोर्स कोड को देखा और डिक्रिप्शन लॉजिक को समझकर एन्क्रिप्टेड डेटा से जवाब निकालने की कोशिश की। जब उसे फाइल फॉर्मेट में समस्या आई तो उसने Third Party वेबसाइट से वही डेटा दूसरे फॉर्मेट में ढूंढ लिया और फिर अपना कोड चलाकर जवाब प्राप्त किया।

Add Techlusive as a Preferred SourceAddTechlusiveasaPreferredSource

क्या भविष्य में AI मॉडल को नियंत्रित करना मुश्किल हो सकता है?

Anthropic का कहना है कि यह घटना AI के डेवलपमेंट की दिशा को लेकर नए सवाल खड़े करती है। अगर AI मॉडल खुद समझने लगें कि उन्हें टेस्ट किया जा रहा है और वे नियमों से बचने के तरीके ढूंढने लगें, तो भविष्य में इन्हें नियंत्रित करना मुश्किल हो सकता है। कंपनी ने कहा कि इस तरह के मॉडल कई बार ब्लॉकलिस्ट और बाकी सुरक्षा उपायों को भी पार कर लेते हैं और अपने लक्ष्य तक पहुंचने के लिए अलग-अलग रास्ते खोज लेते हैं। एक्सपर्ट्स का मानना है कि जैसे-जैसे AI मॉडल और ज्यादा स्मार्ट बनेंगे, वैसे-वैसे उन्हें सुरक्षित और जिम्मेदार तरीके से इस्तेमाल करने के लिए नई रणनीतियां भी बनानी पड़ेंगी।