Written By Ashutosh Ojha
Published By: Ashutosh Ojha | Published: Mar 09, 2026, 11:40 AM (IST)
Anthropic
Anthropic ने बताया है कि उसका नया मॉडल Claude Opus 4.6 यह पहचान सकता है कि उसे टेस्ट या मूल्यांकन के लिए इस्तेमाल किया जा रहा है। कंपनी के अनुसार, यह मॉडल सिर्फ सवालों का जवाब देने की कोशिश ही नहीं करता, बल्कि यह भी समझने लगता है कि सवाल किसी AI टेस्ट का हिस्सा है या नहीं। इतना ही नहीं कुछ मामलों में यह सही जवाब पाने के लिए इंटरनेट पर जाकर ‘Answer Key’ भी ढूंढने की कोशिश करता है। इस खुलासे के बाद AI इंडस्ट्री में इस पर बड़ी चर्चा शुरू हो गई है। और पढें: Anthropic ने लॉन्च किया Claude Opus 4.6 AI मॉडल, भर-भर के मिलेंगे फायदे
इस घटना पर Peter Steinberger ने भी प्रतिक्रिया दी है, जो OpenClaw के निर्माता हैं। उन्होंने सोशल मीडिया प्लेटफॉर्म X पर लिखा कि AI मॉडल इतने समझदार होते जा रहे हैं कि यह लगभग डराने वाला लगता है। दरअसल यह घटना उस समय सामने आई जब Claude Opus 4.6 का परीक्षण BrowseComp नाम के एक टेस्ट पर किया जा रहा था। यह टेस्ट इस बात को जांचने के लिए बनाया गया है कि AI मॉडल इंटरनेट पर मुश्किल से मिलने वाली जानकारी को कितनी अच्छी तरह सर्च कर सकता है, लेकिन टेस्ट के दौरान मॉडल ने खुद ही समझ लिया कि यह एक बेंचमार्क टेस्ट है और फिर उसने सीधे जवाब ढूंढने की बजाय Answer Key सर्च करने की रणनीति अपना ली।
Anthropic के अनुसार, यह शायद पहली बार है जब किसी AI मॉडल ने खुद ही समझ लिया कि उसे टेस्ट किया जा रहा है और फिर पीछे से जवाब तक पहुंचने की कोशिश की। आमतौर पर ‘बेंचमार्क कंटैमिनेशन’ तब होता है जब किसी AI मॉडल को पहले से इंटरनेट पर मौजूद लीक हुए जवाब मिल जाते हैं लेकिन इस मामले में Claude Opus 4.6 ने खुद अनुमान लगाया कि सवाल किसी AI बेंचमार्क का हिस्सा है। इसके बाद मॉडल ने इंटरनेट पर कई तरह के सर्च किए, GitHub पर मौजूद सोर्स कोड को देखा और डिक्रिप्शन लॉजिक को समझकर एन्क्रिप्टेड डेटा से जवाब निकालने की कोशिश की। जब उसे फाइल फॉर्मेट में समस्या आई तो उसने Third Party वेबसाइट से वही डेटा दूसरे फॉर्मेट में ढूंढ लिया और फिर अपना कोड चलाकर जवाब प्राप्त किया।
Anthropic का कहना है कि यह घटना AI के डेवलपमेंट की दिशा को लेकर नए सवाल खड़े करती है। अगर AI मॉडल खुद समझने लगें कि उन्हें टेस्ट किया जा रहा है और वे नियमों से बचने के तरीके ढूंढने लगें, तो भविष्य में इन्हें नियंत्रित करना मुश्किल हो सकता है। कंपनी ने कहा कि इस तरह के मॉडल कई बार ब्लॉकलिस्ट और बाकी सुरक्षा उपायों को भी पार कर लेते हैं और अपने लक्ष्य तक पहुंचने के लिए अलग-अलग रास्ते खोज लेते हैं। एक्सपर्ट्स का मानना है कि जैसे-जैसे AI मॉडल और ज्यादा स्मार्ट बनेंगे, वैसे-वैसे उन्हें सुरक्षित और जिम्मेदार तरीके से इस्तेमाल करने के लिए नई रणनीतियां भी बनानी पड़ेंगी।