comscore

Google ने लॉन्च किया Gemma 3n, सिर्फ 2GB RAM में चलेगा गूगल का नया धांसू AI मॉडल

गूगल ने एक ऐसा नया AI मॉडल लॉन्च किया है जो सिर्फ 2GB RAM में भी शानदार तरीके से काम करता है। इसका नाम है Gemma 3n, जो फोटो, वीडियो, आवाज और टेक्स्ट को समझने में माहिर है। आइए जानते हैं।

Published By: Ashutosh Ojha | Published: Jun 27, 2025, 04:26 PM (IST)

  • whatsapp
  • twitter
  • facebook
  • whatsapp
  • twitter
  • facebook

अब सिर्फ बड़े कंप्यूटर या लैपटॉप पर ही नहीं, बल्कि आपके स्मार्टफोन पर भी एडवांस्ड AI मॉडल चलाना संभव हो गया है। गूगल ने एक ऐसा नया ओपन-सोर्स आर्टिफिशियल इंटेलिजेंस मॉडल लॉन्च किया है, जो सिर्फ 2GB RAM में भी आराम से काम करता है। इस मॉडल का नाम है Gemma 3n और यह मल्टीमॉडल फीचर्स से लैस है, यानी यह फोटो, वीडियो, आवाज और टेक्स्ट को समझ सकता है। आइए जानते हैं।

स्मार्टफोन पर भी चलेगा ये मॉडल

गूगल ने अपना नया ओपन-सोर्स AI मॉडल Gemma 3n आधिकारिक रूप से लॉन्च कर दिया है। यह मॉडल Gemma 3 फैमिली का हिस्सा है और इसे खासतौर पर छोटे डिवाइसेज पर चलने के लिए तैयार किया गया है। सबसे खास बात यह है कि यह मॉडल सिर्फ 2GB RAM में भी लोकली यानी आपके फोन या कंप्यूटर पर चल सकता है। यानी अगर आपके पास AI सपोर्ट वाला स्मार्टफोन है, तो आप इस एडवांस्ड मॉडल को आसानी से चला सकते हैं। कंपनी ने इसे “मोबाइल-फर्स्ट आर्किटेक्चर” के साथ डिजाइन किया है, जिससे यह हल्के डिवाइसेज पर भी बेहतरीन परफॉर्मेंस देता है।

क्या है Gemma 3n

Gemma 3n एक मल्टीमॉडल AI मॉडल है, जो इमेज, ऑडियो, वीडियो और टेक्स्ट इनपुट को सपोर्ट करता है, लेकिन आउटपुट सिर्फ टेक्स्ट के रूप में देता है। यानी आप तस्वीर, आवाज या वीडियो देकर उससे टेक्स्ट में जवाब पा सकते हैं। यह मॉडल 140 भाषाओं में टेक्स्ट को समझ सकता है और 35 भाषाओं में मल्टीमॉडल इनपुट को प्रोसेस कर सकता है। गूगल ने इसे ओपन-सोर्स रखते हुए सभी डेवलपर्स के लिए मॉडल वेट्स और कुकबुक भी जारी की है, ताकि वे इसे अपनी जरूरत के अनुसार इस्तेमाल कर सकें।

क्या है मैट्रोयश्का ट्रांसफॉर्मर टेक्नोलॉजी

Gemma 3n को Matryoshka Transformer (MatFormer) नाम की एक नई टेक्नोलॉजी से तैयार किया गया है। यह टेक्नोलॉजी रूसी नेस्टिंग डॉल्स जैसी है, जिसमें एक छोटा मॉडल बड़े मॉडल के अंदर मौजूद होता है। इस टेक्नोलॉजी से दो वेरिएंट बनाए गए हैं E2B और E4B, जिनके साइज 2 अरब और 4 अरब एक्टिव पैरामीटर हैं। जबकि इनके कुल पैरामीटर 5 और 8 अरब हैं। गूगल ने इसमें Per-Layer Embedding (PLE) टेक्नोलॉजी का इस्तेमाल किया है, जिससे सिर्फ जरूरी पैरामीटर्स ही तेज मेमोरी (VRAM) में लोड होते हैं और बाकी CPU से प्रोसेस हो जाते हैं। इससे मॉडल का परफॉर्मेंस बेहतर होता है और ज्यादा RAM या GPU की जरूरत नहीं पड़ती।

कस्टम मॉडल बनाने की सुविधा

गूगल ने डेवलपर्स को अपनी जरूरत के अनुसार कस्टम मॉडल बनाने की सुविधा भी दी है। इसके लिए कंपनी ने एक नया टूल MatFormer Lab पेश किया है, जिसमें आप कई सेटिंग्स के साथ एक्सपेरिमेंट करके अपनी पसंद का मॉडल बना सकते हैं। फिलहाल, Gemma 3n को Google AI Studio, Hugging Face और Kaggle से डाउनलोड किया जा सकता है। इसके अलावा इस मॉडल को AI Studio से सीधे Cloud Run पर भी तैनात किया जा सकता है। गूगल का यह कदम लोकल AI प्रोसेसिंग को बढ़ावा देने की दिशा में एक बड़ा कदम माना जा रहा है।