Maverick एक अलग प्रकृति का मॉडल है। 400B पैरामीटर की संख्या बड़ी लगती है, लेकिन मिक्सचर-ऑफ-एक्सपर्ट्स आर्किटेक्चर का मतलब है कि किसी भी इन्फरेंस पास के दौरान केवल एक अंश पैरामीटर ही सक्रिय होते हैं — लगभग 17 अरब, जो Scout के पूर्ण आकार के बराबर है। इसका व्यावहारिक परिणाम यह है कि Maverick को एक घने 400B मॉडल की तुलना में प्रति क्वेरी कम कंप्यूट की आवश्यकता होती है, जबकि बहुत बड़े नेटवर्क की ज्ञान और रीज़निंग गहराई बनाए रखता है। MMLU बेंचमार्क पर, Maverick ने 87.4 स्कोर किया, जबकि GPT-5.4 ने 86.1 और Claude 3.7 Sonnet ने 85.8। गणित रीज़निंग (MATH बेंचमार्क) पर, Maverick ने 79.6 हासिल किया, जो इससे पहले जारी किसी भी ओपन-सोर्स मॉडल से काफी ऊपर है।
डेवलपर्स की प्रतिक्रिया जोरदार और काफी हद तक सकारात्मक रही है, हालांकि कुछ सावधानियों के साथ। Llama 4 का कॉन्टेक्स्ट विंडो Scout पर 2,56,000 टोकन और Maverick पर 10 लाख है — फ्रंटियर के साथ प्रतिस्पर्धी, लेकिन समुदाय अगले सप्ताह यह परखने में बिताएगा कि क्या लंबे-कॉन्टेक्स्ट टास्क पर प्रदर्शन उसी तरह घटता है जैसा पहले के Llama संस्करणों में हुआ था। X पर कई AI शोधकर्ताओं ने नोट किया कि Maverick के बेंचमार्क परिणाम बेस मॉडल से अलग "चैट-ट्यून्ड" वेरिएंट के साथ तैयार किए गए थे, जो पुनरुत्पादनीयता को प्रभावित कर सकता है।
मुख्य बातें
- →meta: Llama 4 Scout is Meta's 17-billion-parameter model designed for local deployment.
- →llama 4: Llama 4 Scout is Meta's 17-billion-parameter model designed for local deployment.
- →open source ai: Llama 4 Scout is Meta's 17-billion-parameter model designed for local deployment.
- →large language models: Llama 4 Scout is Meta's 17-billion-parameter model designed for local deployment.
Meta के CEO मार्क ज़करबर्ग ने इस रिलीज़ को एक दीर्घकालिक दांव के रूप में पेश किया। उन्होंने रिलीज़ के साथ एक बयान में लिखा, "हमारा मानना है कि ओपन-सोर्स AI से ही एक स्वस्थ इकोसिस्टम बनता है। इसलिए नहीं कि यह परोपकारी है — बल्कि इसलिए कि सबसे अच्छे AI उत्पाद उन नींवों पर बनेंगे जिन्हें सभी देख, ऑडिट और बेहतर बना सकते हैं।" यह एक जाना-पहचाना तर्क है, लेकिन यह अब उस समय से अलग असर डालता है जब Llama 1 फरवरी 2023 में बहुत कम दर्शकों के सामने लॉन्च हुआ था। तब से ओपन-सोर्स AI परिदृश्य काफी परिपक्व हो चुका है, और Meta की इस पैमाने पर मॉडल जारी करने की इच्छा ने हर दूसरी बड़ी लैब को लागत और पहुंच के तर्कों से जूझने पर मजबूर किया है।
व्यावहारिक निहितार्थ वास्तविक हैं। एक डेवलपर जो कानूनी दस्तावेज़ समीक्षा टूल बना रहा है, एक हेल्थकेयर कंपनी जो मरीजों के रिकॉर्ड प्रोसेस कर रही है, या डेटा संप्रभुता की आवश्यकताओं वाली कोई सरकारी एजेंसी — इन सभी को अब एक ऐसे मॉडल तक पहुंच मिल गई है जो मौजूदा फ्रंटियर के साथ प्रतिस्पर्धी है और पूरी तरह से अपने स्वयं के इंफ्रास्ट्रक्चर में तैनात किया जा सकता है। यह एक महत्वपूर्ण विकास है। यह OpenAI, Anthropic, या Google के क्लाउड-आधारित फ्रंटियर मॉडल के मामले को खत्म नहीं करता, लेकिन उसे संकरा जरूर करता है।
जिस एक क्षेत्र में प्रतिक्रिया अधिक सतर्क रही है, वह सुरक्षा है। Llama 4 में मॉडल सुरक्षा के प्रति Meta का दृष्टिकोण एक स्तरीय प्रणाली पर आधारित है: इनपुट और आउटपुट को फ़िल्टर करने के लिए एक समर्पित Llama Guard 4 क्लासिफायर मॉडल, साथ ही जेलब्रेक का पता लगाने के लिए एक अपडेटेड Prompt Guard सिस्टम। जो शोधकर्ता पहले से ही सप्ताहांत में पब्लिक वेट्स का परीक्षण कर चुके हैं, उन्होंने पाया है कि पहले के Llama रिलीज़ की तरह, बेस वेट्स को ऐसी सामग्री तैयार करने के लिए प्रेरित किया जा सकता है जिसे सुरक्षा परतें ब्लॉक करने के लिए बनाई गई हैं। Meta ने रिलीज़ नोट्स में इसे स्वीकार किया, इसे "खुले तौर पर जारी किए गए वेट्स की एक अंतर्निहित विशेषता" बताते हुए और यह नोट करते हुए कि उसने Llama Guard 4 वेट्स को विशेष रूप से इसलिए साझा किया है ताकि तैनात करने वाले अपनी खुद की फ़िल्टरिंग परत चला सकें।
यह एक उचित स्थिति है। यह एक ऐसी स्थिति भी है जो ओपन-सोर्स AI के बारे में नीतिगत बहस को भविष्य में भी पूरे जोरों पर चलाती रहेगी।