Maverick adalah binatang yang berbeda. Jumlah parameter 400 miliar terdengar besar, tetapi arsitektur mixture-of-experts berarti hanya sebagian kecil parameter yang aktif selama setiap proses inferensi — sekitar 17 miliar, kira-kira setara dengan ukuran penuh Scout. Hasilnya secara praktis adalah Maverick membutuhkan lebih sedikit komputasi per kueri dibandingkan model 400 miliar parameter padat, sekaligus tetap mempertahankan kedalaman pengetahuan dan penalaran dari jaringan yang jauh lebih besar. Pada tolok ukur MMLU, Maverick mencetak 87,4, dibandingkan 86,1 untuk GPT-5.4 dan 85,8 untuk Claude 3.7 Sonnet. Pada penalaran matematika (tolok ukur MATH), Maverick mencapai 79,6, yang secara signifikan melampaui model open-source mana pun yang dirilis sebelumnya.
“Pada tolok ukur MMLU, Maverick mencetak 87,4, dibandingkan 86,1 untuk GPT-5.4 dan 85,8 untuk Claude 3.7 Sonnet.”
Sambutan dari para pengembang sangat antusias dan sebagian besar positif, meski dengan beberapa catatan. Jendela konteks Llama 4 adalah 256.000 token pada Scout dan 1 juta pada Maverick — kompetitif dengan model-model terdepan, tetapi komunitas akan menghabiskan minggu depan untuk menguji apakah performa menurun pada tugas konteks panjang seperti yang terjadi pada versi Llama sebelumnya. Beberapa peneliti AI di X mencatat bahwa hasil tolok ukur Maverick dihasilkan dengan varian "chat-tuned" yang berbeda dari model dasarnya, yang dapat memengaruhi reprodusibilitas.
Poin Utama
- →meta: Llama 4 Scout is Meta's 17-billion-parameter model designed for local deployment.
- →llama 4: Llama 4 Scout is Meta's 17-billion-parameter model designed for local deployment.
- →open source ai: Llama 4 Scout is Meta's 17-billion-parameter model designed for local deployment.
- →large language models: Llama 4 Scout is Meta's 17-billion-parameter model designed for local deployment.
CEO Meta Mark Zuckerberg membingkai peluncuran ini sebagai bagian dari taruhan jangka panjang. "Kami percaya bahwa AI open-source adalah cara membangun ekosistem yang lebih sehat," tulisnya dalam pernyataan yang menyertai peluncuran. "Bukan karena ini bersifat altruistis — tetapi karena produk AI terbaik akan dibangun di atas fondasi yang bisa dilihat, diaudit, dan diperbaiki oleh semua orang." Ini adalah argumen yang sudah familiar, tetapi terdengar berbeda sekarang dibandingkan saat Llama 1 diluncurkan pada Februari 2023 kepada audiens yang jauh lebih kecil. Lanskap AI open-source telah berkembang secara signifikan sejak saat itu, dan kesediaan Meta untuk merilis model-model dalam skala ini telah memaksa setiap laboratorium besar lainnya untuk menghadapi argumen soal biaya dan aksesibilitas.
Implikasi praktisnya nyata. Seorang pengembang yang membangun alat tinjauan dokumen hukum, perusahaan layanan kesehatan yang memproses rekam medis pasien, atau lembaga pemerintah dengan persyaratan kedaulatan data — semuanya kini memiliki akses ke model yang kompetitif dengan model terdepan saat ini, yang dapat diterapkan sepenuhnya dalam infrastruktur mereka sendiri. Ini adalah perkembangan yang tidak bisa dianggap remeh. Hal ini tidak menghilangkan alasan untuk menggunakan model frontier berbasis cloud dari OpenAI, Anthropic, atau Google, tetapi mempersempitnya.
Satu area di mana sambutan lebih berhati-hati adalah keamanan. Pendekatan Meta terhadap keamanan model dalam Llama 4 melibatkan sistem berlapis: model pengklasifikasi Llama Guard 4 khusus untuk menyaring input dan output, ditambah sistem Prompt Guard yang diperbarui untuk mendeteksi jailbreak. Para peneliti yang telah menghabiskan akhir pekan menguji bobot publik menemukan bahwa, seperti rilis Llama sebelumnya, bobot dasarnya dapat diarahkan untuk menghasilkan konten yang dirancang untuk diblokir oleh lapisan keamanan. Meta mengakui hal ini dalam catatan rilis, menyebutnya sebagai "sifat inheren dari bobot yang dirilis secara terbuka" dan mencatat bahwa pihaknya telah berbagi bobot Llama Guard 4 secara khusus agar para penerapnya dapat menjalankan lapisan penyaringan mereka sendiri.
Itu adalah posisi yang masuk akal. Ini juga merupakan posisi yang akan membuat perdebatan kebijakan tentang AI open-source terus berlangsung dengan penuh semangat dalam waktu yang dapat diprediksi ke depan.