Tekno  

Efisiensi Jadi Kunci: Meta Rilis Llama 4 Scout dan Maverick dengan Arsitektur MoE dan Konteks Jumbo

Efisiensi Jadi Kunci: Meta Rilis Llama 4 Scout dan Maverick dengan Arsitektur MoE dan Konteks Jumbo
Ilustrasi Meta (Ist)

INDONESIAONLINE – Meta Platforms Inc. mengambil langkah signifikan dalam evolusi model AI-nya dengan memperkenalkan Llama 4 Scout dan Llama 4 Maverick. Pengumuman yang disampaikan CEO Mark Zuckerberg pada Ahad (6/4/2025) menyoroti tidak hanya peningkatan performa, tetapi juga fokus kuat pada efisiensi komputasi dan kemampuan pemrosesan konteks yang diperluas.

Llama 4 Scout, salah satu dari dua model perdana Llama 4, hadir dengan 17 miliar parameter aktif dan 16 “pakar”. Fitur unggulannya adalah kemampuan memproses konteks hingga 10 juta token, sebuah lompatan besar yang memungkinkan pemahaman input teks yang jauh lebih panjang dan kompleks dibandingkan banyak model sebelumnya.

Sementara itu, Llama 4 Maverick, meski memiliki jumlah parameter serupa (17 miliar), mengadopsi arsitektur Mixture-of-Experts (MoE) dengan 128 pakar. Arsitektur MoE, yang juga digunakan oleh model pesaing seperti DeepSeek-V3, memungkinkan model mengaktifkan hanya sebagian kecil dari total parameternya untuk setiap input, sehingga meningkatkan efisiensi.

Zuckerberg secara spesifik menyebut Maverick dirancang “untuk berjalan pada satu host untuk memudahkan inferensi,” mengindikasikan fokus pada kemudahan deployment dan potensi biaya operasional yang lebih rendah.

Klaim efisiensi ini diperkuat dengan perbandingan terhadap DeepSeek-V3, model MoE lain dengan total parameter jauh lebih besar (671 miliar). Meta mengklaim Maverick lebih efisien, terutama dalam biaya pemrosesan per juta token input dan output, meskipun DeepSeek-V3 unggul di beberapa benchmark performa spesifik.

Dengan peluncuran ini, Meta tampaknya bertaruh bahwa kombinasi performa tinggi, efisiensi sumber daya, dan kemampuan konteks panjang akan menjadi daya tarik utama bagi para pengembang dan peneliti yang memanfaatkan model AI open source mereka.