Beberapa bulan yang lalu, model AI lokal hanyalah topik bahan tertawaan. Perusahaan besar seolah-olah ingin menguasai semua data kita, mendikte seberapa besar komputasi yang kita dapatkan, dan membuat GPU menjadi mata uang baru. Kami semua diperkirakan akan terjebak dalam kelas bawah yang permanen.
Rasanya benar-benar tidak adil. Kita bisa melihat betapa besarnya kekuasaan yang mereka miliki. Mereka bisa memutuskan untuk memutus akses cloud kita dalam semalam. Mereka bisa memilih untuk menahan model terbaik mereka dari publik, dan hanya merilisnya ke segelintir orang terpilih. Misalnya, model dengan kemampuan seperti ini bisa jadi berbahaya, jadi kami tidak akan merilisnya secara luas. π¨ Lab AI terus menjadi semakin kuat, namun mereka juga menguasai terlalu banyak data kita.
Saya pribadi merasa sangat tidak nyaman karena tidak ada model lokal yang benar-benar bisa digunakan oleh orang biasa. Namun, perlahan-lahan sesuatu mulai berubah sejak awal tahun 2026, dengan munculnya quant 3.5.
Ini adalah model lokal pertama yang secara realistis bisa dijalankan di komputer pribadi Anda, dan memberikan kecerdasan setara Sonnet. Dengan RAM sekitar 80 GB, Anda sudah bisa menjalankan model bagus secara lokal. Tantangannya adalah perangkat kerasnya. Meskipun sejujurnya tidak terlalu mahal, namun tetap memerlukan investasi besar. Untuk 5 hingga 10 ribu dolar, Anda bisa membeli Mac Studio dengan spesifikasi mumpuni. Tapi, tetap banyak orang yang merasa itu terlalu berlebihan.
Evolusi yang Menjanjikan (dan Biayanya) πΈ
Bagi mereka yang mampu membeli mesin kuat ini, ekspektasinya sangat tinggi. Ada yang berani menghabiskan 20 ribu dolar hanya untuk Mac Studio, mengklaim ini adalah masa depan, dan pada awalnya banyak yang menertawakan atau menyebut mereka gila. Jujur, pada awalnya saya pun belum sepenuhnya mengerti alasannya. Tentu, Anda bisa menghabiskan uang sebanyak itu, tapi model yang dijalankan masih jauh dari GPT 5.4 atau Opus 4.6. Bahkan, secara perbandingan, ia masih sedikit di bawah performa Gemini 3 Flash.
Sampai seminggu yang lalu, saat Google menunjukkan kepada kita seperti apa masa depan yang sesungguhnya. Mereka meluncurkan Gemma 4, dan model ini bisa berjalan di laptop Anda. Bahkan bisa berjalan di ponsel Anda. Untuk pertama kalinya, kita bisa menjalankan model lokal di komputer biasa yang benar-benar pintar. Google seolah memberikan kita model gratis yang berjalan di MacBook Anda dengan tingkat kecerdasan setara dengan model state-of-the-art setahun yang lalu, yaitu Opus 4.
Jika Anda ingin mencobanya, Google merilis aplikasi bernama Google AI Edge Gallery. Instal di iPhone atau Android terbaru, dan coba saja. Anda bisa chat dengan Gemma 4 yang berjalan lokal di ponsel Anda.
Ini adalah lompatan raksasa. Kita telah berubah dari kebutuhan akan perangkat keras senilai ratusan ribu dolar, menjadi menjalankan intelligence canggih ini di dalam laptop kita. π
Memahami Gemma 4: Jembatan Antara Aksesibilitas dan Kecerdasan π‘
Setelah mencoba Gemma 4 pada tugas-tugas open code, open claw, dan pie coding agents di MacBook saya, ada beberapa temuan menarik yang harus saya bagikan.
Pertama, mari kita lihat spesifikasi Gemma 4 dan perbandingannya dengan model open weight lain. Menurut Arena AI, performanya memang cerdas, melampaui banyak model open weight lainnya. Namun, perlu diperhatikan bahwa model yang lebih besar masih memiliki keunggulan di artificial analysis index.
Berikut ringkasan yang lebih realistis:
- State-of-the-Art (GPT 5.4 & Opus 4.6): Mencapai skor AI sekitar 55. Namun, keduanya tidak open weight dan tidak berjalan lokal.
Model Open Weight Terbaik (GLM 5 & quant 3.5): Secara kecerdasan mentah tidak terlalu jauh. Masalahnya? Untuk menjalankan versi terbesar, Anda harus merogoh kocek puluhan ribu dolar untuk perangkat keras. Belum praktis untuk kebanyakan orang.
Gemma 4: Anda bisa menjalankannya di MacBook, tergantung versi yang Anda pilih.
* Versi kecil: Berjalan di iPhone.
* Mid-tier: Nyaman di MacBook dengan RAM 34β48 GB.
* Versi paling cerdas: Membutuhkan spesifikasi yang sedikit lebih tinggi, mungkin MacBook di kisaran 5k.
Cara Menjalankan Model AI Lokal di Komputer Anda π»
Jika Anda ingin memasang model lokal, ada dua opsi utama yang paling populer:
- Ollama: Ini adalah tool yang paling straightforward. Anda hanya perlu mengunjungi situs web, menyalin perintah instalasi, dan menempelkannya di terminal. Dengan Ollama, Anda bisa mengunduh dan menjalankan hampir semua model lokal.
LM Studio: Pilihan populer lainnya untuk user yang lebih visual.
Saya menggunakan Ollama, karena kemudahannya.
Misalnya, untuk menguji Gemma 4, saya memulai dari yang terkecil. Anda hanya perlu perintah:Ollama pull Gemma 4 latest.
Setelah terpasang, Anda bisa langsung chat dengan model tersebut di Ollama. Voila, ini adalah run pertama Gemma 4
Catatan Penting Mengenai Implementasi
Ketika mencoba fitur yang lebih kompleks, saya menemukan bahwa ekosistem model lokal ini masih sangat mentah.
Coding Harness: Saya mencoba menggunakan open code, namun stabilitasnya kurang baik saat menjalankan Gemma 4. Sering terinterupsi, dan panggilan tool yang dilakukan model sering salah.
Rekomendasi Alternatif: Saya kemudian beralih ke pie coding agent. Harness ini lebih minimalis, tetapi tetap memungkinkan Anda mencoba kapabilitas coding model secara lebih terkontrol.
Intinya: Walaupun model AI lokal seperti Gemma 4 sudah sangat pintar dan sangat mudah diakses, kita masih dalam tahap eksplorasi. Perangkat lunak pendukung di sekitar model ini masih perlu banyak penyempurnaan.
Kesimpulan saya? Kita telah mencapai momen revolusioner. Kita tidak lagi dikunci pada infrastruktur cloud yang mahal. Kecerdasan tingkat tinggi kini dapat dipindahkan ke genggaman atau laptop kita, membuatnya lebih demokratis dan self-sufficient. Mari kita nikmati gelombang aksesibilitas ini! β¨
Leave a Reply