Laboratorium AI Tiongkok DeepSeek telah secara resmi merilis versi pratinjau model bahasa besar (LLM) terbarunya, DeepSeek V4 Flash dan DeepSeek V4 Pro. Rilis ini menandai evolusi signifikan dari arsitektur V3.2 sebelumnya dan bertujuan untuk menantang dominasi pemimpin industri seperti OpenAI dan Google dengan menawarkan penalaran tingkat tinggi dengan biaya yang lebih murah.
Peningkatan: Kekuatan Campuran Pakar
Kedua model baru ini menggunakan arsitektur Mixture-of-Experts (MoE). Daripada mengaktifkan setiap parameter untuk setiap permintaan—yang secara komputasi mahal dan lambat—model MoE hanya memicu “ahli” tertentu (sub-bagian model) yang diperlukan untuk tugas tertentu. Hal ini memungkinkan dilakukannya skala besar tanpa peningkatan proporsional dalam energi atau biaya pemrosesan.
Kedua model ini berbeda secara signifikan dalam skala:
– DeepSeek V4 Pro: Model kelas berat yang memiliki 1,6 triliun total parameter, dengan 49 miliar parameter aktif dalam satu tugas. Hal ini menjadikannya model open-weight terbesar yang tersedia saat ini, secara signifikan mengungguli pesaing seperti Kimi K 2.6 dari Moonshot AI.
– DeepSeek V4 Flash: Versi yang lebih sederhana menampilkan 284 miliar parameter, dengan hanya 13 miliar aktif per tugas, dirancang untuk kecepatan dan efisiensi.
Kedua model memiliki jendela konteks 1 juta token, yang memungkinkan pengguna memproses kumpulan data besar, seperti seluruh basis kode atau dokumen hukum yang panjang, dalam satu perintah.
Menutup Kesenjangan dengan Model Frontier
DeepSeek mengklaim bahwa seri V4 hampir “menutup kesenjangan” dengan model eksklusif tercanggih di dunia. Rincian kinerja mengungkapkan gambaran berbeda tentang posisi DeepSeek dalam hierarki AI global:
1. Penalaran dan Pengkodean: Keunggulan Kompetitif
Dalam tugas-tugas khusus seperti penalaran logis dan pemrograman, kinerja DeepSeek sangat mencolok. Perusahaan melaporkan bahwa model V4 Pro-Max mengungguli sebagian besar model open source dan bahkan menyaingi model kelas atas seperti GPT-5.4 OpenAI dan Gemini 3.0 Pro Google dalam tugas tertentu. Dalam benchmark pengkodean, model V4 digambarkan “sebanding dengan GPT-5.4”.
2. Pengetahuan Umum: Perbatasan yang Tersisa
Terlepas dari kehebatan penalarannya, DeepSeek mengakui adanya sedikit kekurangan dalam tes pengetahuan umum. Model-model tersebut saat ini tertinggal di belakang OpenAI GPT-5.4 dan Google Gemini 3.1 Pro di bidang ini. Analisis DeepSeek sendiri menunjukkan bahwa lintasan perkembangan mereka kira-kira 3 hingga 6 bulan di belakang model terdepan yang paling canggih.
3. Keterbatasan Modalitas
Berbeda dengan model “omni” dari OpenAI atau Google, yang dapat memproses dan menghasilkan audio, video, dan gambar secara asli, model DeepSeek V4 saat ini hanya teks.
Revolusi Harga: Kinerja Tinggi, Biaya Rendah
Mungkin aspek yang paling mengganggu dari rilis V4 adalah strategi harganya. DeepSeek secara agresif meremehkan pasar, menjadikan intelijen tingkat tinggi dapat diakses oleh pengembang dan perusahaan.
| Model | Biaya Masukan (per 1 juta token) | Biaya Keluaran (per 1 juta token) | Konteks Kompetitif |
|---|---|---|---|
| Kilat V4 | $0,14 | $0,28 | Melemahkan GPT-5.4 Nano dan Claude Haiku 4.5 |
| V4 Pro | $0,145 | $3,48 | Melemahkan Gemini 3.1 Pro dan GPT-5.4 |
Penetapan harga yang agresif ini menunjukkan bahwa DeepSeek tidak hanya bersaing dalam hal kecerdasan, namun juga dalam hal kelayakan ekonomi untuk meningkatkan aplikasi AI.
Ringkasan
DeepSeek V4 mewakili tonggak penting bagi AI open-weight, menawarkan kemampuan penalaran elit dan berskala besar dengan harga yang menantang para raksasa industri. Meskipun masih sedikit tertinggal dalam pengetahuan umum dan kemampuan multimoda, efisiensinya menjadikannya pesaing yang tangguh untuk tugas-tugas pengkodean dan logika yang kompleks.





















