Ngobrol dengan DeepSeek-V3.2 Sekarang
DeepSeek-V3.2: Model Bahasa Besar yang Berfokus pada Penalaran
DeepSeek-V3.2 dirilis oleh DeepSeek pada 1 Desember 2025. Ini merupakan evolusi dari model V3.2-Exp sebelumnya , yang dirilis pada 29 September 2025, dan hadir dalam varian utama dan "Speciale" untuk penggunaan penelitian dan produksi.
DeepSeek-V3.2 adalah LLM berbasis transformer yang menggunakan arsitektur Mixture-of-Experts yang jarang (sparse) ditambah mekanisme " DeepSeek Sparse Attention " khusus untuk mengurangi komputasi sambil mempertahankan kualitas tinggi. DeepSeek-V3.2 menargetkan tugas-tugas seperti pengkodean, matematika, bantuan penelitian, dan penalaran multi-langkah, dan dirancang untuk mendukung agen otonom dan alur kerja pemanggilan alat, bukan hanya sekadar obrolan sederhana.
Efisiensi dan Kinerja DeepSeek-V3.2
DeepSeek-V3.2 dibangun di atas kerangka kerja Mixture-of-Experts (MoE) dengan total 671 miliar parameter, tetapi hanya mengaktifkan sekitar 37 miliar per token untuk efisiensi. Model ini mampu menangani konteks panjang (hingga 128.000+ token) dengan lebih murah daripada model dense-attention, sambil mempertahankan kinerja benchmark yang serupa atau lebih baik daripada V3.2.
Hasil benchmark dan laporan menggambarkannya sebagai kompetitif dengan model-model terdepan (seperti GPT-5.1 atau Gemini 3 Pro) pada tugas-tugas yang membutuhkan banyak penalaran, terutama pada varian dengan daya komputasi yang lebih tinggi.
Varian DeepSeek-V3.2
- DeepSeek-V3.2: Versi utama yang dioptimalkan untuk penalaran tujuan umum dan penerapan sehari-hari.
- DeepSeek-V3.2-Speciale: Varian komputasi tinggi untuk tugas-tugas tingkat lanjut, unggul dalam domain khusus tetapi dengan penggunaan token yang lebih tinggi; untuk sementara hanya API hingga pertengahan Desember 2025 untuk evaluasi.
Perbandingan DeepSeek-V3.2 dengan Model Canggih Lainnya
DeepSeek-V3.2 setara atau melampaui model-model terdepan seperti GPT-5.1 dan Gemini 3 Pro pada tolok ukur utama, khususnya dalam matematika, pengkodean, dan tugas-tugas konteks panjang. Berikut ringkasan perbandingan antara model-model ini:
| Aspek | DeepSeek-V3.2 | DeepSeek-V3.2-Spesial | GPT-5.1 | Gemini 3 Pro |
| Pengembang | DeepSeek AI (Tiongkok) | DeepSeek AI (Tiongkok) | OpenAI (AS) | Google DeepMind (AS) |
| Tanggal Rilis | 1 Desember 2025 | 1 Desember 2025 (Awalnya hanya API) | 12 November 2025 | 17 Nopember 2025 |
| Parameter | Total 671 miliar (MoE, ~37 miliar aktif) | Total 671 miliar (MoE, ~37 miliar aktif) | Tidak diungkapkan (diperkirakan >1T) | Tidak diungkapkan (diperkirakan >1T) |
| Panjang Konteks | 128 ribu-131 ribu token | 128.000-131.000 token (dioptimalkan untuk penalaran yang lebih panjang) | >128 ribu token (kemungkinan 1 juta+) | 1 juta+ token (hingga 2 juta dalam beberapa mode) |
| Fitur Utama | Pendekatan berbasis penalaran, DeepSeek Sparse Attention (DSA) untuk efisiensi, penggunaan alat terintegrasi dengan pemikiran, alur kerja berbasis agen. | Varian penalaran komputasi tinggi, batasan panjang yang lebih longgar untuk tugas-tugas kompleks, unggul dalam olimpiade matematika/pemrograman. | Penalaran yang lebih cerdas, nada/kepribadian yang lebih baik, kinerja generalis yang kuat, multimodal | Kemampuan multimodalitas bawaan, penalaran/penggunaan alat mutakhir, penguasaan konteks jangka panjang, perencanaan kreatif/strategis. |
| Mengakses | Sumber terbuka (MIT), Hugging Face, API, aplikasi/web gratis | Hanya API pada awalnya (dibuka pertengahan Desember 2025) | API/langganan (tingkat berbayar) | API/langganan (tingkat berbayar) |
| AIME 2025 (Matematika) | 93,1% | 96,0% | 94,6% | 95,0% (100% dengan eksekusi kode) |
| HMMT 2025 (Matematika) | 92,5% | 99,2% | Tidak tersedia | 97,5% |
| Terverifikasi oleh SWE-Bench (Pemrograman) | ~67-73% (bervariasi tergantung evaluasi) | 73,1% | ~62-70% (diperkirakan) | 76,2% |
| Terminal-Bench 2.0 (Pengkodean Agen) | 46,4% | Lebih tinggi (dioptimalkan) | 35,2% | 54,2% |
Cara Mengakses DeepSeek-V3.2
Perangkat lunak ini dapat diakses melalui saluran gratis dan berbayar, termasuk antarmuka web, aplikasi seluler, API, dan unduhan langsung untuk penerapan lokal.
- HIX AI: Di sini kami menawarkan akses instan dan mudah ke DeepSeek-V3.2, dan versi sebelumnya seperti DeepSeek-V3.2 dan DeepSeek-R1 .
- Aplikasi Web dan Seluler: Cara lain bagi pengguna biasa untuk berinteraksi dengan DeepSeek-V3.2 adalah melalui platform resmi DeepSeek, termasuk situs web resmi https://www.deepseek.com/ dan aplikasi seluler DeepSeek .
- Akses API: API DeepSeek kompatibel dengan OpenAI, sehingga mudah diintegrasikan ke dalam aplikasi atau skrip.
- Penyebaran Lokal: Ini adalah pendekatan yang berfokus pada pengembang. Anda dapat mengunduh model dari halaman Hugging Face : https://huggingface.co/deepseek-ai/ DeepSeek-V3.2 dan menjalankannya di perangkat keras Anda sendiri.
Pertanyaan dan Jawaban
Apa saja varian utama DeepSeek V3.2?
Varian produksi utamanya adalah DeepSeek-V3.2 (model seimbang, “pengemudi harian”) dan DeepSeek-V3.2-Speciale (model penalaran tingkat tinggi yang ditujukan untuk masalah matematika yang sangat sulit, pengodean, dan gaya kompetisi).
Bagaimana kinerja DeepSeek-V3.2 dibandingkan dengan GPT-5.1 atau Gemini 3 Pro ?
DeepSeek-V3.2 unggul dalam matematika/pengodean dan efisiensi, menyaingi model-model baru ini dengan biaya yang lebih rendah.
Apakah DeepSeek-V3.2 mendukung input multimodal seperti gambar atau video?
Saat ini, DeepSeek-V3.2 hanya mendukung input teks. DeepSeek-V3.2 dioptimalkan untuk penalaran teks/kode/dokumen yang panjang.
Apa jendela konteks DeepSeek V3.2?
DeepSeek V3.2 mewarisi jendela konteks yang panjang (sekitar 128K token) yang diaktifkan oleh perhatian yang jarang, sehingga memungkinkannya menangani ratusan halaman teks dalam satu perintah.
Bagaimana V3.2 dibandingkan dengan versi DeepSeek sebelumnya?
V3.2 dibangun di atas generasi “Terminus” V3.1 tetapi berfokus pada efisiensi dan perilaku penalaran daripada lompatan tolok ukur mentah, menargetkan kualitas yang serupa atau lebih baik dengan biaya yang jauh lebih rendah berkat perhatian yang jarang dan pelatihan/penyelarasan yang diperbarui.
Apa itu DeepSeek Sparse Attention (DSA) dan mengapa itu penting?
DeepSeek Sparse Attention adalah mekanisme perhatian jarang berbutir halus yang mengurangi jumlah operasi perhatian per token, membuat pemrosesan konteks panjang jauh lebih murah sambil menjaga kualitas mendekati model perhatian padat sebelumnya.


