DeepSeek-V3.2: 推論重視の大規模言語モデル
DeepSeek-V3.2は、 DeepSeek社から2025年12月1日にリリースされました。これは、2025年9月29日にリリースされた以前のV3.2-Expモデルの進化版であり、研究用途と生産用途向けにメインモデルと「特別版」モデルの両方が用意されています。
DeepSeek-V3.2は、スパースエキスパートの混合アーキテクチャとカスタム「 DeepSeek スパース・アテンション 」メカニズムを採用したトランスフォーマーベースのLLMです。これにより、高い品質を維持しながら計算負荷を削減します。コーディング、数学、研究支援、多段階推論などのタスクを対象としており、単純なチャットだけでなく、自律エージェントやツール呼び出しワークフローを強化するように設計されています。
DeepSeek-V3.2 の効率とパフォーマンス
DeepSeek-V3.2は、合計6710億個のパラメータを持つエキスパートの混合(MoE)フレームワーク上に構築されていますが、効率性を高めるため、tokenあたり約370億個のパラメータのみをアクティブ化しています。このモデルは、密なアテンションモデルよりも低コストで長いコンテキスト(最大128,000 tokens以上)を処理でき、ベンチマーク性能はV3.2と同等かそれ以上を維持しています。
ベンチマークやレポートでは、特に高計算能力のバリアントでは、推論を多用するタスクにおいてトップクラスのフロンティア モデル (GPT-5.1 やGemini 3 Proなど) と競合できると評価されています。
DeepSeek-V3.2の亜種
- DeepSeek-V3.2:汎用推論と日常的な展開向けに最適化されたメインストリーム バージョン。
- DeepSeek-V3.2-特別版:高度なタスク向けの高計算バリアント。特殊なドメインで優れていますが、tokenの使用量は多くなります。評価のため、2025 年 12 月中旬まで一時的に API のみとなります。
DeepSeek-V3.2と他の上級モデルの比較
DeepSeek-V3.2は、特に数学、コーディング、ロングコンテキストタスクにおいて、 GPT-5.1やGemini 3 Proといった最先端のモデルと同等かそれ以上の性能を発揮しています。これらのモデルの比較を以下にまとめます。
| 側面 | DeepSeek-V3.2 | DeepSeek-V3.2-特別版 | GPT-5.1 | Gemini 3 Pro |
| 開発者 | DeepSeek AI(中国) | DeepSeek AI(中国) | OpenAI (アメリカ) | Google DeepMind(アメリカ) |
| 発売日 | 2025年12月1日 | 2025年12月1日(当初はAPIのみ) | 2025年11月12日 | 2025年11月17日 |
| パラメータ | 合計671B(MoE、アクティブ約37B) | 合計671B(MoE、アクティブ約37B) | 非公開(推定1兆ドル超) | 非公開(推定1兆ドル超) |
| コンテキストの長さ | 128K-131K tokens | 128K-131K tokens(より長い推論に最適化) | 128K tokens 以上(おそらく100万以上) | 100万以上のtokens(一部のモードでは最大200万) |
| 主な特徴 | 推論ファースト、効率性のためのDeepSeek スパース・アテンション (DSA)、思考と統合されたツールの使用、エージェントワークフロー | 高度な計算推論バリアント、複雑なタスクに対する緩和された長さの制約、数学/コーディングオリンピックで優秀 | より賢明な推論、より良い口調/性格、強力なジェネラリストとしてのパフォーマンス、マルチモーダル | ネイティブマルチモダリティ、最先端の推論/ツールの使用、長期文脈の習得、創造的/戦略的計画 |
| アクセス | オープンソース(MIT)、 Hugging Face、API、無料アプリ/ウェブ | 当初はAPIのみ(2025年12月中旬にオープン) | API/サブスクリプション(有料プラン) | API/サブスクリプション(有料プラン) |
| AIME 2025(数学) | 93.1% | 96.0% | 94.6% | 95.0% (コード実行で100%) |
| HMMT 2025(数学) | 92.5% | 99.2% | 該当なし | 97.5% |
| SWE-Bench Verified(コーディング) | 約67~73%(評価によって異なる) | 73.1% | 約62~70%(推定) | 76.2% |
| Terminal-Bench 2.0 (エージェントコーディング) | 46.4% | より高い(最適化) | 35.2% | 54.2% |
DeepSeek-V3.2へのアクセス方法
Web インターフェース、モバイル アプリ、API、ローカル展開用の直接ダウンロードなど、無料および有料のチャネルを通じてアクセスできます。
- HIX AI:ここでは、 DeepSeek-V3.2、およびDeepSeek-V3.2やDeepSeek-R1などの以前のバージョンにすぐに簡単にアクセスできます。
- Web およびモバイル アプリ:一般ユーザーがDeepSeek-V3.2を操作するもう 1 つの方法は、公式 Web サイトhttps://www.deepseek.com/やDeepSeekモバイル アプリなどの DeepSeek の公式プラットフォームを使用することです。
- API アクセス: DeepSeek の API はOpenAIと互換性があり、アプリやスクリプトに簡単に統合できます。
- ローカル展開:これは開発者向けのアプローチです。Hugging Faceのページ( https://huggingface.co/deepseek-ai/ DeepSeek-V3.2)からモデルをダウンロードし、ご自身のハードウェアで実行できます。
よくある質問
DeepSeek V3.2 の主なバリエーションは何ですか?
主な製品バリエーションは、 DeepSeek-V3.2 (バランスのとれた「日常使い」モデル) とDeepSeek-V3.2-特別版 (非常に難しい数学、コーディング、競争スタイルの問題を対象としたハイエンドの推論モデル) です。
DeepSeek-V3.2 のパフォーマンスはGPT-5.1やGemini 3 Proと比べてどうですか?
DeepSeek-V3.2 は数学/コーディングと効率性に優れており、低コストでこれらの最先端モデルに匹敵します。
DeepSeek-V3.2は画像やビデオなどのマルチモーダル入力をサポートしていますか?
現在、 DeepSeek-V3.2はテキスト入力のみをサポートしています。長いテキスト、コード、ドキュメントの推論に最適化されています。
DeepSeek V3.2のコンテキスト ウィンドウとは何ですか?
DeepSeek V3.2は、スパース アテンションによって有効化された長いコンテキスト ウィンドウ (約 128K tokens) を継承し、単一のプロンプトで数百ページのテキストを処理できます。
V3.2は以前のDeepSeekバージョンと比べてどうですか?
V3.2 は、 V3.1「Terminus」世代をベースに構築されていますが、生のベンチマークジャンプではなく、効率性と推論動作に重点を置いており、スパースアテンションと更新されたトレーニング/アライメントにより、はるかに低いコストで同等またはそれ以上の品質を目指しています。
DeepSeek スパース・アテンション (DSA) とは何ですか? なぜ重要なのですか?
DeepSeek スパース・アテンションは、tokenあたりのアテンション操作の数を削減するきめ細かなスパース アテンション メカニズムであり、品質を以前の高密度アテンション モデルに近い状態に保ちながら、長いコンテキストの処理を大幅にコスト削減します。


