中国DeepSeekがV4モデル発表、OpenAIやAnthropicに挑戦状
DeepSeekが最新のV4-ProとV4-Flashモデルをリリース。100万トークンのコンテキスト長とハイブリッド注意機構を搭載し、コーディングベンチマークで最高レベルの性能を示すと発表。

DeepSeek V4の主要スペック
中国のAI企業DeepSeekは4月24日、待望のV4モデルをリリースし、オープンソース化した。V4-ProとV4-Flashの2つのバージョンを提供し、どちらも100万トークンのコンテキストウィンドウを持つMixture-of-Expertsモデルである。V4-Proは1.6兆のパラメータ(49億がアクティブ)を持ち、利用可能な最大のオープンウェイトモデルとなった。 DeepSeekはハイブリッド注意機構と呼ばれる技術を特に強調し、これによりAIプラットフォームが長時間の会話でクエリを記憶する能力が向上すると述べている。また、コードベース全体や長い文書を単一のプロンプトとして送信できる100万トークンのコンテキストウィンドウも実現した。
ベンチマーク性能と競合比較
DeepSeekによると、世界知識ベンチマークでV4-Proは他のオープンソースモデルを大幅に上回り、最高水準のクローズドソースモデルであるGemini-3.1-Proにわずかに劣る程度の性能を示している。コーディングベンチマークでは、V4-ProがClaudeをTerminal-Bench 2.0(67.9% vs 65.4%)、LiveCodeBench(93.5% vs 88.8%)、Codeforces rating(3206)で上回っている。 注目すべきは価格競争力で、V4 Flashは入力100万トークンあたり0.14ドル、出力100万トークンあたり0.28ドル、より大きなV4 Proは入力100万トークンあたり0.145ドル、出力100万トークンあたり3.48ドルと、現在利用可能なフロンティアモデルよりもはるかに安価である。
POINT
V4-Proは1.6兆パラメータでオープンソース最大級、コーディング性能でClaudeを上回りながら価格は7分の1という破壊的な競争力を実現
技術革新とエージェント機能
V4シリーズは、圧縮スパース注意(CSA)と高圧縮注意(HCA)を組み合わせたハイブリッド注意機構により、長文処理効率を大幅に改善した。100万トークンのコンテキスト設定において、V4-ProはDeepSeek V3.2と比較してシングルトークン推論FLOPsを27%、KVキャッシュを10%まで削減している。 新モデルはClaudeCode、OpenClaw、OpenCodeなど人気のAIエージェントと連携でき、開発者がDeepSeek自体のチャットボット以外のソフトウェアタスクでモデルを活用することが可能になった。V4-ProはClaude Code、OpenClaw、OpenCodeとの互換性が確認されている。
AITAKE編集部の見方
DeepSeek V4の発表は、AIの民主化において重要な転換点を示している。特に注目すべきは、技術的性能と価格競争力の両立である。V4-Proがコーディングタスクでクローズドソースモデルに匹敵する性能を示しながら、7分の1の価格を実現したことは、AI業界の競争構造を根本から変える可能性がある。 一方で、マルチモーダル機能の欠如や、米中間の知的財産権争いの文脈も考慮する必要がある。しかし、MITライセンスでの完全オープンソース化は、グローバルな開発者コミュニティにとって大きな価値を持つ。日本企業にとっても、コスト効率の高いAI導入の新たな選択肢として、V4は重要な位置を占めることになるだろう。
Source: Euronews