ファクトシート
| 発表時期 | 2026-04-24 |
|---|---|
| 関連企業 | DeepSeek(中国) |
| 種別 | AIモデルリリース(オープンソース) |
articleニュース
中国のDeepSeekが2026年4月24日、V4プレビュー版をMITライセンスで公開した。1.6兆パラメータ(アクティブ49B)のMoEアーキテクチャで、Claude Opus 4.7に匹敵するアジェンティックベンチマーク性能を、欧米フロンティアモデルの3分の1以下の推論コストで実現したとされる。
| 発表時期 | 2026-04-24 |
|---|---|
| 関連企業 | DeepSeek(中国) |
| 種別 | AIモデルリリース(オープンソース) |
中国の深度求索(DeepSeek)は2026年4月24日、大規模言語モデル「DeepSeek V4」のプレビュー版をMITライセンスで公開した。1.6兆パラメータのMixture-of-Expertsモデルで、エージェンティック(自律型)ベンチマークではClaude Opus 4.7と同等水準のスコアを示す一方、推論コストが欧米フロンティアモデルの3分の1以下とされる点が注目されている。
※本記事は公開情報をもとに編集部が再構成したサマリです。一次情報は出典欄をご参照ください。
「Mixture-of-Experts(MoE)」は、大規模モデルを「専門家」の集合として構成する手法。全パラメータを毎回使うのではなく、入力ごとに関連する「専門家」サブネットワークを選択的に起動する。結果として全体パラメータが膨大でも、実際の計算(アクティブパラメータ)は少なく抑えられ、推論コストが低下する。
「MITライセンス」はオープンソースの許可型ライセンス。商用利用・改変・再配布が認められており、企業での実用化に適している。LlamaシリーズがMeta独自ライセンス(一部制限あり)を採用するのに対し、DeepSeekがMITを採用した点は商用展開上の大きな差異。
「LiveCodeBench」と「Codeforces」はプログラミング能力を測るベンチマーク。Codeforcesは競技プログラミングの問題を解く能力で、3,206はグランドマスター相当の上位水準を示す。
DeepSeek V4の最大の意義は「高性能と低コストの同時実現」にある。欧米フロンティアモデルが数億ドル規模の計算資源で訓練されるのに対し、DeepSeekはより効率的なアーキテクチャ設計でコストを抑えている。これはAI産業における「コンピューティング資源=AI能力」という従来の前提に疑問を投げかける。
中国AIベンダーが短期間に複数の高性能モデルを同時公開した点も注目に値する。欧米フロンティアとの差が急速に縮まっており、地政学的な半導体輸出規制(米国によるNVIDIA GPU輸出規制)が適用される中でも能力開発が続いている状況を示す。
オープンソース公開という戦略は、グローバルな開発者コミュニティを取り込みながら、エコシステムを構築する長期戦略として機能する。
(追記予定)
info 公開情報をもとに編集部が再構成したサマリです。一次情報・追加情報は出典欄をご参照ください。
目的に合った入口からお気軽にどうぞ。すべてカジュアル相談OKです。