articleニュース
DeepSeek V4 が MIT ライセンスで公開 — 1.6兆パラメータ、クローズドモデルに匹敵する性能
中国のDeepSeekが2026年4月24日、V4-Pro(1.6兆パラメータ)とV4-Flash(2840億パラメータ)を MIT ライセンスで公開。クローズドモデルに匹敵する性能を持ちながら、商用利用・ファインチューニング・ローカル実行が自由に可能なオープンソースモデル。
概要
中国のスタートアップ DeepSeek は 2026 年 4 月 24 日、大規模言語モデル「DeepSeek V4」シリーズを MIT ライセンスで公開した。上位モデルの V4-Pro は 1.6 兆パラメータ(Mixture of Experts 構造で稼働時活性化は 490 億パラメータ)、V4-Flash は 2,840 億パラメータ。両モデルともコンテキスト長 100 万トークンをサポートし、Hugging Face からの無料ダウンロードが可能。Claude Opus 4.7 の約 20 分の 1 の API 価格も話題を呼んだ。
※本記事は公開情報をもとに編集部が再構成したサマリです。一次情報は出典欄をご参照ください。
事実のポイント
- 公開日:2026 年 4 月 24 日
- モデル:DeepSeek V4-Pro(1.6 兆パラメータ・MoE)、DeepSeek V4-Flash(2,840 億パラメータ・MoE)
- ライセンス:MIT(商用利用・ファインチューニング・ローカル実行が無制限に可能)
- コンテキスト長:両モデルともに 100 万トークン
- Hugging Face からウェイトを無料ダウンロード可能
- DeepSeek API での提供価格は Claude Opus 4.7 の約 1/20 と報道された
- Huawei の「Supernode」技術(Ascend 950 チップクラスタ)との連携で大規模学習を実現
- アーキテクチャ革新:Compressed Sparse Attention(CSA)と Heavily Compressed Attention(HCA)を組み合わせた長文脈処理の効率化
用語・背景の補足
Mixture of Experts(MoE) とは、大規模モデルを「エキスパート」と呼ぶ小さなサブネットワークに分割し、入力ごとに必要なエキスパートだけを活性化する手法。総パラメータ数は多くても、実際に使うのは一部のみのため、計算コストを大幅に削減できる。DeepSeek はこの手法で西側のクローズドモデルに迫る性能を低コストで実現したとされる。
MIT ライセンス は最も自由度の高いオープンソースライセンスの一つ。著作権表示さえあれば、商用利用・改変・配布・組み込みを自由に行える。Meta の Llama と合わせ、強力なオープンソース LLM のライセンスとして注目される。
解説
DeepSeek V4 の公開は、中国 AI のオープンソース戦略の継続を示す。V3 が 2025 年初頭に世界に衝撃を与えたのに続き、V4 もフロンティアモデルに迫る性能をオープンで公開したことで、AI 能力のコモディティ化が一段と加速する。
Huawei Ascend 950 チップとの連携は、米国の GPU 輸出規制下でも高性能 AI 開発を継続できることを示した点で地政学的にも注目される。API 利用コストの低さは、中小規模の開発者・企業がクローズドモデルから乗り換える誘因となりうる。
注意点
- DeepSeek はセキュリティ・プライバシー・データ取り扱いポリシーについて独立した検証が限られている点に留意
- MIT ライセンスは自由度が高い一方、利用規約・倫理的使用の制約が薄いことに注意が必要
- ローカル実行には相応のハードウェアが必要(V4-Pro の全体量をローカル実行するのは極めて困難)
編集部見解
(追記予定)
info 公開情報をもとに編集部が再構成したサマリです。一次情報・追加情報は出典欄をご参照ください。