articleニュース

DeepSeek V4 が MIT ライセンスで公開 — 1.6兆パラメータ、クローズドモデルに匹敵する性能

中国のが2026年4月24日、V4-Pro(1.6兆)とV4-Flash(2840億パラメータ)を MIT ライセンスで公開。クローズドに匹敵する性能を持ちながら、商用利用・・ローカル実行が自由に可能なオープンソースモデル。

概要

中国の は 2026 年 4 月 24 日、「DeepSeek V4」シリーズを MIT ライセンスで公開した。上位の V4-Pro は 1.6 兆(Mixture of Experts 構造で稼働時活性化は 490 億パラメータ)、V4-Flash は 2,840 億パラメータ。両モデルとも 100 万をサポートし、Hugging Face からの無料ダウンロードが可能。 の約 20 分の 1 の 価格も話題を呼んだ。

※本記事は公開情報をもとに編集部が再構成したサマリです。一次情報は出典欄をご参照ください。

事実のポイント

  • 公開日:2026 年 4 月 24 日
  • モデル:DeepSeek V4-Pro(1.6 兆パラメータ・MoE)、DeepSeek V4-Flash(2,840 億パラメータ・MoE)
  • ライセンス:MIT(商用利用・・ローカル実行が無制限に可能)
  • コンテキスト長:両モデルともに 100 万トークン
  • Hugging Face からウェイトを無料ダウンロード可能
  • DeepSeek API での提供価格は Claude Opus 4.7 の約 1/20 と報道された
  • Huawei の「Supernode」技術(Ascend 950 チップクラスタ)との連携で大規模学習を実現
  • アーキテクチャ革新:Compressed Sparse Attention(CSA)と Heavily Compressed Attention(HCA)を組み合わせた長文脈処理の

用語・背景の補足

Mixture of Experts(MoE) とは、大規模モデルを「エキスパート」と呼ぶ小さなサブネットワークに分割し、入力ごとに必要なエキスパートだけを活性化する手法。総パラメータ数は多くても、実際に使うのは一部のみのため、計算コストを大幅に削減できる。DeepSeek はこの手法で西側のクローズドモデルに迫る性能を低コストで実現したとされる。

MIT ライセンス は最も自由度の高いオープンソースライセンスの一つ。表示さえあれば、商用利用・改変・配布・組み込みを自由に行える。 と合わせ、強力なオープンソース LLM のライセンスとして注目される。

解説

DeepSeek V4 の公開は、中国 AI のオープンソース戦略の継続を示す。V3 が 2025 年初頭に世界に衝撃を与えたのに続き、V4 もフロンティアモデルに迫る性能をオープンで公開したことで、AI 能力のコモディティ化が一段と加速する。

Huawei Ascend 950 チップとの連携は、米国の GPU 輸出規制下でも高性能 AI 開発を継続できることを示した点で地政学的にも注目される。API 利用コストの低さは、中小規模の開発者・企業がクローズドモデルから乗り換える誘因となりうる。

注意点

  • DeepSeek は・プライバシー・データ取り扱いポリシーについて独立した検証が限られている点に留意
  • MIT ライセンスは自由度が高い一方、利用規約・倫理的使用の制約が薄いことに注意が必要
  • ローカル実行には相応のハードウェアが必要(V4-Pro の全体量をローカル実行するのは極めて困難)

編集部見解

(追記予定)

info 公開情報をもとに編集部が再構成したサマリです。一次情報・追加情報は出典欄をご参照ください。

出典

arrow_backニュース・トピックス一覧へ Autais

5つのご相談入口

目的に合った入口からお気軽にどうぞ。すべてカジュアル相談OKです。