2024年12月26日、DeepSeekは最新のシリーズモデルDeepSeek-V3の初版を発表し、同時にオープンソース化しました。
ユーザーは公式ウェブサイト chat.deepseek.com にアクセスすることで、最新のV3モデルとインタラクションできるようになっています。APIサービスもアップデートされており、インターフェース設定を変更する必要はありません。ただし、現時点ではDeepSeek-V3はマルチモーダル入出力には対応していません。
海外の最先端閉源モデルと性能比較
DeepSeek-V3は自社開発のMoEモデルで、671Bのパラメータと37Bの活性化層を持ち、14.8T tokenで事前学習を行っています。評価結果によれば、DeepSeek-V3はQwen2.5-72BやLlama-3.1-405Bなどの他のオープンソースモデルを多くの指標で上回っており、トップの閉源モデルであるGPT-4oやClaude-3.5-Sonnetと肩を並べています。
- 百科知識: 知識ベースのタスク(MMLU、MMLU-Pro、GPQA、SimpleQA)において、前のDeepSeek-V2.5に比べてDeepSeek-V3は大幅にパフォーマンスが向上し、Claude-3.5-Sonnet-1022に迫っています。
- 長文: 長文の評価では、DROP、FRAMES、LongBench v2を含め、DeepSeek-V3は他のモデルより優れたパフォーマンスを発揮しています。
- コード: アルゴリズム関連のコーディングシナリオ(Codeforces)ではDeepSeek-V3が優位性を示しましたが、エンジニアリング関連のシナリオ(SWE-Bench Verified)ではClaude-3.5-Sonnet-1022に近い結果となりました。
- 数学: 米国の主要な数学競技(AIME 2024、MATH)や全国高校数学競技(CNMO 2024)では、DeepSeek-V3がすべてのオープンソースおよび閉源モデルを上回る成果を上げました。
- 中国語能力: 教育系の評価C-Evalや代名詞の解決においてDeepSeek-V3はQwen2.5-72Bに近い結果を見せていますが、事実ベースの知識においてはC-SimpleQAで優位性を示しています。
生成速度が3倍に向上
アルゴリズムとエンジニアリングの革新により、DeepSeek-V3の生成スピードが20 TPSから60 TPSに向上し、V2.5モデルと比較して3倍の効率化が実現され、ユーザー体験も改善されました。
APIサービスの価格調整
DeepSeek-V3の発表に伴い、APIモデルサービスの価格が見直され、新たに毎百万入力tokens 0.5元(キャッシュヒット)/ 2元(キャッシュミス)、毎百万出力tokens 8元となります。また、DeepSeekは45日間の特別価格体験期間を設け、今日から2025年2月8日まで、ユーザーが慣れている毎百万入力tokens 0.1元(キャッシュヒット)/ 1元(キャッシュミス)、毎百万出力tokens 2元の価格が維持されます。すでに登録済みのユーザーやこの期間に新たに登録したユーザーもこの特典を利用可能です。
オープンソースの重みとローカルデプロイ
DeepSeek-V3はFP8トレーニングを使用しており、オープンソース化された原種のFP8重みがあります。オープンソースコミュニティの支援のおかげで、SGLangとLMDeployは最初にV3モデルのFP8推論を支援し、一方でTensorRT-LLMとMindIEはBF16推論を実現しました。コミュニティの適応と拡張アプリケーションのために、FP8からBF16への変換スクリプトも提供されています。
モデル重みのダウンロードやローカルデプロイの詳細に関しては、Hugging Faceページを参照してください。
DeepSeekは「オープンソースの精神と長期的な視点で普遍的なAGIを追求する」という信念のもと、コミュニティと最新のモデル事前学習の進展を共有し、オープンソースと閉源モデルの能力の差を縮小することを目指しています。
これは新しいスタートの始まりです。今後、DeepSeekはDeepSeek-V3をベースに、より豊富な機能を開発し、深い思考やマルチモーダル能力を含む最新の探求成果をコミュニティと共有する予定です。