データセンターのアップグレード?2025年、デル、HPE、ファーウェイのサーバをどう選ぶか?
2025-06-16
サーバー機器に不可欠な部品トップ10
2025-06-18

2025-06-17にWecentによって出版された。

DeepSeek-R1のローカル展開:2025年のIntel vs AMD CPU対決

コスト、スピード、スケーラビリティを考慮した適切なプロセッサーの選択

DeepSeek-R1のようなオープンソースのLLMがオンデバイスAIの牽引役となるにつれ、適切なCPUを選択することが重要になってくる。ここでは、実際のR1導入における両者の比較について説明する。

⚙️ DeepSeek-R1 導入の主な基準

  • CPUを比較する前に、R1の要求を理解しよう:
  • トークンのスループット:トークン/秒(高いほど応答が速い)
  • 最初のトークンの待ち時間:出力開始までの遅延(UXにとって重要)
  • モデルサイズ対応:R1蒸留は1.5B→70Bパラメータ 67
  • メモリ帯域幅:大規模モデルのロードに不可欠

電力効率:トークンあたりのワット(時間経過とともに$$)

パフォーマンス対決:AMD Ryzen AI Max+ 395 vs Intel Core Ultra 7 258V

DeepSeek-R1-Distill-Qwen-14Bを使用した独立ベンチマークでは、歴然とした違いが明らかになった:

メートルAMD Ryzen AI Max+ 395インテル・コア・ウルトラ7 258VAMDのアドバンテージ
トークン/秒(Qwen-14B)142トン/秒64t/秒2.2倍速い
ファースト・トークン・レイテンシー0.7秒3.1秒4.4倍低い
最大モデルサイズ(RAM)70B(64GB RAM)32B (32GB RAM)2.2倍
消費電力(持続)28W(FP16オペレーション)33W15% 下

→ *ソースAMD公開ベンチマーク(LM Studio v0.3.8 + DeepSeek-R1-Distill-Qwen-14B @ FP4)* 46

AMDがスループットで勝る理由

  • Zen 5 + RDNA 3.5 iGPUと50 TOPS NPUが量子化オペレーションを高速化
  • 設定可能なTDPが高い(最大120W)→パフォーマンスを維持 4
  • DeepSeek-R1用に最適化されたROCmスタックとLM Studioの統合

インテルが持ちこたえるところ

  • 超低消費電力モード(10~15W)で競争力を発揮
  • Windows中心のワークフローに対するドライバサポートの向上

💡 展開シナリオ:どのCPUを使うか?

AMD Ryzen AI Max+をお選びください:

  • 大型モデル:最大70B-paramのR1蒸留をローカルで実行(例:DeepSeek-R1-Distill-Llama-70B) 6
  • 低レイテンシー:チャットボット、コーディングアシスタント、リアルタイム分析に不可欠
  • Linux/ROCm環境:AMDのオープンソースAIスタック、R1のMITライセンスに対応
  • 予算規模:安価なトークン → 長期的なクラウドコストの低下

インテル ルナレイクをお選びください:

  • Windowsとの統合:DirectML、WSL2、Edge AIとのシームレスな統合
  • エンタープライズ対応:インテルに最適化されたKubernetesを備えたIT管理データセンター
  • 薄くて軽いノートパソコンTDP25W以下では、ワットあたりのパフォーマンスが向上

🛠️ ステップバイステップ:AMD上でのDeepSeek-R1の展開

*Ryzen AI Max+ 395 + 64GB RAMでテスト)*。

ドライバーをインストールする:

→ AMD Adrenalin 25.1.1+ & ROCm 7.x 6

LM Studio(v0.3.8+)をダウンロードし、蒸留R1モデルを選択します:


モデルDeepSeek-R1-ディスティル-Qwen-32B
数量Q4_K_M(スピードと精度のバランスに推奨)

LM StudioでGPUオフロードを最大化する:


# LM Studio の設定で
GPU_OFFLOAD = "Max" # は NPU + iGPU + RAM を使用します。

ロード → チャット*(ファースト・トークンの待ち時間は最短0.7秒)* 6

今後の展望:CPUベースのR1導入の行方

  • AMDのリードが拡大:MI350X GPUがR1 30%でNVIDIA B200 810より高速化
  • インテルの反撃:「Panther Lake」CPU(2025年後半)はNPUの3倍増を約束する
  • クラウドとCPUのハイブリッドワークフロー:軽量なR1-8BはCPUで、重いタスクはクラウドで処理

結論

高性能でコスト効率の高いDeepSeek-R1の展開:

  • AMD Ryzen AI Max+ 395は、今日の勝者である-特にLinux/ROCmセットアップにおいて。

Windows中心、または電力に制約のあるエッジでの使用に:

  • インテル・ルナーレイクは依然として実行可能だが、生のスループットでは後れを取っている。

プロからのアドバイス:AMD CPUとRX 7000 GPU(7900 XTXなど)を組み合わせると、32B以上のR1モデルをデスクトップスケール6で実行できる。

なぜこれが重要なのか?

DeepSeek-R1は単なるLLMではありません。OpenAI o1より96.4%安い一方で、推論能力1は同等です。CPU/GPUブレンドで最適に配置することで、GPU軍拡競争から締め出された新興企業、研究者、グローバルな開発者にAIを開放します。

インテルはまだ撤退していないが、2025年には、AMDがオンデバイスR1の現実的な選択肢となるだろう。

(デプロイにお困りでしたら、ハードウェアの設定をご案内します!)

関連記事

 

お問い合わせ

このフォームに必要事項をご記入の上、送信してください。

このフォームを入力するには、ブラウザのJavaScriptを有効にしてください。