Atualização do centro de dados? Como escolher entre servidores Dell, HPE e Huawei em 2025
2025-06-16
Os 10 principais componentes essenciais do equipamento de servidor
2025-06-18

Implementando o DeepSeek-R1 localmente: Confronto de CPUs Intel vs AMD em 2025

Publicado por Wecent em 2025-06-17

Implementando o DeepSeek-R1 localmente: Confronto de CPUs Intel vs AMD em 2025

Escolhendo o processador certo para custo, velocidade e escalabilidade

À medida que LLMs de código aberto como o DeepSeek-R1 ganham força para IA no dispositivo, a seleção da CPU certa se torna crítica - especialmente com o Lunar Lake da Intel e o Ryzen AI Max + 395 da AMD dominando o mercado. Veja como eles se comparam para a implantação de R1 no mundo real.

⚙️ Critérios-chave para a implementação do DeepSeek-R1

  • Antes de comparar CPUs, compreenda as exigências do R1:
  • Taxa de transferência de tokens: Tokens/seg (maior = respostas mais rápidas)
  • Latência do primeiro token: Atraso antes do início da saída (crítico para a experiência do utilizador)
  • Suporte do tamanho do modelo: As destilações R1 variam de 1,5B → 70B parâmetros 67
  • Largura de banda da memória: crucial para o carregamento de modelos grandes

Eficiência energética: Watts por ficha ($$ ao longo do tempo)

Confronto de desempenho: AMD Ryzen AI Max+ 395 vs Intel Core Ultra 7 258V

Os testes de referência independentes utilizando o DeepSeek-R1-Distill-Qwen-14B revelam diferenças gritantes:

MétricaAMD Ryzen AI Max+ 395Intel Core Ultra 7 258VVantagem AMD
Tokens/seg. (Qwen-14B)142 t/s64 t/s2,2× mais rápido
Latência da primeira ficha0,7 seg3,1 seg4,4× inferior
Tamanho máximo do modelo (RAM)70B (64GB RAM)32B (32 GB DE RAM)2,2× maior
Consumo de energia (sustentado)28W (FP16 ops)33W15% inferior

→ *Fonte: Benchmarks públicos da AMD (LM Studio v0.3.8 + DeepSeek-R1-Distill-Qwen-14B @ FP4)* 46

Porque é que a AMD ganha em termos de débito:

  • Zen 5 + RDNA 3.5 iGPU com 50 TOPS NPU acelera operações quantizadas
  • TDP configurável mais elevado (até 120 W) → desempenho sustentado 4
  • Pilha ROCm otimizada + integração do LM Studio para DeepSeek-R1

Onde a Intel se mantém:

  • Competitivo em modos de potência ultra-baixa (10-15W)
  • Melhor suporte de controladores para fluxos de trabalho centrados no Windows

💡 Cenários de implementação: Qual CPU para o seu caso de uso?

Escolha AMD Ryzen AI Max+ se você precisar:

  • Modelos grandes: Executar até 70B-param R1 destilações localmente (por exemplo, DeepSeek-R1-Distill-Llama-70B) 6
  • Baixa latência: Crítica para chatbots, assistentes de codificação, análises em tempo real
  • Ambientes Linux/ROCm: A pilha de IA de código aberto da AMD alinha-se com a licença MIT do R1
  • Escala orçamental: Tokens mais baratos → custos de nuvem mais baixos a longo prazo

Se preferir, escolha Intel Lunar Lake:

  • Integração com o Windows: Sem problemas com DirectML, WSL2, Edge AI
  • Suporte empresarial: Centros de dados geridos por TI com Kubernetes optimizado para Intel
  • Computadores portáteis finos e leves: Melhor desempenho por watt abaixo de 25W TDP

🛠️ Passo a passo: Implantando o DeepSeek-R1 na AMD

*(Testado com Ryzen AI Max+ 395 + 64 GB de RAM)

Instalar controladores:

→ AMD Adrenalin 25.1.1+ e ROCm 7.x 6

Baixe o LM Studio (v0.3.8+) e selecione um modelo R1 destilado:


Modelo: DeepSeek-R1-Distill-Qwen-32B
Quant: Q4_K_M (recomendado para equilíbrio entre velocidade e precisão)

Maximizar a descarga de GPU no LM Studio:


# Nas definições do LM Studio:
GPU_OFFLOAD = "Max" # Usa NPU + iGPU + RAM

Carregar → chat! *(Latência do primeiro token tão baixa quanto 0,7s)* 6

Perspectivas futuras: Para onde está a ir a implementação de R1 baseada em CPU

  • A liderança da AMD aumenta: As GPUs MI350X correm agora R1 30% mais depressa do que a NVIDIA B200 810
  • A Intel está a ripostar: CPUs "Panther Lake" (finais de 2025) prometem ganhos de 3× na NPU
  • Fluxos de trabalho híbridos nuvem-CPU: R1-8B ligeiros na CPU + tarefas pesadas na nuvem

O resultado final

Para implantação do DeepSeek-R1 com alto desempenho e custo-benefício:

  • O AMD Ryzen AI Max+ 395 é o vencedor de hoje - especialmente em configurações Linux/ROCm.

Para utilização centrada no Windows ou com restrições de potência:

  • O Intel Lunar Lake continua a ser viável, mas fica atrás em termos de rendimento bruto.

Sugestão profissional: Emparelhe CPUs AMD com GPUs RX 7000 (por exemplo, 7900 XTX) para executar modelos R1 de 32B+ à escala do ambiente de trabalho 6.

🔍 Porque é que isto é importante

O DeepSeek-R1 não é apenas mais um LLM - é 96,4% mais barato do que o OpenAI o1, ao mesmo tempo que iguala o seu poder de raciocínio 1. Implementá-lo de forma otimizada em combinações CPU/GPU abre a IA para startups, pesquisadores e desenvolvedores globais bloqueados na corrida armamentista da GPU.

A Intel não está fora, mas em 2025, a AMD é a escolha pragmática para o R1 no dispositivo.

(Precisa de ajuda para implementar? Posso guiá-lo através de configurações para o seu hardware!)

Publicações relacionadas

 

Contacte-nos agora

Preencha este formulário e a nossa equipa de vendas entrará em contacto consigo no prazo de 24 horas.

请在浏览器中启用JavaScript来完成此表单。