Implementando o DeepSeek-R1 localmente: Confronto de CPUs Intel vs AMD em 2025
Escolhendo o processador certo para custo, velocidade e escalabilidade
À medida que LLMs de código aberto como o DeepSeek-R1 ganham força para IA no dispositivo, a seleção da CPU certa se torna crítica - especialmente com o Lunar Lake da Intel e o Ryzen AI Max + 395 da AMD dominando o mercado. Veja como eles se comparam para a implantação de R1 no mundo real.
⚙️ Critérios-chave para a implementação do DeepSeek-R1
- Antes de comparar CPUs, compreenda as exigências do R1:
- Taxa de transferência de tokens: Tokens/seg (maior = respostas mais rápidas)
- Latência do primeiro token: Atraso antes do início da saída (crítico para a experiência do utilizador)
- Suporte do tamanho do modelo: As destilações R1 variam de 1,5B → 70B parâmetros 67
- Largura de banda da memória: crucial para o carregamento de modelos grandes
Eficiência energética: Watts por ficha ($$ ao longo do tempo)
Confronto de desempenho: AMD Ryzen AI Max+ 395 vs Intel Core Ultra 7 258V
Os testes de referência independentes utilizando o DeepSeek-R1-Distill-Qwen-14B revelam diferenças gritantes:
Métrica | AMD Ryzen AI Max+ 395 | Intel Core Ultra 7 258V | Vantagem AMD |
---|---|---|---|
Tokens/seg. (Qwen-14B) | 142 t/s | 64 t/s | 2,2× mais rápido |
Latência da primeira ficha | 0,7 seg | 3,1 seg | 4,4× inferior |
Tamanho máximo do modelo (RAM) | 70B (64GB RAM) | 32B (32 GB DE RAM) | 2,2× maior |
Consumo de energia (sustentado) | 28W (FP16 ops) | 33W | 15% inferior |
→ *Fonte: Benchmarks públicos da AMD (LM Studio v0.3.8 + DeepSeek-R1-Distill-Qwen-14B @ FP4)* 46
Porque é que a AMD ganha em termos de débito:
- Zen 5 + RDNA 3.5 iGPU com 50 TOPS NPU acelera operações quantizadas
- TDP configurável mais elevado (até 120 W) → desempenho sustentado 4
- Pilha ROCm otimizada + integração do LM Studio para DeepSeek-R1
Onde a Intel se mantém:
- Competitivo em modos de potência ultra-baixa (10-15W)
- Melhor suporte de controladores para fluxos de trabalho centrados no Windows
💡 Cenários de implementação: Qual CPU para o seu caso de uso?
Escolha AMD Ryzen AI Max+ se você precisar:
- Modelos grandes: Executar até 70B-param R1 destilações localmente (por exemplo, DeepSeek-R1-Distill-Llama-70B) 6
- Baixa latência: Crítica para chatbots, assistentes de codificação, análises em tempo real
- Ambientes Linux/ROCm: A pilha de IA de código aberto da AMD alinha-se com a licença MIT do R1
- Escala orçamental: Tokens mais baratos → custos de nuvem mais baixos a longo prazo
Se preferir, escolha Intel Lunar Lake:
- Integração com o Windows: Sem problemas com DirectML, WSL2, Edge AI
- Suporte empresarial: Centros de dados geridos por TI com Kubernetes optimizado para Intel
- Computadores portáteis finos e leves: Melhor desempenho por watt abaixo de 25W TDP
🛠️ Passo a passo: Implantando o DeepSeek-R1 na AMD
*(Testado com Ryzen AI Max+ 395 + 64 GB de RAM)
Instalar controladores:
→ AMD Adrenalin 25.1.1+ e ROCm 7.x 6
Baixe o LM Studio (v0.3.8+) e selecione um modelo R1 destilado:
Modelo: DeepSeek-R1-Distill-Qwen-32B
Quant: Q4_K_M (recomendado para equilíbrio entre velocidade e precisão)
Maximizar a descarga de GPU no LM Studio:
# Nas definições do LM Studio:
GPU_OFFLOAD = "Max" # Usa NPU + iGPU + RAM
Carregar → chat! *(Latência do primeiro token tão baixa quanto 0,7s)* 6
Perspectivas futuras: Para onde está a ir a implementação de R1 baseada em CPU
- A liderança da AMD aumenta: As GPUs MI350X correm agora R1 30% mais depressa do que a NVIDIA B200 810
- A Intel está a ripostar: CPUs "Panther Lake" (finais de 2025) prometem ganhos de 3× na NPU
- Fluxos de trabalho híbridos nuvem-CPU: R1-8B ligeiros na CPU + tarefas pesadas na nuvem
O resultado final
Para implantação do DeepSeek-R1 com alto desempenho e custo-benefício:
- O AMD Ryzen AI Max+ 395 é o vencedor de hoje - especialmente em configurações Linux/ROCm.
Para utilização centrada no Windows ou com restrições de potência:
- O Intel Lunar Lake continua a ser viável, mas fica atrás em termos de rendimento bruto.
Sugestão profissional: Emparelhe CPUs AMD com GPUs RX 7000 (por exemplo, 7900 XTX) para executar modelos R1 de 32B+ à escala do ambiente de trabalho 6.
🔍 Porque é que isto é importante
O DeepSeek-R1 não é apenas mais um LLM - é 96,4% mais barato do que o OpenAI o1, ao mesmo tempo que iguala o seu poder de raciocínio 1. Implementá-lo de forma otimizada em combinações CPU/GPU abre a IA para startups, pesquisadores e desenvolvedores globais bloqueados na corrida armamentista da GPU.
A Intel não está fora, mas em 2025, a AMD é a escolha pragmática para o R1 no dispositivo.
(Precisa de ajuda para implementar? Posso guiá-lo através de configurações para o seu hardware!)