No compres un Mac Mini para OpenClaw antes de ver estos benchmarks
Mike Codeur
![]()
En redes veo repetirse el mismo consejo una y otra vez: si quieres hacer IA en serio, compra un Mac Mini.
Y cada vez que hacia una pregunta un poco critica sobre ese consejo, recibia la misma reaccion: pero eres tonto o que? Eso esta hecho para ejecutar modelos en local. No conoces Ollama?
El problema es que muchas veces se mezclan dos cosas muy distintas:
- ejecutar un modelo local en una demo limpia
- ejecutar un asistente de IA real con memoria, herramientas, contexto amplio y orquestacion
Lo que yo queria probar no era un chatbot. Queria probar OpenClaw en condiciones reales.
Lo que compare
| Setup | Maquina | Objetivo |
|---|---|---|
| Local Apple | MacBook Pro M4 Max 64 GB | probar la memoria unificada de Apple con mucho contexto |
| Local Nvidia | RTX 5080 + Ollama | probar el rendimiento bruto local y el impacto del KV cache |
| Cloud | VPS + API de Claude | probar uso agentico real sin grandes compromisos |
El verdadero problema es el contexto agentico
Un sistema agentico real incluye identidad del sistema, reglas, skills, herramientas, memoria, y a veces 30 000 a 60 000 tokens de contexto. Eso cambia completamente la pregunta: la maquina sigue aguantando cuando cargas todo el sistema?
Lo que muestran realmente los benchmarks
1. El Mac impresiona... hasta cierto punto
La gran ventaja de Apple es la memoria unificada. Pero en cuanto metes un contexto agentico real, los tiempos se disparan. No es solo velocidad bruta, sino el coste de precarga del contexto.
2. La RTX 5080 es muy potente... mientras todo quepa en la VRAM
El rendimiento es impresionante mientras el modelo entra bien en la tarjeta. Pero cuando cruzas la linea del KV cache y el offload a RAM, el rendimiento puede venirse abajo muy rapido.
3. La nube sigue siendo la referencia para un asistente completo
Latencia mas estable, mejor gestion del contexto amplio, sin gimnasia de hardware. La verdadera pregunta no es solo puedo ejecutar un modelo? Es: puedo ejecutar mi asistente completo sin lobotomizarlo?
Lo que muestra este video
Benchmarks en varias maquinas, los limites de los modelos locales con mucho contexto, por que el contexto cambia totalmente la lectura de los resultados.
-> No compres un Mac Mini para OpenClaw
La buena pregunta que hacer antes de comprar
No preguntes solo: ejecuta Ollama? Pregunta mejor: ejecuta mi sistema real, con mi contexto real, mis herramientas reales y mis flujos de trabajo reales?
Newsletter: Comparto este tipo de analisis cada semana en The Agentic Dev: mkc.sh/the-agentic-dev?utm_source=blog