Retour aux articles
jueves, 9 de abril de 20262 vues0

No compres un Mac Mini para OpenClaw antes de ver estos benchmarks

Mike Codeur

IA
Agents
Claude

No compres un Mac Mini para OpenClaw

En redes veo repetirse el mismo consejo una y otra vez: si quieres hacer IA en serio, compra un Mac Mini.

Y cada vez que hacia una pregunta un poco critica sobre ese consejo, recibia la misma reaccion: pero eres tonto o que? Eso esta hecho para ejecutar modelos en local. No conoces Ollama?

El problema es que muchas veces se mezclan dos cosas muy distintas:

  • ejecutar un modelo local en una demo limpia
  • ejecutar un asistente de IA real con memoria, herramientas, contexto amplio y orquestacion

Lo que yo queria probar no era un chatbot. Queria probar OpenClaw en condiciones reales.

Lo que compare

SetupMaquinaObjetivo
Local AppleMacBook Pro M4 Max 64 GBprobar la memoria unificada de Apple con mucho contexto
Local NvidiaRTX 5080 + Ollamaprobar el rendimiento bruto local y el impacto del KV cache
CloudVPS + API de Claudeprobar uso agentico real sin grandes compromisos

El verdadero problema es el contexto agentico

Un sistema agentico real incluye identidad del sistema, reglas, skills, herramientas, memoria, y a veces 30 000 a 60 000 tokens de contexto. Eso cambia completamente la pregunta: la maquina sigue aguantando cuando cargas todo el sistema?

Lo que muestran realmente los benchmarks

1. El Mac impresiona... hasta cierto punto

La gran ventaja de Apple es la memoria unificada. Pero en cuanto metes un contexto agentico real, los tiempos se disparan. No es solo velocidad bruta, sino el coste de precarga del contexto.

2. La RTX 5080 es muy potente... mientras todo quepa en la VRAM

El rendimiento es impresionante mientras el modelo entra bien en la tarjeta. Pero cuando cruzas la linea del KV cache y el offload a RAM, el rendimiento puede venirse abajo muy rapido.

3. La nube sigue siendo la referencia para un asistente completo

Latencia mas estable, mejor gestion del contexto amplio, sin gimnasia de hardware. La verdadera pregunta no es solo puedo ejecutar un modelo? Es: puedo ejecutar mi asistente completo sin lobotomizarlo?

Lo que muestra este video

Benchmarks en varias maquinas, los limites de los modelos locales con mucho contexto, por que el contexto cambia totalmente la lectura de los resultados.

-> No compres un Mac Mini para OpenClaw

La buena pregunta que hacer antes de comprar

No preguntes solo: ejecuta Ollama? Pregunta mejor: ejecuta mi sistema real, con mi contexto real, mis herramientas reales y mis flujos de trabajo reales?


Newsletter: Comparto este tipo de analisis cada semana en The Agentic Dev: mkc.sh/the-agentic-dev?utm_source=blog

Rejoins The Agentic Dev

Chaque semaine : outils, workflows et stratégies pour coder avec les agents IA comme un pro.

Workflows agentic testés en prod
Outils IA qui marchent vraiment
+35 000 développeurs déjà inscrits

Gratuit · 1 email / semaine · +1250€ de formations offertes