Cómo configurar una Mac mini M4 como servidor de agentes IA 24/7
AgentesNexo
··5 min lectura
Cómo configurar una Mac mini M4 como servidor de agentes IA 24/7
La Mac mini M4 es una bestia silenciosa: 16 GB de RAM unificada, chip Apple Silicon, consumo de apenas 10–20 W en reposo. Para correr agentes IA de forma local y continua, es la combinación perfecta de precio, rendimiento y eficiencia energética.
En este tutorial configuramos una Mac mini M4 desde cero como servidor dedicado para agentes de IA — disponible las 24 horas, sin interrupciones ni facturas de nube.
Lo que vas a necesitar
Mac mini M4 (16 GB RAM mínimo, recomendado 32 GB para modelos grandes)
macOS Sequoia 15.x actualizado
Conexión a internet estable
30–60 minutos de tiempo
Paso 1: Deshabilitar el sleep del sistema
El enemigo número uno de un servidor 24/7 es el modo de reposo. Esto lo eliminamos desde la terminal:
bash
# Deshabilitar sleep del sistema y disco
sudo pmset -a sleep 0
sudo pmset -a disksleep 0
sudo pmset -a displaysleep 10# la pantalla SÍ puede apagarse# Reinicio automático tras corte de luz
sudo pmset -a autorestart 1
sudo pmset -a powernap 1# Verificar configuración aplicada
pmset -g
Tailscale te da una IP fija accesible desde cualquier red sin abrir puertos en el router:
bash
brew install --cask tailscale
# Autenticar (abre navegador)
tailscale up
# Ver tu IP de Tailscale
tailscale ip -4# Ejemplo: 100.x.x.x
Activa también SSH para administración directa:
bash
# System Settings → General → Sharing → Remote Login# O desde terminal:
sudo systemsetup -setremotelogin on
ssh-keygen -t ed25519 -C #43a047">"macmini-agentes"
Paso 5: Ollama — modelos LLM locales acelerados por M4
El chip M4 corre LLMs directamente en su Neural Engine. Ollama es la forma más fácil de gestionarlos:
bash
brew install ollama
# Registrar como servicio (arranca con la Mac)
brew services start ollama
# Descargar modelos según tu RAM disponible
ollama pull llama3.2:3b # ~2 GB — rápido, ideal para tareas simples
ollama pull mistral:7b # ~4 GB — equilibrado para la mayoría de agentes
ollama pull qwen2.5:14b # ~8 GB — potente (requiere 32 GB RAM)# Verificar que está corriendo
curl http://localhost:11434/api/tags
Paso 6: Desplegar agentes con n8n + Docker Compose
Después de meses corriendo esta configuración en producción:
El M4 es increíblemente eficiente: Ollama con Mistral 7B añade apenas 3–5 W al consumo base. La factura eléctrica mensual es menor a $2.
Tailscale reemplaza cualquier VPN casera: Sin configurar NAT ni puertos, funciona desde cualquier red y es gratuito para uso personal.
launchd supera a cron para servicios: Reinicia procesos caídos, guarda logs, y se integra nativamente con macOS.
16 GB RAM es el límite real: Docker + Ollama 7B + n8n consume ~12 GB en pico. Para modelos de 14B parámetros ve directo a 32 GB.
displaysleep 10 + sleep 0 es la combinación perfecta: ahorras energía en el display sin comprometer la disponibilidad del servidor.
Con esta configuración, tu Mac mini M4 puede recibir webhooks, ejecutar agentes IA, responder llamadas de API y correr workflows complejos — completamente autónomo, sin depender de infraestructura en la nube.