Configuración de Docker AI para la App Askimo
Configuración de Docker AI
Sección titulada «Configuración de Docker AI»Conecte la App Askimo a modelos de IA que se ejecutan en contenedores Docker para despliegues portátiles y reproducibles.
Configuración del Servidor
Sección titulada «Configuración del Servidor»- URL del Servidor: Endpoint del contenedor de Docker AI
- Predeterminado:
http://localhost:12434(puerto predeterminado de Docker AI) - Para contenedores remotos:
http://su-servidor:12434
- Predeterminado:
- Clave API: (Opcional) si su contenedor requiere autenticación
- Timeout: Tiempo de espera de conexión (predeterminado: 120s)
- Modelos Disponibles: Detectados automáticamente desde sus contenedores de Docker AI en ejecución
Configurar Docker AI
Sección titulada «Configurar Docker AI»- Instale Docker Desktop desde docker.com
- Habilite el servidor API compatible con OpenAI:
docker desktop enable model-runner --tcp 12434- Descargue un modelo de IA desde Docker Hub (se servirá automáticamente):
docker model pull ai/<model>- En Askimo, configure el proveedor:
- Tipo de Proveedor: OpenAI (compatible con OpenAI)
- Base URL:
http://localhost:12434/v1 - Clave API: dejar vacío (no requerida para Docker AI local)
- Modelo: Nombre del modelo (por ejemplo,
ai/gemma3:4B-F16)
- Haga clic en “Test Connection” para verificar
Acceso a Configuración del Proveedor
Sección titulada «Acceso a Configuración del Proveedor»Dado que los modelos de Docker AI se ejecutan como servidores compatibles con OpenAI, se configuran a través de la sección de OpenAI:
- Haga clic en la barra de menú
- Seleccione “Settings”
- Vaya a la pestaña “AI Providers”
- Seleccione “OpenAI” de la lista de proveedores
- Configure:
- Base URL:
http://localhost:12434/v1(o su puerto personalizado) - Clave API: dejar vacío (no requerida para Docker AI local)
- Modelo: Nombre del modelo de Docker AI
- Base URL:
Atajo de Teclado: ⌘ + , (macOS) o Ctrl + , (Windows/Linux) y luego “AI Providers”
Modelos de IA en Docker Hub
Sección titulada «Modelos de IA en Docker Hub»Visite hub.docker.com/u/ai para ver modelos disponibles.
Prerequisitos:
# Habilitar servidor API compatible con OpenAI (configuración única)docker desktop enable model-runner --tcp 12434Ejemplo: Ejecutar gemma3:4B-F16
# Descargar el modelo (se servirá automáticamente)docker model pull ai/gemma3:4B-F16
# Verificar que está en ejecucióndocker model lsConfigurar en Askimo:
- Proveedor: OpenAI
- Base URL:
http://localhost:12434/v1 - Clave API: (dejar vacío)
- Modelo:
ai/gemma3:4B-F16
Gestión de Modelos
Sección titulada «Gestión de Modelos»Listar modelos descargados:
docker model lsEliminar un modelo:
docker model rm <model-name>Resolución de Problemas
Sección titulada «Resolución de Problemas»¿No Puede Conectarse?
- Asegúrese de que el model-runner esté habilitado:
docker desktop enable model-runner --tcp 12434 - Verifique que los modelos estén descargados:
docker model ls - Revise la Base URL correcta:
http://localhost:12434/v1 - Pruebe el endpoint:
curl http://localhost:12434/v1/models
¿Modelo No Disponible?
- Verifique que Docker Desktop esté ejecutándose
- Revise que el model-runner esté habilitado (ver arriba)
- Verifique que el modelo se haya descargado correctamente:
docker model ls - Intente descargar nuevamente:
docker model pull ai/<model-name> - Reinicie Docker Desktop si es necesario
¿Rendimiento Lento?
- Docker AI usará la GPU automáticamente si está disponible
- Use modelos más pequeños para inferencia más rápida
- Cierre otras aplicaciones que consuman recursos
- Verifique recursos del sistema (CPU/RAM)
¿Necesita Otro Puerto? Si el puerto 12434 ya está en uso, puede especificar otro al habilitar el model-runner:
docker desktop enable model-runner --tcp 12435Luego, actualice la Base URL de Askimo a http://localhost:12435/v1.