Ir al contenido

Configuración de LocalAI para la App Askimo

Conecte la App Askimo a su instancia de LocalAI autohospedada para obtener control total sobre su infraestructura de IA.

  • URL del Servidor: Endpoint del servidor de LocalAI
    • Predeterminado: http://localhost:8080
    • Para servidores remotos: http://your-server:8080
  • Clave API: (Opcional) si su instancia de LocalAI requiere autenticación
  • Timeout: Tiempo de espera de conexión (predeterminado: 120s)
  • Modelos Disponibles: Detectados desde su implementación de LocalAI
  1. Instale LocalAI siguiendo la guía oficial
  2. Inicie su servidor de LocalAI:
Ventana de terminal
docker run -p 8080:8080 --name local-ai -ti localai/localai:latest
  1. Despliegue modelos en su instancia de LocalAI
  2. En Askimo, introduzca la URL de su servidor LocalAI
  3. Haga clic en “Test Connection” para verificar
  1. Haga clic en la barra de menú
  2. Seleccione “Settings”
  3. Vaya a la pestaña “AI Providers”
  4. Seleccione “LocalAI” de la lista de proveedores

Atajo de Teclado: ⌘ + , (macOS) o Ctrl + , (Windows/Linux) y luego “AI Providers”

Docker (Recomendado):

Ventana de terminal
docker run -p 8080:8080 \
-v $PWD/models:/models \
localai/localai:latest

Docker Compose:

version: '3.8'
services:
localai:
image: localai/localai:latest
ports:
- "8080:8080"
volumes:
- ./models:/models
environment:
- THREADS=4

Implementaciones Empresariales:

Procesar datos sensibles de clientes en nuestra infraestructura de IA interna

Requisitos de Cumplimiento:

Asegurar que todo el procesamiento de IA permanezca dentro de nuestro entorno controlado

Modelos Personalizados:

Usar nuestros modelos ajustados propios para tareas específicas del dominio

Instalación de Modelos: LocalAI soporta varios formatos de modelos:

  • Modelos GGUF/GGML
  • Modelos PyTorch
  • Modelos ONNX
  • Backends personalizados

Galería de Modelos: Instale modelos desde la galería de LocalAI:

Ventana de terminal
curl http://localhost:8080/models/apply \
-H "Content-Type: application/json" \
-d '{
"id": "model-gallery://llama-2-7b-chat"
}'

¿No Puede Conectarse?

  • Verifique que el servidor de LocalAI esté en ejecución
  • Revise la configuración de firewall y red
  • Asegúrese de que la URL y el puerto del servidor sean correctos
  • Pruebe con curl http://localhost:8080/v1/models

¿Problemas de Autenticación?

  • Si su LocalAI requiere autenticación, añada la clave API en la configuración
  • Revise los logs de LocalAI para errores de autenticación
  • Verifique que el formato de la clave coincida con la configuración de LocalAI

¿Fallos al Cargar Modelos?

  • Revise los logs de LocalAI: docker logs local-ai
  • Verifique que los archivos del modelo estén en el directorio correcto
  • Asegure suficiente memoria
  • Reinicie el servicio de LocalAI

¿Rendimiento Lento?

  • Habilite la aceleración por GPU
  • Use modelos cuantizados
  • Ajuste la variable de entorno THREADS
  • Considere el escalado horizontal con múltiples instancias

Autenticación: Configure la autenticación por clave API en LocalAI:

Ventana de terminal
docker run -p 8080:8080 \
-e API_KEY=your-secret-key \
localai/localai:latest

Después, añada la clave API en la configuración de Askimo.

Backend Personalizado: LocalAI soporta backends personalizados para modelos especializados:

name: custom-model
backend: custom-backend
parameters:
model: /path/to/model

Límites de Recursos: Controle el uso de recursos:

Ventana de terminal
docker run -p 8080:8080 \
--memory="8g" \
--cpus="4" \
localai/localai:latest