Ir al contenido

Configuración de LM Studio para la App Askimo

Conecte la App Askimo a LM Studio para una gestión confiable y privada de modelos de IA locales.

  • URL del Servidor: Endpoint del servidor de LM Studio
    • Predeterminado: http://localhost:1234/v1
    • Remoto: http://su-servidor:1234/v1
  • Timeout: Tiempo de espera de conexión (predeterminado: 120s)
  • Modelos Disponibles: Detectados desde su instancia de LM Studio
  1. Descargue e instale LM Studio desde lmstudio.ai
  2. Inicie LM Studio
  3. Descargue un modelo desde el navegador de modelos
  4. Inicie el servidor local en LM Studio:
    • Abra la pestaña “Local Server”
    • Haga clic en “Start Server”
  5. En Askimo, el servidor será detectado automáticamente
  6. Seleccione un modelo del menú desplegable
  7. Haga clic en “Test Connection” para verificar
  1. Haga clic en la barra de menú
  2. Seleccione “Settings”
  3. Vaya a la pestaña “AI Providers”
  4. Seleccione “LM Studio” de la lista de proveedores

Atajo de Teclado: ⌘ + , (macOS) o Ctrl + , (Windows/Linux), luego “AI Providers”

Propósito General:

  • Llama 2 – Modelo de código abierto de Meta
  • Mistral 7B – Eficiente y capaz
  • Mixtral 8x7B – Modelo Mixture-of-Experts

Enfoque de Código:

  • CodeLlama – Especializado en programación
  • WizardCoder – Generación de código
  • DeepSeek Coder – Asistente de programación avanzado

Livianos:

  • Phi-2 – Modelo pequeño y potente de Microsoft
  • TinyLlama – Opción ultraligera

¿No se Puede Conectar?

  • Verifique que el servidor de LM Studio esté en ejecución
  • Asegúrese de que el puerto 1234 no esté bloqueado
  • Confirme la URL del servidor en la configuración
  • Reinicie LM Studio

¿El Modelo no Carga?

  • Verifique que el modelo esté completamente descargado
  • Confirme que haya suficiente RAM/VRAM
  • Pruebe primero con un modelo más pequeño
  • Revise los registros de LM Studio

¿Inferencia Lenta?

  • Habilite la aceleración por GPU en LM Studio
  • Use modelos cuantizados (4-bit u 8-bit)
  • Cierre aplicaciones innecesarias
  • Supervise el uso de RAM/VRAM

Puerto Personalizado del Servidor: Si usa un puerto diferente, actualice la URL del servidor:

http://localhost:SU_PUERTO/v1

LM Studio Remoto: Conecte a LM Studio ejecutándose en otra máquina:

http://IP_REMOTA:1234/v1