Pular para o conteúdo

Configuração do LM Studio para o Aplicativo Askimo

Conecte o aplicativo Askimo ao LM Studio para uma gestão confiável e privada de modelos de IA locais.

  • URL do Servidor: Endpoint do servidor LM Studio
    • Padrão: http://localhost:1234/v1
    • Remoto: http://seu-servidor:1234/v1
  • Timeout: Tempo limite de conexão (padrão: 120s)
  • Modelos Disponíveis: Detectados a partir da sua instância do LM Studio
  1. Baixe e instale o LM Studio em lmstudio.ai
  2. Inicie o LM Studio
  3. Baixe um modelo pelo navegador de modelos
  4. Inicie o servidor local no LM Studio:
    • Abra a aba “Local Server”
    • Clique em “Start Server”
  5. No Askimo, o servidor será detectado automaticamente
  6. Selecione um modelo no menu suspenso
  7. Clique em “Test Connection” para verificar
  1. Clique na barra de menus
  2. Selecione “Settings”
  3. Vá para a aba “AI Providers”
  4. Selecione “LM Studio” na lista de provedores

Atalho de Teclado: ⌘ + , (macOS) ou Ctrl + , (Windows/Linux), depois “AI Providers”

Uso Geral:

  • Llama 2 – Modelo open source da Meta
  • Mistral 7B – Eficiente e capaz
  • Mixtral 8x7B – Modelo Mixture-of-Experts

Foco em Código:

  • CodeLlama – Especializado em programação
  • WizardCoder – Geração de código
  • DeepSeek Coder – Assistente avançado de codificação

Leves:

  • Phi-2 – Modelo pequeno e poderoso da Microsoft
  • TinyLlama – Opção ultraleve

Não Consegue Conectar?

  • Verifique se o servidor do LM Studio está em execução
  • Verifique se a porta 1234 não está bloqueada
  • Confirme a URL do servidor nas configurações
  • Reinicie o LM Studio

Modelo não Carrega?

  • Verifique se o modelo foi baixado completamente
  • Garanta RAM/VRAM suficiente
  • Teste primeiro com um modelo menor
  • Verifique os logs do LM Studio

Inferência Lenta?

  • Ative a aceleração por GPU no LM Studio
  • Use modelos quantizados (4-bit ou 8-bit)
  • Feche aplicativos desnecessários
  • Monitore o uso de RAM/VRAM

Porta Personalizada do Servidor: Se usar outra porta, atualize a URL do servidor:

http://localhost:PORTA/v1

LM Studio Remoto: Conecte-se ao LM Studio executando em outra máquina:

http://IP_REMOTO:1234/v1