Configuração do LM Studio para o Aplicativo Askimo
Configuração do LM Studio
Seção intitulada “Configuração do LM Studio”Conecte o aplicativo Askimo ao LM Studio para uma gestão confiável e privada de modelos de IA locais.
Configuração do Servidor
Seção intitulada “Configuração do Servidor”- URL do Servidor: Endpoint do servidor LM Studio
- Padrão:
http://localhost:1234/v1 - Remoto:
http://seu-servidor:1234/v1
- Padrão:
- Timeout: Tempo limite de conexão (padrão: 120s)
- Modelos Disponíveis: Detectados a partir da sua instância do LM Studio
Como Configurar o LM Studio
Seção intitulada “Como Configurar o LM Studio”- Baixe e instale o LM Studio em lmstudio.ai
- Inicie o LM Studio
- Baixe um modelo pelo navegador de modelos
- Inicie o servidor local no LM Studio:
- Abra a aba “Local Server”
- Clique em “Start Server”
- No Askimo, o servidor será detectado automaticamente
- Selecione um modelo no menu suspenso
- Clique em “Test Connection” para verificar
Acessando as Configurações do Provedor
Seção intitulada “Acessando as Configurações do Provedor”- Clique na barra de menus
- Selecione “Settings”
- Vá para a aba “AI Providers”
- Selecione “LM Studio” na lista de provedores
Atalho de Teclado: ⌘ + , (macOS) ou Ctrl + , (Windows/Linux), depois “AI Providers”
Modelos Populares para o LM Studio
Seção intitulada “Modelos Populares para o LM Studio”Uso Geral:
- Llama 2 – Modelo open source da Meta
- Mistral 7B – Eficiente e capaz
- Mixtral 8x7B – Modelo Mixture-of-Experts
Foco em Código:
- CodeLlama – Especializado em programação
- WizardCoder – Geração de código
- DeepSeek Coder – Assistente avançado de codificação
Leves:
- Phi-2 – Modelo pequeno e poderoso da Microsoft
- TinyLlama – Opção ultraleve
Solução de Problemas
Seção intitulada “Solução de Problemas”Não Consegue Conectar?
- Verifique se o servidor do LM Studio está em execução
- Verifique se a porta 1234 não está bloqueada
- Confirme a URL do servidor nas configurações
- Reinicie o LM Studio
Modelo não Carrega?
- Verifique se o modelo foi baixado completamente
- Garanta RAM/VRAM suficiente
- Teste primeiro com um modelo menor
- Verifique os logs do LM Studio
Inferência Lenta?
- Ative a aceleração por GPU no LM Studio
- Use modelos quantizados (4-bit ou 8-bit)
- Feche aplicativos desnecessários
- Monitore o uso de RAM/VRAM
Configuração Avançada
Seção intitulada “Configuração Avançada”Porta Personalizada do Servidor: Se usar outra porta, atualize a URL do servidor:
http://localhost:PORTA/v1LM Studio Remoto: Conecte-se ao LM Studio executando em outra máquina:
http://IP_REMOTO:1234/v1