Docker AI Setup for Askimo App
Configuração do Docker AI para o Aplicativo Askimo
Seção intitulada “Configuração do Docker AI para o Aplicativo Askimo”Configuração do Docker AI
Seção intitulada “Configuração do Docker AI”Conecte o aplicativo Askimo a modelos de IA executados em contêineres Docker para implantações portáteis e reproduzíveis.
Configuração do Servidor
Seção intitulada “Configuração do Servidor”- URL do Servidor: Endpoint do contêiner Docker AI
- Padrão:
http://localhost:12434(porta padrão do Docker AI) - Para contêineres remotos:
http://seu-servidor:12434
- Padrão:
- Chave de API: (Opcional) se seu contêiner exigir autenticação
- Timeout: Tempo limite de conexão (padrão: 120s)
- Modelos Disponíveis: Detectados automaticamente a partir dos contêineres Docker AI em execução
Configurar Docker AI
Seção intitulada “Configurar Docker AI”- Instale o Docker Desktop em docker.com
- Habilite o servidor de API compatível com OpenAI:
docker desktop enable model-runner --tcp 12434- Baixe um modelo de IA do Docker Hub (será servido automaticamente):
docker model pull ai/<model>- No Askimo, configure o provedor:
- Tipo de Provedor: OpenAI (compatível com OpenAI)
- Base URL:
http://localhost:12434/v1 - Chave de API: deixar vazio (não é necessário para Docker AI local)
- Modelo: Nome do modelo (por exemplo,
ai/gemma3:4B-F16)
- Clique em “Test Connection” para verificar
Acessar Configurações do Provedor
Seção intitulada “Acessar Configurações do Provedor”Como os modelos Docker AI são executados como servidores compatíveis com OpenAI, você os configura através das configurações do provedor OpenAI:
- Clique na barra de menus
- Selecione “Settings”
- Navegue até a aba “AI Providers”
- Selecione “OpenAI” na lista de provedores
- Configure:
- Base URL:
http://localhost:12434/v1(ou sua porta personalizada) - Chave de API: deixe vazio (não é necessário para Docker AI local)
- Modelo: Nome do seu modelo Docker AI
- Base URL:
Atalho de Teclado: ⌘ + , (macOS) ou Ctrl + , (Windows/Linux) e depois “AI Providers”
Modelos de IA no Docker Hub
Seção intitulada “Modelos de IA no Docker Hub”Visite hub.docker.com/u/ai para explorar modelos disponíveis.
Pré-requisitos:
# Habilitar servidor de API compatível com OpenAI (configuração única)docker desktop enable model-runner --tcp 12434Exemplo: Executando o modelo gemma3:4B-F16
# Baixar o modelo (será servido automaticamente)docker model pull ai/gemma3:4B-F16
# Verifique que está em execuçãodocker model lsConfigurar no Askimo:
- Provedor: OpenAI
- Base URL:
http://localhost:12434/v1 - Chave de API: (deixar vazio)
- Modelo:
ai/gemma3:4B-F16
Gerenciamento de Modelos
Seção intitulada “Gerenciamento de Modelos”Listar modelos baixados:
docker model lsRemover um modelo:
docker model rm <model-name>Solução de Problemas
Seção intitulada “Solução de Problemas”Não Consegue Conectar?
- Verifique se o model-runner está habilitado:
docker desktop enable model-runner --tcp 12434 - Verifique se os modelos estão baixados:
docker model ls - Verifique se a Base URL está correta:
http://localhost:12434/v1 - Teste o endpoint:
curl http://localhost:12434/v1/models
Modelo Indisponível?
- Verifique se o Docker Desktop está em execução
- Verifique se o model-runner está habilitado (ver acima)
- Verifique se o modelo foi baixado com sucesso:
docker model ls - Tente baixar novamente:
docker model pull ai/<model-name> - Reinicie o Docker Desktop se necessário
Desempenho Lento?
- O Docker AI usará a GPU automaticamente se estiver disponível
- Use modelos menores para inferência mais rápida
- Feche outros aplicativos que consumam muitos recursos
- Verifique os recursos do sistema (CPU/RAM)
Precisa de Outra Porta? Se a porta 12434 já estiver em uso, você pode especificar uma porta diferente ao habilitar o model-runner:
docker desktop enable model-runner --tcp 12435Depois, atualize a Base URL do Askimo para http://localhost:12435/v1.