Pular para o conteúdo

Docker AI Setup for Askimo App

Configuração do Docker AI para o Aplicativo Askimo

Seção intitulada “Configuração do Docker AI para o Aplicativo Askimo”

Conecte o aplicativo Askimo a modelos de IA executados em contêineres Docker para implantações portáteis e reproduzíveis.

  • URL do Servidor: Endpoint do contêiner Docker AI
    • Padrão: http://localhost:12434 (porta padrão do Docker AI)
    • Para contêineres remotos: http://seu-servidor:12434
  • Chave de API: (Opcional) se seu contêiner exigir autenticação
  • Timeout: Tempo limite de conexão (padrão: 120s)
  • Modelos Disponíveis: Detectados automaticamente a partir dos contêineres Docker AI em execução
  1. Instale o Docker Desktop em docker.com
  2. Habilite o servidor de API compatível com OpenAI:
Terminal window
docker desktop enable model-runner --tcp 12434
  1. Baixe um modelo de IA do Docker Hub (será servido automaticamente):
Terminal window
docker model pull ai/<model>
  1. No Askimo, configure o provedor:
    • Tipo de Provedor: OpenAI (compatível com OpenAI)
    • Base URL: http://localhost:12434/v1
    • Chave de API: deixar vazio (não é necessário para Docker AI local)
    • Modelo: Nome do modelo (por exemplo, ai/gemma3:4B-F16)
  2. Clique em “Test Connection” para verificar

Como os modelos Docker AI são executados como servidores compatíveis com OpenAI, você os configura através das configurações do provedor OpenAI:

  1. Clique na barra de menus
  2. Selecione “Settings”
  3. Navegue até a aba “AI Providers”
  4. Selecione “OpenAI” na lista de provedores
  5. Configure:
    • Base URL: http://localhost:12434/v1 (ou sua porta personalizada)
    • Chave de API: deixe vazio (não é necessário para Docker AI local)
    • Modelo: Nome do seu modelo Docker AI

Atalho de Teclado: ⌘ + , (macOS) ou Ctrl + , (Windows/Linux) e depois “AI Providers”

Visite hub.docker.com/u/ai para explorar modelos disponíveis.

Pré-requisitos:

Terminal window
# Habilitar servidor de API compatível com OpenAI (configuração única)
docker desktop enable model-runner --tcp 12434

Exemplo: Executando o modelo gemma3:4B-F16

12434/v1
# Baixar o modelo (será servido automaticamente)
docker model pull ai/gemma3:4B-F16
# Verifique que está em execução
docker model ls

Configurar no Askimo:

  • Provedor: OpenAI
  • Base URL: http://localhost:12434/v1
  • Chave de API: (deixar vazio)
  • Modelo: ai/gemma3:4B-F16

Listar modelos baixados:

Terminal window
docker model ls

Remover um modelo:

Terminal window
docker model rm <model-name>

Não Consegue Conectar?

  • Verifique se o model-runner está habilitado: docker desktop enable model-runner --tcp 12434
  • Verifique se os modelos estão baixados: docker model ls
  • Verifique se a Base URL está correta: http://localhost:12434/v1
  • Teste o endpoint: curl http://localhost:12434/v1/models

Modelo Indisponível?

  • Verifique se o Docker Desktop está em execução
  • Verifique se o model-runner está habilitado (ver acima)
  • Verifique se o modelo foi baixado com sucesso: docker model ls
  • Tente baixar novamente: docker model pull ai/<model-name>
  • Reinicie o Docker Desktop se necessário

Desempenho Lento?

  • O Docker AI usará a GPU automaticamente se estiver disponível
  • Use modelos menores para inferência mais rápida
  • Feche outros aplicativos que consumam muitos recursos
  • Verifique os recursos do sistema (CPU/RAM)

Precisa de Outra Porta? Se a porta 12434 já estiver em uso, você pode especificar uma porta diferente ao habilitar o model-runner:

Terminal window
docker desktop enable model-runner --tcp 12435

Depois, atualize a Base URL do Askimo para http://localhost:12435/v1.