コンテンツにスキップ

Docker AI Setup for Askimo App

AskimoアプリのためのDocker AIの設定

Section titled “AskimoアプリのためのDocker AIの設定”

移植性と再現性の高いAI運用のため、Dockerコンテナで稼働するAIモデルにAskimoアプリから接続します。

  • サーバーURL: Docker AIコンテナのエンドポイント
    • デフォルト: http://localhost:12434(Docker AIのデフォルトポート)
    • リモートコンテナの場合: http://your-server:12434
  • APIキー: (オプション)コンテナが認証を要求する場合
  • タイムアウト: 接続タイムアウト(デフォルト: 120秒)
  • 利用可能なモデル: 実行中のDocker AIコンテナから自動検出
  1. docker.com からDocker Desktopをインストール
  2. OpenAI互換APIサーバーを有効化:
Terminal window
docker desktop enable model-runner --tcp 12434
  1. Docker HubからAIモデルを取得(自動的に提供されます):
Terminal window
docker model pull ai/<model>
  1. Askimoでプロバイダを設定:
    • プロバイダ種別: OpenAI(OpenAI互換)
    • Base URL: http://localhost:12434/v1
    • APIキー: 空欄(ローカルDocker AIでは不要)
    • モデル: モデル名(例: ai/gemma3:4B-F16
  2. 「Test Connection」をクリックして検証

Docker AIモデルはOpenAI互換サーバーとして動作するため、OpenAIプロバイダ設定から構成します。

  1. メニューバーをクリック
  2. 「Settings」を選択
  3. 「AI Providers」タブへ移動
  4. プロバイダ一覧から 「OpenAI」 を選択
  5. 以下を設定:
    • Base URL: http://localhost:12434/v1(またはカスタムポート)
    • APIキー: 空欄(ローカルDocker AIでは不要)
    • モデル: Docker AIモデル名

キーボードショートカット: ⌘ + ,(macOS)または Ctrl + ,(Windows/Linux)→ 「AI Providers」

hub.docker.com/u/ai を参照して利用可能なAIモデルを確認。

前提条件:

Terminal window
# OpenAI互換APIサーバーの有効化(初回のみ)
docker desktop enable model-runner --tcp 12434

例: gemma3:4B-F16モデルを実行

Terminal window
# モデルを取得(自動的に提供されます)
docker model pull ai/gemma3:4B-F16
# モデルは http://localhost:12434/v1 でアクセス可能
# 稼働状況の確認
docker model ls

Askimoでの設定:

  • プロバイダ: OpenAI
  • Base URL: http://localhost:12434/v1
  • APIキー: (空欄)
  • モデル: ai/gemma3:4B-F16

取得済みモデルの一覧:

Terminal window
docker model ls

モデルの削除:

Terminal window
docker model rm <model-name>

接続できませんか?

  • model-runnerが有効化されているか確認: docker desktop enable model-runner --tcp 12434
  • モデルが取得済みか確認: docker model ls
  • 正しいBase URLか確認: http://localhost:12434/v1
  • エンドポイントテスト: curl http://localhost:12434/v1/models

モデルが利用できない?

  • Docker Desktopが実行中か確認
  • model-runnerが有効化されているか確認(上記参照)
  • モデルが正常に取得されたか確認: docker model ls
  • もう一度モデル取得を試す: docker model pull ai/<model-name>
  • 必要に応じてDocker Desktopを再起動

動作が遅い?

  • 利用可能な場合、Docker AIはGPUを自動使用します
  • 速度向上のため小さなモデルを使用
  • 他のリソース集約アプリケーションを閉じる
  • システムリソース(CPU/RAM)を確認

別ポートが必要? ポート12434が既に使用中の場合、model-runner有効化時に別ポートを指定できます:

Terminal window
docker desktop enable model-runner --tcp 12435

その後AskimoのBase URLを http://localhost:12435/v1 に更新してください。