Docker AI Setup for Askimo App
AskimoアプリのためのDocker AIの設定
Section titled “AskimoアプリのためのDocker AIの設定”Docker AIの構成
Section titled “Docker AIの構成”移植性と再現性の高いAI運用のため、Dockerコンテナで稼働するAIモデルにAskimoアプリから接続します。
サーバー構成
Section titled “サーバー構成”- サーバーURL: Docker AIコンテナのエンドポイント
- デフォルト:
http://localhost:12434(Docker AIのデフォルトポート) - リモートコンテナの場合:
http://your-server:12434
- デフォルト:
- APIキー: (オプション)コンテナが認証を要求する場合
- タイムアウト: 接続タイムアウト(デフォルト: 120秒)
- 利用可能なモデル: 実行中のDocker AIコンテナから自動検出
Docker AIのセットアップ
Section titled “Docker AIのセットアップ”- docker.com からDocker Desktopをインストール
- OpenAI互換APIサーバーを有効化:
docker desktop enable model-runner --tcp 12434- Docker HubからAIモデルを取得(自動的に提供されます):
docker model pull ai/<model>- Askimoでプロバイダを設定:
- プロバイダ種別: OpenAI(OpenAI互換)
- Base URL:
http://localhost:12434/v1 - APIキー: 空欄(ローカルDocker AIでは不要)
- モデル: モデル名(例:
ai/gemma3:4B-F16)
- 「Test Connection」をクリックして検証
プロバイダ設定へのアクセス
Section titled “プロバイダ設定へのアクセス”Docker AIモデルはOpenAI互換サーバーとして動作するため、OpenAIプロバイダ設定から構成します。
- メニューバーをクリック
- 「Settings」を選択
- 「AI Providers」タブへ移動
- プロバイダ一覧から 「OpenAI」 を選択
- 以下を設定:
- Base URL:
http://localhost:12434/v1(またはカスタムポート) - APIキー: 空欄(ローカルDocker AIでは不要)
- モデル: Docker AIモデル名
- Base URL:
キーボードショートカット: ⌘ + ,(macOS)または Ctrl + ,(Windows/Linux)→ 「AI Providers」
Docker HubのAIモデル
Section titled “Docker HubのAIモデル”hub.docker.com/u/ai を参照して利用可能なAIモデルを確認。
前提条件:
# OpenAI互換APIサーバーの有効化(初回のみ)docker desktop enable model-runner --tcp 12434例: gemma3:4B-F16モデルを実行
# モデルを取得(自動的に提供されます)docker model pull ai/gemma3:4B-F16
# モデルは http://localhost:12434/v1 でアクセス可能# 稼働状況の確認docker model lsAskimoでの設定:
- プロバイダ: OpenAI
- Base URL:
http://localhost:12434/v1 - APIキー: (空欄)
- モデル:
ai/gemma3:4B-F16
取得済みモデルの一覧:
docker model lsモデルの削除:
docker model rm <model-name>トラブルシューティング
Section titled “トラブルシューティング”接続できませんか?
- model-runnerが有効化されているか確認:
docker desktop enable model-runner --tcp 12434 - モデルが取得済みか確認:
docker model ls - 正しいBase URLか確認:
http://localhost:12434/v1 - エンドポイントテスト:
curl http://localhost:12434/v1/models
モデルが利用できない?
- Docker Desktopが実行中か確認
- model-runnerが有効化されているか確認(上記参照)
- モデルが正常に取得されたか確認:
docker model ls - もう一度モデル取得を試す:
docker model pull ai/<model-name> - 必要に応じてDocker Desktopを再起動
動作が遅い?
- 利用可能な場合、Docker AIはGPUを自動使用します
- 速度向上のため小さなモデルを使用
- 他のリソース集約アプリケーションを閉じる
- システムリソース(CPU/RAM)を確認
別ポートが必要? ポート12434が既に使用中の場合、model-runner有効化時に別ポートを指定できます:
docker desktop enable model-runner --tcp 12435その後AskimoのBase URLを http://localhost:12435/v1 に更新してください。