Askimo向けLM Studioの設定
LM Studioの構成
Section titled “LM Studioの構成”AskimoアプリをLM Studioに接続すると、ローカルAIモデルをプライバシー重視で安定運用できます。
サーバー設定
Section titled “サーバー設定”- サーバーURL: LM Studioサーバーのエンドポイント
- デフォルト:
http://localhost:1234/v1 - リモート:
http://your-server:1234/v1
- デフォルト:
- タイムアウト: 接続タイムアウト(デフォルト: 120秒)
- 利用可能なモデル: 実行中のLM Studioインスタンスから自動検出
LM Studioのセットアップ手順
Section titled “LM Studioのセットアップ手順”- lmstudio.ai からLM Studioをダウンロード・インストール
- LM Studioを起動
- モデルブラウザから任意のモデルをダウンロード
- LM Studioでローカルサーバーを開始:
- 「Local Server」タブを開く
- 「Start Server」をクリック
- Askimoでサーバーが自動検出されます
- ドロップダウンからモデルを選択
- 「Test Connection」をクリックして接続確認
プロバイダー設定へのアクセス
Section titled “プロバイダー設定へのアクセス”- メニューバーをクリック
- 「Settings」を選択
- 「AI Providers」タブへ移動
- プロバイダー一覧から「LM Studio」を選択
キーボードショートカット: ⌘ + ,(macOS)または Ctrl + ,(Windows/Linux)→ 「AI Providers」
LM Studioで人気のモデル
Section titled “LM Studioで人気のモデル”汎用
- Llama 2 — Metaのオープンソースモデル
- Mistral 7B — 高効率で高性能
- Mixtral 8x7B — Mixture-of-Expertsモデル
コード向け
- CodeLlama — コーディング特化
- WizardCoder — コード生成
- DeepSeek Coder — 高度なコーディング補助
軽量
- Phi-2 — Microsoftの小型高性能モデル
- TinyLlama — 超軽量オプション
トラブルシューティング
Section titled “トラブルシューティング”接続できない場合
- LM Studioのローカルサーバーが起動しているか確認
- ポート1234がファイアウォールでブロックされていないか確認
- 設定のサーバーURLが正しいか確認
- LM Studioを再起動
モデルが読み込めない場合
- モデルが完全にダウンロード済みか確認
- RAM/VRAMが十分か確認
- まずは小さめのモデルでテスト
- LM Studioのログを確認
推論が遅い場合
- LM StudioでGPUアクセラレーションを有効化
- 4-bit/8-bitの量子化モデルを使用
- 不要なアプリケーションを終了
- RAM/VRAM使用率を監視
カスタムサーバーポート 別のポートを使用する場合は、サーバーURLを更新してください:
http://localhost:PORT/v1リモートLM Studioに接続 別マシンで稼働中のLM Studioへ接続:
http://REMOTE_IP:1234/v1