跳转到内容

在 Askimo 中设置 LM Studio

将 Askimo 应用连接到 LM Studio,以可靠、私密地管理本地 AI 模型。

  • 服务器 URL:LM Studio 服务器端点
    • 默认:http://localhost:1234/v1
    • 远程:http://your-server:1234/v1
  • 超时:连接超时(默认:120 秒)
  • 可用模型:从您的 LM Studio 实例自动检测
  1. lmstudio.ai 下载并安装 LM Studio
  2. 启动 LM Studio
  3. 在模型浏览器中下载模型
  4. 在 LM Studio 中启动本地服务器:
    • 打开 “Local Server” 选项卡
    • 点击 “Start Server”
  5. 在 Askimo 中,服务器会自动检测
  6. 从下拉菜单中选择模型
  7. 点击 “Test Connection” 进行验证
  1. 点击菜单栏
  2. 选择 “Settings”
  3. 进入 “AI Providers” 选项卡
  4. 在提供商列表中选择 “LM Studio”

快捷键⌘ + ,(macOS)或 Ctrl + ,(Windows/Linux),然后点击 “AI Providers”

通用:

  • Llama 2 – Meta 的开源模型
  • Mistral 7B – 高效且强大
  • Mixtral 8x7B – Mixture-of-Experts 模型

代码方向:

  • CodeLlama – 专注编程
  • WizardCoder – 代码生成
  • DeepSeek Coder – 高级编程助手

轻量级:

  • Phi-2 – 微软的小型高性能模型
  • TinyLlama – 超轻量选项

无法连接?

  • 检查 LM Studio 服务器是否运行
  • 确认 1234 端口未被阻止
  • 在设置中确认服务器 URL 正确
  • 重启 LM Studio

模型未加载?

  • 确认模型已完全下载
  • 检查 RAM/VRAM 是否充足
  • 先尝试较小模型
  • 查看 LM Studio 日志

推理速度慢?

  • 在 LM Studio 中启用 GPU 加速
  • 使用量化模型(4-bit 或 8-bit)
  • 关闭不必要应用
  • 监控 RAM/VRAM 使用情况

自定义服务器端口: 如使用不同端口,请更新服务器 URL:

http://localhost:端口/v1

远程 LM Studio: 连接到在其他机器上运行的 LM Studio:

http://远程IP:1234/v1