在 Askimo 中设置 LM Studio
LM Studio 配置
Section titled “LM Studio 配置”将 Askimo 应用连接到 LM Studio,以可靠、私密地管理本地 AI 模型。
- 服务器 URL:LM Studio 服务器端点
- 默认:
http://localhost:1234/v1 - 远程:
http://your-server:1234/v1
- 默认:
- 超时:连接超时(默认:120 秒)
- 可用模型:从您的 LM Studio 实例自动检测
设置 LM Studio
Section titled “设置 LM Studio”- 从 lmstudio.ai 下载并安装 LM Studio
- 启动 LM Studio
- 在模型浏览器中下载模型
- 在 LM Studio 中启动本地服务器:
- 打开 “Local Server” 选项卡
- 点击 “Start Server”
- 在 Askimo 中,服务器会自动检测
- 从下拉菜单中选择模型
- 点击 “Test Connection” 进行验证
访问提供商设置
Section titled “访问提供商设置”- 点击菜单栏
- 选择 “Settings”
- 进入 “AI Providers” 选项卡
- 在提供商列表中选择 “LM Studio”
快捷键:⌘ + ,(macOS)或 Ctrl + ,(Windows/Linux),然后点击 “AI Providers”
LM Studio 常用模型
Section titled “LM Studio 常用模型”通用:
- Llama 2 – Meta 的开源模型
- Mistral 7B – 高效且强大
- Mixtral 8x7B – Mixture-of-Experts 模型
代码方向:
- CodeLlama – 专注编程
- WizardCoder – 代码生成
- DeepSeek Coder – 高级编程助手
轻量级:
- Phi-2 – 微软的小型高性能模型
- TinyLlama – 超轻量选项
无法连接?
- 检查 LM Studio 服务器是否运行
- 确认 1234 端口未被阻止
- 在设置中确认服务器 URL 正确
- 重启 LM Studio
模型未加载?
- 确认模型已完全下载
- 检查 RAM/VRAM 是否充足
- 先尝试较小模型
- 查看 LM Studio 日志
推理速度慢?
- 在 LM Studio 中启用 GPU 加速
- 使用量化模型(4-bit 或 8-bit)
- 关闭不必要应用
- 监控 RAM/VRAM 使用情况
自定义服务器端口: 如使用不同端口,请更新服务器 URL:
http://localhost:端口/v1远程 LM Studio: 连接到在其他机器上运行的 LM Studio:
http://远程IP:1234/v1