Askimo 让 AI 真正对你的工作有用。从你自己的文件中获得精确答案,将 AI 连接到现实世界的工具和服务,并自动运行深入的多步骤研究。支持 ChatGPT、Claude、Gemini、Ollama 等。所有内容都私密保存在你的设备上。
数据保存在本地
基于项目回答
现实世界操作
多步骤工作流程
无需云端
性能优化
30 秒快速了解
从一个桌面应用与 ChatGPT、Claude、Gemini 和 Ollama 聊天。随时在模型之间切换,而不会丢失您的对话上下文。
将 Askimo 连接到您的项目文件夹、文档、PDF 和代码。AI 使用内置的 RAG 索引根据您的实际文件回答问题,而不仅仅是通用知识。
连接 MCP 服务器以赋予 AI 真实能力:浏览网页、运行命令、查询数据库和调用 API。一个配置适用于所有受支持的 AI 模型。
将多个 AI 提示链接到自动化工作流程中。每一步都建立在上一步的基础上,自动向前传递结果。只需单击一下即可运行研究报告、投资简报、求职申请等。
无需复杂配置。下载安装、连接后即可开始对话。
获取适用于您平台的桌面应用
添加您的 OpenAI、Claude、Gemini 或 Ollama API
(Optional) 创建项目并添加文件夹
就您的工作提出问题
来自使用 Askimo 的开发者与专业人士的真实反馈。
"终于有一款桌面 AI 应用可以让我使用任何想要的模型。在对话中途切换 GPT-4 和 Claude 正是我所需要的功能。"
Emily Chen
全栈开发工程师
"Askimo 速度非常快。即使通过 Ollama 使用本地模型,也依然轻量且响应迅速。这是我用过最好的 AI 桌面客户端。"
David Rodriguez
DevOps 工程师
"多语言支持让这成为我父母都能使用的第一款 AI 应用。隐私优先的架构对我们团队来说是巨大的优势。"
Sarah Thompson
产品经理
"喜欢简洁的 UI 和灵活性。它更像是一款真正的生产力工具,而不仅仅是另一个 Electron 外壳。RAG 支持令人印象深刻。"
Alex Kumar
软件工程师
"我尝试过多个 AI 桌面客户端 —— Askimo 是最平衡且稳定的。本地存储意味着数据属于我自己。没有供应商锁定。"
Michael Park
技术负责人
"在一个应用中使用多个 AI 模型是工作流自动化的重大突破。能够并排比较 Claude 与 GPT-4 的回答极具价值。"
Jessica Martinez
AI 研究员
Askimo 将文件感知 AI、多步骤计划和现实世界工具操作结合到一个单一的桌面应用程序中。所有数据都保留在您的本地设备上。
Askimo 索引您的项目文件,并根据您的实际文档、代码和 PDF 回答问题。而不仅仅是常识。
将多个 AI 提示链接到一个自动化的工作流程中。每一步按顺序运行,并自动将其输出传递给下一步。无需在提示之间复制粘贴。
即使您没有要求,AI 也经常会用 Python 或 Bash 脚本进行响应。只需点击“运行”,而不是将其复制粘贴到终端中:
Connect to all major AI providers from one desktop app
Askimo 结合了三种改变您与 AI 交互方式的核心能力:RAG 索引让 AI 了解您的文件,MCP 工具让 AI 可以采取实际行动,以及计划 (Plans) 让复杂的多步骤工作自动运行。所有数据都保留在您的本地设备上。
Askimo 会索引您的项目文件夹、PDF、源代码和文档。当您提出问题时,AI 会首先从您的文件中检索相关内容,并根据您的实际工作而不是仅凭常识进行回答。
将多个 AI 提示链接到自动化工作流程中。每个步骤按顺序运行,将其输出作为上下文传递给下一步。只需单击一下即可运行研究报告、投资简报、竞争对手分析、求职申请等。通过用通俗易懂的语言描述来构建您自己的计划。
将 Askimo 连接到任何 MCP (Model Context Protocol) 服务器,赋予 AI 现实世界的能力:浏览网页、运行终端命令、查询数据库、调用 API 等。一次配置,适用于所有支持的 AI 模型。
关于使用 Askimo 与多个 AI 模型、RAG 索引及自动化工作流的常见问题。
MCP(Model Context Protocol)是一种开放标准,使 AI 模型能够与外部工具和服务交互。在 Askimo 中,你可以连接任何 MCP 服务器,让 AI 拥有真实能力:浏览网页、运行终端命令、查询数据库、调用 REST API、读取日历等。一旦配置完成,MCP 工具即可在所有支持的 AI 模型中使用,无需额外设置。
Askimo 会读取并索引您的项目文件、代码、PDF 和文档。当您提问时,系统会在生成回答前从文件中检索相关内容。这使 AI 在其通用训练数据之外,还能获得项目特定的上下文。索引过程完全在本地运行。
不同 AI 模型具有不同特性。Claude 擅长长上下文代码分析。ChatGPT 适合通用知识任务。Gemini 提供快速响应。Ollama 在本地运行,确保完全隐私。拥有多种选择可根据需求使用,同时您的项目知识在所有模型中共享。
可以。当使用 Ollama、LM Studio、LocalAI 或 Docker AI 等本地模型时,它们在您的设备上完全运行,无需互联网连接。RAG 索引也可离线使用。若使用 OpenAI、Claude 或 Gemini 等云端 AI,则需要网络连接。
所有聊天记录与已索引文件均以 AES-256 加密方式存储在本地设备。API 密钥安全保存在系统钥匙串中。无云端同步或数据收集。文件索引在本地运行 —— 文件不会发送至外部服务器。当您查询云端 AI 平台时,提示词会根据其各自隐私政策发送至相应 API。
Askimo 支持 OpenAI、Anthropic Claude、Google Gemini、Grok、Ollama(本地模型)、LM Studio、LocalAI 以及 Docker AI。您可以随时切换模型,已索引的知识在所有平台中保持一致。
是的。Askimo 采用 GNU Affero General Public License 许可,并且完全免费使用。源代码可在 GitHub 上查看:github.com/haiphucnguyen/askimo。您可以查看代码、自托管、修改并为项目做出贡献。
下载适用于 macOS、Windows 和 Linux 的 Askimo。将 AI 连接到您的项目文件,获得基于上下文的回答。支持 ChatGPT、Claude、Gemini、Ollama 等。数据本地存储,保护隐私。免费且开源。
Free & open source · No account required · Works offline with local models