功能

RAG、MCP Tools、AI 计划 以及介于两者之间的一切

Askimo 将 AI 连接到您的文件,通过现实世界的工具操作扩展它,并自动化复杂的多步骤工作流程。一切都在您的机器上,一切私密。

核心功能

核心功能

适用于每一次 AI 对话的必备工具。

支持 ChatGPT、Claude、Gemini 与 Ollama

在一个统一界面中切换 ChatGPT、Claude、Gemini、Ollama 和 Grok。无需离开应用即可比较不同模型的回答。

为什么要使用多家 AI 供应商?

持久化聊天记录

不再丢失任何对话。所有聊天内容均保存在本地,支持全文搜索与分类整理。即使离线也能访问历史记录。

丰富的内容格式

精美的 Markdown 渲染,支持代码语法高亮、表格、列表,以及图片和附件。

自定义指令

创建并保存自定义系统提示(指令),以塑造 AI 行为。为编程、写作、研究等场景构建不同人格。

统一的提示词库

保存并复用你最常用的提示词。为常见任务和工作流构建模板库。

收藏与整理

将重要对话标记为收藏,方便快速访问。构建个人 AI 知识库,随时筛选并重新查看。

实际演示

实景演示

观看 RAG indexing、AI Plans 和 MCP Tools 的实际运行,以及更多扩展 Askimo 能力的功能。

RAG 支持(检索增强生成)

将你的文档、代码和知识库连接到 AI 对话中。Askimo 使用 Apache Lucene 和 jvector 在本地索引文件,实现快速的语义搜索与上下文感知回答。你的 AI 现在可以引用真实文档,使回答更准确、更贴合你的实际需求。

查看 RAG 的实际效果

AI 计划:多步骤工作流

将多个 AI 提示链接成自动化的工作流。每个步骤按顺序执行,具有其专注的角色(研究、分析、评估、写作),并自动将其输出传递给下一步。用简单的英语描述工作流,AI 将为您生成计划。完成后将结果导出为 PDF 或 Word。

示例:人工智能投资研究计划

MCP 工具集成

将 Askimo 连接到任何兼容 MCP 的工具服务器,并在聊天中直接执行实际操作。运行脚本、调用 API、查询数据库,并自动化多步骤任务,无需离开对话。

与 ChatGPT、Claude、Gemini 和 Ollama 配合使用

在 ChatGPT、Claude、Gemini 和 Ollama 本地模型之间无缝切换。无需离开应用程序即可并排比较不同 AI 模型的响应。还支持 Grok、LM Studio、LocalAI 和 Docker AI,实现完全的灵活性。

自定义指令

创建自定义系统提示以塑造 AI 行为。为编程、写作、研究等构建不同的角色,并可一键切换。

在聊天中运行 Python、Bash 和 Node 脚本

AI 提供代码,Askimo 帮你运行。可以在应用内的安全环境中直接执行 Python、Bash 和 Node 脚本,无需切换工具即可立即使用结果。

高级能力

高级能力

面向高阶用户的效率与工作流优化功能。

AI 计划:多步骤工作流

计划将多个 AI 提示链接到一个自动化的工作流中,其中每一步都建立在上一步的基础上。步骤可以按顺序、并行或根据输入值有条件地运行。AI 生成面板允许您用通俗易懂的英语描述计划,并为您生成完整的配置。

  • 用于研究报告、竞争对手分析、求职申请和会议记录的内置计划
  • 每个步骤都有专注的角色和角色设定,以获得比单个提示更高的输出质量
  • 用通俗易懂的英语描述任何工作流,AI 会为您编写计划定义
  • 一键将最终结果或完整运行记录导出为 PDF 或 Word

惰性加载与性能

通过虚拟化消息渲染实现高效的内存使用。与将整个对话渲染到 DOM 的 Web UI 不同,Askimo 只加载你需要的内容。旧消息仅在你向上滚动时加载,即使拥有数百或数千条消息的聊天记录,也能保持应用流畅。

  • 在超长对话中依然流畅滚动
  • 相比 Web 包装器占用更低内存
  • 快速启动与响应式界面
  • 非常适合长时间研究会话

RAG 支持

支持检索增强生成(RAG),提升上下文理解与基于知识的对话能力。连接你的文档与数据源,获得更有依据的 AI 回答。

  • 基于你文档的上下文感知对话
  • 通过相关信息提升准确性
  • 本地文档处理,保障隐私
  • 支持多种文件格式

MCP 工具

将 Askimo 连接到任何兼容 MCP 的工具服务器,并在聊天中直接执行实际操作。运行脚本、调用 API、查询数据库、读取文件,并自动化多步骤任务,无需离开对话。

  • 在聊天中调用外部 API 和服务
  • 查询数据库并实时处理数据
  • 所有聊天中都可使用的全局 MCP 实例
  • 按项目划分的 MCP 实例用于独立工作流

安全运行脚本

有时 AI 会返回代码而不是直接答案。Askimo 允许你在应用内直接运行 Python、Bash 和 Node 脚本 —— 在一个受限文件系统访问的沙盒环境中执行,因此你可以立即利用 AI 输出,而无需离开对话。

  • 在安全沙盒中运行 Python、Bash 和 Node 脚本
  • 无需切换工具即可执行 AI 生成的代码
  • 受限的文件系统访问可保护你的系统

导出对话

以多种格式导出对话:Markdown、JSON 和 HTML。非常适合文档编写、分享、代码审查、数据处理或重要讨论的归档。

  • 用于文档的 Markdown
  • 用于数据处理的 JSON
  • 用于网页发布的 HTML
  • 便于与团队成员分享
隐私与性能

隐私与性能

以隐私与性能为核心设计。

本地存储

所有对话和数据均存储在您的设备本地。您的数据始终完全由您掌控。

了解隐私与安全

原生性能

作为真正的桌面应用构建,具备原生性能。启动快速、滚动流畅、界面响应迅速。

离线访问

即使没有互联网连接,也可以访问聊天记录并使用本地模型工作。

按需加载

通过虚拟化消息渲染实现高效的内存使用。旧消息仅在向上滚动时加载,即使聊天记录很大,应用仍能保持流畅。

机密始终保密

API 密钥存储在系统密钥链中(macOS Keychain、Windows 凭据管理器、Linux Secret Service)。当密钥链不可用时,使用 AES-256-GCM 加密作为备用方案。

高效利用资源

相比基于 Web 的方案,占用更少内存。高效渲染让系统保持流畅运行。

使用场景

适用于每一种工作流

无论你是编程、写作、研究还是创作,Askimo 都能契合你的工作方式。

开发者

超越普通对话。使用 RAG 为整个代码库建立索引,用 AI 计划自动化多步骤工程任务,通过 MCP 工具调用 API 和执行 Shell 命令,并在沙箱中运行 AI 生成的脚本。

示例用例:

为你的仓库建立索引,并对任意函数、模块或架构决策进行提问
直接在聊天中查询数据库、调用 REST API 或触发 CI/CD 流水线
在安全的沙箱环境中即时运行 AI 生成的 Python 或 Bash 脚本,无需切换终端
连接 Git 历史,获取 AI 驱动的提交摘要或 blame 分析
构建用于调试、代码审查和文档生成的提示词库,支持日常开发流程

内容创作者

让 AI 学习您的品牌声音和过往作品,使每条建议都像出自您手。使用 AI 计划自动化多阶段内容流水线——一键完成研究、写作和内容复用。

示例用例:

上传品牌指南,让 AI 始终按照你的语气写作,而不是通用风格
在聊天中直接生成符合品牌风格的博客、社交媒体或缩略图图片
让 AI 一次性将博客文章转换为 Twitter 线程、新闻通讯和 LinkedIn 帖子
为整个内容库批量生成 SEO 标题和元数据,全部在聊天中完成
对比 Claude、GPT 和 Gemini 在同一主题上的不同思路,选择最佳方向

研究人员

像读过所有资料一样,跨数百篇论文、笔记和报告进行提问。使用 AI 计划自动化整个研究流水线——从文献综述到格式化输出,一步完成。

示例用例:

上传所有论文和笔记,并提出覆盖整个集合的问题
让 AI 分析数据集并生成报告,然后在 Askimo 中安全运行
从学术来源获取最新结果,并直接整合到研究中
向多个 AI 模型提出同一问题,并并排比较它们的结论
导出结构清晰的总结,可直接用于论文或演示

企业用户

从自己的文档中即时获取答案——私密、本地。使用 AI 计划端到端自动化报告和分析工作流,无需 IT 介入,也不会将敏感数据暴露给云端。

示例用例:

对内部政策、合同和报告提问,获得带有来源的精准答案
连接业务工具,让 AI 总结销售数据、管道或关键指标(KPI)
让 AI 根据数据生成格式化报告,并在 Askimo 中安全运行验证结果
设置符合公司语气、术语和合规要求的自定义 AI 人设
使用完全本地的 AI 模型处理机密文档,数据不会离开你的设备
免费开始

准备好体验这些强大功能了吗?

下载适用于 macOS、Windows 和 Linux 的 Askimo,立即开始使用这些强大功能。

免费开源 · 无需账户 · 支持本地模型离线使用