本地AI调度神器Cortask,50+原生集成,Ollama零配置
不用API密钥,不用经过云端,直接在本地用Ollama模型驱动几十个应用的自动化任务,这种工具现在真的有了。
- 一个纯粹的本地AI智能体调度平台,不是聊天界面,支持Ollama、Anthropic、OpenAI等多家模型,工作中可随时切换。
- 内置50多个集成,包括GitHub、Notion、Slack、Gmail、Telegram、Google Drive,还能用YAML写自定义插件。
- 支持cron风格定时任务,有AES-256加密的本地凭证保险库,以及基于Markdown和SQLite的持久化记忆。
跟Ollama怎么玩
讲真,现在很多工具都号称支持本地模型,但往往要折腾半天。Cortask直接把Ollama当作一等公民来支持。你选好模型,指向本地Ollama的服务地址,你的智能体就能直接用了。作者自己就用Llama和Qwen模型跑个人自动化任务,所有数据都留在自己机器上。
这玩意儿跟别的有啥不同
它和Open WebUI、AnythingLLM这些不是一回事。那些主要是聊天界面,而Cortask是调度层。说白了,它的核心是让AI智能体按计划去干活,比如早上8点同步Notion数据库,下午6点检查GitHub的PR,还能连接一大堆外部服务。它内置了50多种集成,还支持用YAML写插件扩展。所有凭证都存在本地的AES-256加密保险库里,永远不会离开你的电脑。工作流中还能随时在Ollama、Anthropic、OpenAI、Google、Grok、OpenRouter这些模型之间切换。
它的重点是:定时任务、50+内置集成、持久化记忆、本地加密凭证库、多模型支持。
怎么开始用

上手方式很简单,三种任选:直接用npx、跑Docker镜像,或者下载Windows/macOS的桌面应用。
npx cortask
# 或者
docker run cortask/cortask
# 或者去下载Windows/macOS桌面应用
项目在GitHub上,MIT协议,没有遥测,没有云,没有中间商。作者特别想听听社区对Ollama模型兼容性和家庭实验室/Docker部署的反馈。你可以去下面链接看看。
GitHub: https://github.com/cortask/cortask
文档和更多信息: https://cortask.com
留言聊聊
你目前用Ollama跑哪个模型,觉得最适合用来干自动化任务?是Llama 3,Qwen,还是别的?
来源:Reddit Ollama|原文:I built Cortask – an open source desktop app to or
夜雨聆风