
为每个 Telegram 机器人绑定一个独立的 Agent
让大部分 Agent 使用云端模型,单独指定某个 Agent 使用本地 Ollama 模型
解决配置中的常见错误(JSON 格式、字段缺失、API 兼容性等)


8 个通用助手(小海、小龙、小智、小博、小典、小灵、小星、小月)使用云端模型(通义千问 `qwen3-coder-next`)
1 个特殊助手(白洁 `baijie`)使用本地 Ollama 模型(`qwen2.5:7b-32k`)
每个助手都有自己的 Telegram 机器人,互不干扰
同时支持飞书渠道(所有消息统一路由给小海)


bashbashbash

`coding-plan`:云端通义千问(使用 DashScope API)
`ollama`:本地 Ollama 服务
jsonjsonjsonjson



bashbashbash向普通机器人(如小海)发消息,观察日志中模型为 `coding-plan/qwen3-coder-next`
向 `baijie` 机器人发消息,同时运行 `ollama ps` 查看是否有 `qwen2.5:7b-32k` 进程
bash

本地模型适合:敏感数据、高频简单问答、离线环境。
云端模型适合:复杂推理、多模态、需要最新知识。
混合部署:根据不同 Agent 的职责分配模型,平衡成本与效果。
硬件提醒:运行 7B 模型在 CPU 上会使风扇狂转,建议使用 GPU 加速(Ollama 支持 NVIDIA CUDA)。


多个 Telegram 机器人一对一绑定不同 Agent
大部分 Agent 使用高性能云端模型
特定 Agent 使用本地 Ollama 模型,保护隐私并降低成本
夜雨聆风