Hermes Agent:AI助手终于有记性了
你有没有发现一个现象:AI助手用得再久,它对你还是跟第一天一样陌生?
你纠正过它十次”别这么写”,它下次照样犯。你踩过的坑、试通的路,换个会话全部清零。
4月14日,在GitHub上爆火的Hermes Agent,说它要解决这个问题。
6.6万Star,什么来头?
Hermes Agent是一个开源AI Agent项目,发布不到两个月,GitHub Star6.6万,Fork 8800,OpenRouter token消耗日榜第二,仅次于OpenClaw。
核心卖点就一个字:记性。
怎么做到的?
Hermes的架构核心叫Learning Loop(学习循环)——每次任务跑完,自动”复盘”:这次有没有值得记下来的?
触发条件很具体:工具调用超5次、中途出错自己修好了、你纠正过它、或者走出了一条不常规但有效的路径。满足任一条,自动生成一个Skill文件存进技能库,下次直接复用。
更关键的是,这个Skill不是一次定型、终身不变的。后续如果发现更好的解法,Hermes只修补有问题的部分,原来好用的地方不动。就像打补丁,不拆房子。
四层记忆,不堆垃圾
MEMORY.md和USER.md,总字符上限3575。故意收窄,逼你只留最重要的。
对话写入SQLite数据库,需要时检索摘要再用。不全量塞进上下文。
只加载名称和简短描述,全文按需调入。技能库从40涨到200,上下文成本几乎不变。
被动跨会话积累偏好、沟通风格、领域知识,长期当助理用。
最狠的细节:没人要求的情况下,Hermes会定期给自己发一条内部提示,自己判断什么值得记下来。它不是被动等指令,它在主动进化。
同天炸了篇论文
4月14日同天,署名Hermes的论文Autoreason发布,矛头指向所有AI的通病——越改越差。
传统”自我优化”三大死穴:
幻觉瑕疵——为响应批评凭空编造缺点
规模失控——每轮迭代内容越扩越大
拒绝无能——原稿已经很出色也从不停手
实验数据:15轮优化后,345字精华被删到102字,内容暴减70%。
Autoreason的解法:竞争机制。每轮三方对决——维持现状、对抗修改、优势合成,盲评打分。”维持现状”连续两次赢,直接停手。
用便宜10倍的模型配Autoreason,质量跟贵10倍的模型单次生成持平。小模型逆袭,靠的是方法论。
微信也接上了
Hermes官方支持微信了,用腾讯iLink Bot API,扫码即用。钉钉、飞书、企业微信全覆盖。3.99美元的门槛,配套原生微信支持,在中国市场的想象空间不小。
一个有趣的追问
Hermes不是OpenClaw的平替——OpenClaw是工具箱,用完关上;Hermes是搭档,跟它一起干活它会自己学。
但让AI真正成为普通人日常基础设施的那个形态,大概还没出现。
你是愿意要一个每次都乖乖听话但永远从零开始的助手,还是一个会自己长本事但偶尔有脾气的搭档?评论区投个票——我赌大多数人选后者:嘴上说不要,身体很诚实。
夜雨聆风