当 AI 成为情绪垃圾桶:一个脏话统计工具背后的集体焦虑

最近 GitHub 上冒出一个很有意思的项目,叫 maleme(骂了么)。
作者用 Rust 写了个小工具,专门干一件事:扫描你和 AI 编程助手的聊天记录,统计你说了多少句脏话,然后生成一份可视化报告。
支持的对象包括 Codex、Claude Code、OpenCode 这些主流编程 AI。
报告里有什么?每日脏话频率曲线、脏话强度指标(SBAI)、高频脏话词云……
听起来像个笑话,但仔细一想,有点心酸。
为什么需要统计这个?
官方 README 写得很克制:
“deterministic detection and aggregation of profanity usage across multilingual user input”
翻译成人话就是:看看大家在跟 AI 说话时,到底有多暴躁。
项目用了个非常直白的词库文件,叫 profanity_lexicon.txt,里面一行一个脏话。作者甚至没打算做什么高级的 NLP 分析,就是简单的字符串匹配——你骂了,它就记下来。
然后告诉你:哥们,你今天骂了 47 次,比昨天多了 12 次。
AI 成了最安全的情绪垃圾桶
为什么会有人需要这个工具?
因为跟 AI 说话,真的没有负担。
你跟同事发脾气,可能被 HR 约谈;跟朋友抱怨,可能被截图转发;在社交媒体上发泄,可能被网暴。
但跟 AI 说话?
-
它不会评判你 -
不会告诉别人 -
不会记仇 -
甚至不会生气(它根本没情绪)
于是,AI 成了现代人最安全的情绪垃圾桶。
代码跑不通?骂。
需求改来改去?骂。
AI 理解错了?骂。
AI 理解对了但代码还是跑不通?继续骂。
我们不是在跟 AI 交流,我们是在跟 AI 发泄。
这个项目为什么火了?
maleme 的 README 里有个”Star History”图表,曲线蹭蹭往上涨。
为什么?
因为它戳中了一个集体痛点:大家都在用 AI 干活,也都在用 AI 发泄。
只不过以前没人统计过,大家以为就自己这样。
结果一看报告:好家伙,原来大家都一样。
这个工具的本质,不是”脏话检测”,而是一面镜子。它让你看到:
-
你在什么时间段最容易暴躁(可能是 deadline 前) -
你骂得最多的词是什么(可能是某个反复报错的函数) -
你的情绪波动和代码质量有没有关系(大概率有)
本地优先,隐私安全
作者特意强调了”local-first”——所有数据都在本地处理,不上传任何服务器。
这很关键。
想象一下,如果你的脏话记录被上传到某个云端,然后某天泄露了……那画面太美不敢想。
所以这个项目的设计很克制:
-
不依赖远程服务 -
生成单个 HTML 报告,存在本地 -
词库文件你自己可以改(想加什么脏话都行) -
开源,WTFPL 许可证(字面意思:想干嘛就干嘛)
这不是一个笑话
表面上看,这是个搞笑项目——谁会专门统计自己骂了多少次?
但往深了想,它反映了一个真问题:我们在 AI 时代的情绪出口在哪里?
以前写代码遇到问题,可以问同事、查 Stack Overflow、在群里吐槽。
现在?直接问 AI。
AI 随叫随到,不会烦,不会累,不会说你”怎么这都不会”。
于是,我们越来越依赖 AI,也越来越习惯在 AI 面前暴露最真实的情绪——包括最脏的那部分。
maleme 不是在统计脏话,它是在统计焦虑。
最后
这个项目我看了挺有感触的。
不是因为我也用 AI 发泄(虽然确实会),而是因为它让我意识到:
我们以为自己在”使用”AI,其实也在”依赖”AI。
依赖它干活,也依赖它当情绪垃圾桶。
哪天 AI 没了,可能不只是工作效率下降,连情绪出口都没了。
所以,下次你对着 AI 骂脏话的时候,不妨想一想:
你是在骂 AI,还是在骂这个操蛋的世界?
项目地址:https://github.com/Yeuoly/maleme
许可证:WTFPL(是的,你没看错)
夜雨聆风