乐于分享
好东西不私藏

当 AI 成为情绪垃圾桶:一个脏话统计工具背后的集体焦虑

当 AI 成为情绪垃圾桶:一个脏话统计工具背后的集体焦虑

最近 GitHub 上冒出一个很有意思的项目,叫 maleme(骂了么)

作者用 Rust 写了个小工具,专门干一件事:扫描你和 AI 编程助手的聊天记录,统计你说了多少句脏话,然后生成一份可视化报告。

支持的对象包括 Codex、Claude Code、OpenCode 这些主流编程 AI。

报告里有什么?每日脏话频率曲线、脏话强度指标(SBAI)、高频脏话词云……

听起来像个笑话,但仔细一想,有点心酸。

为什么需要统计这个?

官方 README 写得很克制:

“deterministic detection and aggregation of profanity usage across multilingual user input”

翻译成人话就是:看看大家在跟 AI 说话时,到底有多暴躁。

项目用了个非常直白的词库文件,叫 profanity_lexicon.txt,里面一行一个脏话。作者甚至没打算做什么高级的 NLP 分析,就是简单的字符串匹配——你骂了,它就记下来。

然后告诉你:哥们,你今天骂了 47 次,比昨天多了 12 次。

AI 成了最安全的情绪垃圾桶

为什么会有人需要这个工具?

因为跟 AI 说话,真的没有负担。

你跟同事发脾气,可能被 HR 约谈;跟朋友抱怨,可能被截图转发;在社交媒体上发泄,可能被网暴。

但跟 AI 说话?

  • 它不会评判你
  • 不会告诉别人
  • 不会记仇
  • 甚至不会生气(它根本没情绪)

于是,AI 成了现代人最安全的情绪垃圾桶

代码跑不通?骂。
需求改来改去?骂。
AI 理解错了?骂。
AI 理解对了但代码还是跑不通?继续骂。

我们不是在跟 AI 交流,我们是在跟 AI 发泄。

这个项目为什么火了?

maleme 的 README 里有个”Star History”图表,曲线蹭蹭往上涨。

为什么?

因为它戳中了一个集体痛点:大家都在用 AI 干活,也都在用 AI 发泄。

只不过以前没人统计过,大家以为就自己这样。

结果一看报告:好家伙,原来大家都一样。

这个工具的本质,不是”脏话检测”,而是一面镜子。它让你看到:

  • 你在什么时间段最容易暴躁(可能是 deadline 前)
  • 你骂得最多的词是什么(可能是某个反复报错的函数)
  • 你的情绪波动和代码质量有没有关系(大概率有)

本地优先,隐私安全

作者特意强调了”local-first”——所有数据都在本地处理,不上传任何服务器。

这很关键。

想象一下,如果你的脏话记录被上传到某个云端,然后某天泄露了……那画面太美不敢想。

所以这个项目的设计很克制:

  • 不依赖远程服务
  • 生成单个 HTML 报告,存在本地
  • 词库文件你自己可以改(想加什么脏话都行)
  • 开源,WTFPL 许可证(字面意思:想干嘛就干嘛)

这不是一个笑话

表面上看,这是个搞笑项目——谁会专门统计自己骂了多少次?

但往深了想,它反映了一个真问题:我们在 AI 时代的情绪出口在哪里?

以前写代码遇到问题,可以问同事、查 Stack Overflow、在群里吐槽。

现在?直接问 AI。

AI 随叫随到,不会烦,不会累,不会说你”怎么这都不会”。

于是,我们越来越依赖 AI,也越来越习惯在 AI 面前暴露最真实的情绪——包括最脏的那部分。

maleme 不是在统计脏话,它是在统计焦虑。

最后

这个项目我看了挺有感触的。

不是因为我也用 AI 发泄(虽然确实会),而是因为它让我意识到:

我们以为自己在”使用”AI,其实也在”依赖”AI。

依赖它干活,也依赖它当情绪垃圾桶。

哪天 AI 没了,可能不只是工作效率下降,连情绪出口都没了。

所以,下次你对着 AI 骂脏话的时候,不妨想一想:

你是在骂 AI,还是在骂这个操蛋的世界?


项目地址:https://github.com/Yeuoly/maleme

许可证:WTFPL(是的,你没看错)