【工具推荐】今天你骂 AI 了吗?
你对 AI 喷了多少脏话?这个开源工具把你的”真情实感”挖出来了
和 AI 结对编程一天下来,你到底喷了多少句”有病”、”傻x”、”写的什么垃圾”?一个开源小工具,专门把你埋在 Code Workspace 里的”真情实感”挖出来,生成一份羞耻又上头的 HTML 报告。
一、这个工具是做什么的?
它会读取你本地的 Codex、Claude Code、OpenCode 会话记录,统计你喷了多少脏话,然后生成一份 HTML 报告。
报告里有什么?
-
• 每天说脏话的次数趋势图 -
• 一个叫 SBAI 的标准化强度指标——每千 token 的脏话频率,指数越高,说明 AI 写得越让你”自信” -
• 按模型分组对比(Codex vs Claude Code vs OpenCode,哪个挨骂最多)
表面看是个梗,实际上它揭示了一个很真实的趋势:AI 编程工具正在重塑程序员的表达方式。
当 AI 开始写大部分代码,人类程序员从”打字员”变成了”审核员”和”指挥官”。这个角色转换带来的焦虑、挫败感、不满意,全部转化成了口头禅。SBAI 指数某种程度上反映的是:你对 AI 输出信任度和掌控感的反向指标。
二、安装使用
需要提前安装好 Node.js / npm 环境。安装好后,克隆运行:
git clone https://github.com/Yeuoly/maleme.gitnpx maleme
执行上述命令后,程序会自动扫描本地 AI 编程助手的聊天记录、统计相关分析指标,并在 ~/Downloads 目录下生成一份 HTML 报告并自动在浏览器中打开。
三、今日另外两条值得关注的开源工具
Apple Silicon 推理加速:dflash-mlx
如果你在用 Mac 做 AI 开发,这个项目值得关注:[dflash-mlx][1] 是 DFlash(基于块扩散的闪电推测解码)的 MLX 原生移植版,专为 Apple Silicon 芯片优化。
核心能力: 在保持输出结果与原始模型完全一致的前提下,大幅提升 LLM 生成速度。
工作原理: 训练一个小型”提议块”模型,同时生成多个候选 token,再用原始模型验证哪个是对的——类似”先猜再验证”的并行策略。完全跑在苹果芯片上,不需要 NVIDIA 显卡。
整合所有大模型的本地网关:Proxima
[Proxima v3.0.0][2],一个本地 AI 网关,通过单一 OpenAI 兼容端点(localhost:3210)整合 ChatGPT、Claude、Gemini 和 Perplexity 四大 AI 提供商。
核心亮点:
-
• 无需 API 密钥,利用现有浏览器会话直接调用 -
• 内置 45+ MCP 工具,涵盖搜索、代码、翻译、分析、文件处理、窗口控制等 -
• 支持 Python 和 JavaScript SDK
对于不想被单一 AI 提供商绑定、想统一管理多账号额度的开发者,这是一个值得试试的方案。
四、写在最后
这个工具的作者说,做这个的起因是”用 Claude Code 写了几天代码后,手冲的咖啡都变苦了”。
笑过之后你会发现,它戳中的是一个真实现象:我们和 AI 的关系正在变得前所未有的亲密和暴躁并存。
下次当你对 AI 输出脱口而出”这写的什么垃圾”的时候——记得跑一下这个工具,看看你的 SBAI 指数是多少。🤭
参考链接
-
• [1] dflash-mlx: https://github.com/bstnxbt/dflash-mlx -
• [2] Proxima v3.0.0: https://github.com/Zen4-bit/Proxima
夜雨聆风