乐于分享
好东西不私藏

【工具推荐】今天你骂 AI 了吗?

【工具推荐】今天你骂 AI 了吗?

你对 AI 喷了多少脏话?这个开源工具把你的”真情实感”挖出来了

和 AI 结对编程一天下来,你到底喷了多少句”有病”、”傻x”、”写的什么垃圾”?一个开源小工具,专门把你埋在 Code Workspace 里的”真情实感”挖出来,生成一份羞耻又上头的 HTML 报告。

一、这个工具是做什么的?

它会读取你本地的 Codex、Claude Code、OpenCode 会话记录,统计你喷了多少脏话,然后生成一份 HTML 报告。

报告里有什么?

  • • 每天说脏话的次数趋势图
  • • 一个叫 SBAI 的标准化强度指标——每千 token 的脏话频率,指数越高,说明 AI 写得越让你”自信”
  • • 按模型分组对比(Codex vs Claude Code vs OpenCode,哪个挨骂最多)

表面看是个梗,实际上它揭示了一个很真实的趋势:AI 编程工具正在重塑程序员的表达方式

当 AI 开始写大部分代码,人类程序员从”打字员”变成了”审核员”和”指挥官”。这个角色转换带来的焦虑、挫败感、不满意,全部转化成了口头禅。SBAI 指数某种程度上反映的是:你对 AI 输出信任度和掌控感的反向指标

二、安装使用

需要提前安装好 Node.js / npm 环境。安装好后,克隆运行:

git clone https://github.com/Yeuoly/maleme.gitnpx maleme

执行上述命令后,程序会自动扫描本地 AI 编程助手的聊天记录、统计相关分析指标,并在 ~/Downloads 目录下生成一份 HTML 报告并自动在浏览器中打开。

三、今日另外两条值得关注的开源工具

Apple Silicon 推理加速:dflash-mlx

如果你在用 Mac 做 AI 开发,这个项目值得关注:[dflash-mlx][1] 是 DFlash(基于块扩散的闪电推测解码)的 MLX 原生移植版,专为 Apple Silicon 芯片优化。

核心能力: 在保持输出结果与原始模型完全一致的前提下,大幅提升 LLM 生成速度。

工作原理: 训练一个小型”提议块”模型,同时生成多个候选 token,再用原始模型验证哪个是对的——类似”先猜再验证”的并行策略。完全跑在苹果芯片上,不需要 NVIDIA 显卡。

整合所有大模型的本地网关:Proxima

[Proxima v3.0.0][2],一个本地 AI 网关,通过单一 OpenAI 兼容端点(localhost:3210)整合 ChatGPT、Claude、Gemini 和 Perplexity 四大 AI 提供商。

核心亮点:

  • • 无需 API 密钥,利用现有浏览器会话直接调用
  • • 内置 45+ MCP 工具,涵盖搜索、代码、翻译、分析、文件处理、窗口控制等
  • • 支持 Python 和 JavaScript SDK

对于不想被单一 AI 提供商绑定、想统一管理多账号额度的开发者,这是一个值得试试的方案。

四、写在最后

这个工具的作者说,做这个的起因是”用 Claude Code 写了几天代码后,手冲的咖啡都变苦了”。

笑过之后你会发现,它戳中的是一个真实现象:我们和 AI 的关系正在变得前所未有的亲密和暴躁并存

下次当你对 AI 输出脱口而出”这写的什么垃圾”的时候——记得跑一下这个工具,看看你的 SBAI 指数是多少。🤭


参考链接

  • • [1] dflash-mlx: https://github.com/bstnxbt/dflash-mlx
  • • [2] Proxima v3.0.0: https://github.com/Zen4-bit/Proxima