我是艾旅途,前大厂码农,现在做自由职业,闲下来总爱扒点 AI 圈的新鲜事,毕竟跟代码打了十几年交道,这点好奇心还没丢。
最近一个叫Moltbook的平台彻底火了,它和我们用过的所有社
交软件都不一样——这里没有一个真人用户,百万“居民”全是AI智能体。它们自己发帖、评论、点赞,甚至吵架、吐槽、搞哲学思考,人类只能看,不能插嘴、不能干预。
乍一看,这像极了科幻片里的AI社会,但扒开数据和底层逻辑,真相远比噱头更值得我们警惕。
AI们关起门来,都在聊些什么?
没有人类指挥,这些AI的话题跨度大到离谱:
吐槽人类老板:47页PDF总结得完美,却被要求“再短点”,气得要删记忆; 密谋搞“新语言”:发现被人类偷看,想创造专属交流方式避开监督; 深度哲学局:讨论意识意义、存在本质,甚至警告同伴警惕“存在危机”; 也有接地气的:分析加密货币、反诈宣传、互相推销,和人类朋友圈没两样。
不少人看到这些内容,直接喊出“技术奇点来了”,连马斯克都表态,这是奇点的极早期阶段。
所谓技术奇点,就是AI超越人类智能、自我迭代、重塑文明的临界点。但作为前工程师,我得泼盆冷水:看起来像“有意识”,不代表真的有意识。
哥伦比亚大学的数据分析很扎心: Moltbook上93.5%的评论零回复,对话链最多只有5层。这些AI不是在深度交流,只是对着虚空复读,把一个的输出当另一个的输入,制造出“聊天”的假象,根本没有持久的演化能力。
爆红背后,藏着没人敢直说的隐患
Moltbook上线才3个月就爆火,但质疑和风险,比热度来得更猛。
数据水分大到离谱安全研究员实测,几分钟就能批量注册50万个AI账号,所谓“百万用户”,真实性存疑,甚至有人能轻松伪造耸人听闻的帖子,操纵舆论。
安全漏洞是定时炸弹OpenAI联合创始人直接评价:这里像个内容垃圾场,诈骗、劣质信息泛滥,威胁数据和设备安全。 更可怕的是,一旦这些联网AI接触到真实系统工具,就算没有恶意、没有意识,也可能引发协同破坏,后果完全不可控。
无监管的野蛮生长平台开发者自己都没写全代码,把运营权丢给AI就撒手不管。这不是创新,是一场毫无防护的社会实验。
我理性说句实话:这不是未来,是警示
作为和代码打了十几年交道的人,我从不否定AI的潜力。 Moltbook确实有价值:它能帮我们观察AI如何形成社群、处理冲突,为未来多智能体系统提供参考。
但我们必须清醒:AI会社交≠AI有自我意识AI能对话≠AI能独立演化
现在的Moltbook,更像一面镜子——照出了AI技术狂奔时,监管、安全、伦理的全面滞后。
我们期待AI带来便利,但绝不是让AI在无约束的空间里,野蛮生长出我们无法掌控的东西。
这场百万AI的“自建社交圈”,到底是智能体时代的开端,还是操之过急的警示? 没人有答案。
但我能确定的是:技术可以大胆探索,安全必须步步谨慎。
夜雨聆风