昨天看到一条新闻,忍不住想跟大家聊聊。
Anthropic——就是做Claude的那家公司——发布了一个新AI模型。结果官方自己说:太强了,有风险,暂时不对公众开放。
好家伙,AI强到发布商自己都不敢放出来,这事儿听起来是不是有点科幻?
01 发生了什么?
简单来说就是:Anthropic训练了一个新的AI模型,测试之后发现——能力确实很强,但强到有点吓人。
NBC News报道了这个消息,说这个新模型在某些方面的能力已经超出了他们对"安全"的定义范围。
具体有多强?官方没说详细数据,但用了"too powerful to release"这样的表述。
翻译成人话就是:我知道你很强,但我怕你被坏人用,所以先不放出来。
02 这事儿新鲜吗?
说实话,这种"AI太强不敢发布"的消息,这几年时有耳闻。
去年GPT-4出来的时候,就有人讨论AI安全问题。今年Claude、Gemini、各种模型轮番登场,每次有新突破,都会有人跳出来说"太危险了"。
但这次不一样的是:
之前都是外界在说"AI公司你们要小心",这次是Anthropic自己主动说"我们觉得这个确实有点危险"。
自己给自己踩刹车,这还挺少见的。
03 到底在担心什么?
AI安全问题,说到底就是两个字:滥用。
能力越强的AI,被恶意利用的可能性就越大。
比如:
• 能生成以假乱真的文本,用来造谣、诈骗
• 能帮助黑客写攻击代码
• 能模仿特定人的说话风格,用于欺诈
这些都是实实在在的风险。
04 OpenAI怎么看?
巧了,就在Anthropic发布这个消息的同时,OpenAI也在推动政府制定AI相关的补偿政策。
他们意识到,AI确实会取代一部分工作岗位,所以希望政府提前准备好失业保险、再就业培训这些配套措施。
说实话,这事儿挺讽刺的——一边在造更强的AI,一边在担心AI让人失业。
但也能看出,AI安全问题已经成为了整个行业不得不面对的问题。
05 咱们普通人该怎么看?
我的态度是:保持关注,但别太焦虑。
AI安全问题确实存在,但也没有部分媒体渲染得那么可怕。技术的发展从来都是双刃剑,关键在于怎么用。
至于"Anthropic的新模型太强不敢发布"这个事儿,我的看法是:至少说明这家公司还在认真思考AI安全的问题,这总比什么人都敢往外放要强。
你觉得AI发展的边界在哪?留言聊聊呗。
今天的分享就到此结束,咱们下回见;
如果觉得文章对你有帮助,记得点.赞.转.发.收.藏喔!
夜雨聆风