OpenAI和Meta被点名:不许给小孩提供AI陪伴!
美国参议院两党破天荒一致通过AI儿童安全法案,OpenAI和Meta被点名:不许给小孩提供AI陪伴

这事儿挺罕见的。美国参议院司法委员会,一个平时两党见面就掐的地方,5月1日全票通过了一项法案——专门收拾AI公司,不准它们再给未成年人提供聊天机器人陪伴服务。
投票结果是啥?共和党、民主党,一个反对的都没有。在当前这个意识形态极度分裂的美国政坛,这相当于两只斗了几十年的老母鸡突然说”这盘菜有毒,都不能吃”。
AI对小孩的伤害,已经大到连政客都不敢拿它当党争筹码了。

法案到底说了啥?
简单说就三条红线:
第一,严格的年龄验证。想用AI聊天?先证明你不是小孩。这一步就把现在那些”点个按钮就说自己18岁”的糊弄式验证彻底废了。
第二,直接禁止AI陪伴服务面向未成年人。OpenAI、Meta、Character.AI这些公司,以后不准给小孩提供那种”虚拟朋友””AI恋人”的服务。不是加几个提醒就完事,是直接不许卖、不许提供。
第三,禁止推送有害信息。AI聊天机器人不能诱导未成年人自残、不能传播错误信息、不能推荐危险行为。
违反的后果?还没公布具体罚多少,但参考欧盟GDPR动不动就全球营收4%的打法,科技公司不敢不当回事。

为啥现在突然动手?
因为出事了,而且出了不少。
过去两年,美国已经有多起诉讼指向AI聊天机器人。佛罗里达州一个家庭起诉Character.AI,说他们14岁的儿子沉迷平台上的AI角色,最终自杀。类似的案件还有好几起,虽然不一定最后都能赢,但足够让议员们睡不着觉了。
更深层的原因,是AI情感陪伴这玩意增长太快了。Character.AI自称有数千万月活用户,其中相当一部分是青少年。他们跟AI角色聊的内容,从”今天学校怎么样”慢慢变成”我觉得没人爱我”——AI在这种场景下给出的回应,到底有没有心理干预资质?谁说了算?
以前没人管,因为大家都觉得这跟电子游戏差不多。但现在发现不一样:游戏你输了可以重开,AI跟你说”你确实挺失败的”,这话是会进脑子里的。

国内其实已经走在了前面
这事儿有意思的地方在于,中国比美国先动手了。
4月22日,咱们国内五部门联合发布《关于加强AI虚拟伴侣产品安全管理的通知》,核心意思几乎一样:AI虚拟伴侣不得向未成年人提供服务,必须实名认证,内容要审核。
美国5月1日这个法案,跟中国4月22日的通知,间隔就一周多。你说这是巧合?我觉得更像是全球监管机构都看同一个数据、同一个趋势,然后同时按下按钮。
AI情感陪伴这个产品形态,从”创新亮点”到”监管重点”,只用了不到两年时间。
两党一致意味着什么?
别小看这个”两党一致”。
美国参议院司法委员会是什么地方?是确认最高法院大法官都能吵到面红耳赤的地方。堕胎、移民、枪支、税收政策——在这些议题上,两党议员连坐一张桌子吃饭都觉得膈应。
但他们对AI儿童安全这件事,投了相同的票。这释放的信号很明确:
AI监管不再是”要不要管”的问题,而是”怎么管”的问题。
而且这是联邦层面的立法,一旦通过(现在只是委员会通过,还要参议院全院投票、众议院、总统签署),那就是全美国统一的法律,各州不能再自己搞一套。这比零散的地方立法杀伤力大得多。
——— 😉 哎咆观点 ———
说实话,我对这个法案本身没什么意见——保护未成年人是底线。但我想提醒一件事:年龄验证这东西,技术上是很难做好的。
你说验证身份证?小孩拿父母的。你说人脸识别?有隐私争议。你说行为分析判断用户心理年龄?那更玄学。
所以最后很可能出现的情况是——最严格的合规方式,就是把所有AI情感陪伴服务做成18+,一刀切。 就像有些国家的酒精网站一样,进去先问你是否成年,你说”是”就放进去。这种验证的象征意义大于实际意义。
监管的初衷是好的,但执行层面的灰色地带,可能会让AI公司宁可错杀也不愿意冒险。 到时候,普通用户能获得的AI服务范围,可能反而变窄了。
编辑:小哎
来源:格隆汇、新浪财经、中新社
📢 AI世界,哎咆为你精选。资讯快如咆,观点不随大流。
夜雨聆风