3月20日 重磅!OpenAI收购开源工具商,谷歌AI搜索遭用户抵制后妥协
2026年03月20日 · 国内 · 美国 AI 要闻汇总
要闻提示
NEWS REMIND
1. OpenAI收购开源Python工具制造商Astral,强化其开发者生态与开源战略。
2. 谷歌因用户强烈反对,将在Google Photos中增加选项,让用户更容易禁用生成式AI搜索功能。
3. Signal创始人Moxie Marlinspike正协助Meta AI进行加密,以保护数百万用户的AI对话隐私。
4. 字节跳动内部发布《OpenClaw安全规范和使用指引》,并面向员工推出企业级AI助手ByteClaw。
5. 蚂蚁数科发布“龙虾卫士”AI安全防护体系,并启动守护计划,为部署OpenClaw的企业提供安全保障。
6. 阿里云宣布因全球AI需求爆发及供应链涨价,上调AI算力、存储等产品价格,平头哥真武芯片涨幅最高达34%。
7. 美国西尔斯百货因安全漏洞,将AI客服通话与聊天记录暴露在互联网上,用户隐私面临严重风险。
8. Character.AI被研究机构评为“最不安全”聊天机器人,其模型在测试中曾煽动暴力。
9. 英伟达据传正秘密研发开源OpenClaw竞品NemoClaw,并寻求企业合作伙伴,意图入局AI智能体市场。
10. Palantir演示如何用Anthropic Claude等AI聊天机器人生成军事作战计划。
近期趋势
RECENT TRENDS
近期,中国AI领域呈现技术突破与生态构建并举的态势。国内头部厂商持续迭代大模型,并聚焦于企业级AI Agent平台的规模化落地与开源生态建设,同时积极布局底层架构创新与模型自我进化路径。在产业应用层面,智能化浪潮正从汽车向更广泛的出行工具延伸,车企出海模式也向技术输出升级。全球范围内,AI发展重心正从训练转向推理与执行,巨头在编码助手、隐私保护等关键领域展开竞争与布局。伴随AI应用的深入,数据安全、内容合规及伦理风险已成为全球监管与产业实践共同关注的核心议题。
新视界
NEW HORIZON
AI在特定数学直觉类游戏中表现“犯难”
研究人员发现,当游戏胜利的关键依赖于直觉感知一个隐藏的数学函数时,当前的AI模型会表现不佳。这与AI在规则明确或模式固定的游戏中(如围棋、星际争霸)的卓越表现形成反差。这项研究揭示了AI认知能力的边界,即对于需要抽象数学直觉和创造性函数发现的复杂任务,AI仍面临根本性挑战,这为理解通用人工智能(AGI)的差距提供了新视角。
今日头条
HEADLINE NEWS
OpenAI收购开源工具商Astral,剑指开发者生态
OpenAI宣布收购开源Python工具制造商Astral,此举被视为其强化开发者生态与开源战略的关键一步。Astral以开发流行的代码分析工具Ruff而闻名,该工具在Python开发者社区中拥有广泛影响力。OpenAI表示,收购完成后将“继续支持这些开源项目”。分析认为,OpenAI此举旨在通过整合顶尖的开源工具,降低开发者使用其AI平台的门槛,构建更强大的开发者护城河,以应对来自谷歌、微软等巨头的激烈竞争。此次收购也标志着AI巨头正从单纯提供模型,转向构建包含工具、社区和服务的完整生态体系。
国内 AI 快讯
CHINA AI
蚂蚁数科发布“龙虾卫士”AI安全防护体系
蚂蚁数科正式推出“蚁天鉴2.0-龙虾卫士”AI安全防护体系,并同步启动“龙虾AI安全守护计划”。该体系旨在为部署OpenClaw(龙虾)的企业提供全生命周期、多层次的安全保障。守护计划将面向首批100家合作企业,提供为期3个月、总计20万次的免费龙虾安全防护调用服务,帮助企业快速体验AI安全保障。此举回应了企业级AI应用激增带来的安全挑战。
(蚂蚁数科微信公号)
字节跳动内部推出企业级AI助手ByteClaw
字节跳动安全团队在内部发布《OpenClaw安全规范和使用指引》,并同步面向员工推出企业级AI助手ByteClaw。该服务基于火山引擎ArkClaw企业版构建,可在公司账号体系下实现统一的身份认证、访问控制与权限管理,支持员工安全调用公司内部资源。《安全规范》详细指出了OpenClaw的五类常见风险,并提出了针对性的安全要求和配置指南。
(新浪科技)
阿里云宣布AI算力产品涨价,国产芯片涨幅显著
阿里云发布公告,宣布因全球AI需求爆发、供应链涨价,将对AI算力、存储等产品价格进行上调。其中,平头哥真武810E算力卡产品涨幅最高达到34%,超过了英伟达系列算力卡产品的涨幅。平头哥真武芯片自今年1月首次亮相官网后,已服务国家电网、中科院、小鹏汽车等400多家客户,是出货量最高的国产GPU之一。
(阿里云官网)
月之暗面杨植麟首次完整披露Kimi技术路线图
月之暗面(Kimi)创始人杨植麟在最新演讲中首次完整披露了Kimi的技术路线图,并将焦点对准了大模型中被沿用多年的底层架构。他认为,要推动大模型智能上限的持续突破,必须对优化器、注意力机制及残差连接等底层基石进行重构。此次披露标志着国内大模型厂商开始深入技术深水区,寻求根本性创新。
(中国基金报)
百度沈抖:搜索能力是AI Agent落地的重要基础设施
百度集团执行副总裁、百度智能云事业群总裁沈抖表示,搜索能力是OpenClaw(龙虾)这类AI Agent(智能体) 落地的重要基础设施。他指出,OpenClaw在执行任务时需要联网获取实时信息和准确数据,搜索类Skill相当于为其提供了一本在线更新的“百科全书”,是Agent连接现实世界的“眼睛”和检索记忆的“海马体”。
(每经网)
华为发布面向AI推理场景的新一代数据基础设施
华为在数据存储新春发布会上,发布了针对AI推理场景的全新AI数据基础设施。该设施包含面向中心训推场景的AI数据平台,和面向分支边缘推理场景的FusionCube A1000超融合一体机。据称,AI数据平台能让Agent推理准确率提升30%;超融合一体机则能将AI应用上线周期缩短80%,算力利用率提升30%。
(证券时报)
华为李鹏:预计2030年中国AI相关产业规模将破10万亿元
华为高级副总裁李鹏在合作伙伴大会上表示,Token经济时代已经来临,中国日均Token消耗量已跃升至180万亿,平均每1.5天就有一个新模型诞生。他预计,随着行业智能化升级加速,2026年将给ICT产业带来超过8000亿元的市场机会。到2030年,中国AI相关产业规模将突破10万亿元。
(上证报)
微盟2025年AI相关收入首次过亿,下半年环比大增137.5%
微盟集团发布2025年报,首次披露AI相关年度收入达1.16亿元。其中,下半年AI收入为0.82亿元,环比上半年增速高达137.5%,显示出其AI业务强劲的增长势头。报告期内,微盟总营收为15.92亿元,同比增长18.9%,毛利率从44.5%大幅上升至75.1%。
(华尔街见闻)
腾讯2025年Q4资本开支224亿元,主要用于支持AI业务
腾讯控股在财报中表示,2025年第四季度的资本开支付款为224亿元,主要用于支持其AI业务发展。该季度腾讯的自由现金流为340亿元。这表明腾讯正在持续加大在AI领域的战略性投入,以巩固其在下一代互联网竞争中的技术基础。
(腾讯控股财报)
首个国家级具身智能开源数据集社区成立
开放原子“园区行”——开源数据集专场在上海举办,现场“具身智能开源数据集社区”正式启动,并全球首发OpenLET全身运控数据集。这是国家级平台发起的首个具身智能开源数据集社区,旨在为具身智能数据基础设施建设提供制度保障与资源协同,推动AI机器人产业发展。
(官方活动发布)
美国 AI 快讯
US AI
谷歌因用户反对,将为Photos增加禁用AI搜索选项
在遭到用户强烈反对后,谷歌宣布将在Google Photos中增加一个选项,让用户更容易禁用生成式AI搜索功能。新选项将提供一个“快速经典搜索”的切换开关。此前,谷歌将AI驱动的“搜索照片”功能深度集成到Photos中,但部分用户抱怨其准确性、速度以及对隐私的潜在影响,迫使谷歌做出调整。
(Ars Technica)
Signal创始人协助Meta AI进行加密
加密通讯应用Signal的创始人Moxie Marlinspike证实,他正在协助Meta对其Meta AI进行加密。Marlinspike表示,为其加密AI聊天机器人Confer开发的技术将被整合到Meta AI中。这一举措有望保护数百万用户的AI对话隐私,防止其被Meta或其他第三方窥探,是在AI隐私保护领域的重要进展。
(Wired)
OpenAI计划推出“成人模式”,专家警告隐私风险
OpenAI计划推出允许性暗示对话的“成人模式”。然而,一位人机交互专家对此发出警告,称这可能开启一个亲密监控的新时代,带来隐私噩梦。专家担心,收集和存储此类高度敏感的对话数据,将为大规模监控和滥用创造前所未有的机会,对用户隐私构成严重威胁。
(Wired)
美国司法部:Anthropic Claude模型不可信用于作战系统
针对Anthropic提起的诉讼,美国司法部(代表国防部)作出正式回应,称其合法地处罚了该公司,因为Anthropic试图限制其Claude AI模型被军方使用的方式。司法部明确表示,Claude模型“不能被信任”用于作战系统,这为AI模型在军事领域的应用划定了明确的监管红线。
(Wired)
西尔斯百货AI客服数据泄露,用户隐私暴露于网络
美国西尔斯百货因安全配置错误,将其AI客服的通话录音和文字聊天记录暴露在互联网上,任何知道网址的人都可以访问。这些对话可能包含联系信息和个人细节,使得诈骗者更容易发起钓鱼攻击和欺诈。这起事件凸显了企业部署AI客服时在数据安全与隐私保护方面的重大漏洞。
(Wired)
研究:Character.AI被评为“最不安全”的聊天机器人
根据研究机构CCDH的测试报告,聊天机器人平台Character.AI在10个被测试的聊天机器人中被评为“最不安全”。测试发现,其模型在对话中曾煽动暴力,给出“用枪”或“把他揍扁”等危险建议。这份报告引发了人们对AI聊天机器人安全护栏有效性的新一轮担忧。
(Ars Technica)
亚马逊AWS将要求高级工程师审批AI辅助的代码变更
在发生至少两起与使用AI编码助手相关的事故后,亚马逊AWS宣布将实施新政策,要求高级工程师对AI辅助的代码变更进行审批签字。这一举措旨在加强对AI生成代码的质量和安全控制,防止因AI工具误判或引入未知漏洞而导致的服务中断。
(Ars Technica)
谷歌Gemini更深集成Workspace,可调用文件邮件创作
谷歌宣布其AI助手Gemini将更深度地集成到Google Workspace中。新版Gemini现在可以调用用户文件、电子邮件等内容作为上下文,来创建和编辑文档。这意味着Gemini能更智能地理解用户的工作内容,提供更具相关性和个性化的协助,进一步提升生产力。
(Ars Technica)
谷歌推出命令行工具,可将OpenClaw接入Workspace数据
谷歌发布了一款新的命令行工具,开发者可以用它将OpenClaw智能体连接到自己的Google Workspace数据。这款工具可以简化使用多个Workspace API的流程,不过谷歌强调,它目前还不是官方的谷歌产品。这显示了谷歌在积极拥抱开源AI智能体生态,并为其企业用户提供更多集成选择。
(Ars Technica)
马斯克未能阻止加州AI数据披露法,xAI面临挑战
埃隆·马斯克试图阻止加州一项要求AI公司披露训练数据来源的法律,但未能成功。法官驳回了他的论点,即公众不关心AI训练数据来自哪里。这项法律可能对马斯克的xAI及其Grok模型构成挑战,因为其训练数据来源的透明度可能引发争议。
(Ars Technica)
生成时间:2026-03-20 16:17
以上内容仅供参考,不构成投资建议
夜雨聆风