谷歌把AI扔进了海里,然后呢?
事情是这样的。
前两天我在刷手机,看到谷歌发了个公告,说他们把AI搞到水下去了。

不是那种“我们想搞”的PPT,也不是那种“未来五年计划”的画饼,而是真真切切,已经能用的技术。
水下视频处理,还有移动端的AI视频模拟。
我当时的第一反应,不是“哇好厉害”,而是愣了一下。
愣住的原因是,我脑子里突然蹦出一个画面:一个潜水员,背着氧气瓶,手里拿着GoPro,在水下拍珊瑚礁。然后他掏出手机,打开一个App,当场就把拍到的模糊视频给AI实时处理清楚了。
你敢信?
这事放在两年前,可能还是科幻片里的桥段。但现在,谷歌说他们做到了。
我第一反应是,这玩意到底有多靠谱?
然后我就去翻了他们的技术报告。
怎么说呢,看完了我整个人有点懵。
不是被技术参数砸懵的,而是被一件事打动了——谷歌这次解决的问题,太他妈具体了。
不是那种“我们让AI更智能”的宏大叙事,而是“水下光线不好,视频拍出来全是蓝绿色,颜色失真,AI帮你还原”。
就,特别接地气。
我一直在说,AI真正牛逼的地方,不是能做多炫酷的事,而是能解决那些普通人日常里的小麻烦。
水下视频拍摄,听起来好像是个小众需求。但你想想,全世界有多少人在海边度假的时候,拿着手机或者GoPro下水拍过东西?
我去年去三亚,租了个GoPro下水,结果拍回来的视频,全是一片蓝绿色,人脸都看不清。我当时就觉得,这玩意拍了个寂寞。
现在谷歌告诉我,AI可以帮你把那些视频,变成正常颜色。
我当场就想说:你早干嘛去了?
顺着这个往下聊聊。
谷歌这次公布的,其实是两个方向的技术。
一个是水下视频处理,我刚说了。
另一个是移动AI视频模拟,这个更炸。
移动AI视频模拟,简单说,就是你在手机上,就能用AI实时模拟视频效果。不是那种拍完再处理,是拍的时候,AI就在帮你做。
你想想看,这意味著什么。
过去你要做视频特效,得用电脑,得用专业软件,得等渲染。现在你掏出手机,打开相机,AI直接帮你把效果实时渲染出来。
我当时看到这个,脑子里蹦出四个字:降维打击。
不是打击谁,而是对整个视频创作流程的降维打击。
我自己也做视频内容,太知道这里面有多痛苦了。拍完一条素材,导入电脑,打开Pr或者达芬奇,调色,加特效,渲染导出。这一套下来,少说半小时,多则一整天。
现在呢?
拍的时候,效果就出来了。
你敢想象吗?
我反正想象了一下,觉得有点兴奋。
但兴奋归兴奋,我也得说句实话。
谷歌这次公布的技术,目前还是实验室阶段。不是那种已经上线的产品。
我翻了一下他们的博客,里面写得很清楚,水下视频处理这块,他们用的是「物理感知的神经网络」,专门针对水下光线的物理特性做了优化。
什么意思呢?
就是他们不是简单粗暴地“增强颜色”,而是真的去理解了水下光线怎么传播,怎么折射,怎么被吸收,然后用AI去模拟这个过程,再反向还原。
这比那种“一键美化”的滤镜,高到不知道哪里去了。
我自己的感受是,谷歌这次是真的在解决一个物理问题,而不是一个图像问题。
这个区别很重要。
很多AI工具,做的是“看起来好看”,但谷歌这次做的是“还原真实”。
一个是美颜,一个是真相。
我觉得,后者才是AI该干的事。
回到移动AI视频模拟这块。
这个就更骚了。
他们用了一个叫「蒸馏」的技术,把一个大模型的能力,压缩到能在手机上跑。
不是那种阉割版,而是基本保留了核心能力。
我看了他们给的demo视频,效果真的很炸。
一个手机,实时处理1080p的视频,帧率还能保持30帧以上。
你想想,这意味着什么。
意味着以后的视频创作,门槛会低到一个离谱的程度。
我前两天还在跟团队的小伙伴聊,说现在做视频内容,最难的不是创意,是技术。你有一个好的想法,但你要实现它,得学剪辑,学调色,学特效。这些技能,不是每个人都能掌握的。
但如果AI能在你拍的时候,就帮你把这些事做了呢?
那创作的门槛,就真的被磨平了。
我一直相信,AI最大的价值,不是取代创作者,而是让更多人能成为创作者。
谷歌这次的方向,就是冲着这个去的。
聊到这儿,我得插一句。
很多人可能觉得,这些技术离我们太远,跟我没关系。
但我不这么看。
你想想,五年前,你能想象你用手机拍的照片,能被AI自动识别出场景,然后自动优化颜色吗?
现在这个功能,已经烂大街了。
同样的逻辑,五年后,你手机里的视频,可能拍的时候就是“成品”,不需要任何后期。
这不是科幻,这是正在发生的事。
我始终坚信,技术的演进,不是线性的,而是指数级的。今天看起来还像实验室玩具的东西,明天就可能变成你口袋里日常用的工具。
但我也得说点不好听的。
谷歌这次公布的技术,确实牛逼,但我总觉得少了点什么。

少的是什么呢?
是“人味儿”。
你看他们的博客,全是技术参数,全是论文引用,全是“我们解决了什么什么问题”。但你看完之后,你记不住任何一个具体的场景,任何一个具体的人。
这就是大公司的通病。
他们太习惯于用技术语言讲故事,而忘了技术最终要为人服务。
相比之下,我更喜欢那些小团队做的产品。可能技术没那么牛逼,但你知道他们是真的在解决某个人的具体问题。
比如我之前写过的那个,用AI帮盲人“看”世界的App。技术不复杂,但你知道那个产品背后,有一个具体的、鲜活的用户。
谷歌这次,技术很硬,但我没看到人。
我觉得,这是个遗憾。
不过话说回来,也不能对谷歌要求太高。
毕竟他们是一家科技公司,不是人文机构。
能把技术做到这个份上,已经足够让人兴奋了。
我真正兴奋的是,这些技术背后的那个趋势。
那个趋势是:AI正在从“能做的事情越来越多”,变成“能做事情的门槛越来越低”。
过去,你要用AI,得学编程,得懂模型,得有显卡。
现在呢?
你只需要一个手机,一个想法。
这个变化,比任何技术突破都重要。
因为它意味着,AI不再是少数人的玩具,而是所有人的工具。
我有时候觉得,我们现在正处在一个巨大的拐点上。
这个拐点,不是“AI取代人类”,而是“AI让更多人成为人类”。
什么意思呢?
就是过去,因为技术门槛,很多人被挡在了创作的大门之外。他们有想法,有感受,有表达的欲望,但没有表达的工具。
现在,AI给了他们工具。
这就是为什么我一直说,我对AI充满好奇,而不是恐惧。
因为我看到的,不是工作被取代,而是创造力被释放。
聊到这儿,我想起了一件事。

去年年底,我去了趟云南,在洱海边住了几天。
有一天傍晚,我在湖边散步,看到一个老人,大概六十多岁,拿着手机在拍夕阳。
他拍得很认真,但很明显,他不怎么会用手机。拍出来的画面,曝光过度,颜色失真,构图也很随意。
但他很兴奋,拉着旁边的人说:“你看,今天晚霞多好看。”
我当时就在想,如果他的手机,能在他拍的时候,自动帮他调整曝光,自动优化颜色,自动推荐构图,那会是怎样的体验?
他可能不会知道这些功能叫什么,他只知道,他拍出来的照片,跟他看到的一样美。
这就够了。
这就是技术该有的样子。
不是让人去适应技术,而是技术去适应人。
谷歌这次的水下视频处理,移动AI视频模拟,本质上,都是在做这个事。
它们在让技术,变得更像人。
当然,我也得承认,这些技术现在还不完美。
水下视频处理,目前只能处理特定条件下的视频。移动AI视频模拟,对手机的性能要求也很高。
但方向是对的。
就像当年的智能手机,第一代iPhone出来的时候,也有各种问题。没有App Store,没有3G网络,连复制粘贴都没有。
但那个方向,改变了整个世界。
我觉得,谷歌这次的方向,也是一样。
它可能不是那个最终的产品,但它告诉了我们,未来的路在哪里。
而对我来说,这就够了。
因为我始终相信,技术最大的魅力,不在于它现在能做什么,而在于它让我们看到了什么可能性。
就像谷歌这次,让我看到了一个未来:一个普通人,拿着手机,在水下,也能拍出电影质感的画面。
想想就觉得兴奋。
最后,我想用一段话来收尾。
这段话不是我写的,是我在一个技术论坛上看到的,一个工程师写的。
他说:
“我们这一代人,最大的幸运,就是活在了技术爆发的时代。我们亲眼看着,那些曾经只在科幻电影里出现的东西,一件一件变成了现实。但最大的责任,也是这个时代给我们的。因为我们要决定,这些技术,是用来让世界变得更好,还是更糟。”
我觉得,他说的是事实。
技术本身没有善恶,但使用技术的人有。
谷歌这次的技术,我很喜欢。因为它是在帮人,而不是在取代人。
它是在降低门槛,而不是在制造壁垒。
它是在让更多人能表达,而不是让少数人更垄断。
这就是我一直在找的方向。
也是我为什么,永远对世界保持好奇。
因为我知道,在这个时代,每一天,都有新的可能性在诞生。
而我,不想错过任何一个。
好了,今天的分享就到这儿。
如果你也对这些技术感兴趣,或者有什么想法,欢迎在评论区跟我聊。
我会一直在这,磨平一些信息差。
我们下次见。
夜雨聆风