日前,湖南经视黄金时段的新闻节目《经视新闻》正式启用了AI主持人“声声”和“双双”,引发网友热议。5月6日,一个细微却关键的变化很快出现了:当日播出的《经视新闻》,在AI主播出现时,画面右上角在此前的“AI生成”之外,又多了一句话:“不生成内容”。 杭茶,公众号:传媒圈湖南经视的AI主持人,紧急加了一行提示语
湖南经视不是第一个用AI主持人的,但他们是第一个在上线几天就给标注打“补丁”的。

(截图来源:传媒圈公众号)
湖南经视AI主持人上线两天后,如图右上角标注从“AI生成”变成了“AI生成图像,不生成内容”。这行新增的小字,与其说是技术说明,不如说是一次关于“人还在”的声明。
“AI”这个词,在新闻场景里自带歧义
观众看到AI主播,逻辑链条会自然延伸:形象是AI生成的,那这条新闻本身会不会也是AI自动化生成的?这种联想不能简单归结为“不懂技术”,它反映的是一种不安,当机器开始介入信息传播,人到底退到了哪一步。
“不生成内容”五个字试图把“形象合成”和“内容生产”拆成两件事:前者交给算法,后者必须留给人。
在《经视新闻》的改版中,真人主播牢牢占据时政新闻和实时资讯的核心阵地,用专业素养和职业操守守护新闻的权威性与公信力;AI主持人声声、双双则精准切入非时政新闻版块。
凌引迪,公众号:传媒茶话会而立之年破局:湖南经视的AI革命,是“换血”不是“换脸”
事实上,湖南经视的分工策略远比一行标注来得清晰:真人守时政,AI做服务/做解读。
在需要权威背书的时政报道中,真人主播仍是不可替代的公信力符号;而AI形象被精准配置于数据整合、多维解读等场景,承担的是效率提升而非价值替代。
这可以理解为是一条明确的红线:算法可以优化信息的呈现形式,但选题判断、价值权衡与最终责任,必须留在人的手里。
然而,质疑和担忧并非没有道理:今天允许AI念稿,明天会不会让AI写稿?后天会不会连选题和判断也交给机器?“不生成内容”的标注,则像是一个阶段性承诺,而不是一劳永逸的解决方案。
AI在广电里的应用只会越来越深,这值得我们警惕。
不是因为技术本身有问题,而是因为它太好用了。问题是,当一张完美的脸流利播报,观众无法从表情、语气里判断这条新闻是否经过现场采访、信源核实、编辑把关,这些原本隐含在“真人主播”背后的职业行为,在AI形象面前变得不可见。
湖南经视的“补丁”,本质上是在把不可见的部分重新“显影”出来,告诉观众:人在,而且人在关键位置。
AI主播可以24小时不犯错、不疲倦,但它无法为一条失实新闻承担责任,湖南经视那行小字,也在提醒同行:用新技术可以,但别把“人”从新闻里彻底抹掉。
作为广电技术人,我们的日常大概就是在“享受效率”和“警惕模糊性”之间反复横跳。
湖南经视改标注,说明他们还在横跳中保持清醒。这比那些一上来就宣称“全面拥抱AI”却从不谈边界的姿态,要实在得多。
夜雨聆风