乐于分享
好东西不私藏

你以为AI写文章更客观,实际上,AI可能比真人更“有主见”——ChatGPT生成文章与《纽约时报》记者所写文章的情感态度对比

你以为AI写文章更客观,实际上,AI可能比真人更“有主见”——ChatGPT生成文章与《纽约时报》记者所写文章的情感态度对比

人工智能生成的内容比人类写的更中立、客观,这是很多人不会质疑的论调。但一项最新研究通过对比ChatGPT与人类撰写的托福作文和新闻文章发现,AI生成的文章其实比人类写的更具主观性。甚至,在新闻写作中,AI的语调比《纽约时报》的记者更加积极。这项发现挑战了以往人们对于“机器中立”的普遍认知。

当阅读一篇文章时,我们能否准确分辨出它是出自人类记者之手,还是由像ChatGPT这样的人工智能程序所写?此问题已然笼罩这个世界很久了。

2025年,一项研究指出,读者的辨识能力其实相当有限——只有大约48%的人能正确识别AI生成的内容,而当使用更先进的模型如GPT-4时,这个比例下降到了37%。甚至当文章作者明确标注为AI时,仍有约三分之一的人坚信那是一位真人作者。

这引发了学术界的思考:AI究竟是如何在文字中“模拟”情感的?为了解答这个问题,研究者对两个公开数据集进行了量化分析。

第一个数据集包含了126篇由非英语母语者撰写的托福作文,以及ChatGPT针对相同题目生成的对应文章。

第二个数据集则更为庞大,包含了2674篇《纽约时报》的真人撰写新闻,以及另外2674篇由ChatGPT根据相同新闻标题生成的AI文章。

通过计算机自动化分析工具,研究者从情感效价一篇文章整体上传递的是正面、负面还是中性的情感色彩、离散情感诉求(使用自然语言理解工具分析文章中每个句子,给出快乐、悲伤、愤怒、恐惧、厌恶五种情感各自的概率得分,不要求总和为1,整篇文章中得分最高的情绪为该文章的主导离散情感)以及主观性使用自然语言处理工具,对每篇文章整体打分,得出主观性分数,判断由程序基于词语库,比如“我觉得”“显然”“可惜了”这类表达主观看法的词自动计算出来)三个维度,对这两种类型的文章进行了细致的比较。对比发现,AI生成的文章都表现出比人类写作更强的“主观性”。

在托福作文中,人类撰写文章的主观性平均得分为0.50,而ChatGPT生成的文章则为0.52,差异虽小但在统计上显著。

在新闻领域,这种差异更加明显。《纽约时报》文章的主观性平均得分为0.35,而ChatGPT生成的新闻则达到了0.38

这与许多人认为人工智能更客观的直觉相悖,说明AI在模仿人类时,可能会过度使用带有个人观点和情感的用语

在文章的“情感色调”方面,研究发现不同文体呈现出不同模式

在托福作文中,AI与人类在正面或负面情感上差异不大。但在新闻写作中,差异明显。ChatGPT生成的新闻平均情感极性得分为0.11,显著高于《纽约时报》文章的0.08,这意味着AI写的新闻听起来普遍比真人记者的报道更加“积极”。

文献中还引用了其他研究作为佐证:有研究发现,即便是针对“堕胎”和“移民”这类通常带有负面色彩的话题,机器生成的新闻中仍有10%呈现正面语调,而CNN和福克斯新闻的真人报道中这一比例分别只有2.9%和1.4%。

情感效价只看“正负”这个维度,而离散情感诉求则关注具体是哪一种情绪。当研究深入到更具体的“离散情感”时,情况就显得更复杂。

托福作文写作实验中,ChatGPT生成的文章中“快乐”的比例高于人类写的文章,而人类写的文章“愤怒”比例高于AI生成文章。但这个差异在统计上不显著(p=0.08)。也就是说,在作文写作这个范畴,AI与人类在离散情感上没有明显差异。

但在新闻文章写作实验中,《纽约时报》的文章中“快乐”的比例(63.28%)明显高于ChatGPT(54.38%);ChatGPT生成的新闻中“悲伤”的比例(42.26%)高于《纽约时报》(36.72%)。

请注意,前面提到“情感效价”的数据结果显示,AI新闻比《纽约时报》更正面(0.11vs0.08),但在“离散情感”上,AI新闻却比《纽约时报》有更多的悲伤、愤怒和恐惧的情绪。这说明一篇文章的整体语调偏正面,并不代表它不会同时传递较多的悲伤等具体情绪。

文献中特别强调,离散情绪视角能更精细地捕捉到“对读者实际心理和行为可能产生的影响”,比如AI新闻可能让读者更容易感到悲伤或愤怒。

研究还发现,文章的主题领域起到了调节作用。在《纽约时报》的报道中,硬新闻(如政治、商业)比软新闻(如艺术、旅游)更倾向于表达“悲伤”情感。但对于ChatGPT生成的新闻而言,这种软硬新闻之间的情感差异并不明显,说明AI可能不太遵循人类新闻业中约定俗成的写作规范。

研究说明,AI并非我们想象中的冷静、客观,相反,它在生成文章时可能比人类更加主观,并且其情感表达模式独特——既有可能在基调上显得更积极,也可能在具体的情感诉求上偏向于激发读者的悲伤或恐惧。

研究结果为我们日常阅读、信息判断以及理解AI写作,带来一些值得留意的启示。

首先,我们常以为AI写的东西更中立、更客观,但这个研究给出了相反的证据。无论是在作文还是新闻中,ChatGPT生成的文章都比人类写的更具主观性——更多地表达“个人”观点,而不是单纯陈述事实。这意味着,当你在网上看到一篇观点鲜明、语气强烈的文章时,作者可能并不是一位真人记者或博主,而是一个AI程序。反过来,如果我们仍然抱着“机器就是客观的”这种刻板印象,就很可能误判信息来源的可一篇度。也就是说,当你读到一篇文章意见多而事实少时,要注意它可能是AI写的。不过这里笔者更倾向于在那些比较正式的文章(例如新闻稿件、学术文章等)中运用,毕竟在日常表达中,“意见多而事实少”,正是一些爱刷存在感的人类的写作特点……

其次,AI写新闻时整体语调更积极,而具体的情绪构成与人类有明显差异。 所以,如果我们只靠整体感觉去判断是否为AI内容,可能会低估它带给读者的负面情绪影响。比如,长期阅读带有较多悲伤、愤怒情绪的AI新闻,有可能会对人的心理状态产生潜移默化的伤害。

再次,AI在不同类型的写作中表现并不一致,这说明AI的“能力”和“风格”高度依赖于它被要求写什么体裁的文章。写作文时,AI可以很好地模仿人类的表达模式;写新闻时,它反而比人类记者走得更“极端”。这一点提醒我们,不能笼统地说“AI像人”或“AI不像人”,而要具体看是哪种写作任务。

最后,这项研究也回答了“为什么读者很难分辨AI文章”这个问题。因为AI写的文章往往更主观、更带情绪色彩,而这些恰恰是在阅读时容易人们觉得“有温度”“有人味”的特征。

我们现在或许会将“AI味”理解为文风刻板、没有情绪,但很可能,那些你感叹“‘去AI化’的内容读起来就是舒服”的文章,是AI靠模仿、放大人类写作中主观、情感化的一面,让我们误以为文字背后是一个有立场、有感受的真实作者。

未来,“人味”与“AI味”,恐怕不能,甚至在某种程度上也不能作为区分文章质量的标准。

参考文献:Sui, M. Writing with emotion? Assessing emotional valence and appeals in AI-generated vs. human-written articles. AI & Soc 41, 1521–1535 (2026).

人类声明

本栏目内容涉及AI技术的社会影响、伦理讨论及未来展望,包含公开资料、作者个人观点、学术探讨、跨界思辨等,旨在引发思考与对话。无论人工智能如何发展,人类都应保持批判性思维,独立判断。欢迎在评论区理性探讨,但思辨就是这样,很可能没有“答案”。这不代表我们的思考是没有意义的。

如有存在内容侵权、不希望被转载等情况,原内容创作者可私信本账号说明,账号将立即进行删除处理。