这件事情发生在过年期间。
孩子和姐姐一起画画,然后就听到她气地大声喊:“我要把你卸了”。然后抱着平板气鼓鼓地跑过来跟我说:“那个AI也太傻了”
于是我打开手机看了一下聊天记录(她的平板登录的是我的账号),好家伙,简直就是一场人类幼崽与人工智能的“大战”,而且笑点密集。
事情要从她想画动画片《海底小纵队》里的谢灵通说起。
她打开AI,客客气气地说:“给我找一下谢灵通的照片,我要画他。”
AI立刻给出画画建议,孩子说:“你给我图片吧。”
AI给出了谢灵通图片,孩子又说:“给我看一下他开心的时候”,还特意强调,是可以直接照着画的照片。


然后,对话就开始失控了,AI还是没给出开心的谢灵通图片,孩子质疑:“这哪开心了?”
接下来AI开始跑偏,先是给出一张开心大笑的人的图片。


然后又给了一只水獭,接着是皮医生(海底小纵队里面的角色),甚至还生成了一张她觉得有点恐怖的图。



这时候孩子已经没有耐心了,AI胜在态度好,每次出错都疯狂道歉,孩子大概觉得这点小事AI肯定能搞定,于是继续表达需求。
但接下来的十几个回合,AI还是没能按她的要求生成图片。
孩子已经彻底失去耐心,发过去一句灵魂拷问:“你没看过海底小纵队吗?你就看一遍海底小纵队,我就不信你还能出错。”
AI只是一味的道歉,孩子回了一句:“你老是这种小动作,我再也不信你了。”


然后,她果断把这个AI卸载了。
看完这段对话记录,我笑了很久,但笑完之后,也一直想AI为什么会在这个需求上反复出错。
其实它一开始已经找对谢灵通的图片了,只要再“开心一点”就好了,但对一个五岁多的孩子来说,这场对话其实是一场信任危机。
孩子对AI的态度,从一开始的“客客气气求助”,到后来的“耐心解释”,再到“愤怒质疑”,最后是“彻底失望”——这简直就是一段关系的完整崩塌过程。
而AI呢?它从头到尾都在“认错”,但它的“认错”里藏着一种微妙的程序感:它道歉,是因为它被设定成要“让用户满意”;它道歉,是因为它检测到了用户的负面情绪,而不是因为它真的理解自己错在哪了。
所以,当孩子说“你老是这种小动作,我再也不信你了”的时候,她其实戳中了一个点:
AI的“认错”,不是真正的认错,而是一种程序化的应对模式。
它说“对不起”说得比谁都快,但它下一次还是会犯同样的错。
之前写关于AI的文章时,我提到过:AI时代,更需要让孩子保持好奇心,有提问的能力。在AI时代,做个会端起新碗的人
这件事让我又多了一些感触。
第一,AI是工具,不是朋友,更不是老师
孩子对AI的期待是:它应该像妈妈一样听懂我的需求,像幼儿园老师一样什么都知道,像小伙伴一样和我愉快聊天。
但AI不是人,它只是在执行程序。
如果我们不告诉孩子这一点,孩子就会像和一个“永远不长记性”的朋友相处,一次次失望,最后彻底失去信任。
第二,AI可以提供信息,但不能保证信息的准确性
孩子会认为AI是不会出错的,所以她说:“你就看一遍《海底小纵队》,我不信你还能出错”,事实上AI真的会出错,并且可是会用自信的语气给出错误的信息。
我之前在用AI找文献时就发现了,它给出的文献有的根本不存在,有的和主题毫无关系。
“谢灵通”是孩子熟悉的信息,但如果是她不熟悉的问题,想通过AI寻求答案时,我相信一个不到六岁的孩子是没有办法来核实信息的,她会以为AI给的答案都是对的。
第三,AI可以陪聊,但它不具备真正的情感
AI那些“对不起对不起”,看起来很真诚,其实只是程序设定。它不会因为让你生气而感到难过,不会因为被你卸载而感到失落,它只是换一个用户,继续用同样的方式道歉。
如果孩子习惯了这种“廉价的道歉”,她们会不会觉得:原来道歉这么容易,说完就可以翻篇,不需要真正反思?
这个时代变得很快。
今天AI能生成图片、能生成视频、能处理海量的信息。
但有些东西,大概永远不会变:
孩子想要被理解,而不是被计算。她把AI卸载了,是因为AI不懂她。AI确实可以做很多事情,但它取代不了真实的人际互动,取代不了真正的情感交流。
而我们在陪孩子长大的路上,能做的最好的事,也许就是:
努力去懂她。
听她吐槽、认真地夸她,在她问出奇怪问题的时候,认真回答,陪她一起想。
AI时代来了,但孩子还是孩子。
她们需要的不多,一个愿意听她们说话的家长,就够了。
五岁多的孩子,好像比我们更早明白了一件事——AI是工具,不是人。
文中图片均来自孩子与AI的对话截图。
推荐阅读

保持期待 奔赴山海
THE END

夜雨聆风