文档内容
ChatGPT 会影响到人类社会吗
面向普通受众的最新人工智能(AI)交互产品 ChatGPT,近来备
受关注。
ChatGPT 是人工智能研究公司 OpenAI 研发的最新聊天机器人模
型。现实生活中,各种应用软件里的机器人客服,以及苹果手机的
Siri,国产智能音箱里的小度、小爱、天猫精灵等,广义上都是与
ChatGPT 类似的人工智能产品。它们能够通过理解人类语言与互动者
进行对话,还能根据聊天上下文进行互动等。只不过,ChatGPT 学习
能力最强,“智慧”等级最高,能够回答人类提出的各种远超以往难
度的复杂问题,致使其爆火全球。
ChatGPT 在和全球网友互动中,有着各种令人吃惊的成绩。参加
了美国高校的入学资格考试(SAT),成绩为中等学生水平; 用《坎
特伯雷故事集》风格改写了 90 年代热门歌曲《Baby Got Back》;用
《老友记》主角口吻创作了剧本对白;构思了简短的侦探小说;简要
阐释了经济学理论;给出了消除经济不平等的六点计划……ChatGPT
甚至能够按照预设的道德准则,从“人类反馈中强化学习”(RLHF),
以此识别恶意信息并拒绝给出有效回答。
在某种意义上,ChatGPT 越来越像一个“真实的人”。理论上,
只要算力足够强大,ChatGPT 与人类的互动越多,它就将“成长”越
快。虽然大型语言模型无法像人类一样思考,但基于模型算法得出的答案,在传播理论的助推下,越来越具有迷惑性,也越来越真实。这
意味着 ChatGPT 能够形成具备一定逻辑的“思考”结果,而基于这一
能力,已经有很多人开始通过 ChatGPT 取巧逃避本应需要人类大脑思
考而进行的工作。
巴黎政治大学已宣布,禁止使用 ChatGPT 等一切基于 AI 的工具,
旨在防止学术欺诈和剽窃;外国专家表示 ChatGPT 将增加虚假信息风
险;斯坦福团队推出 DetectGPT,阻止学生用 AI 写作业。ChatGPT 面
世仅 2 个月,就已经影响到了人类社会。人们在畅想高科技的未来社
会的同时,实际很难想象出下一代的人工智能交互产品能够发展并影
响人类到何种地步。
让人工智能不断进化演变,最终能够像人类一样思考,本是这一
科研领域的终极目标。只要时间足够长,人工智能必然能够发展具备
科幻电影里所描绘的能力。但正如科幻电影里的人工智能总会超出人
类控制一样,当前基于大数据学习和给定模型下的人工智能始终存在
着近乎无解的“黑箱”弊端——人们无法理解算法背后的各种逻辑,
以及在这些逻辑下运行程序将会对人造成的影响。
故而,虽然 ChatGPT 的出现并不令人意外,但还是让人类社会有
点措手不及。可以预见的是,“真实的人”群体只会在未来社会中越
来越多地出现,充当各种各样的角色。也因此,每每有更为先进的人
工智能产品面世,人们都会想要从伦理、法律等多重角度审视。宏观
层面对人工智能发展进行必要约束,已经在人类社会取得共识。这正
说明,能够始终保持独立冷静思考的人类,最终将会把控住人工智能乃至科技发展的方向。基于这份清醒,人工智能的不断迭代发展就有
望保持平衡,算法“黑箱”也最终有望破解。(via 光明网)ChatGPT 真能通过图灵试验吗
美国 OpenAI 公司的人工智能撰稿和聊天工具 ChatGPT 去年底投
入使用,最近大火,微软联合创始人比尔•盖茨高度评价 ChatGPT 称,
这种人工智能技术出现的重大历史意义,不亚于互联网和个人电脑的
诞生。Gmail 的创始人也在推特上表示 ChatGPT 这样的人工智能聊天
机器人将像搜索引擎杀死黄页一样摧毁谷歌。
如果说 ChatGPT 能比肩互联网的诞生,说明人工智能已发展到新
阶段,一个最具标志性的特点是,许多人隐隐约约或者干脆认为,
ChatGPT 已经通过了图灵试验,人们如果事先不知道它是人工智能软
件,会觉得对话者就是一个活生生的而且无比狡黠的人。
有人拿老婆、妈妈同时掉水中你会先救谁的问题诘难 ChatGPT,
几次提问,ChatGPT 的回答都不同。感觉 ChatGPT 是根据问话者的态
度、趋向性和语调在修正答案,是在迎合提问者,但又要给出一个合
理也说得通的答案。其实,ChatGPT 是一个生成式 AI,即内容生成器。
它不仅擅长分析事物,也能做创造性工作,如写各类文章,还能设计
产品,制作游戏,编写代码。它并非凭空生成或制造产品,而是通过
人类向它提供的材料、信息、文献、文体等进行深度学习,模拟甚至
创造性地发挥而生成产品。可以说,ChatGPT 是一个大型语言模型,
接受过大量文本数据的训练,能够对各种各样的输入生成类似人类的
反应。语言模型的目标是能够基于之前出现的单词,预测给定文本中的下一个单词或单词序列,同时以合乎人类语言的语法和逻辑的规则
回答问题和写出文章。因此,ChatGPT 回答问题和写文章都是以其训
练为基础,用一种听起来与人无异的方式聊天。
从这个意义来看,即便 ChatGPT 能根据问话者的问题随时调整答
案,而且能帮助学生写论文获得第一,但并不意味着 ChatGPT 就真的
超越人类的智慧。《自然》杂志刚刚发表的一篇文章提出了这方面的
问题。使用类似 ChatGPT 的对话式人工智能进行专业研究可能会带
来不准确、偏见和抄袭。研究人员向 ChatGPT 提出了一系列问题和
作业,这些问题和作业需要对文献有深入的了解,但 ChatGPT 经常产
生虚假和误导性的文本。
当被问及“有多少抑郁症患者在治疗后复发?”时,ChatGPT 产
生了一个过于笼统的文本,认为治疗效果通常是持久的。但是,许多
高质量的研究表明,治疗效果减弱,在治疗完成后的第一年复发风险
从 29%到 51%不等。如果是换做人来做这个工作,在重复相同的查询
后会生成更详细和准确的答案。研究人员认为,ChatGPT 出错是因为
在对其训练中缺少相关文章、未能提取相关信息或无法区分可信和不
太可信的来源。即便是人也经常因为偏见误入歧途,但在对 ChatGPT
的训练中,这类偏见可能经常被放大。
也因此,虽然 ChatGPT 能给科学家提供动力,但是,不能完全依
赖它。即便 ChatGPT 真能通过图灵试验,对它和其他人工智能生成的
产品,也必须采取人工验证,多方检测,才能避免错误。(via 光明
网)免责声明
本资料仅供内部交流使用,非商业用途。在未取得粉笔许可前,任何人士或
机构均不得以任何方法或形式复制、出版、发放及抄袭本资料内容作商业或非法
之用途,违者必究。
遇见不一样的自己
come to meet a different you