揭秘AI训练师的一天,他们到底在做什么?
早上九点,一个人坐在电脑前,屏幕上打开的不是代码编辑器,也不是PPT,而是一段AI生成的文字,他盯着看了三秒钟,然后在旁边的表单里打了个叉,写下,「这个回答逻辑跳跃,没有充分理解用户意图」。
早上九点,一个人坐在电脑前,屏幕上打开的不是代码编辑器,也不是PPT,而是一段AI生成的文字,他盯着看了三秒钟,然后在旁边的表单里打了个叉,写下,「这个回答逻辑跳跃,没有充分理解用户意图」。这个动作他今天要重复几百次。这就是AI训练师的工作日常。
很多人听到「AI训练师」这个职位,第一反应是,哇,好高大上,一定是在写算法、调参数,跟机器说话。但实际上,这份工作的核心是人,而不是机器。说到底,他们干的事情,是用人类的判断力去喂养AI的判断力。听起来有点哲学,但操作层面其实非常具体,甚至有点枯燥。
先说说他们每天接触的工作类型。大体上分两块,一块叫「标注」,一块叫「评估」。标注是给AI提供训练素材,比如写一段示范性的对话,告诉AI遇到用户问「帮我写封辞职信」的时候,一个好的回答应该长什么样。评估是对AI已经生成的内容打分,哪个回答更准确、更安全、更有帮助,哪个回答有偏见或者有害,都要人来判断。Anthropic、OpenAI这些公司,还有Scale AI这样的专业数据服务公司,都在大量雇用这类人力。Scale AI在全球有几十万标注员,这个数字放在那里,你就能感受到这件事的规模有多大。
但这里有个常见的误解需要拆一下。很多人以为AI训练师就是「批量打标签的流水线工人」,点点点,选选选,没什么技术含量。这个理解大概只对了一半。初级的标注工作确实门槛不高,大量外包给了东南亚、非洲、拉美的低成本劳动力市场,肯尼亚、菲律宾有很多人在做这类工作,时薪可能只有几美元。但高阶的AI训练师,其实需要非常强的领域知识。你去训练一个医疗AI,你得真的懂医学,才能判断它给出的建议是不是在胡说八道。你去训练一个法律AI,你不懂法律条文,你怎么知道它的推理有没有漏洞。OpenAI在招募训练师的时候,明确列出了需要哲学博士、法学博士、理工科背景的人,这些人的工作,跟点击流水线完全是两回事。
顺着这个再聊聊,这份工作里最微妙、也最容易被忽视的部分,是价值观的植入。AI训练师在做评估的时候,不只是在判断「对不对」,更是在判断「好不好」。这两件事差别很大。一个AI回答「怎么减肥」,它可以给出医学上正确的建议,但语气是否尊重用户,是否避免了对体型的污名化,是否考虑到了用户可能有饮食失调的风险,这些都是「好不好」的范畴。训练师在做这些判断的时候,其实是在把自己的价值观,或者说,公司要求他们传递的价值观,编码进AI的行为模式里。你想想看,这意味着AI最终呈现出来的「世界观」,在某种程度上是这些人塑造的。这件事的影响力,远比大多数人意识到的要大得多。
说真的,这份工作有一种很奇特的张力。一方面,它高度重复,同样类型的问题你可能要评估几十上百遍,心理学上叫「决策疲劳」,长期下来对判断力是有消耗的。TIME杂志曾经做过一篇深度报道,揭露了为OpenAI做内容审核的肯尼亚外包工人,他们需要反复阅读暴力、色情等有害内容并打标,不少人出现了心理创伤。这是这个行业真实存在的黑暗面,不是说说而已。另一方面,高阶的训练师又需要极度专注和深度思考,每一个评估决策背后都有复杂的权衡。同一份职位名称,包裹着两种完全不同的工作体验,这在其他行业很少见。
回到这份职业本身的位置来看,有一点我一直觉得挺有意思,AI训练师是一个「因AI而生,又可能因AI而消亡」的职业。现在之所以需要大量人力,是因为AI还不够好,需要人来纠正它、引导它。但AI越训练越强,某些低阶的标注工作已经开始被AI自动化替代了,也就是用AI来训练AI。这个循环听起来有点诡异,但它正在发生。那结果会怎样呢,人类在这个链条里的角色会越来越边缘化,还是会往更高层的判断工作上迁移,现在还真不好说。
有一种观点认为,AI训练师是「数字时代的隐形劳动者」,他们的工作成果融进了每一个AI产品里,但用户永远看不见他们。你每次跟ChatGPT聊天,觉得它懂你、回答得体,背后是无数个人花了无数小时告诉它什么叫「得体」。这层劳动是真实的,只是被技术的光芒遮住了。
这份职业让我觉得,AI的智慧,其实是人类集体智慧的一种投影。它聪不聪明,很大程度上取决于那些训练它的人有多聪明,有多认真,有没有偏见。下次你在用某个AI产品的时候,不妨想一想,在它生成那段回答之前,可能有个人在地球的某个角落,认真地盯着屏幕,想了很久,然后打下了一个判断。那个判断,塑造了你今天看到的答案。
这份职业让我觉得,AI的智慧,其实是人类集体智慧的一种投影。它聪不聪明,很大程度上取决于那些训练它的人有多聪明,有多认真,有没有偏见。下次你在用某个AI产品的时候,不妨想一想,在它生成那段回答之前,可能有个人在地球的某个角落,认真地盯着屏幕...
夜雨聆风