如何将人工智能从工具转变为合作伙伴丨AI时刻



关于人工智能在职场中的应用,一直以来都充斥着一种过于简单的说法:机器终将取代人类。但那些真正利用人工智能取得成效的组织已经完全超越了这种框架。他们明白,最有价值的人工智能应用并非在于取代,而在于协作。员工与人工智能系统之间的关系正在经历不同的发展阶段,每个阶段都有其自身的特点、机遇和风险。了解您的组织在这一发展进程中所处的位置以及未来的发展方向,对于充分发挥人工智能的潜力并规避其潜在风险至关重要。
第一阶段:工具和自动化
大多数组织都从这个阶段起步。在这个阶段,人工智能系统执行一些独立的、例行性的任务,而人类则保持完全的控制权和决策权。人工智能主要作为一种生产力工具,处理参数明确、定义清晰的任务。
例子比比皆是:自动对收到的信件进行分类的文档分类系统、回答标准客户咨询的聊天机器人、优化会议安排的日程助手、从表单中提取信息的数据录入自动化系统。
这一阶段的关键特征是人工智能在狭窄的范围内运行。人类负责指导整体工作流程并做出所有实质性决策。人工智能处理烦琐的部分,使人类能够从事更有价值的工作。
现阶段的首要伦理考量在于确保准确性并防止自动化流程造成伤害。当人工智能系统自动处理客户投诉或标记待审核的申请时,错误可能会影响到真实的用户。各组织必须实施质量控制和监控,以便在错误造成损害之前将其发现并纠正——尤其要关注那些可能难以应对系统错误的弱势群体。
第二阶段:增强和建议
随着组织对人工智能系统的接受度不断提高,他们通常会发展出这样的模型:人工智能不仅可以执行任务,还可以提供分析和建议,从而为人类决策提供信息。
在这个阶段,预测分析工具可以识别客户行为中涌现的新模式,从而支持更积极主动的业务策略。风险评估系统可以分析历史数据,以标记潜在的合规性问题。人工智能驱动的诊断系统可以提示设备故障或患者症状的可能原因。
关键的区别在于,虽然人工智能可以通过在过于庞大的数据集中发现模式来产生人类无法独自产生的见解(这些数据集大到任何人都无法分析),但人类的判断仍然是解释和运用这些见解的最终权威。
新的风险由此产生。过度依赖人工智能推荐会带来真正的危险。确认偏差可能会悄然滋生,人们会选择性地接受与自身既有观点相符的人工智能见解,而忽略那些挑战其假设的见解。
现阶段负责任的做法要求人们了解人工智能是如何得出其建议的——它使用了哪些数据进行训练,训练后可能发生了哪些变化,以及是否存在任何偏见的嫌疑。人们因为不理解或不信任人工智能的建议而拒绝它,其问题与盲目接受错误建议一样严重。
第三阶段:合作与伙伴关系
这一阶段标志着一种更为根本的转变。机器任务和人类决策不再泾渭分明,而是人类和人工智能组成团队,彼此能力互补,共同承担责任。
这种关系变得灵活且互动。人工智能系统会根据人类反馈积极调整自身,而人类也会根据人工智能生成的洞察来调整方法。“人工智能工作”和“人类工作”之间的界限变得模糊不清。
设想这样一种应急响应场景:在危机发生时,人类团队与人工智能系统协同工作。人工智能持续监控多条数据流——天气模式、交通状况、资源可用性、历史响应数据——并提出资源分配建议。人类可以根据系统无法获取的背景信息,接受、修改或否决这些建议。人工智能从这些人类干预中学习,从而改进其未来的建议。人类也逐渐形成直觉,判断何时应该信任人工智能,何时应该依靠自己的判断。
这正是问责机制真正变得复杂的地方。当结果源于人机协作时,谁该为错误负责?如果人工智能推荐了一项行动方案,人类批准了该方案,但最终却出了问题,那么责任归属就远非那么简单明了。
处于这一阶段的组织需要新的治理框架,既要保持清晰的人员责任划分,又要促进富有成效的合作。这不仅仅关乎确定法律责任,更是维护组织内部以及与外部利益相关者之间信任的根本所在。
第四阶段:监督与治理
最先进的关系模型由人类设定参数、提供监督和管理例外情况,而人工智能系统则自主处理日常操作。
这标志着与早期阶段相比发生了重大演变。人类的角色从直接执行任务或做出决策,转变为专注于设定界限、监控绩效并在必要时进行干预。
人工智能系统可以根据既定政策自主处理保险索赔,只有异常案例或随机抽取的决策才由人工审核,以确保质量控制。交易算法可以在预设参数范围内执行交易,人工监管人员则负责监控异常情况,并根据市场状况的变化调整限制条件。
效率提升可能非常显著,但风险也同样巨大。
在这个阶段,“自动化自满”的风险显著增加。人类监管者可能无法对通常运行正常的AI系统保持适当的警惕。当你监管的系统99%的情况下都能做出正确的判断时,要对那1%需要干预的情况保持警觉,在心理上是很难的。因此,组织必须实施健全的监管机制,使人类真正参与其中,而不是仅仅扮演名义上的监管角色。将错误识别和纠正游戏化或许能提供一条有价值的途径:在几乎不会出错的高可靠性系统上叠加一层游戏化的错误机制,以捕捉那些“疏忽大意”的监管者。
驾驭进步
并非每个组织都需要经历所有四个阶段,组织内的每个职能部门也并非都应该处于同一阶段。人机协作的适当程度取决于所涉及的利害关系、人工智能技术的成熟度以及组织的治理能力。
涉及重大利益的决策——例如影响人们权利、安全或重大经济利益的决策——通常比日常行政工作需要更多的人工参与。人工智能的新兴应用,由于其技术局限性尚未被充分理解,因此比那些拥有成熟应用记录且业绩卓著的应用更需要严格的人工监督。
但无论你的组织在这个光谱上处于什么位置,某些原则都是普遍适用的:
了解人工智能的能力和局限性。在每个阶段,有效的协作都需要人们不仅了解人工智能能做什么,还要了解它可能在哪些方面出现故障。随着人工智能系统自主性不断增强,这种理解的重要性只会与日俱增。
保持有效的人类问责机制。随着人工智能能力的提升,人类必须对重大决策负责这一基本原则不会改变。改变的是问责机制的构建和实施方式。
面向演进的设计。人类与人工智能系统之间的关系并非一成不变。随着人工智能能力的提升以及对人机协作在其特定环境中运作方式理解的加深,各组织应构建可适应性强的治理框架。
重视人的因素。即使是最先进的人工智能系统,如果与之协作的人员不了解如何有效合作,其价值也十分有限。培训、文化建设和组织设计与技术本身同等重要。
在人工智能时代蓬勃发展的组织,并非仅仅是那些部署了最先进系统的组织,而是那些掌握了人机协作艺术的组织——它们懂得何时依赖人工智能的能力,何时坚持人类的判断,以及如何建立能够充分发挥双方独特优势的伙伴关系。
来源:改编自费萨尔·霍克、埃里克·纳尔逊、汤姆·达文波特等人合著的《重塑政府:实现人工智能的承诺》(Reimagining Government: Achieving the Promise of AI ),Post Hill出版社,于2026年1月出版。
本文由君联编译,不代表君联观点。
拓展阅读
1
3
4
5



夜雨聆风