AI在帮你的同时,但也正在偷走你的一种能力!


由:熊晓鸽、李开复、阎焱、龚虹嘉、朱啸虎等投资巨擘,提供实战股权投资课程。助力优秀企业实现价值最大化,优质资本与资源的完美融合。
招生对象:
1.寻转型突破的企业家、高成长企业创始人、公司股东/高管;
2.各行业领域、不同投资阶段的投资人,优秀家族/企业的继承人。
附:加入一线投资圈,快速建立行业核心人脉。

内容来源:笔记侠(Notesman)。
思维方式
笔记君说:
黄仁勋说:现在,智能正在变成一种廉价商品。
一、AI最大的问题,不是“不够聪明”
你看,出事的不是新手,是执业多年的资深律师。他们不是不懂法律、不缺经验、不没有判断力——但照样被AI骗了。
这说明什么?
AI最大的问题,不是它不够聪明,而是它太会“编”了。
现在的大语言模型在生成内容时,有一个致命特性:它们不是在“回忆”事实,而是在预测“最可能出现的文字”。
它一旦预测错了,输出的就是一段听起来非常正确、逻辑自洽、但完全虚构的内容。
学术界给这种现象起了个名字:AI幻觉。
幻觉不挑人,一个初出茅庐的法学生可能被骗,一个身经百战的律师照样被骗。
在AI面前,专业人士和普通人的起点是一样的,都是面对一堆“看起来很真”的信息。
这才是AI时代最反直觉的地方:知识变得前所未有的廉价,但真知识反而前所未有地稀缺。

1945年,哈耶克在《知识在社会中的利用》中写道:真正重要的知识,往往散落在具体的人、具体的经历里,没法被完整写下来,更没法集中存放。
他当时是在批评中央计划经济的思路,那些坐在办公室里的人,以为自己掌握了足够的信息,可以替整个社会做决定。但其实是脱离了真实的市场环境,制定了一堆错误政策。他把这称为“知识的傲慢”。
但我们要说明一下:那些AI编造的判例、伪造的数据、胡编的学术引用,它们不是知识,是假信息。
所以,我们现在的问题不是知识“分散”了,而是可信知识的溯源能力变得前所未有地稀缺。
当你用AI的时候,看到一段论证严密、引用丰富的分析,你的第一反应是什么?信,还是不信?
如果你觉得“AI不会出错”,然后照单全收,那你和上面那两位律师一样。
现在,我们溯源核查的能力比知识本身更稀缺。而这种能力的丧失,正在悄悄侵蚀我们最核心的判断力。
二、判断力,是什么?
AI能给你答案,但不会告诉你这个答案从哪来的,靠不靠谱。
判断力不是“做决定的能力”,而是在信息不完整的情况下做出选择,并为这个选择承担后果的能力。它包括三个层次:
第一层,是分辨。
在假信息泛滥的时代,分辨的首要任务是溯源和核查:
这个信息从哪来的?有没有原始出处?能不能交叉验证?一个东西”看起来像知识”,不等于它就是知识。
这个信息该不该信?这个数据靠不靠谱?
这个“专家”是在陈述事实还是在推销观点?
分辨需要你脑子里有参照系,知道什么是正常、什么是异常,什么是常识、什么是忽悠。这个参照系和核查意识,来自长期的经验积累,也来自对自己认知边界的清醒认知。
第二层,是关联。
同样一条数据,对A公司是机会,对B公司可能是坑。为什么?
因为A和B的资源不同、目标不同、历史包袱不同。别人的成功经验放到你的公司,可能就是毒药。
这种“具体情境”的判断,没法从书本上学,也没法从AI那里直接拿到,只能在具体的事情里反复打磨。
第三层,是承担。
判断的最后一步,是你得为结果负责。
AI给你一个建议,你可以采纳,但你没法让AI替你承担后果。产品卖不出去,AI不会扣工资;战略决策失误,AI不会下课。
谁承担后果,谁就有判断力;谁把判断权交出去,谁就在推卸责任。
这三层加在一起,才是完整的判断力——在具体情境里做选择并承担责任的能力。
三、保护判断力的3个方法
2.怎么做,才能保护好自己的判断力?
其实核心逻辑特别简单:让AI充分辅助你,但绝对不能让它替你走完完整的判断过程。
下面给大家分享3个实打实的、已经被国内国外大厂跑通落地的方法,每一个都有一线的实践,照着就能用。
遇到任何问题,先逼着自己拿出个“初稿”。
哪怕这个初稿很糙、有漏洞都没关系,先把你的想法、直觉、拿不准的地方,明明白白写出来。等你自己先有了思考的起点,再去问AI,让它给你挑毛病、找漏洞、补你没考虑到的角度。
这是让你自己的思考“先跑一遍”。AI能帮你打磨想法,但绝对不能让它替你生成思考的起点。
这套方法已经在有赞的产品研发、功能立项里做成了硬性规矩。
很多产品经理最容易犯的错,就是老板问一句“咱们要不要上线这个新功能”,转头就去问AI“这个功能要不要上”,AI给一堆分析,自己都不细琢磨,就直接转发给老板交差。
有赞的产品经理,是怎么做的?
先不碰AI,先在文档里老老实实写清楚:
我自己的判断是什么?我觉得该上还是不该上?核心依据是什么?是用户真实需求?还是能带来商业化价值?我最大的顾虑是什么?最拿不准的地方在哪?
甚至连上线之后的风险预案,都要先自己写个大概。等把这些全写明白了,自己的判断完完整整摆出来了,才能去用AI。
蓝色光标要求所有团队提交的营销素材、策划方案,只要用了AI,就必须在文档里用批注标得明明白白:
①哪些内容是AI原生生成的;
②哪些地方是人工修改的,每一处修改都要写清楚核心理由;
③针对AI给的建议,你没采纳的,必须写明白“我为什么不用AI的这个版本”,是不符合客户的品牌调性?还是没踩中用户的核心需求?还是创意方向不对?
这就逼着创意人员,从“AI内容的搬运工”,变回了“创意判断的决策者”。
你要写清楚修改理由,就必须先把AI的内容看明白,再结合客户的需求、品牌的调性,形成自己的判断,不然你根本写不出来为什么改、为什么不采纳。
人保寿险以季度为周期,把所有AI辅助审核的可疑交易分析报告,全拿出来复盘。
复盘的核心,是盯着三个问题:
①当时AI给了什么样的风险评级建议,负责的风控专员自己的人工判断是什么,做了哪些修改;
②最终这个案件的核查结果是什么,到底有没有风险;
③哪些风险特征,是AI识别不出来,必须靠人工经验判断的?人工判断的核心依据,能不能沉淀下来,变成可复用的标准?
就这样通过一次次复盘,不断沉淀、不断完善,形成了“AI提效+人工兜底”的良性循环。
结语

来源|笔记侠
声明|本公众号所提供信息仅供参考,如有侵权请联系我们删除。

沙丘投研院股权投融资实战黄埔班
(点击查看项目详情)
声明|本公众号所提供信息仅供参考,如有侵权请联系我们删除。

沙丘投研院股权投融资实战黄埔班
(点击查看项目详情)

沙丘投研院股权投融资实战黄埔班
(点击查看项目详情)

夜雨聆风

