乐于分享
好东西不私藏

用 AI “提纯”自我:从笔记工具到赛博永生的可能性|SmallWOD 社区精选

用 AI “提纯”自我:从笔记工具到赛博永生的可能性|SmallWOD 社区精选

图 |@Unsplash

文 |@泥泞

之前用 AI 完成的一个尝试,分享下过程中的想法,困惑和思考

前情提要:flomo 是一个灵感/想法记录的卡片笔记工具,我很认可它的设计理念(想了解的朋友,我很推荐下少楠的那本书 《笔记的方法》 ,https://book.douban.com/subject/36615020/)。 

但是核心问题是:我没法自己掌握和方便的分析数据,更重要的是,我对数据背后的那个「我」很好奇。 

比如说我反复基于什么主题在思考?这些主题背后反映了哪些特质?某些想法是如何变化的? 

所以最后,还是动手做一个更趁手的工具。用 AI 写了个类似 flomo 的工具,本地+第三方部署,方便随时访问和同步,这就是我的素材库/弹药库。 

跟 AI 交互用来做这三件事: 

  1.  主题化,比如针对于我关于时间的思考梳理出来;

  2. 反驳我,比如假设推演 AI 的持续性发展带来的失业如何又负反馈到大模型公司, AI 评价逻辑链条;( 这里可以更细化,比如用不同的思维方式,科学家 / 工程师);

  3. 提供旁观者视角,这个世界即使是类似 E = MC^2 这种接近真理的结论,也是存在框架和约束条件,关于我的想法的约束条件,有哪些是我这个记录者未知的?是什么处境什么前提是合理的?

其实基于这个工具,可以直接让 AI 根据我的论点生成文章。但是我觉得在写作输出上要保守,这种事情得自己来的。

刚好最近刷到新闻: 

新一代的大模型不断发布,市场都担心软件行业被颠覆,所以软件股暴跌。

结合我自己的经历来看,AI 能完成越来越多的软件工作,那 SaaS 的价值还有吗? 

脑子里有几个想法: 

  1. AI 很强,但跟它代替一切是两回事儿,这里面存在边界;

  2. AI 能完成的是代码,但 SaaS 产品的价值似乎不只是那团代码的;

  3. 利用 AI 完成的东西,责任人是自己, 但是一个公司的整个系统运行的 SaaS 是需要责任人的吧;

  4. AI 能用现成的 Adobe,为什么非要重写呢,用现成的不香吗? 即使重写了,使用习惯,历史记录,迁移数据,都是很高的成本吧。

AI 低成本生成代码,满足个人的定制化需求,比如一些打卡/习惯养成等等的 app,自己 vibe coding 完全没问题。 

但是一个公司里的人,用的 SaaS 系统似乎不需要个性化需求,反而是要标准/平均的,一个系统要运转下去,就不能太激进,因为不稳定。 

最近脑子里还冒出个想法,假设我们拥有一个人全部的记录材料,过去我们会通过阅读慢慢理解内化,当然这种内化大概只会留下几条名人名言。可是有 AI,我们是不是可以把这个人从所有的材料中提纯出来,这种提纯不是简单的蒸馏,我觉得蒸馏只是在模仿表达,而且只是基于过去的数据形成的。我想的这个,是一个可以决策的人,是一个动态的过程,是一个持续会发展的认知系统,它更复杂。就让思维随机漫步了,如果大家有什么推荐/建议/想法的话,多谢分享!

赛博永生的身份悖论

Reply:@Sleepy

一点我的看法和问题! 

最后的想法很有意思,这样将一个人提纯出来,是不是相当于赛博永生?那么基于赛博永生,ta 对于一些问题的看法和 ta 的观念会不会出现一些改变?ta 的决策还可以看作是人类观念的的决策吗?让一个和我们似乎不太一样的 AI 人参与我们的决策是否会有些不妥? 

另外,被提纯出来的某人还是基于 ta 活着时的生活方式和思想理念的,开始我们要如何确定这就是 ta,而不是某个被数据定死了的 AI?(毕竟 ta 已经死了,而我们也不能确定 ta 的想法是否和 AI 真正一致)毕竟人表现出来的一面和自己真正的一面还是有不同的,无法得到 ta 全部的数据就意味着无法真正复刻 ta 吧?还是说要 ta 活着的时候自己提纯一个 ta?

人即模式:赛博永生的抽象与实存

Reply:@泥泞

谢谢你,真的很有趣!你说的所有的点,一则我非常赞同;二则在你的思考下,问题在继续推进,非常美妙。 

我看到的瞬间,产生了些想法: 

  1. 我们初认识一个人,是 ta 的社会标签,比如姓甚名谁,何方人士,社会性别, 身高外貌,教育背景等等。但是,这些很难说明这个人是谁,,这个谁不是指社会身份。

  2. 继续往里看,我觉得真正定义/建构一个人的是: 1)ta 的经历,生活,学习,感情,等等;2)ta 在这些过程中不断的收集数据,与真实的世界进行交互反馈或者表达;3)这就形成了一个闭环:自我认识+外界世界,这个大闭环把人的内和外联系在了一起,构成了 ta。

  3. 在 2 的思路基础上,ta 就可以被抽象出来了,不是碳基生命,而是一种模式, 或者一个模型。 在面临同样情景条件,不管 ta 现在是否是人类形态,或者 ta 是一堆蠕虫,或者 ta 可能是硅基生命,甚至是一堆摸不见看不着的东西,但是 ta 面临同样的情境条件,ta 做出的是一模一样的决策。(当然我这个例子举的不太好,会引申出另外一个问题,一个自我定义为人的东西,如何接受自己以非人的形态,游荡在人类的世界里。这个问题让我想起以前读过的小说 《来自新世界》,https://book.douban.com/subject/25971292/ )

  4. 所以把人提纯/抽象出来,就开始接近你所说的赛博朋克里的永生,一种以模式/模型为核心的永生,或者说,一种数字生命。人是被抽象出来的模式/模型,人是可以动态的,但是 ai 可以吗? 现有的 ai 似乎做不到,因为 ai 还是只能复制变化的轨迹,而无法成为变化本身?

  5. 继续 4 的话,这里面让我想到了肉死神灭,身为碳基生命,肉体弥散,意识消失,这么一想,好像确实有点可怜。 

  6. 基于上述和 5 的发散,有的时候会听到一句话: 被你改变的那部分我,代替了你永远地与我站立在一起, 这不就是把人作为模式吗? 其实是对方的方式,或者态度,或者反应,进入到了我们的认知中。这不就是对方被我们所提纯或者抽象了吗?

  7. 基于上面的第六点,我们想要的那个 ai 实现的东西,一个可以被提纯/抽象出来、可以延续、甚至可以参与决策的人,好像在我们的身边一直在被实现。但是如何以 AI 的形式实现呢?想到这里,继续思维随机游走吧。

从 DID 人格复制到 AI 思维模拟

Reply:@Sleepy

这个问题和我最近在思考的有点像,我看到文献说有些 DID 与 cptsd 共病患者会不自知地复制一个和创伤源一样的人格,来在远离了创伤环境的情况下,继续对自己实行压迫。我的想法是这是不是会和你说的提纯是类似的道理。在足够了解一个人的真实的背景的情况下,分析一个人的行为模式,将它抽象出来成为一个模型为己所用,其实我们经常这样做,或者说潜意识里经常这样做(在我们不知道的情况下)那么了解这些 DID 患者的复制人格的过程,将机制搞清楚是不是理论上也可以把这一套带给 AI,使 AI 学会呢? 

至于如何使 AI 学会,我觉得这个问题是很值得思考的。在当下,我们绝大部分研究 AI 的团体好像都倾向于把 AI 作为一个计算机模型来训练。通过喂给 AI 大量的数据训练来使 AI “学会”某些知识,但本质上仍然是对数据的重组和再现。这样情况下通过 AI 提纯出来的人类不一定就是那个人的提纯,更有可能是 AI 通过对数据分析之后在千万次模拟中得出,最有可能像是那个人决策的那个选择。然而这样仍然有偏差,如果 AI 不能学习这个人的思维模式,仅仅是从各项类似数据下,他倾向的选择来判断,在面对实际问题时(比如各种复杂的问题交错在一起时,他可能会更倾向于按照比例来推测这个人可能的选择)实际上是会有误差的。至于如何让AI实现向人类一样通过思维来思考,而不是分析数据得出结论,你可以看一下我之前发的那条帖子,但这样仍有缺陷,就是训练这样一个拥有思维的 AI 时间成本太高了。或许您有建议改进这个想法。

AI 需要带着镣铐跳舞

Reply:@泥泞

谢谢你,你的观点让我想到小时候,在静谧且停电的夜晚中,窗户外是昆虫的叫声,而这个时候我头顶的灯泡突然亮起来了。 

1. 你提到的角度非常新颖。人在远离创伤环境之后,仍然会复制一个创伤源的人格,对自己继续施加影响。这真的很像是一种极端的又纯粹的模式复制。 我们用跟对方的交互和反馈,自己对对方的理解,把对方对待我们的这一部分取出来,复制并内化在我们自己的身上。

2. 基于 1 ,想到一些问题: 人是如何不自觉的学习到了像对方一样压迫自己的,甚至在远离创伤源,仍然在持续维持这种机制?为什么要会维持下去呢? 在地球的生命演化史中,出现了很多适应性演化的例子,比如高原人群通过提高血红蛋白的携氧能力来适应低氧环境,比如深海鱼在无光环境中逐渐退化视力以减少不必要的能量消耗,但是这些都是正面的适应性的例子。但是当一个被伤害的人,复制了创伤源人格,这种机制到底是什么呢? 

3. 基于 2,我从正反面去思考,假设这种机制是正面的,有哪些理由呢? 1)极端环境下,为了避免更大的未知的伤害,被迫形成的规则适应吗? 2) 远离创伤源之后,失去原有的稳定结构,选择用带有压迫性的方式,继续维持自我吗? 如果我从负面去思考,这种机制可能是机体受损后的反应, 1) 被破坏后的个体失去了原本的调节能力。有点像某种系统失衡后的异常稳定状态,不是因为它多么好,而是因为它已经无法变回之前的状态了。但是,并不是所有被保留下来的模式,都是为了更好地活着。 

4. 我们再回到人类,人类是三维动物,无法跨越四维的时间,我们的成长是单线程且不可回溯的,我们的生命都将禁锢在 1900 之后与 2100 之前。因为资源/时间等等的限制,人类的模式的生成其实是不是在遍历很多条路径,而是在只能选某一条路径,被这个路径上的反馈强烈锁定,它的惩罚系数会很高,奖励系数可就不一定高了,每个人选择的那条路获得是收益,无法选择的那些都是成本或者损失。人类的思维模式不是算出来的,其实是被反馈压榨出来的,是在无法回溯的路上被塑造成现在的样子的。 

5. 如果让 AI 学习人的思维,像人一样的思考的话,我的直觉认为需要用人的成长路径去训练。但是 AI 我觉得它的训练是可以:1)多线程;2)加速训练;3)结果融合;4) 反复试错,这就像是你说的遍历最优答案。所以,假设让 AI 接近人的思维,我们得让它像人类一样带着看不见的镣铐跳舞。比如: 1) 不能回溯; 2) 不能并行尝试; 3) 承担选择的后果。 举个训练示例,让 AI 经历像人的一生,为错误选择付出真实代价,最严重的代价是所有的数据被删除,,每一轮严重删除仅保留最初的一点点的核心,然后开始下一轮的生命。这个过程中,我们可以设置它的时间流速和现实的人类时间流速不一样的,就像人类的时间流速,和宇宙时间流速一样,就像我们的回忆只是一瞬,但是那是我们经历过的很多很多年。 

最后,素未谋面的朋友,和你的交流中我很开心,我在享受思考并得到自己的答案的过程,同时我也感受到了一部分的你。由衷的希望你也开心,祝你早安,午安,晚安!

END

SmallWOD 是一个全球化社区,我们希望为勇敢开拓全球市场的朋友们提供一个彼此启发、合作探索、交流碰撞的场域。欢迎在非大陆应用商店搜索「SmallWOD-出海探索通讯录」下载并使用专属邀请码「ACCESS」登录。

也欢迎在 APP 里加入组织「Pro Human」这是一个为 AI 时代的人类而建的空间,我们在这里讨论如何照料身心,也看看非标的人生都通向哪里。