DIVISION PHILOSOPHIQUE
AI悲观主义与暴力的哲学审视——
从Doomerism到技术末世论
18 Avril 2026 · 哲学 · AI · 技术
深夜,一个年轻人在Reddit上写道:"我们正在见证人类文明的终结。AI将取代一切,而我们只能被动接受。"这种被称为Doomerism的亚文化正在全球年轻人中蔓延。他们相信技术发展将不可避免地导致人类文明的崩溃,而自己对此无能为力。

这种悲观情绪并非空穴来风。当Google向美国移民和海关执法局(ICE)提供用户数据的消息引发热议时,人们看到的不仅是隐私危机,更是技术权力失控带来的深层恐惧。AI悲观主义正在从哲学讨论走向大众心理,成为这个时代的集体潜意识。
壹 · Doomerism技术焦虑的文化表达
Doomerism作为一种亚文化现象,反映了年轻一代对技术未来的极端悲观态度。在Reddit、4chan等平台,"Doomer"们分享着对气候危机、AI失控、经济崩溃的绝望预言。他们认为技术进步不仅没有带来福祉,反而加速了人类的自我毁灭。
这种情绪有其深刻的哲学根源。海德格尔在《技术的追问》中深刻指出:"技术不是中性的工具,而是塑造人类存在方式的根本力量"
"Die Technik ist nicht ein neutrales Mittel, sondern eine das menschliche Dasein gestaltende Grundmacht."
— Heidegger, 1954/1977, p. 12
(技术不是中性的工具,而是塑造人类存在方式的根本力量。)
海德格尔将现代技术的本质描述为"座架"(Gestell),即一种将一切事物纳入计算和支配的逻辑框架。在这种座架中,"人本身也被促逼入这种解蔽方式中"
"Der Mensch selbst wird in dieses Entbergen hineingestellt."
— Heidegger, 1954/1977, p. 27
(人本身也被促逼入这种解蔽方式中。)
Doomerism正是对这种技术支配的直觉反应。当AI算法比我们更了解自己的偏好,当自主武器系统脱离人类控制,当气候变化似乎不可逆转时,年轻人感到的不仅是无力,更是存在意义上的异化。正如法兰克福学派的霍克海默和阿多诺在《启蒙辩证法》中所言:"被彻底启蒙的世界却笼罩在一片因胜利而招致的灾难之中。"
"Die vollends aufgeklärte Erde strahlt im Zeichen triumphalen Unheils."
— Horkheimer & Adorno, 1947/2002, p. 1
(被彻底启蒙的世界却笼罩在一片因胜利而招致的灾难之中。)
贰 · 海德格尔技术批判的现实意义
海德格尔的技术批判为理解AI悲观主义提供了深刻的哲学基础。他认为现代技术的本质是"促逼"(Herausfordern),即强迫自然和人类服务于技术系统的需求。在AI时代,这种促逼达到了前所未有的程度。海德格尔警告说:"技术的危险不在于技术本身,而在于技术本质对我们的遮蔽。"
"Die Gefahr ist nicht die Technik. Es gibt keine teuflische Technik, was es gibt, ist das Wesen der Technik als Gefahr im Sinne des Verbergens."
— Heidegger, 1954/1977, p. 35
(技术的危险不在于技术本身,而在于技术本质对我们的遮蔽。)
"当非意识但高度智能的算法比我们更了解自己时,社会、政治和日常生活会发生什么?"这个问题触及了AI悲观主义的核心焦虑。算法推荐系统不仅影响我们的消费选择,更在塑造我们的价值观和世界观。正如埃吕尔在《技术社会》中所言:"技术不再是中性的工具,它已经成为一种环境,一种决定我们生活方式的力量。"
"La technique n'est plus un instrument neutre, elle est devenue un milieu, une force qui détermine notre mode de vie."
— Ellul, 1964, p. 97
(技术不再是中性的工具,它已经成为一种环境,一种决定我们生活方式的力量。)
技术的座架特性在AI军事化中表现得尤为明显。自主武器系统的伦理问题"不仅涉及战争伦理,更涉及人类对自身命运的掌控权问题"。当战争决策被委托给算法时,人类对暴力的控制权正在被技术侵蚀。波斯特罗姆在《超级智能》中警告:"一旦机器智能超越人类,我们可能失去对未来的控制权"(Bostrom, 2014, p. 123)。
叁 · 技术乐观主义与悲观主义的哲学对峙
与技术悲观主义相对的是主流AI研究界的技术乐观主义。乐观主义者认为AI将解决人类面临的重大问题,从疾病治疗到气候变化,技术发展将带来前所未有的福祉。库兹韦尔在《奇点临近》中预言:"到2045年,人工智能将超越人类智能,开启人类文明的新纪元"(Kurzweil, 2005, p. 9)。
然而,这种乐观主义往往忽视了技术的结构性风险。齐泽克的意识形态理论指出,技术乐观主义本身可能就是一种意识形态,掩盖了技术发展背后的权力关系和社会代价。齐泽克警告:"技术的真正危险不是机器变得太聪明,而是我们变得太愚蠢。"
"The ultimate risk is not that machines will become too intelligent and take over, but that we will become too stupid to take care of ourselves."
— Žižek, 2018, p. 157
(技术的真正危险不是机器变得太聪明,而是我们变得太愚蠢。)
从哲学角度看,技术乐观主义存在几个根本问题。首先,它忽视了技术发展的不可控性。正如埃吕尔所言:"技术发展有其自身逻辑,人类往往只能被动跟随"(Ellul, 1964, p. 134)。其次,技术乐观主义忽视了权力不平等问题。技术发展往往加剧社会不平等,正如威尔逊所观察:"我们有旧石器时代的情感,中世纪的制度,和神一样的技术。"
"The real problem of humanity is the following: we have paleolithic emotions; medieval institutions; and god-like technology."
— Wilson, 2012, p. 287
(我们有旧石器时代的情感,中世纪的制度,和神一样的技术。)
真正的哲学态度应该是批判性的现实主义。既不盲目乐观,也不极端悲观,而是清醒地认识技术的双重性。技术既有解放的潜力,也有异化的风险。关键在于人类能否保持对技术发展的主导权。正如斯诺所问:"技术是答案,但问题是什么?"
"Technology is the answer. But what was the question?"
— Snow, 1959, p. 16
(技术是答案,但问题是什么?)
肆 · 重建人类对技术的掌控感
面对AI悲观主义的蔓延,我们需要重建人类对技术的掌控感。这不仅是技术伦理问题更是存在论层面的挑战。正如海德格尔所言:"哪里有危险,哪里也生拯救。"
"Wo aber Gefahr ist, wächst das Rettende auch."
— Heidegger, 1954/1977, p. 42
(哪里有危险,哪里也生拯救。)
首先,我们需要重新思考技术与人类的关系。技术不应该成为外在于人类的异己力量,而应该成为人类本质的延伸。正如马克思在《1844年经济学哲学手稿》中所言:"工业的历史和工业的已经生成的对象性的存在,是一本打开了的关于人的本质力量的书。"
"Die Geschichte der Industrie und das gewordene gegenständliche Dasein der Industrie ist das aufgeschlagene Buch der menschlichen Wesenskräfte."
— Marx, 1844/1975, p. 302
(工业的历史和工业的已经生成的对象性的存在,是一本打开了的关于人的本质力量的书。)
其次,我们需要建立有效的技术治理机制。从AI伦理准则到国际技术监管,人类需要共同制定技术发展的规则和边界。这要求我们超越民族国家的局限,建立全球性的技术治理框架。康德在《永久和平论》中提出的共和制国家联盟构想,为技术时代的全球治理提供了哲学基础
"Zum ewigen Frieden: Ein philosophischer Entwurf."
— Kant, 1795/1991, p. 108
(论永久和平:一个哲学方案。)
再次,我们需要发展技术时代的批判性思维教育。在面对算法的推荐和技术的承诺时,保持独立思考的能力。不被技术的神话所迷惑,也不被技术的恐惧所压倒。正如阿多诺所言:"批判性思维是对抗意识形态化的最后防线。"
"Kritisches Denken ist die letzte Verteidigungslinie gegen die Ideologisierung."
— Adorno, 1951/2005, p. 56
(批判性思维是对抗意识形态化的最后防线。)
最后,我们需要重新发现技术的本质。技术不仅仅是工具,更是人类与世界关系的表达。当我们重新发现技术与人类存在的关系时,或许能找到一条既拥抱技术进步又不丧失人类尊严的道路。正如海德格尔所提醒的:"技术的本质根本就不是技术性的。"
"Das Wesen der Technik ist durchaus nichts Technisches."
— Heidegger, 1954/1977, p. 40
(技术的本质根本就不是技术性的。)
伍 · 结语
在技术时代保持人的尊严
Doomerism作为一种文化现象,反映了当代人类对技术未来的深层焦虑。但这种焦虑不应该导致绝望,而应该激发批判性思考。
"The ultimate risk is not that machines will become too intelligent and take over, but that we will become too stupid to take care of ourselves."
— Žižek, 2018, p. 189
(不要被恐惧所麻痹,而要将恐惧转化为批判的动力。)
技术发展不是宿命,而是选择。AI悲观主义提醒我们,技术发展必须与人类价值相协调。在算法推荐和自主武器的时代,我们需要重新思考什么是真正的人类自主性。
"Habe Mut, dich deines eigenen Verstandes zu bedienen."
— Kant, 1784/1996, p. 17
(要有勇气运用你自己的理性。)
技术的真正挑战不是如何制造更智能的机器,而是如何在技术时代保持人的尊严和自主性。正如海德格尔所言,技术的危险不在于技术本身,而在于人类对技术本质的遗忘。当我们重新发现技术与人类存在的关系时,或许能找到一条既拥抱技术进步又不丧失人类尊严的道路。
在这个技术快速迭代的时代,哲学的责任不是提供简单的答案,而是保持批判的距离,提醒我们:技术应该服务于人,而不是人服务于技术。
"La question n'est pas de savoir si nous pouvons arrêter le rouleau compresseur technologique, mais si nous pouvons l'humaniser."
— Ellul, 1964, p. xxxvi
(问题不是我们能否阻止技术这辆战车,而是我们能否使它人性化。)
参考来源
Adorno, T. W. (2005). Minima Moralia: Reflexionen aus dem beschädigten Leben(E. Jephcott, Trans.). Suhrkamp. (Original work published 1951) Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press. Ellul, J. (1964). The technological society(J. Wilkinson, Trans.). Vintage Books. Harari, Y. N. (2016). Homo Deus: A Brief History of Tomorrow. Harper. Heidegger, M. (1977). The Question Concerning Technology and Other Essays(W. Lovitt, Trans.). Harper & Row. (Original work published 1954) Horkheimer, M., & Adorno, T. W. (2002). Dialectic of enlightenment: Philosophical fragments(E. Jephcott, Trans.). Stanford University Press. (Original work published 1947) Kant, I. (1991). Perpetual peace: A philosophical sketch(H. B. Nisbet, Trans.). Cambridge University Press. (Original work published 1795) Kant, I. (1996). An answer to the question: What is enlightenment?In Practical philosophy(M. J. Gregor, Trans.). Cambridge University Press. (Original work published 1784) Kurzweil, R. (2005). The singularity is near: When humans transcend biology. Viking. Marx, K. (1975). Economic and philosophic manuscripts of 1844. Progress Publishers. (Original work published 1844) Müller, V. C. (2016a). Autonomous killer robots are probably good news. In Robot Ethics 2.0(pp. 67-81). Oxford University Press. Snow, C. P. (1959). The two cultures and the scientific revolution. Cambridge University Press. Wilson, E. O. (2012). The social conquest of earth. Liveright Publishing. Žižek, S. (2018). Like a thief in broad daylight: Power in the era of post-humanity. Allen Lane.
夜雨聆风