

五、我国监狱AI技术的“潜在风险”
中国监狱的AI有别于欧美监狱“人权至上”或欧盟“伦理优先”模式,但欧美AI数据治理所遇到的问题或质疑,也对我国监狱数据技术的发展提出了同类警示或启迪,我们依赖本国的制度自信、文化自信,走“坚持发展和安全并重、促进创新和依法治理”的跨越之路这没有错,但在追求监管效率、安全稳定与改造质效的工具理性目标时,如果“技术路线”一旦跑偏,同样也会带来一些隐性风险,它与保障罪犯人道性、教育性与法治性权利的价值理性之间,依然面临着技术、制度、伦理、实践四个层面的多重矛盾与挑战。
(一)技术层面的核心困境
1. 走进算法黑箱的司法雾幛。人工智能算法,通常是指计算机程序模拟人类的智能行为和学习能力所产生的规则集合。欧盟《可信赖人工智能伦理准则》将其定义为,通过数据采集、推理决策、采取行动的软件系统的核心组成部分。数据驱动、不确定性、模型推断、难以解释是算法的核心属性,AI技术本身就具有复杂性、类人性、危险性与不透明性。所谓“算法黑箱”,是指AI系统内部决策过程不透明、难以被人类理解的现象。这里的算法黑箱对司法的“冲突”有两层意思,一是AI算法的不确定性、难以解释性本身所固有的技术上的黑箱冲突;二是AI应用于监狱特定场景后,因法律与行业禁令所产生的不能公开或半透明性的冲突。
本土监狱对罪犯管理的法律法规、部颁规定、相关细则等是依法公开的,但对AI技术的具体应用场景与目的方法是否公开,往往要视情而定,有些必须公开,有些秘而不宣。这是基于国家本位的监管安全与避免司法失败的利益考量。正如公安刑侦部门利用大数据去具体锁定犯罪嫌疑人一样,警察不可能事先让嫌疑人知道他是如何被抓的;如果你拿着欧美国家的所谓“人权法案”来评价中国的司法与侦查制度,那就解释不通;因为欧美的“人权逻辑”是将个人权利、程序正义挺在国家利益之上。要承认20多年来,有些“白左”法律思潮左右了我国刑事司法制度的某些变迁,而本土监狱依然要以实体正义为重,理性看待程序正义,同时要限制狱政权力的随意扩张,这才是应用AI的均衡底线。科技向监管领域的渗透,对哪些警务信息可公开,哪些应保密?决策层对此应及时出台可解释的权威文本。
监狱对重点人的管控仅限于内部操作,被列控的人即便在分类处遇的结果上他是知情的,也是公开的,但将其列为重点对象的依据他并不知情,由此产生狱政、侦查、教育的相应后果也是不同的。而AI模型的"黑箱" 特性,也自然有它可能导致-----生成的风险评估、分级处遇、奖惩建议等决策,难以向罪犯清晰解释,或是否有必要向他做出解释?所以,在邦德看来,一是多用于侦控的技术信息必须保密,不能让特定对象知道;你能说我国“背靠背”的侦察行为侵犯了人权吗?不能。但是侦查程序是公开的;二是要警惕AI的算法缺陷与黑箱操作所导致的监管误判,这倒是监狱要引起高度重视的。基于这两点,那么罪犯面临AI技术的所谓申诉权,就要具体情况具体分析,不能一概采用欧美的“人权模式”来衡量本国罪犯的知情权与申诉权,否则就会与中国的监狱制度“撞车”,甚至会导致罪犯“上屋揭瓦”。
但这一逻辑,并非否定当罪犯因无法理解"算法建议"并受到对他不利的奖惩处理时,其申诉、辩解和获得公正审查的权利。当计分考核与减刑条件的数据产生错误,或因AI的错误算法导致其被列为心理画像的“黑名单”,并由此带来处遇档次与改造生活的不公,他当然有法定的复查权与申诉权。如果剥夺了罪犯这项权利,那么对AI的数据黑箱就难以有效掌控与澄明,从而违背了司法透明与以理服人的原则。从上述逻辑自然可得出两个结论:一是监狱必须公开列出AI技术的使用范围、项目与罪犯具体申诉+复议的条款;二是要树立以人为本+以人为主的指导思想,减少并避免对技术依赖的执法风险。监狱如果过度依赖AI预警系统,必将弱化民警的独立判断能力,从而出现"唯算法论" 倾向,导致监管执法的僵化与偏差。
2. 产生算法偏见的多重成因。邦德2025曾在监狱部署AI软件一文中,提出过六个必备条件,详见链接:当前监狱应用AI软件应创造哪些条件?其中就谈到了数据采集的量少质弱问题应引起高度重视。
第一,数据质量的管理薄弱,会导致AI算法的结论失误。大数据分析的前提是必须拥有高质量的数据,无论是信息警务还是AI技术的模型迭代,它都要求监狱对自身数据进行有效搜集、管理和清洗,除噪声与重复等,以确保基础数据的准确性、完整性和一致性。可事实上,监狱多年来对跨业务部门用于集成分析的软件与分类网页的开发明显滞后,“指挥中心”还没有完全升级为信息指挥中心,即便你想导入AI模型,其智能分析所依赖的数据本身不完整,从而会直接影响预测或评估结论的精准性、全面性、实效性。
第二,技术适配的场景局限,会导致AI算法偏差。本文列举的福建仓山监狱的大语言模型试点,官方报道称,该监狱通过融合深度学习算法与混合专家模型架构,实现了多场景应用,这说明他们解决了技术适配问题,至于业务适配度如何,尚需后续实证加以检验。又如AI用于狱侦刑嫌调控的建模与适用,由于体制壁垒与行业封闭,狱侦部门长期缺乏与地方公安、社会基层组织的信息互动,导致预测的数据信息十分有限,这就是场景局限给AI技术带来的先天不足;此外,对罪犯异常行为识别的准确率如何,还因狱内场景的光线变化、遮挡、多人互动等复杂环境导致AI误报率高,如将罪犯的正常肢体接触误判为打斗,增加民警的无效工作量。
第三,跨模态融合技术的不足,会影响AI适配度。许多监狱对语音、文本、图像等多源数据的整合分析能力是有限的,难以全面准确评估罪犯心理状态和改造效果。如果要说实话,如今监狱的心理咨询+教育部门是否有这方面的专门人才?这一问题与该行业长期受技术、人才、资金、体制、文化、基层警务等多因素的羁绊有直接关系。即便本文推送了相关典型案例,但许多基层民警心里是有数的,他那所监狱对开源数据的整合分析能力到底如何?再如,低文化程度的罪犯适配AI模型也很困难,部分AI对那些文化程度低、素养差的罪犯可能不够友好,影响其参与度与预测值。
第四,外包公司或监狱自主研发的AI模型算力不足。算力的强弱取决于数据存量与模型的适配度,如果存量不足,必然导致训练数据的偏差,即所谓的“空壳效应”或“干瘪效应”。美国天普大学刑事司法学教授杰瑞· 莱特克里菲认为,情报主导警务的十项准绳之一,就是要确保数据充分、完整、可靠、有效,以通过高质量的情报成品影响决策,如果让决策者对情报产品建立信心并说服他们,可靠有力的数据系统至关重要。另外,因前期基础数据信息管理乏力,受数据差异化投送的影响,也可能导致AI对特定群体形成"标签化"误判,从而影响安全措施与矫正方案的选择,损害刑罚公正与改造质效。
3. 数据安全与隐私保护的失衡?监狱用于防控、侦查、教育、医疗等正当国家利益+社会利益的罪犯生物信息采集,不仅受法律保护,而且还必须得到加强,包括与公安的警务协作与深度应用。但同时也须注意防范敏感数据的泄露。当监狱采集的生物特征、通信记录、会见信息、心理测评等高度敏感的数据,如果数据安全管理的制度缺失、数据存储不当、网络越权访问或受到外部攻击时,这将可能影响罪犯服刑期间与回归社会后的正常生活,甚至引发网络负面舆情。因此,监狱对数据采集的隐微性问题,必须拿出具体的防范措施:如禁止因布局不当、主体失格、程序违规、管理失控所带来的AI数据泄密与滥用;或可能超出法定范围,侵犯罪犯的人格尊严和隐私权利。过去监控领域的那些法治与伦理盲区,那些很难再遮挡与逃避的敏感话题,是该纳入法治视野予以整体关照与审慎纠偏了。
(二)制度层面的现实挑战
当前监狱部署AI技术主要存在三个问题。第一,行业法律规制与标准缺失。由于各省乃至各地目前处于自主开发与应用AI阶段,而现行法律法规对监狱AI适用范围、数据权限、决策参与度等缺乏明确规定,因AI应用的边界模糊,将导致执法尺度存在明显差异。一旦AI辅助监管决策带来执法错误,那这个责任是由AI开发者、系统管理者承担呢?还是由一线民警去承担?第二,罪犯权利救济机制不足。当罪犯对一些特定AI决策的结果不服时,监狱缺乏专门申诉渠道和审查程序,罪犯难以维护自身的合法权益;第三,执法程序可能被弱化。如计分考核与分级处遇的算法干预,AI可能因算法偏差导致同事不同罚、改造表现的技术评估不公,这将违背"惩罚与教育相结合"的原则;如简化程序将带来执法风险,AI自动化流程可能压缩罪犯陈述、申辩、听证权利,弱化程序保障;办理刑罚执行案件的算法,如果过度依赖AI的危险性评估,忽视罪犯改造意愿和客观表现,也会影响司法公正。

(三)伦理层面的深层矛盾
1. 安全技术与教育改造的功能冲突?一些监狱可能受“显绩”的功利驱动,结果AI侧重于风险防控、监管效率甚至生产效益,从而忽视了教育、感化、挽救的核心目标,导致“隐绩”的育人向 "管人"+“产能”的功能异化,AI生成的改造方案就难以适应罪犯个体差异;因个性化改造的驱动力明显不足,必将影响改造质效,同时也弱化了他们回归社会的能力培养。过度依赖AI的安全监管,可能降低罪犯的自主决策和社会适应能力,并不利于其重返社会后的正常生活,这便是改造目标的严重偏移。
2. 技术与人道之间的张力如何消解?这个问题是否应做双向的换位思考:一方面,监狱24小时用AI监控所有罪犯,包括他们的睡眠+如厕等私人空间,使所有罪犯长期处于"全景敞视"状态,这无疑会加剧其心理压力;另一方面,基层民警也变成了受上级监控的被管理、被测试者,比如瞪眼班、车间探头考核等,这与人道主义+人文关怀的初衷是否相悖?如果过度依赖技术,忽略警队上下之间的相互信任,减少民警与罪犯的当面交流,弱化情感互动和思想教育,这是否又背离了改造的本源?有位东北的女警看过邦德一篇公号文之后,她发出了这样的感慨:监狱工作这么高科技,精细化,现在都没有人、没时间去做最朴实的谈心谈话教育了。这段话,是不是对当前基层教育场景的一种真实回应?
监狱还要警觉“强制绑定““精神干预”的伦理争议。AI心理健康测评+VR改造等技术,可能干预部分罪犯的思想自由,如果强制对方接受认知行为疗法,这是否存在"精神洗脑"与形成"数字牢笼"呢?毕竟刑侦部门应用犯罪心理测试技术的前提,是“自愿”原则,罪犯的心理测试同样如此。自愿,才是合法合规应用AI的首要前提,毕竟监狱的终极目标是他回归社会后的“不再犯”或“减少他再犯”。之所以存在这种权力强制,还是因为以“安全”(工具理性)的名义僭越或取代了人性(价值理性),别忘了AI的另一层本意,旨在保障人权、防止滥用,并确保测试结果的可靠性与可采信。
3. 权力关系如何导致价值理性的失衡?原本传统的监管模式,就偏执于“只许老老实实,不许乱说乱动”,如今的AI更强化了对罪犯的信息支配和控制能力,这种权力的隐形加剧,自然形成了"技术赋权"(注:不同学者对这一概念有不同理解与解释)的变异性强制,结果AI将罪犯群体片面视为 "风险对象" 而非 "改造主体",忽视其人格尊严和自主改造的意愿,违背"以人为本" 的改造理念,最终,AI决策可能会挑战监狱法的权威,甚至激化基层警囚矛盾,当算法结论与法律规定+司法判例不一致时,法治精神与技术权威的冲突便会加剧。监狱应当看到,互联网时代的权力分配产生了四重影响:增强政府与社会双向权力、分散政府权力限度、构建新型互动基础、形成回归关系。
(四)实操层面的具体问题
当前很多宣传报道,让广大读者乃至邦德领略了监狱科技的闪耀光环,但透过本土监狱使用AI的数据表层不难发现,监狱“重技术开发、轻价值管理”的弊端是客观存在的。换言之,执法主体与技术应用之间,技术投入与产出评价之间,尚存在着显著的错位与差距。具体而言有以下三点。
1. 资源分配与投入产出的矛盾。监狱AI的系统采购、部署、升级和维护需要大量资金,监狱财政压力很大,可能挤占教育改造资源;另外,不同省份与不同监狱的区域发展不平衡,发达地区的监狱AI应用先进,欠发达地区相对滞后,导致监管+改造的差距拉大;不同监狱与不同部门AI系统的独立运行,造成数据不能共享,难以形成全国统一的风险评估和改造标准,数据孤岛问题严重。
2. 技术系统与民警动力的差距。当下基层民警大都缺乏AI系统操作、数据分析、结果解读的能力,难以有效发挥AI的辅助作用。不少民警对技术的信任度与操作度较弱,甚至对部分脱离基层实际的技术,抱有抵触与排斥心理,因为有些科技投入非但没有解放警力,反而严重束缚与绑架了人之为人的基层民警;同时,也要承认民警技术素养的不足。如一些老民警对AI技术感到陌生与无奈,而年轻民警又过度依赖技术,这就导致了"人机协同" 的整体失衡;从警力专业配置看,AI虽减轻了一些重复性的基层警务,但同时增加了系统维护、数据审核、结果验证等繁琐的程序性任务,基层民警在看守压力+瞪眼班丝毫不减的情况下,强迫用于“技术”的工作量反而增加了。
3. 模型参数对改造效果的偏移。很多监狱对“短期风险”的预警与“长期改造”效果的评估是脱节的,毕竟AI擅长识别那些即时风险,但难以评估罪犯的价值观转变、社会责任感的培养等长期的改造效果;如果AI过度依赖对违规次数、劳动产量的量化数据,忽视罪犯思想、情感、行为等质性变化,这会导致改造评估的片面化,使那些"伪改造" 行为更加难以识别,罪犯也可能通过刻意去迎合AI评估标准来获取良好评价,甚至骗取减刑,实则掩盖了他们真实的改造状态,最终形成技术量化指标与改造质性评价的失衡。
以上问题表明,我国监狱“双理性平衡”之路的核心症结,在于AI应用中工具理性与价值理性的平衡困境,本质上是技术逻辑与司法逻辑、效率导向与人权保障、风险防控与教育改造这三大核心矛盾的集中体现。解决这些问题,需要从技术优化、制度完善、伦理规范和实践创新四个维度协同推进,确保AI技术始终服务于"惩罚与改造相结合,以改造人为宗旨" 的监狱方针,最终实现监管改造与权利保障的结构性平衡。
六、理性规制监狱AI技术的基本路径
为正确引领与理性规制我国监狱AI技术的应用前瞻,以下几类问题需持续关注和有效解决:一是数据安全与隐私保护;二是算法偏见与评估的公正性;三是人机关系与责任界定;四是技术应用边界与伦理规范;五是系统整合与统一标准。

路径一:推动相关法律法规的协同修订。2026我国监狱法、刑诉法、人民警察法将相继迎来修订的春天,这三部法律在国家立法层,是否应考虑将AI技术的应用规则纳入修法框架去考量,实现刑事法律体系的整体协调?如修订《监狱法》过程中,可增加关于科技应用的若干原则性条款,明确智慧监狱建设、数据保护和AI应用的基本规范。在完善《刑事诉讼法》过程中,可考虑增加对技术侦查、电子监控、监狱侦查权等新型手段与措施的程序控制,确保相关证据的合法资格。另外,国家有关高层可出台具体司法解释,不仅最高法和最高检可就AI生成证据的审查、认定标准发布司法解释,而且、公安部、司法部为基层办案、监管执法也要提供明确的技术规范指引,以免民警“趟浑水”或“踩红线”。
路径二:制定《监狱AI伦理与安全审查办法》。至少省级监狱主管部门可结合科技伦理要求,建立监狱专门的AI审查机制,确保技术应用符合人道主义+法治秩序的精神。如设立监狱审查委员会。监狱应建立由法律、技术、伦理专家组成的“AI伦理与安全审查委员会”,对准备投入或正在使用的高风险、高敏感、高复杂项目,要进行事前审查和持续监督;如明确AI的禁止性事项。监狱应集中各业务条线的实务专家与社会公司的技术专家联合论证,明文禁止利用AI对罪犯进行精神操控、人格侮辱或实施不人道的具体情形与对应的惩罚规则;如建立安全评估体系。将监狱网络安全、数据安全评估作为AI系统上线前的强制环节,防范系统被攻击或数据被窃取的行业风险。
路径三:建立“算法透明与可解释性”制度。针对监狱AI“算法黑箱”问题,应制定专门规则,确保AI决策过程可追溯、可审查。一是算法备案与审查。要求外包公司对高风险AI系统(如风险评估、刑嫌调控、减刑建议、心理咨询等)在部署前,必须提交算法逻辑、训练数据和评估报告,由业务部门进行伦理与安全审查,严防数据外泄与避免算法黑箱;二是实行透明度分级制。监狱根据不同业务需求与数据保密等级,实行数据的风险等级设定,按白、灰、黑三级划分相应的透明度等级;对高风险系统需提供明确清晰的“决策依据摘要”,对部分数据的算法、算力与推演结论,业务主管部门对当事人应解释并理解其逻辑生成;三是引入第三方审计制度。监狱建立独立的算法审计制度,定期评估AI系统的公平性、准确性和潜在的可能性歧视,并要求公开部分AI审计报告摘要。
路径四:出台《监狱数据治理与罪犯信息保护条例》。监狱应摒弃“安全为天”的传统思维,建立安全与人权的平衡理念,在国家《个人信息保护法》的框架下,制定专门针对监狱场景的AI实施细则,解决数据主体特殊、数据类型敏感等管理问题。1. 数据分类分级:明确罪犯、临释人员的个人信息保护等级,区分一般信息、敏感信息和禁止非法采集的信息;2. 底线必要原则:规定AI系统仅在实现监管安全、刑罚执行、教育改造、医疗卫生等法定目标所必需时,责任单位民警才能采集和处理相关数据,其它机关或人员无权采集;3. 刑满人员数据:明确临释+刑释人员数据的管理主体、保存期限、使用范围、调用程序和特定对象的数据封存机制,防止“终身标签化”;4. 数据生命周期:规范数据采集、存储、调用、决策、封存、解密全流程,明确审批权限、加密要求和定期清理机制。
路径五:制定《全国监狱AI应用管理办法》。高层主管部门应针对AI在监狱安防、管理、教育等领域的应用场景,出台专门的部门规章或规范性文件,重点解决好以下带共性的问题:1. 技术标准准入:设定AI系统的安全可靠+自主可控标准,建立技术准入的行政审查与备案制度;2. 业务应用边界:明确AI仅为监狱的辅助工具,禁止用于罪犯行为的自动定性、自动起诉与减假暂、自动分类处遇或剥夺相关囚权等核心业务;3. 管理规范运行:各业务条线要规范数据采集、算法评估、结果应用等环节,对高风险AI系统,须经第三方专家评估与安全认证;4. 完善监督问责:监狱应指定信息化主管部门建立算法备案、定期审计、动态抽查和黑名单制度,对各科室与监区乃至责任民警的违规应用进行惩戒。
路径六:完善“人机协同”的责任认定机制。针对上述预判的可能性风险,监狱应解决AI介入后的执法主体职责不清、定位模糊的问题,明确“人主机辅”的责任划分,将管理、研发、供应、使用AI的四个责任主体纳入“人机协同”的责任条款中去。1. 确立民警最终责任:责任机制要明确规定,无论AI提供何种建议,最终的执法决定(如罪犯惩戒、减刑建议等),必须由具执法资格的民警(未来还包括检察、法院、司法、公安等)作出并签字负责;2. 细化责任划分:监狱应区分因AI技术缺陷(如算法错误、数据污染)和人为过错(如忽视预警、滥用系统)所导致的各种损害,建立技术应用的容错与免责机制,并对开发者、运维者、使用者规定相应的追责与容错条款;3. 健全警囚救济机制:AI不仅用于罪犯管理,还将应用于警察管理与教育培训等,因此,发展中的AI技术,应当疏通警察与罪犯因AI辅助决策受到不利影响+利益受损的救济渠道,保障他们享有申诉、申请复核乃至获得内部行政补偿、国家赔偿的权利。(完)
本文上期链接:
作者:徐克林,湖北监狱退休民警,痕迹工程师
夜雨聆风