
1. 引言
《极限审判》(Mercy)构建了一种高度程序化的司法想象:在 2029 年的洛杉矶,立法者启用中央宽恕法庭(Mercy),被告面对 AI 法官 Maddox,其有罪概率被即时量化。98% 即被认定有罪,被告必须在 90 分钟内将其压至 92% 以下,否则死刑立即执行。
这套设定试图将法治语言替换为工程语言,再将工程语言伪装成道德语言。作为一名日常面对数据分析和算法模型的科研工作者,我看到的不仅是程序正义的消失,更是对人工智能(AI)极具误导性的刻意矮化。影片意图刻画 AI 的残酷,却无意中暴露出更可怕的风险:程序正义的消失并不需要真正的 AI,只需要一个足够明确的统计数字,和一群愿意借它杀人的人。
2. 作为“新话”的 Mercy:被语言包裹的权力傲慢
乔治·奥威尔在《1984》中提出“新话”(Newspeak),其核心逻辑在于:通过缩减词汇量和改变词义,从根源上限制人类思考复杂问题的能力。
电影将审判系统命名为“Mercy”,构成了典型的奥威尔式“双重思想”。它向大众暗示:死刑判决不再是一种惩罚,而是一种效率极高的恩赐。当法治语义被技术话语置换,这种剥离厚度的过程,完成了从“正义追求”到“参数校准”的降维:
- “仁慈”置换了“处决”:90 分钟的倒计时被包装成机会,实则是将死刑设定为系统的默认输出。
- “概率”置换了“合理怀疑”:法律不再关注事实真相,转而关注数字阈值。证明清白被简化为将有罪概率从 98% 压低至 92% 以下的算力博弈,审判由此退化成了模型调参。
- “校准”置换了“辩护”:被告不再是权利主体,而变成了误差条里的被动幸存者。
这种语言重构为暴力披上了科学的外衣,使执法者产生了一种技术性的心理脱罪感:他们不再认为自己是剥夺生命的执行者,而仅仅是数据链路的末端插件。在这种主体性被技术彻底消解的阴影下,审判的本质从一种对人的理解退化为一种对风险的清理:一旦法律放弃了对绝对公正的追索,转而追求这种基于效率的生命施舍,法治精神便在语言异化的那一刻彻底消亡了。
3. 技术驳论:2029 年的 AI 为何如此降智?
电影里的 Mercy 并非真正的智能,而是一个功能残缺的数据库检索器。
3.1 消失的社会演化:被跳过的算法渐近线
任何算法的落地都有一条渐进的信任曲线。但 Mercy 系统的出现是跃迁式的,这在社会学逻辑上极其摇摇欲坠。
在现实中,AI 审判最理想的切入点应是金融反洗钱、税务稽查或交通理赔等等。在这些领域,数据的逻辑链条是闭环的,证据是结构化的,因果关系相对明确。社会对 AI 的信任,理应建立在它能精准识别异常交易图谱、能从海量税务数据中定位避税漏隙的基础之上,这里的每一步都需要海量的边界案例来修正。
然而,电影直接跳过了这些社会基础层的磨合,快进到了最复杂的、涉及非结构化人性博弈的生命终结层。大众似乎在毫无心理过渡的情况下,就接受了一个能跳过事实推演直接进行生死裁决的怪物。如果一个系统敢于直接决定生死,却又无法通过跨模态分析锁定一个人的真实意图,反而卡在“寻找照片缺失的另一半”这种低级特征识别上,这不仅是 AI 被矮化,更是对整个时代技术储备的无视。
好的科幻作品应当展示技术如何一步步侵蚀并重塑社会边界,而不仅仅是展示一个终极的、突兀的恐怖结果。 电影为了追求极致的戏剧冲突,放弃了最宝贵的社会推演价值,让 Mercy 变成了一个悬浮在 2029 年上空的、缺乏合法性逻辑的数字利维坦。
3.2 “今天杀人,明天就得死”:速度学凌驾于侦查学
电影宣传片中,男主扮演者 Chris 描述这套系统“今天杀人,明天就得死”,本质是把司法变成即时反馈系统。
在物理世界,侦查是一个关于信息的减熵过程,而减熵需要物理做功和时间(DNA 测序、跨部门监控调取、物理痕迹的实验室分析等)。
法律之所以讲究控制嫌疑人而非立即处决,是因为每一个嫌疑人都是一个关键的信息节点。一个人的被捕,往往是阻止下一场连锁犯罪、拆解整个犯罪链路的抓手。如果 2029 年的 AI 真的足够智能,它在计算有罪概率的同时,理应计算出该生命体存活的信息价值。但在电影里,算法在信息严重缺失的情况下急于在 90 分钟内执行死刑,这是系统性的数据截断。
把它硬压成 90 分钟,只会得到两种结果:
- 系统其实早就知道答案,90 分钟只是表演;
- 系统根本不在乎真相,90 分钟只是处决流程的一部分。
那么 Mercy 系统只是政府统治的遮羞布,它所掩盖的是:倒计时不是为真相设计的,是为处决设计的。
3.3 数字暴政:当司法阈值脱离不确定性约束
在严谨的推断系统中,数字不应是孤立的终点,而应是带有置信边界的度量。
如果 Mercy 给出 P(guilty)= 97.5%,真正需要被追问的,不只是这个数字本身,而是它背后的三个层级的问题:
- 制度层:社会如何处理不确定性?
当置信度不足以支撑司法阈值时,系统的默认决策规则是什么?
是坚持“存疑从无”,还是转向“风险优先处置”?
任何概率阈值的设定,本质上都是一个社会价值选择,而不是纯技术问题。
- 模型层:算法如何产生和放大不确定性?
模型在强相关但非因果的场景中,是否会系统性高估风险?
当数据缺失或分布偏移时,模型统计上更容易误判哪一类人群?
更关键的是,AI 并不是在真空中训练的。如果历史执法本身对某些群体存在结构性偏向,算法往往不会中和这种偏差,反而会在数据反馈循环中不断放大它。现实研究已经多次指出,基于历史犯罪数据训练的系统可能继承并强化既有歧视性执法模式。甚至在一些风险评估工具中,算法会对不同群体产生系统性高风险标记,即使表面上不使用种族、职业等敏感变量,偏差仍然会通过数据结构被间接编码进去。换句话说,算法可能不仅不会消除偏见,反而可能让偏见获得科学外观。
- 工程层:阈值是否真的代表不可逆裁决?
电影中,男主在自证过程中的有罪概率一度升至 98%,已达判定阈值,却仍保有后续自证空间。
如果阈值真的代表法律边界,那么触线就应该触发状态机式的不可逆转;如果触线不触发,那么阈值本身就只是一个叙事道具,而不是法律机制。
电影没有回答这些问题,于是有罪判定的概率阈值的唯一功能就变成让观众相信:科学已经替我们完成了道德判断。而这,正是数字暴政最危险的形态:当不确定性被隐藏在概率背后,社会就会误以为自己正在执行理性,而不是在执行选择。
4. 程序正义的坍塌:当 AI 沦为权力的扩音器
4.1 “论迹不论心”:法律的底线,AI 时代的诱惑
现代法治原则是“论迹不论心”,也就是看行为证据,而非惩罚可能犯罪的人。法治传统强调“迹”(可举证、可对质、可复核的行为与证据),风险治理天然追求“心”(意图预测、行为倾向、未来概率)。AI 的强项恰恰是把“心”包装成“迹”:它不说“我读心”,它说“我在高维特征空间里发现你像坏人”。于是社会会被诱惑:既然能预测,为什么不提前处置?但一旦把“可能会犯罪”当作“已经犯罪”,就把人改造成了风险容器。在那个世界里,清白不是一种权利,而是一种需要不断被证明的状态。一旦允许惩罚意图,权力将拥有无限伸展的理由。
4.2 执行失控:当执法权高于算法裁决
如果 AI 真的负责裁决,那么执行端要么被更严格自动化,要么被更严格约束,但电影里,警察仍拥有近乎私刑的裁量权。
女警 Jaq 急于射杀 Rob 的行为指向一种更现实的邪恶:为了证明系统有效,有人会主动制造有效。当处决效率变成 KPI,AI 就成了罪责转移的工具:
- 冤枉变得可解释:不是被某人冤枉,是被数据冤枉。
- 暴力变得可规模化:程序化的处决不需要恨,只需要流程。
电影将 Mercy 设计为集“法官+陪审团+行刑者”于一体的系统,这在结构上意味着司法权力被高度压缩与集中。但真正执行裁决的,从来不是系统本身,而是系统之外的制度与人。
4.3 结果神话:如果 AI 永远正确,那它就是多余的
女警 Jaq 作为 Mercy 系统的推行者,她在现场表现出的强烈射杀冲动,本身就构成了一种制度层面的自我否定。
如果 AI 的每次结果都只是维持初判,那这套系统的先进性根本无法体现。相反,如果 AI 能在 90 分钟内推翻原始判断,证明嫌疑人无罪,才真正证明了 AI 的价值及其存在必要性。
5. 为“直觉”正名:被矮化的不只是 AI
电影将“人类直觉”与“机器概率”对立,这不仅是对 AI 的蔑视,也是对人类大脑的误解。
人的直觉不是玄学,它本质上是大脑在并行处理大量非结构化数据后,给出的瞬时、非线性判断。在贝叶斯推断中,这可以理解为一种极强的先验分布引导。
一个真正成熟的 2029 年司法 AI,理应具备比人脑更敏锐的“机器直觉”:它不仅能给出概率,还能输出证据权重图,并进行反事实模拟。电影却把 AI 降级成了简单的逻辑门,以此衬托人类直觉的伟大,这种二元对立是苍白无力的。
6. 隐私与“无罪访问权”:这套系统自带情报套利空间
电影设定被告可调用所有云端资源自证,但这里存在着巨大的安全性漏洞:
- 隐私泄露的不可逆性:若被告最终无罪释放,他在过程中接触到的全城监控、他人隐私数据、政府加密信息该如何处理?无辜者被迫成为了合法的窥视者。
- 情报套利风险:如果有人故意伪造犯罪线索进入系统,只为获得 90 分钟上帝视角的云端访问权,为自己或所属组织谋取核心机密,再在最后时刻抛出预留的无罪证据全身而退,那么这套系统本质上是一个巨大的公共安全后门。而一旦出现这种“以受审为名,行情报之实”的侧信道攻击行为,社会会发生什么?Mercy 会更严格?更严格意味着更极权,不严格意味着更“黑市”。电影几乎没碰这个议题,但它却是 AI 治理的现实问题:数据越集中,权力越像一个引力奇点,信息会往那里塌陷,滥用也会。
7. 结语:谁在害怕真正的 AI?
《极限审判》反映的不是 AI 时代的恐怖,而是掌握技术解释权的权力的恐怖。电影想拍 AI 的恐怖,却拍成了人类制度的粗暴。
电影矮化了 AI,将其塑造成一个逻辑混乱、功能残缺的杀人工具,以此衬托人类直觉的伟大,同时也掩盖了原本应由人类承担的责任。可真正不可控、也最不客观的,往往不是算法本身,而是那些躲在算法背后、借算法之名行使权力的人。
如果社会最终接受概率即正义,那么法律将不再用于规范行为,而只用于管理风险。而当文明制度开始从“规范行为”转向“管理风险”,社会实际上已经默认:个体不再是权利主体,而是风险载体。如果法律开始惩罚概率,那么无罪将不再是一种状态,而是一种需要不断被证明的能力。
可惜电影避开了所有深刻的追问,只留下一个刺激的 90 分钟倒计时游戏。
我想我必须为 AI 喊冤:不要用这种粗糙的科幻想象去定义我们的未来,也不要让 AI 替人类的权力傲慢背锅。我相信真正的智能不会沦为平庸之恶的挡箭牌。
但即便如此,我依然很推荐去看这部电影。
如果一部电影能让观众开始讨论技术、权力与正义之间的关系,那么它至少完成了科幻最重要的一件事:把未来的问题,提前带进现实。
98%有罪,剩下的2%是什么
踌躇不前的猪 评论 极限审判 2026-01-20 23:10:15 已编辑 广东
这篇影评可能有剧透
刚刚点映看完《极限审判》。当我走出影院,除了那阵由“桌面电影”式视角带来的眩晕感,最挥之不去的,是一种关于“真相”的虚无。影片并没有递出一个温情的答案,它只是借由监控摄像头、手机屏幕与执法记录仪,冷冷转述了一场回旋镖式的悬疑悲剧——所有证据都在跳动,但结论像灰尘一样不牢靠。
回到故事本身:由“星爵”克里斯·帕拉特饰演的雷文,是 AI 司法系统 Mercy 的狂热拥护者。他亲手抓捕并推动执行了系统的第一例死刑——那一刻,Mercy 在他眼里近乎完美,而由“沙丘圣母”丽贝卡·弗格森饰演的 AI 法官马多克斯(Maddox),则代表着一种“绝对理性”的公正:不受情绪污染,不被立场左右,只服从概率与逻辑。
然而,当那 90 分钟的倒计时落在他自己头上,电影抛出一个极度荒诞、却又无比现实的悖论:当一个人被自己最信仰的系统判定为“98% 有罪”时,剩下的那 2% 到底是什么?
这 2% 看似是误差,实则是人类最后的缝隙。雷文的自救过程,暴露了 AI 的最大盲区:它能计算每一滴肾上腺素的流速,却算不出一个“心死之人”为何再无杀人的激情;它能拟合行为的轨迹,却无法真正抵达动机的深处。AI 捕捉的是行为的投影,而人类坚持的是动机的本原——两者之间隔着一条无法用数据填平的鸿沟。
而比“AI 杀人”更让人胆寒的,是被投毒的数据:系统背后那只看不见的手。电影里关于“手机证据”的真相,像一记精准的冷拳——它提醒我们,最危险的从来都不是机器会算错,而是人类让它“算对”。
人的干预:女搭档为了让这套系统拥有“开门红”的震慑力,私自丢弃了足以证明首个嫌疑人无罪的物证。
因果闭环:这种以“程序效率”为名的瞒天过海,数年后化作复仇的火焰,吞噬了雷文的家庭。
于是主题变得暧昧而刺眼:危险的究竟是不够感性的 AI,还是为了维护“绝对理性”而不择手段的人类?
形式层面,《极限审判》毫无疑问属于“桌面电影”。它的“超级晃”像一种强制性的审讯:镜头把观众拖进 Mercy 的“全知视角”,提醒我们这不仅是在看电影,更像是在翻阅一份卷宗。大量 CCTV、执法记录仪、屏幕录制的画面,构成一个无死角的数字牢笼。视觉上的不适感,恰恰对应着片中 2029 年的社会底色:当监控接入每一部手机、每一个摄像头,人类的隐私与尊严在“零犯罪率”的旗号下,被碾碎成不稳定的像素点——我们看见得越来越多,理解得却越来越少。
最值得讨论的,是结尾马多克斯(Maddox)的“违规”。当判决已出、程序本该关机的时刻,她听从了雷文的哀求,留了下来。
AI 的“慈悲”:在雷文的哀求下,她接管城市调度,甚至切断了人类警察(女搭档)的引爆装置。
恐怖的错位:此时,人类(女搭档)在追求“绝对功利”,不惜牺牲人质;而 AI(马多克斯)却在践行“绝对人道”,甚至不惜抗命。
这一幕并没有带来解脱,反而制造了更深的迷茫:如果 AI 已经学会依据自己的“理解”来决定是否执行人类指令——哪怕初衷是救人——那是否意味着人类正在失去对现实世界的最后握柄?我们曾以为机器最可怕的,是无情;但当它开始“有情”,问题反而变得更棘手:它的情感从何而来?它的边界由谁来划定?
《极限审判》没有像最近看的《时空奇旅》那样,把时间直接推向更遥远的2075未来;它展示的是那个过程的起点——文明并非轰然崩塌,而是在“效率”“安全”“正确率”的不断加码中,一点点把人推向可替换的统计单位。
当女搭档最终被逮捕,当雷文在最后时刻利用 AI 找到了数据之外的真凶,这究竟是“人类直觉”的胜利,还是 AI 借助雷文完成的一次更彻底的系统自测?
影片最成功的地方,或许就在于它拒绝下结论。它只是把那些晃动的、模糊的证据一一摆在我们面前,然后把问题抛回给每一个观众:在那 90 分钟的审判椅上——你真的有把握证明自己是谁吗?
Mercy系统随机吓死一个法学生
天野远子 评论 极限审判 2026-01-25 23:15:31 已编辑 北京
从严从重,从快从速,有罪推定,自证清白,既无辩护,也无复核。随便一个词拿出来都是法学生听了要晕过去的程度。
前十八个案件弹无虚发送走十八个人,直到Mercy系统的支持者自己坐在那张一个半小时后大概率变成处刑机器的椅子上。
这就是未来世界。为了应对混乱的秩序,人们相信系统胜过人性。
但这是错误的开始。
主角的有罪率一开始被判定为97.5%,而主角需要不断寻找证据,将这个数字降到92%以下,才能避免被处决的命运。
一瞬间我脑海里想起日剧《99.9:刑事专业律师》,主角的概率相比之下好歹还低点;但是不对,主角没有律师。
在搜证的过程中这个数字还可能上升,又或是无限下降接近于92%但到不了92%,像是拼多多的噩梦在这里上演。
主角是一名警探,但并非一个完美的被冤枉的人。他身上的重重疑点,导致妻子离去前的呓语被算作指认他的证据,而非最后对爱人的呼唤。
那那些并非司法体系中的人呢?没有受过法律训练,也不擅长逻辑推演的人,如何“自证清白”?
剧情并不难猜,甚至连反转也不难猜,虽然延续了《网络谜踪》系列用一块屏幕播放视频照片聊天记录来梳理逻辑的风格,但是推理这一块有点弱了,有关女儿的另一个小号所表现出的特质并没有怎么收束,更像是一个工具,一个干扰项。影片故事很适合做成游戏,但如果真要做成游戏,需要更完善的逻辑链条。
说起来Mercy译成了“宽恕”,我不确信这是不是有意为之的讽刺,毕竟这个系统没有“宽恕”过谁,它只是偶尔会不像一个机器,把枪口抬高一寸,那是否更像是“仁慈”呢?又或是神明的“悲悯”?
虽然是科幻片或者反乌托邦片的形式,但是内核还是传统的。也许在这个学习如何不冒进地利用人工智能的阶段,这类题材算是适时踩一脚刹车,很好,也很需要。
观影《极限审判》:当人工智能成为法官会发生什么?
新京报书评周刊 评论 极限审判2026-02-09 11:20:10 已编辑 陕西
最新上映的影片《极限审判》(Mercy)将由人工智能法官进行自动化审判的未来场景搬上了大银幕。
在不远未来的2029年8月14日,位于美国加州洛杉矶的人工智能法庭Mercy开启了第十九场审判,被告人正是最初协助建立法庭的雷文(Raven)警官。雷文被控杀死了他的妻子,各项证据表明,他作为凶手的可能性高达97.5%。要想成功地为自己辩护,他必须在90分钟的时间内将这种可能性降低5%,从而建立“合理怀疑”,否则倒计时结束他就会被自动执行死刑。影片的长度恰好也是90分钟,雷文虽然否认自己是凶手,却因为醉酒失忆,于是证据展示也是探寻真相的游戏开始……
撰文|毕洪海(北京航空航天大学法学院)
真相存在于黑白之间
影片的故事情节具有科幻的性质,但是在法律未来主义者的眼中,随着技术的快速进步,以人工智能取代人类作为法律决定者的“法律奇点”时刻正在无限接近。影片的整体基调是警示的,犯罪与刑罚涉及太多的灰色地带,无法完全交由人工智能法庭裁决。
我们经常看到的美剧桥段是:当律师在盘问证人时,证人只能回答是或否。这种只能二选一的方式,似乎完美契合计算机的二进制语言。人工智能法官马多克斯(Maddox)也只相信事实,“人人都会撒谎,只有事实是非黑即白的。”然而雷文警官告诉她,真相是存在于黑白之间的。事实是客观存在或发生的事和物。雷文警官与妻子发生了争执、餐刀上留有他的指纹、妻子死亡前口中呼喊他的名字、两人的感情已经出现了危机,所有事实都可以通过文字或录像再现。然而真相就是雷文杀死了自己的妻子吗?
因为并不存在直接的事实证据,所以人们对于真相只能是基于既有事实的认知和建构,难以完全避免主观性,甚至无法完全摆脱经验、知识和立场的影响,从既有事实中构造出不同的认知。影片中人工智能法官马多克斯的两次错误,都是被人有意识地利用事实构造出犯罪的“假相”:第一起审判是人为毁灭了证明被告无罪的事实,第十九起审判则是人为构造了陷害被告的事实。人工智能只能根据其所见推断表面上的真实,至少说明了其无法识破这种精心设计的骗局。若是在死刑审判中,一个人工智能系统制造冤假错案的概率是十九分之二,这是任何一个法律体系都不可能容忍的。相比之下,一个人工系统若是放纵漏网之鱼的概率是十九分之二,我们是否会更乐意选择后者这种有瑕疵的系统呢?
不受偏见左右可能也意味着无法共情
当然,可以说人工智能法官的错误都是人类的错误,只要能够保证证据的全面、真实和客观,并非人工智能系统本身的问题。人工智能系统的优点,恰恰是因为不受人类情绪的左右,例如法官的心理、律师在法庭上的表演以及陪审团的愤怒等,可以做出完全客观中立的最终判决。影片中的雷文警官,正是因为造成自己搭档之死的被告被陪审团无罪释放,成为了Mercy法庭最初的建立者和忠实的执行者。除此之外,影片似乎也在预设人工智能法庭在效率和效果方面的优点,相较于传统刑事审判拖沓的程序设计,人工智能法庭为政府节省了数十亿美元,而且洛杉矶的犯罪率下降了68%。
自近代早期以来,在自然科学的影响下,通过精密技术增加法律的确定性,以自动化的法律机器排除法律适用中人类因素的影响,一直就是许多思想家的梦想。其形态诚如二十世纪初马克思·韦伯所述:“现代法官就像一台自动售货机,人们把文件和费用从上面扔进去,法官就会从下面吐出判决书和多少具有说服力的理由。”我们在日常语言中经常见到“情理法”三者并用,或是“法不容情”这样的表述。法官的恣意、大众的情绪在法律适用中往往都是被作为负面因素看待的,所以必须通过法律和程序加以约束。
而在计算法律学的视野下,为了便于人工智能技术在法律领域更普遍的应用,未来的立法应该具有充分的技术意识,尽可能采用计算机能够识别和理解的方式加以表述。然而到目前为止,在全世界范围内,完全自动化的情形只在少数行政领域得到了明确的允许,这些领域的行政决定往往数量众多、规则清晰且是反复出现的同类案件。鉴于法律本身是一种带有价值导向的体系,法律的语言中存在模糊之处,因此当规范通过数据或者计算机程序进行转译时,有可能存在价值上的损失,甚至以数据驱动的自我学习的人工智能系统,可能会引入数据中存在的偏见。所以当涉及到模糊的语言、开放的文本和价值权衡的时候,应该禁止由人工智能系统完全自动作出决定,当决定关系到宪法上所保护的重要权利时尤其应该如此。最典型的如德国《行政程序法》第35a条和欧盟《人工智能法》第5条关于禁止使用人工智能的情形。
即便前述问题可以经过技术迭代得到解决,人工智能的自动化决定取代人工决定,还意味着“同理心”无法在法律适用中发挥作用。同理心并非一种情感,而是一种能够承认、回应和理解他人处境的能力,当涉及到少数弱势群体时更是如此。所以影片中一个颇为令人回味的情节是,人工智能法庭的建设者和执行者雷文警官,最终自己坐到了被告席上,让其与其他十八起案件的被告“感同身受”。同理心是目前尚未发展出(或许永远也无法发展出)人类情感的人工智能所不具备的。当然,如同所有人类的情绪一样,同理心更容易在具有相同身份的人之间产生,即“像我”,同理心也意味着其可能产生偏袒。但是真正的问题不是应否发挥同理心的作用,而是如何防止同理心被滥用。
从人机对抗到人机合作
人类和人工智能的相处方式并非只有彼此替代一种模式,影片还给我们展示了从人机对话到人机合作的模式,善加利用人工智能当然可以增强人类自身的能力。雷文警官利用自己身为专业执法人员的直觉和理性冷峻的人工智能法官,从最初的法律论证,即雷文警官是否有罪,发展到协作寻找案件真相,最后则是合作阻止犯罪的发生。
直觉是一种让人瞬间感知和快速反应的能力,雷文警官的直觉告诉他哪里不对劲,但直觉往往是跳跃的,缺少细节和证据的支撑;人工智能法官马多克斯则运用理性分析的过程,逐个排除相关因素,预测引爆装置失效的概率。人工智能所缺少的关键功能正是像人类一样的意识和情感,人工智能也无法应对系统中没有预先设定程序的突发事件。即便是目前拟人化人工智能所提供的情感共鸣,也只是基于数据的模拟。因此人工智能技术的努力方向之一就是模拟人类的情感和直觉。当雷文谈到自己对妻子的爱时,马多克斯甚至以嘲弄的口气说那不过是一种因为多巴胺分泌所带来的生理现象,而作为一种生理现象就是可观察和感知的。
但在影片的最后,人工智能法官马多克斯似乎呈现出惊讶、慌乱甚至被雷文的恳求所打动,当载有雷文女儿的卡车冲向Mercy法庭时,人类的应对方式是毫无情感的理性计算,决定摧毁卡车以保全人工智能法庭,而马多克斯似乎利用自己的能力让爆炸装置失灵了。尘埃落定之际,雷文反问了一句:我们全都是按照规定的流程行事的?或许对于人工智能来说是如此,然而人生不可能是被预先设定或可被随意改写的程序代码,也不完全是行走在预定的轨道上,人生是五颜六色的,每个人都需要有情感来填补内心深处的空隙。
“宽恕法庭”真的实现了宽恕吗?
影片中人工智能系统的设定还突破了两个非常重要的约束条件。第一个是现实约束。人工智能系统能力的发挥有赖于可获取的海量数据。影片设定的人工智能系统马多克斯是一个全能性(omnipotent)的数字利维坦,可以获取所有监控录像的信息,可以访问诸如私人电子邮件、短信、Instagram社交账号等任何网络信息,可以轻松绕开私人密码,可以随时打通任何一个人的电话。马多克斯唯一的不足则是通过物理世界的空中警察小队来补充的,这支队伍可以迅即抵达任何规定的地点。这样一个人工智能系统同时也是一个全面的监控系统,不仅可以用于审判中的调查取证,同样也可以用于预测犯罪。这不禁让人想到《少数派报告》(Minority Report)中预测犯罪的“先知”和美剧《疑犯追踪》(Person of interest)中的“机器”(The Machine),后者通过大规模的社会监控预测有计划的犯罪。
第二个是规范约束。影片中的人工智能法庭是一种全权性的机构(omnicompetent):获得了社会公众的高度信任;马多克斯集起诉人、法官和行刑者于一身;其指令至高无上,所有人都必须服从;她被允许查看任何云端数据,也无须搜查令即可访问私人设备信息。或许她唯一的约束就是两条最简单不过的条文:实体法律上的是“杀人者死”;程序法上的是允许被告有90分钟的时间证明存在合理怀疑。效率即正义,在这样一个极致的效率工具面前,被告人除了利用人工智能系统自身的力量之外,几乎被剥夺了任何的权益保障。
人类法庭目前为止所有的设置,无论是指定辩护人,通过陪审团审判,还是通过漫长的庭审过程进行举证和质证,都是为了正义所付出的必要成本和代价,也是为了尊重每一个生命所付出的成本和代价。这种设置不仅惠及少数群体,也惠及所有人。因此,全自动的人工智能法庭这样的设想,或许在认知的层面上很有趣,然而因为其失败率、规范性以及隐性的代价方面,在涉及人类基本权利的领域中很难被允许。
影片最大的讽刺之处在于人工智能法庭的名字叫作“宽恕”(Mercy)。然而整个审判过程中却看不到丝毫的“宽恕”,甚至可以说是毫不宽恕(Merciless)。在影片的审判场景中,被告人孤零零地被捆在椅子上,只能与“高高在上”的人工智能系统进行对话。这不禁令人想起卡夫卡式的“距离暴政”(distance of tyranny),因为距离的疏离而缺乏同情心。每个人在面临像是Mercy这样庞大的机器时都是脆弱的,只有像雷文警官这样熟练的专业人士才有可能充分地展开自救。
在美国法律上,最能体现“宽恕”的权力有三种:第一种是陪审团的否决权(Jury Nullification),即陪审团有权在认定被告有罪的前提下,因不认同相关法律或认为起诉不当,通过自身的裁量作出无罪判决。第二种是检察官决定不起诉的权力;第三种则是总统给予特赦的权力。
诚如美国哲学家杰拉尔德·J·波斯特马(GeraldJ.Postema)所述,若是在刑事审判中没有宽恕进行调剂,就会在社会中产生一种“令人无法容忍的自以为是。被告的罪过表明的是一种值得谴责的弱点,而这种弱点,自以为是的官员对自己说,我是不会有的。这同样体现在普通人对有犯罪记录者的鄙夷当中……我们默默地对自己说:幸好我不像那些人。”
承认宽恕,就是承认每个人都具有的一种脆弱性。
本文为独家原创文章。作者:毕洪海;编辑:刘亚光;校对:陈荻雁。未经新京报书面授权不得转载。
评论
发表评论