今年第一部科幻迷必看大片,描绘了一场AI对人类的审判
人类通过文学、影视等作品探讨社会、经济、法律、技术等议题由来已久,且佳作频出。本周五(1月23日),由《网络谜踪》团队打造、“星爵”克里斯·帕拉特和“沙丘圣母”丽贝卡·弗格森领衔主演的影片《极限审判》将在中国和北美同时走上院线。
即将上映的这场大片,除了科幻与悬疑的要素,最大卖点就是将司法与 AI 进行了高度结合:
男主雷文身为警探,陷入杀妻的重罪指控之中,他需要在90分钟的倒计时内应用 AI 取证与分析系统“天眼”为自己“辩护”——通过举证、质证等行为,将 AI 法官对其有罪概率的计算尽可能降低,以避免被当庭处死。
全能法官、侦查专家、刽子手......AI在影视作品的多个面相
在近日公布的该片终极版预告中,更多体现AI重塑未来法庭的情节被释出,比如:
· AI 法官接管完整的庭审流程,不再需要真人法官主持工作、陪审团入席、证人出庭等环节;
· 所有与案件相关的证据材料,包括物证、书证、证人证言等,被告人雷文可以通过 AI “天眼”系统自行调取与搜集,也可以与案件相关人员直接沟通;
· 90分钟的自救时间里,雷文与 AI 法官的每一次对话、AI “天眼”系统中每新增一次证据,都会使“有罪率”产生或上调或下降的波动(比如,当雷文的妻子在死前与一位男性幽会、行为暧昧的监控视频被系统调取到时,雷文因具备了作案动机而有罪率陡升)。
图源:索尼电影
在本部作品构建的未来世界中,犯罪率高涨,人类寄希望于AI提高司法效率,解决犯罪问题,也因此彻底重塑了司法制度。不难发现,这套AI法官与数据计算完全主导、被告人在重罪案件中需自行辩护的程序,与先行英美法系刑事审判制度存在根本性、系统性的差异,审判主体、程序结构、证据规则、证明标准、权力制衡等核心维度都被“爆改”。
畅想未来因技术变革而在立法、司法、执法上发生重大变化的作品,还有很多,且形态各异:《少数派报告》的世界里,犯罪率因暴行可被预测和提前制止而降至最低,而《黑镜·白色圣诞节特别篇》中,人人被植入人工智能芯片,所思、所见都可被控制,被所有人无视的“永久社交隔离”成为惩罚犯罪人最残忍的牢狱。而刘慈欣则早在2005年就于短篇小说《赡养人类》中构想了人工智能加持下的高效率执法机器可对一切侵犯他人财产的行为“就地正法”的画面。
不过,几乎每一部试图描绘未来人工智能与司法、法律结合图景的作品,结尾都会指向一种宿命感的叩问:那些为司法系统打造 AI 产品的人类,都会落入被系统审判的迷局,从而反思其中的法理、伦理问题。一方面,“造物主反被造物审判”的情节确实更具戏剧张力,但同时,也是作者用笔触和镜头进行的一次发问:
AI 在司法这一关乎生死的社会环节中,可以处于何种地位?
现实世界里其实早有范本。
美国法院用的这个产品,比你想象中还要更早使司法开始与 AI 产生联结
谈到人工智能介入司法,肯定离不开美国的“COMPAS”系统。
COMPAS(Correctional Offender Management Profiling for Alternative Sanctions,矫正罪犯替代制裁管理评估系统)是由一家美国技术公司开发的、主要用于刑事司法领域被告或罪犯再犯风险的 AI 评估系统。简单来说,就是可以通过算法和人工智能技术,结合留存的数据、案例,帮助法官、缓刑官等司法人员针对被制裁者是否真正对罪行悔改、以后是否会再度发生越轨行为或再犯下罪行进行分析,从而在量刑、保释等环节中做出更“公正”的决策。
三个红色条形格分别代表审前再犯风险、一般再犯风险和暴力再犯风险。(图源:简法帮)
这套系统早在1998年就已开始研发,2006年被确立为第四代风险评估工具。2007年,美国首席大法官会议通过决议,强调法官需要确保刑事司法系统有效运转,通过减少累犯等措施来保护公众;美国律师协会也敦促各州采用风险评估工具,减少累犯。 与此同时,使用COMPAS系统的法院数量提速增长,遍布美国多个州和地区。
在实际研判再犯风险时,COMPAS 系统主张通过一份问卷来进一步形成目标画像:除了针对被告人的历史犯罪记录、未按时出庭等有违法庭精神的记录进行发问,还会对家庭成员、朋友或熟人的犯罪记录和频率进行调查,及一些体现个人性格的问题。其中,与犯罪人本身关联度不大的问题就留下了被质疑的空间。持续了5年之久的State v. Loomis(威斯康星州诉卢米斯案)成为这一系统在美国法院审判地位中的转折点。
图源:红星新闻
2013年,埃里克·卢米斯(Eric Loomis)因涉嫌在威斯康星州拉克罗斯市参与一起驾车枪击案被指控五项罪名。卢米斯否认参与枪击,但承认当晚驾驶过涉案车辆,最终通过辩诉交易对两项较轻罪名认罪。此后的两年初审过程中,威斯康星州惩教署在量刑前调查报告中使用了COMPAS系统对卢米斯进行风险评估,结果显示其“暴力风险高、再犯风险高”。初审法院部分依据该评估结果,判处卢米斯6年监禁和5年延期监督。卢米斯提出动议,认为法院依赖COMPAS评估侵犯其正当程序权利,要求减轻刑罚。
卢米斯认为:COMPAS系统作为商业软件,其算法作为商业秘密未向法庭和被告披露,导致他无法对评估方法进行有效质证,侵犯了宪法第十四修正案赋予的正当程序权利(任何州不得剥夺公民的“生命、自由或财产”而不经过正当法律程序)。并基于此提出了三点质疑:
(1)算法“黑箱”性质使被告无法验证评分机制的准确性
无法挑战算法中可能存在的偏见或错误逻辑
评估依赖群体数据而非个体化分析
(2)算法偏见与平等保护
系统将性别作为评估因素,可能构成性别歧视
社会机构的相关研究显示,黑人被告被错误评估为高风险的概率是白人的两倍
算法可能放大刑事司法系统中已有的种族不平等
(3)个性化量刑权利
法院过度依赖基于群体统计的算法评估,未能充分考虑其个人情况,侵犯了获得个性化量刑的权利
COMPAS评估基于相似群体的数据推断个体风险,而非针对具体个人进行独立判断
2015年,卢米斯上诉至威斯康星州上诉法院,但维持原判;2016年7月,他继续上诉至威斯康星州最高法院,法院以5:2的投票结果维持原判,认为使用COMPAS评估不违反正当程序,并对其主张分别进行了反驳:比如,性别因素是为了促进测试的精准性,法院审理时并未就此进行专门的考量;个性化量刑确实重要,对法庭而言,COMPAS 报告并非判决的唯一依据,法院在量刑时实际上仍具有个性化。
不过,审理法官也对卢米斯的质疑做了合理性评价,对后续使用此类评估提出了更为谨慎的意见,即COMPAS评估报告作为再犯风险评估体系,不应作为直接材料用于对犯罪行为的判决依据,至少应该将支持判刑的各类因素进行详细和完善的陈列。
2017年6月,卢米斯向美国联邦最高法院申请调卷令(certiorari),联邦最高法院拒绝受理,意味着威斯康星州最高法院判决成为终局判决。
对 “AI 判案”的质疑,实为对算法黑箱的长久追问
卢米斯案的终结,并未解决对COMPAS这类针对个人行为预测系统背后算法的合理性、合法性之疑虑。
AI 预测、判定的结果与实然状态是否一致,是最核心的问题。有心理学研究表明,人们常常会默认计算机得出的结论具有客观性和正确性,而大部分人又不处于被审判者的真实视角,也无力对抗高效的系统,因此,能真切地与AI系统审判结果进行抗衡的人在少数。前文提到的大部分电影描绘出的场景,都是 AI 已经有了预测的结果,或 针对预测的结果执行刑罚,在这一阶段通过传统破案手段进行对正义的再度探求,其中,也少有像《极限审判》这般允许被告人与 AI 有同样的信息量并进行自辩的场景。
从更专业的司法角度来说,当AI基于海量数据和复杂模型输出判决建议时,其推理逻辑往往难以追溯和解释,而这直接挑战了司法公开、可解释性等基本原则。所以,最本质的“对抗”方式,是要求算法从“黑箱”走向“透明”,确保决策过程符合程序正义。
对此,各国有不同的做法,也都在不断摸索之中:
● 美国
美国在算法责任的立法道路上,其实充满了试探与摇摆,这涉及到政治和商业的博弈。2022年《算法责任法案》(Algorithmic Accountability Act of 2022)雄心勃勃地提出,大公司应对自己所提供的“自动化决策系统”进行评估,判断其在准确性、公平性、偏见、歧视及隐私方面的影响,同时要求其采取合理措施解决已识别的风险,并建立公共数据库来增加透明度。但这一尝试最终在国会搁浅——评估标准模糊、合规负担沉重,科技巨头的游说声浪也清晰可辨。三年后,2025年的新版本法案卷土重来,这一次它在定义、范围与报告机制上更加细致。目前,法案的命运依然悬而未决,现仍处于立法审议阶段。
● 欧盟
欧盟采取了在世界范围内相对更积极主动的立法策略,构建了全球首个全面、统一的人工智能法律框架——《人工智能法案》。该法案于2024年通过,2024年8月1日正式生效,2026年是其关键年份,关乎执行成果。其核心是“基于风险分级”的规制方法,将AI系统分为四类风险等级:不可接受风险(禁止)、高风险、有限风险和最小风险,而公共部门在关键领域使用的算法决策系统大多被归类为“高风险AI系统”,从而触发一系列严苛的合规义务,比如司法领域。同时,《通用数据保护条例》(GDPR)第22条也与其形成协同与互动(鉴于其赋予个人“不受仅基于自动化处理所作出的、对其产生法律效力或类似重大影响决策”的权利)。
● 中国
我国对司法上使用人工智能相关的应用则有更直接的表达。2022年12月,中国最高人民法院发布了《关于规范和加强人工智能司法应用的意见》,确立了五项基本原则,是理解中国司法AI规制哲学的钥匙。其中,有两大原则切中命脉,即(1)辅助审判原则:“人工智能辅助结果仅可作为审判工作或审判监督管理的参考,司法裁判始终由审判人员作出,裁判职权始终由审判组织行使,司法责任最终由裁判者承担。”,根本上划清了技术辅助与司法权力的界限;(2)透明可信原则:要求AI系统的数据采集、认知过程、推理逻辑等环节“能够以可解释、可测试、可验证的方式接受审查、评估和备案” ,则是直指算法黑箱问题。
结语
虽然没有见到成片,但我们大概可以想象、也已经在现实中看到一些在司法过程中为效率牺牲审慎、为便利放弃追问的事件。现实中的AI司法远未抵达人们想象中的那般“全能”,但相信大部分法律人对技术与法治的相互赋能依旧满怀着理想:缓解案多人少的窒息压力,减少同案不同判的冤屈,在更多地方实现法律平权。算法可能有偏见,黑箱决策可能侵蚀信任,但我们依然会去探索——用法律,也用技术。
本文来自微信公众号“星瀚微法苑”,作者:星瀚,36氪经授权发布。















