导读:三年后,AI法庭开始审判人的生死…科幻吗?惊悚吗?走出影院,面对全网“龙虾”刷屏,人们已经从空气里闻到一股急吼吼的气味:AI伦理的成形,已经赶不上AI应用的速度了。你要用什么投喂那只分辨善恶、判断公义的“龙虾”?
《境界》独立出品【影评】
文|木多
播音|杖

扫码奉献,同作主工
近日,“龙虾”刷屏全网。它不是餐桌上的美味,而是一个开源的、自主接管电脑系统、执行任务的AI智能体。没多久,那些排队“装虾”的人就发现“龙虾”暗藏风险:它既能辅助办公,也能暗中越权行事。几乎同时,中东战场传来消息,AI系统以秒级速度参与,第一时间让伊朗国的领导走在了群众前面。网络一片哗然,质疑AI的声浪此起彼伏。
2026年年初刚上映的美国科幻惊悚片《极限审判》(Mercy),把观众带到2029 年的洛杉矶,当地政府为了遏止犯罪率的飙升,开发了AI法庭“Mercy”; “Mercy”的意思是“仁慈”,因为政府宣称它是最公正、绝不徇私枉法的“高效法官”。
影片一开始,刚刚苏醒的警察克里斯·雷文(Chris Raven)便发现自己被固定在了AI审判系统的终极审判桌上。他被控杀妻之罪,若不能在90分钟内证明自己无罪,就将被就地正法。故事设定时间仅仅是三年之后,屏幕前的观众仿佛被气喘吁吁拖进一场听证会,紧锣密鼓地审视AI拥有决策权所带来效率和漏洞。毕竟,走进影院之前,我们已经从新闻里闻到一股急吼吼的气味:AI伦理的成形,已经赶不上AI应用的速度了。
故事的焦点在于雷文并非罪犯,而是被人栽赃,加害者尼尔森就是想要证明这套AI系统不可靠。它在第一场审判中就做出严重误判,夺去了尼尔森的弟弟大卫的性命。
女警员杰奎琳为了打击犯罪、捍卫秩序,用错误的手段成就自以为是的正义,偷偷丢掉能证明大卫无罪的关键证物——手机,大卫成了为AI法庭立威的牺牲品。杰奎琳以为只要让人们恐惧,就可以控制犯罪,而大卫只是个流浪汉,死不足惜。为了高效地维护自己判断出来的善与恶,人类躲在被称为“Mercy”的系统背后杀人,仿佛在大数据的池子里一边洗手一边说“都是AI惹的祸,与我无关”。
看过《指环王》的许多人,都对里面的咕噜厌恶至极。作者托尔金干脆让佛罗多替读者说出心声:“可惜毕尔博当初没杀了他!” 甘道夫却略带愤怒地回应:“可惜?正是怜惜之心叫毕尔博停手。许多活着的人本应该死,死了的人本该活着。佛罗多,不要轻易决断人的生死,万事的结局,智者也难料。”
片尾克里斯拿枪指着伤害自己一家的凶手,最终没能扣下扳机。他走过了惊心动魄的审判,在断人生死这件事上心有余悸。
两千多年前,在当时法制最健全的罗马帝国与最严谨的犹太宗教体系的夹缝里,有一位被双重错判定罪的犹太人,没能戏剧性地在最后一秒从刑具上下来,反而甘心走向死亡。只有一个完全无辜者的死,才能让人们看清楚:人类之中没有公义可言。藉着复活和审判,神把祂的公义当作礼物赐给人。对这一事实的领悟,让20世纪法国著名法学家埃吕尔认识到:罪并不是指人违反了某种道德或法律,而是指人类想要“独立于上帝之外”拥有定夺善恶的权利。当人类自行判断何为善恶,人与上帝的联系就断裂了,人只能独自面对审判的重担。不义的人,被迫要去定夺并维护正义。
这才是不可能完成的任务。于是人想到使用AI把自己从困境中解救出来。在电影90分钟的审判里,当所有人都疲于发掘真相,只有AI还在鼓励克里斯继续寻找证据。最后,AI法官问幸存的克里斯:“我们都做了什么?”克里斯回答:“人类和AI都会犯错,也都在学习。”
这句台词越过屏幕,对着被“装虾”一族搞得有点焦虑的我们说话。摆在人面前的是一个巨大的诱惑:我们如何使用AI?用什么投喂“龙虾”?我们是否期待利用AI的加持,牢牢抓住分辨善恶、判断公义的权力?我们是否选择继续用骄傲、争竞、悖逆,喂养心中那只“龙虾”?

片尾曲:杨航《万福泉源》
版权声明:《境界》所有文章内容欢迎转载,但请注明出处,来自《境界》,并且不得对原始内容做任何修改,请尊重我们的劳动成果。投稿及奉献支持,请联系jingjietougao@gmail.com。如有进一步合作需求,请给我们留言,谢谢!




Leave A Reply