2025年05月16日 星期五
巴印互相驱逐对方一外交官 美国与卡塔尔签署经济军事合作协议 多国试水用AI“预测犯罪”引发担忧 俄乌相约伊斯坦布尔  释放积极信号
第11版:国际新闻 2025-05-15
算法进入警务前线 面临诸多伦理质疑

多国试水用AI“预测犯罪”引发担忧

软件借助算法预测最有可能发生犯罪行为的城市区域 本版图片GJ

还记不记得电影《少数派报告》?影片中,3名“先知”构成一个预知犯罪的系统。然而有一天,“先知”计划的负责人约翰却发现,自己被“少数服从多数”的“先知”系统判定将犯下谋杀罪。他如何自证清白?

如今,影片中的一些场景正逐渐进入现实。随着大数据和人工智能(AI)技术的发展,英国、荷兰、新加坡等国纷纷开始试水“预测性警务”,试图借助算法“预见”风险、预防犯罪。

然而,这一趋势也引发了对隐私侵犯、算法歧视及“预判有罪”的深层担忧。科技在“预测未来”时,是否也在改变我们理解“正义”的方式?

多个软件面世

据人民网报道,英国政府正在开发一个“共享数据以改进风险评估”项目。

这一项目在前首相苏纳克任期内启动,初衷是提高公共安全,最初被命名为“预测谋杀”项目。具体而言,“共享数据以改进风险评估”试图利用来自警方、监狱等机构掌握的犯罪分子、嫌疑人、受害者的个人信息,通过算法分析和识别最有可能实施严重暴力犯罪的人群。

其实,类似利用大数据、人工智能系统“预测”犯罪的项目并不少见。

早在2010年,美国洛杉矶警察局就推出一个“预测性警务”软件,用以预测不同地点发生犯罪行为的概率和规模。2022年,美国芝加哥大学研究团队开发了一款人工智能模型,利用芝加哥2014年至2016年的犯罪数据,用边长约300米的方格对城市进行划分。研究团队称,该模型可以提前一周预测最有可能发生犯罪行为的城市方格,准确度为90%。

荷兰、日本等国也正加速引入相关技术。其中,日本警方推出的名为“犯罪预言家”的人工智能系统,支持识别可疑汽车、分析可疑金融交易和对恐怖分子的筛查。

担心造成不公

对于英国开发中的“共享数据以改进风险评估”项目,批评者质疑该项目可能放大司法系统中结构性的种族歧视和对低收入人群的偏见。在其他国家,此类针对犯罪行为的预测性技术也在伦理等方面备受质疑。

一份2023年的调查显示,美国新泽西州普莱恩菲尔德市警察局的预测性警务软件整体表现可谓惨淡:针对抢劫等严重伤害的预测准确率仅为0.6%,针对盗窃行为的预测准确率更是低至0.1%。

2024年1月,7名国会议员联合致信美国司法部,要求暂停所有针对预测性警务系统的联邦拨款,直至能够明确这些系统不会造成歧视性影响。人们担心,在缺乏透明度与可追责机制下,此类系统存在“数学模型中的结构性歧视”,可能对少数族裔、移民群体等特定人群造成不公正打击。

有分析指出,“预判式治理”将风险认定提前,不再基于已发生的犯罪行为,而是通过行为线索或历史数据对未来进行推演,从而模糊了“无罪推定”原则的界限。

“人类社会不是计算机程序。”华东师范大学政治与国际关系学院院长吴冠军指出,由于仅靠历史数据进行预测,预测性警务存在预测失误的可能。而由于警务涉及人的社会互动,错误的预测可能带来严重后果。

谨慎摸索边界

吴冠军坦言,尽管人工智能技术正飞速发展,但当下依然难以解决“因果逻辑缺失”与“社会复杂性”之间的结构性矛盾。“要解决这一核心问题,对技术的要求非常高。”正因为如此,“目前,预测性警务技术更多只是作为警务工作中的一个辅助工具,例如用于警力布防的参考”。

“当然,历史也是技术不断迭代的动态过程。如若某天,此类技术具备一定的稳定性和因果推断能力,接手部分警务的情景并非不可想象。”吴冠军说,“但前提是技术经过了长期验证,且社会认可其符合正义原则。这不仅是技术问题,更是伦理命题。”

当算法走入警务与司法前线,人类面对的不仅是效率与隐私的权衡,更是技术与正义的碰撞。预测性警务或许能帮助预防部分悲剧,但质疑声也提醒我们,在“数据能做什么”与“人类应允许它做什么”之间,始终应保留一份对技术的谨慎反思和清醒警觉。

本报记者 齐旭 实习生 刘浩康

放大

缩小

上一版

下一版

下载

读报纸首页