算法可以交付正义吗? ©Getty Images.

算法可以交付正义吗?

汉娜弗里的新书 你好,世界 在皇家社会科学博士奖中 - 在这种提取物中,她探讨了算法如何帮助法官决定句子。

2017年,一群研究人员出发了发现机器的预测堆积到一堆人类法官的决定堆积的程度。

广告

为了帮助他们在他们的使命中,该团队可以访问2008年至2013年期间在纽约市逮捕的每个人的记录。在那时,在此期间,四分之三的人受到保释听证会,这意味着易于通过人类法官在头到头基础上测试算法。

纽约司法系统尚未使用算法在这些案例中,但追溯看,研究人员必须建立大量决策树,看看可能会如何预测被告当时打破保释条件的风险。在罪犯上的数据中:他们的RAP表,他们刚刚犯下的罪行等等。出现了被告是否会继续违反保释条款的可能性。

在实际数据中,在审判之前,408,283名被告被释放。其中任何一个都是可以自由逃离或犯下其他罪行,这意味着我们可以利用后可以的利益来测试算法的预测和人类决策的准确性。我们究竟知道谁未能在法庭上出现(15.2%),谁在保释时重新被逮捕(25.8%)。

皇家社会Insight Invest Investment Science Book奖2018年

不幸的是,对于科学来说,任何被告被法官视为高风险就会被拒绝当时被拒绝保释 - 因此,在这些案件上,没有机会证明法官的评估权或错误。这让事情变得有点复杂。这意味着没有办法提出一个寒冷的硬电话,捕捉法官的总体准确程度。如果没有那些被告如何表现出来的“基础”,你就无法说明算法的整体准确性。相反,您必须对被判入狱的被告才能做出教育的猜测,如果发布,并使人类与机器的比较有点是一种环形交叉路口的方式。

但是,有一件事是肯定的:法官和机器没有达成一致他们的预测。研究人员表明,许多被算法标记的被告作为真正的坏人被判断受到评分,因为它们的风险很低。事实上,近一半的被告被标记为最风险的群体被评委会被裁判。

但谁是对的?这些数据显示,该算法担心的组确实构成了风险。超过56%的人中未能出现他们的宫廷出场,62.7%的人继续犯下新罪行,同时在保释中出发 - 包括最糟糕的罪行:强奸和谋杀罪。该算法已经看到这一切都到来了。

研究人员认为,无论你使用它哪种方式,他们的算法大大差异了人类法官。数字返回它们。如果您想要更少等待试验的人,则该算法可以通过将41.8%的被告托运到监狱,同时保持犯罪率相同。或者,如果您对赋予保释金的当前比例感到满意,那么这也很好:只是通过更准确地选择释放的被告,算法可以减少24.7%的跳水率。

这些福利不仅仅是理论上的。罗德岛,法院过去八年使用这些种类的算法,在监狱人口减少了17%,累犯率下降了6%。这是数百名低风险违规者,他不必要地陷入监狱,数百名尚未承诺的罪行。另外,鉴于每年30,000英镑的费用,在英国的一名囚犯将一年中加入一年的囚犯,而在美国的一年内,在一个高安全的监狱中可以花费与哈佛大的成本相同 - 这是数十万纳税人的纳税人保存金钱。这对每个人来说都是双赢。

还是呢?

找到Darth Vader.

当然,没有算法可以完全预测未来的人会做什么。个人人类太乱,不合理和冲动,以某种预测,肯定会有什么会发生的事情。他们可能会提供更好的预测,但他们仍然会犯错误。问题是,所有风险评分错误的人会发生什么?

算法可以制作两种错误。宾夕法尼亚大学犯罪学和统计教授的理查德·伯克和预测累犯的领域的先驱,具有一种描述它们的值得注意的方法。

“有很好的家伙和坏人,”他告诉我。 '你的算法有效地问:“谁是达斯的大兄弟?谁是卢克斯沃克斯?“'

让达尔斯的vader自由是一种错误,称为假阴性。无论何时你都无法识别个人姿势的风险,它会发生。

另一方面,妨碍卢克·天行者将是假的。这是算法错误地将某人识别为高风险。

这两种错误,假阳性和假阴性,并不是常规的独特。他们将在这本书中反复发挥作用。任何旨在分类的算法可能是犯有这些错误的罪。

 汉娜弗里

伯克的算法声称能够预测某人是否会继续以75%的准确性进行杀人,这使得它们成为一些最准确的。当您考虑释放我们认为我们的意志,这是一种非常令人印象深刻的准确性。但即使是75%,那就是很多卢克Skywalkers,他们将被拒绝保释,因为它们看起来像外面的Darth Vaders。

当算法用于判决时,误标标记被告的后果变得更加严重,而不是在保释或假释的决定。这是一种现代现实:最近,一些美国各国已经开始允许法官看到被定罪的罪犯计算的风险得分,同时决定入狱。这是一个引发激烈的辩论的发展,而不是没有原因:这是计算是否让别人出发的一件事,又一次地计算他们应该首先被锁定的时间。

部分问题的是,决定句子的长度涉及考虑到刑事重刑的风险,这是所有算法都可以帮助。法官还必须考虑到罪犯对他人带来的风险,衡改判决决定将对其他罪犯进行,对受害者报应的问题以及被告康复的机会。平衡是很多,所以人们对算法提出反对的算法很少奇迹,在决定中给予太多重量。一点奇怪,人们发现像保罗Zilly那样深深的令人不安的故事。

Zilly被判窃取割草机。他在2013年2月在威斯康星州巴龙县的法官Babler面前站在Babler面前,知道他的国防团队已经同意判定辩诉场。双方都同意,在他的案例中,长监狱术语不是最好的行动方案。他抵达期待法官只是橡皮戳的协议。

不幸的是,Zilly,威斯康星州法官正在使用称为Compas的专有风险评估算法。与“电力”章节中的爱达荷预算工具一样,Compas的内部运作被认为是一个商业秘密。但是,与预算工具不同,Compas代码仍然无法对公众提供。我们所知道的是计算基于被告给调查问卷的答案。这包括以下问题:“饥饿的人有权偷窃,同意或不同意?”和:'如果你和你的父母一起生活,他们分开了,你当时多大了?'算法设计了唯一的目的是预测被告在两年内重新冒犯的人有多可能,并且在这项任务中取得了约70%的准确率。也就是说,每三名被告大约一个人都是错误的。没有少,法官在判刑决定期间被使用。

Zilly的得分并不好。该算法将他作为未来暴力犯罪的高风险以及一般性累犯的中等风险。 “当我看风险评估时,”Babler法官在法庭上说,“它就像它一样糟糕。”

在看到Zilly的分数之后,法官在国防和起诉达成的协议中对算法进行了更多的信念,并驳回了普雷亚议案,并在一年的县监狱中从一年的南部判断到了一个国家监狱的两年。

不可能知道Zilly是否应得的高风险评分是不可能的,尽管70%的精度率似乎是一个非常低的阈值,以便使用算法过度规则的其他因素证明。

Zilly的案例被广泛宣传,但这不是唯一的例子。 2003年,克里斯托弗德鲁布鲁克斯,一名19岁的男子,与一个14岁的女孩进行了同意性关系,并在弗吉尼亚州的法院被判犯了法定强奸。最初,判刑指南建议入狱期限为7至16个月。但是,在调整建议之后,包括他的风险评分(在这种情况下由Compas建造),上限增加到24个月。考虑到这一点,法官在监狱中判处他到18个月。

这是问题。这种特殊的算法使用年龄作为计算其常规评分的因素。在这种年轻时被判犯有性行为犯罪,这是对阵布鲁克斯的罪行,即使它意味着他对受害者的年龄更接近。事实上,有36岁的Brooks(因此,比女孩年龄22岁)算法建议他根本不被送到监狱。

这些不是人们对自己的判断权限相信计算机的第一个例子,并且他们不会是最后一个。问题是,你能做什么?威斯康星州最高法院有自己的建议。特别是关于法官的危险依赖于COMPAS算法的危险,它表示:“我们希望电路法院在评估每个被告的伙伴风险评分时会行使自由裁量权。”理查德·伯克建议这可能是乐观的: “法院担心没有犯错误 - 特别是公众任命的法官。该算法向他们提供了一种方法,而不是负责任的方式。

这里还有另一个问题。如果算法将某人分类为高风险,而法官将其自由否认他们的自由,则无法确定算法是否准确地看到了他们的未来。拿Zilly。也许他会继续暴力。也许他不会有。也许,被标记为高风险的罪犯,并被送到国家监狱将他置于他同意的辩诉交易中的不同道路上。没有办法验证算法的预测,我们无法知道法官是否正确相信风险得分,没有办法验证Zilly是否实际上是一个Vader或Skywalker。

广告

这是一个没有简单解决方案的问题。您如何说服人们在使用这些算法时申请健康的常识?但即使你可以,预测累犯的另一个问题也是如此。可以说是最具争议的。

你好世界:如何在机器时代成为人类 is out now (£18.99)

皇家社会洞察投资科学奖 为非专业观众庆祝最好的科学写作。 2018年10月1日将于2018年10月1日宣布2018年奖金。

 你好,世界