您的位置: 首页 >科技 >

人工智能如何帮助我们减少法官的偏见

2019-04-27 11:50:01 编辑: 来源:
导读 随着人工智能进入法庭,关于具有隐藏偏见的量刑算法已经写了很多。图卢兹经济学院和图卢兹大学法学院研究员Daniel L Chen有一个不同的想

随着人工智能进入法庭,关于具有隐藏偏见的量刑算法已经写了很多。图卢兹经济学院和图卢兹大学法学院研究员Daniel L. Chen有一个不同的想法:使用人工智能帮助纠正人类法官的偏见决策。

拥有法律学位和经济学博士学位的陈先生花了数年时间收集法官和美国法院的数据。“我特别想到的一件事就是如何理解我们发现的所有行为偏见,”他说。例如,在做出决定时可能会缩小尺度的人为偏见。在一份新的工作文件中,Chen提出了一个建议,即如何将大数据集与人工智能相结合,以帮助预测法官的决定,并帮助我们推动他们使判决变得更公平。

Verge向Chen讲述了影响司法偏见的许多因素以及人工智能在法律上的未来。

当然。一个公布的发现是赌徒的谬论。如果我是指派法官并且我连续多次分配庇护,我可能会担心我变得太宽容了。然后我积极尝试自动更正。所以下一次,我会否认庇护。这是一个无关紧要的影响,因为我对前一案件的裁决错误地影响了对当前案件的裁决。另一个发现是,在巡回法庭中,你会看到总统选举周期的行为不同。当选举季节到来时,他们开始不同意并且沿着党派路线投票。

我们有一篇关于早期可预测性的论文,其中我们使用机器学习来试图预测法官在庇护案件中的决定。事实证明,我们可以很好地预测法官在案件开庭前如何统治,只使用有关法官身份和寻求庇护者国籍的信息。这就提出了一个问题:为什么法官在观察事实之前能够如此预测?一种解释是,法官可能会采用更多的快速判断和启发式来判断案件而不是事实。

对。所以你的想法是,如果我们能够发现哪些评委倾向于“可预测” - 暗示他们可能更多地依赖快速判断 - 我们可以提醒他们这个事实,并建议他们更仔细地考虑?

是。当法官诉诸法律相关因素未考虑的快速判决时,这可能是一种注意事项。然后我们可以建议一下这样的话:“你能在这个案子上多花几个小时或几天吗?根据你过去所做的事情,你往往会在这方面有点偏颇。“

在早期可预测性研究中,您仅使用有限的法官身份和国籍信息。更广泛地说,您建议我们可以使用其他数据集,结合人工智能,来检测司法决策可以通过外部因素预测的情况。这怎么样?

我希望有一个关于法官决策历史和所有潜在的背景外部因素的大型数据集。然后,您可以分析数据,看看哪些相关因素和不相关因素可能会影响法官的决定。一个大数据集可以帮助我们说在这些特定情况下,判断更有可能在给定方向上受到影响。

我们可能想要考虑哪些类型的外来因素?

我们从心理经济学和政治学中学到了很多东西 - 从情绪或天气来看。例如,有一篇论文说路易斯安那州的足球损失会影响法官的判刑。其他人则研究温度如何影响分配决策。我们有一份文件显示,法官对被告的生日往往更宽容。因此,我们可以尝试获取所有这些数据并将其组合在一起。那将是一个起点。

一旦看起来可能存在偏见,你会怎么做?一个建议是更加谨慎地进行审议。在论文中,您还提到了可能的培训计划?

让人们知道他们受到偏见的影响可以帮助减少他们。也许给法官更多的训练会有所帮助。我不是在谈论向他们展示一连串的偏见,这些偏见很难跟踪,而是提供一个理论框架来理解很多不同的现象以及我们受影响的所有方式和原因。

现在法律和量刑中存在一些关于人工智能的争议。你怎么认为这会改变?

人们越来越多地使用自然语言处理工具和人工智能和大数据与法院的意见。这是一个很有前途的研究领域,我很想知道它如何转化为政策。

对算法如何改善决策制定当然很感兴趣。我一直在思考人们如何以及为什么如此抵制这种预测和机器协助判断的想法。我认为这与人们喜欢认为我们是独一无二的事实有点相关,因此以这种方式与其他人相比并不能完全认识到我的个性和尊严。一方面,人们可能只是习惯于帮助法官做出决策的大数据。另一方面,我是个人,所以不要把我当成另一个数据点。

当然,所有这些都受到通常关注预测良好程度的影响。您的预测可以基于有偏见的数据,并仔细考虑它如何影响您的结果非常重要。也就是说,它仍然是一种平衡行为。即使它是基于有偏见的数据,如果你有偏见的人正在做决定,也许稍微有偏见的预测仍然稍微更公平。


免责声明:本文由用户上传,如有侵权请联系删除!

2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ280 715 8082   备案号:闽ICP备19027007号-6

本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。