您的位置: 首页 >科技 >

技术专家就如何控制算法提出了四点建议

2019-04-21 17:07:41 编辑: 来源:
导读 宾夕法尼亚大学技术与数字业务教授Kartik Hosanagar说:我听到很多算法都是强大的技术,而且这些公司都是垄断企业,我们对它们无能为力,

宾夕法尼亚大学技术与数字业务教授Kartik Hosanagar说:“我听到很多算法都是强大的技术,而且这些公司都是垄断企业,我们对它们无能为力,谷歌是唯一的选择。” “我试图说我们不是。”

Hosanagar是“ 人类机器智能指南:算法如何塑造我们的生活以及我们如何保持控制”的作者,该计划 于3月12日由企鹅兰登书屋出版。本书向读者介绍了算法触及日常生活的所有方式。Verge向Hosanagar讲述了本书的最后部分:实施四项建议或“支柱”,以防止有害的,意料之外的后果。

我对如何“控制”算法的问题感兴趣。但在我们到达那里之前,你能告诉我他们为什么需要被控制吗?

我认为大多数人以非常被动的方式使用技术,不一定要注意技术如何在幕后工作。如果所有这一切都在改变决策的效率,那就没关系但是它们也带来了某些风险和意想不到的后果,比如没有明确编程的偏见。而且因为他们大规模地做出决策 - 意味着成千上万甚至数百万人 - 风险在于这些偏见,如量刑算法中的种族偏见,可能几乎被制度化。

那讲得通。现在让我们谈谈你的四个建议 - 或者,正如你所说的那样,“支柱” - 用于控制算法。

第一个问题与所使用数据的透明度有关。但在我去那里之前,透明度始于让用户知道算法正在做出决定。通常,我们不知道。您申请贷款并被拒绝,您甚至不知道是谁做出了决定。因此,您需要首先让用户知道算法在幕后工作。

更重要的是,您需要有关所使用数据的透明度。例如,抵押贷款申请中使用了哪些不同的变量?然后,第二件事是你需要关于模型的透明度,这意味着不仅解释了所使用的数据,而且解释了事物的加权方式。也许某些事情比工作经历更重要。或者顶部变量可能是地址,我们可能想知道为什么这是最重要的。它允许我们首先了解正在使用的内容,如果有任何问题,我们可以质疑它。我认为这有助于解决信任和意外后果。

透明度太高可能会带来什么成本?我知道,对于算法,很多这些信息都是商业机密,所以他们并没有完全放弃这些数据。

在这个领域,我觉得监管机构的努力是错误的。当我们谈论透明度时,我会看到努力揭示源代码,这违反了公司的知识产权。另一方面,揭示源代码无论如何都不会告诉我们很多关于算法的信息。

所以我不认为透明度必然意味着揭示源代码。它应该是高级的,只是关于数据和变量。此外,如果您有关于算法如何工作的大量详细信息,用户将不堪重负。实际上,研究表明,非常高的透明度实际上会损害用户对算法的信任。

你能告诉我更多有关该研究的信息吗?

在斯坦福大学进行了一些研究关于这个话题。大学课程评分的一个问题是不同的TA或多或少是宽松的。因此,他们使用算法来标准化或修改等级,以使宽大程度保持一致。然后,一组接收到关于算法如何工作的最小信息,第二组获得一些高级数据,第三组获得有关算法如何工作以及原始数据和所有更改的所有信息。结果是第三组的信任程度降低到与未收到任何信息的组相同的水平。所以它表明,如果你揭示了那么多信息,就好像你什么也没透露一样。对用户来说,好消息是你不需要算法的内部工作,

然后还有另一个问题,即在审计过程中需要什么样的透明度,这需要更高的透明度,并且需要由独立于制作模型的团队的团队来完成。

第三个想法是,用户和算法之间总是需要一些反馈循环。这怎么可行?

同样,用户通常不会做任何事情,只能使用算法并且无法控制并且迫使我们变得被动。我主张应该有一个反馈循环,比如可以说,“我不喜欢这篇文章。”或者在更重要的情况下,如抵押贷款,这就是透明度的来源。如果我们知道哪些变量是在使用时,我们可以抗议,比方说,使用地址或邮政编码作为变量,因为地址与种族相关。

最后一个支柱就是人们需要对用户如何受到算法决策的影响负责。我们有我们的美元和选票,我们应该寻找知道这些问题的当选代表,他们认真对待并倡导消费者保护。我们应该使用我们的钱包进行投票,并了解数据的使用方式。对于不同的人来说,这条线可能看起来不同,但我们必须更加谨慎地选择。

我们应该有更多的监管,也许是联邦算法安全委员会,它为行业提供最佳实践并提供某种监督。需要一个独立的机构来调查投诉和问题。


免责声明:本文由用户上传,如有侵权请联系删除!

2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ280 715 8082   备案号:闽ICP备19027007号-6

本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。