您的位置: 首页 >科技 >

在企业中促进道德AI的6个技巧

2022-08-25 11:21:31 编辑:扶珠朗 来源:
导读 随着企业探索利用机器学习(ML)和其他AI工具挖掘客户见解,识别人才并保护公司网络安全的方式,人工智能(AI)可能是数字时代最具破坏力的技术...

随着企业探索利用机器学习(ML)和其他AI工具挖掘客户见解,识别人才并保护公司网络安全的方式,人工智能(AI)可能是数字时代最具破坏力的技术。尽管IT部门可以迅速推出并从大多数技术中受益,但有证据表明CIO在实施AI时应格外谨慎,包括采用具有强烈道德考量的技术。

原因?人工智能遭受了很大的偏差问题。在一个示例中,Amazon在未能公平评价女性在软件开发人员职位和其他技术职位上的工作后,就取消了招聘工具。在另一个例子中,麻省理工学院和多伦多大学的研究人员发现,该公司的面部识别软件将女性(尤其是皮肤黝黑的女性)误认为男性。

并非只有Amazon,因为其他公司和其他高风险领域都出现了AI问题。在测试公司的Portal视频聊天设备时,Facebook程序经理遇到了算法歧视。ProPublica显示,在使用的用于预测未来罪犯的软件偏向于非裔人。加州大学伯克利分校(UC Berkeley)对金融科技公司的一项研究发现,按揭贷款的面对面决策和算法都向拉丁裔/非裔人借款人收取更高的利率。

同样令人关注的是利润率周围的歧视,这种偏见在其微妙之处是隐蔽的。在“ 代理人歧视 ”中,邮政编码可以充当种族的代理;选择单词可以代表性别;并加入有关基因突变的Facebook小组可能会使一个人处于医疗保险的高风险类别,即使该信号尚未明确编码到算法中。

显然,人工智能遭受数字化版本的偏见折磨着现实世界。纽约大学AI Now研究所的联合创始人 凯特·克劳福德(Kate Crawford)说,归根结底,算法是一种“人类设计的创造”,它继承了我们的偏见。根据IEEE Spectrum的说法,这种偏差跨越了数十年。

因此,IT领导者越来越关注产生“可解释的” AI。他们渴望算法的结果可以清楚地表达出来,理想地满足监管者和业务主管的要求。但是鉴于固有的偏见,也许他们真正需要的是“ 道德的AI ”,或者以完全包容的公平性运作的算法。


免责声明:本文由用户上传,如有侵权请联系删除!

2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ280 715 8082   备案号:闽ICP备19027007号-6

本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。