您的位置: 首页 >科技 >

我们的辩论教给我们关于AI和机器人的内容

2019-05-16 17:26:25 编辑: 来源:
导读 今年在SXSW,我们向节日观众展示了极端之战:人工智能主持人辩论。它背后的想法是探索使用AI机器人跟随我们时代的一些最大问题的对话的可能

今年在SXSW,我们向节日观众展示了“极端之战:人工智能主持人辩论”。它背后的想法是探索使用AI机器人跟随我们时代的一些最大问题的对话的可能性,并呼吁任何极端思考,绝对主义,高情绪和积极性与消极性。从数据保护和隐私到个性化和道德,元扭曲是这些是人工智能本身存在的一些核心争论。

这个想法首先出现在机构内部不同的谈话中。在Karmarama,我们的口头禅是“好作品”,我们的客户工作和文化遵循这一信条。对于这个想法,我们想用技术做一些有趣的事情并自信地问自己,它有用吗?它能做的不仅仅是省钱和削减成本吗?毫无疑问,这些是与新兴技术合作的良好商业原因,但我们希望进一步发展。

在SXSW所代表的推动下,我们相当容易地讨论了辩论的形式:各种主题的融合以及讨论它们的各种各样的人。我们研究了人工智能,因为它是目前存在的最令人兴奋和最有前景的技术之一,而且仍然处于相对的初级阶段。

我们想探讨是否有可能证明或反驳AI在社会中的用处。因此,我们着手进行一项实验,探讨它是否具有社会积极性。我们研究了人工智能如何在辩论中发挥作用; 我们与舞台上的人类主持人合作,赋予其分析,可视化和调节辩论的作用。在我之后,团队决定对机器人进行建模。他们告诉我,本着展示人与机器如何协同工作的精神,但在你自己接受采访之前,不要告诉我这不是一点奇怪。

然而,格式并不完全正确。问题在于辩论的二元性质。一方赢得了争论,另一方输了。我们想要实现的是建设性对话,所以要做到这一点,小组成员需要从他们不同的观点出发。Jon-Bot的工作是帮助他们和观众看到不同的观点,以及他们在观点上分歧的地方。我们不想使用技术来强制达成共识,而是帮助双方找到共同点。

我们自己建造了机器人。我们的出发点是搜索现有服务。亚马逊,微软和IBM都为不同的任务提供现成的语音到文本,自然语言处理,机器学习和情感分析功能,这适合我们构建可以实时分析对话的AI的挑战在谈论的主题和相关内容,内容的广度,显示的情感和内容的准确性。在分析辩论者如何相互作用时,我们需要看看他们是在融合还是分歧,以及他们找到共同点的主题。

我们与埃森哲在都柏林码头的团队密切合作,专门研究应用智能。他们开始创建一个定制的AI平台来执行所需的任务,与我们的研究和见解团队密切合作,他们收集了关于辩论主题的数据语料库。

在我们的实验开始时,在我们的脑海中,AI就像人一样,具有广泛的知识。我们的期望是它能够理解正在发生的事情并做出回应。这被称为“一般情报”,但它在AI中并不存在。当机器学习超越人类的理解时,发生这种情况的点就是所谓的“奇点”。对于未来学家来说,这是一个激动人心的幻想,但这就是现在的全部。

对于我们的机器人,我们不得不考虑大刀阔斧。如果我们训练AI来理解关于社会的辩论的主题,那么实现这一目标的最简单方法是通过模式识别。这导致了进一步的考虑。AI事实可以检查吗?它是如何知道什么是真的?它是如何与它认为真实的来源相匹配的事实?你如何识别这些主题?

有一种常见的误解,你可以将机器学习设置为一项任务,它可以将其排序 - 有点像使用谷歌搜索。例如,要求它在网上搜索关于数据和社会的辩论,并在这些主题中进行自我训练。对于我们使用该技术的地方来说,这根本不可能。只有当人类识别并整理信息然后输入算法时才有可能。这对许多人来说是一次大规模的学习 - 项目花费的大部分时间都是访问数据并组织它,因此机器学习可以用它来做些什么。

作为我们构建过程的一部分,我们进行了大量的研究,以了解围绕人工智能和社会的争论,找到我们用来教育我们机器人的辩论。在众多主题中,我们探讨了一些主题:

人与机器 - 技术应该增强人类。但是媒体和其他压力团体并不缺乏随意的恐慌。我们发现有许多相关的机构,政府和组织,并且正在为这个重要问题投入高质量的研究工作

滥用商业机构的权力 - 如果期望对AI的投资从长远来看会产生商业利益,那对社会是好还是坏?那怎么控制呢?法规或法律在何处进入?另一方面,随着人们对政府的信任度越来越低,大企业在事实上的作用就是善用他们的权力。这超越了“绿色环保” - 看看联合利华的可持续生活品牌,这是一个通过做好事来看到增长的企业的一个很好的例子

对排斥和偏见的恐惧 - 谁在训练人工智能,他们是否有能力不偏不倚?你如何让AI公平?亚马逊不得不拔出插头去年对有偏见的女性申请人招聘工具

失去隐私 - 要真正智能化,机器学习需要知道一切 - 那么你如何解决这个问题呢?是通过匿名数据吗?

人力资源机构 - 机器学习越多,你就越能剥夺人类的权力,因为他们越来越依赖技术

我们还研究了解决方案领域 - 从人类合作到道德政策和民主保障。很明显,教育将发挥核心作用。每个人都需要了解技术及其潜力,以便他们了解相关风险。我们学到的最有前途的解决方案之一是开发机器学习的协作流程。以医疗保健为例,您可以通过社区优化该领域的机器学习:邀请社区成员帮助进行检查和平衡以消除偏见。

到了表演的时候,我们从机器人那里学到了很多东西。在辩论之后,它听取了这些主题的有趣工作。辩论者发现的是,当你处于讨论的核心时,你并不总是意识到你正在插入多个元主题。我们使用语音到文本功能实时转录辩论,AI从中分析了主题并突出了主题领域。我们还训练AI识别表达说话者情绪的短语和单词 - 例如,他们是否感到高兴,震惊或生气。它还指出了任何可疑或不正确的事实; 这种效果令人尴尬,因为它对我们的辩手来说很有教育意义。

我们的研究向我们展示了围绕这项技术的讨论正朝着同一方向发展:走向合作 - 这是一种令人放心的想法。有很多倡议使用人工智能,例如Colorintech关注包含偏见和ProPublica 对 COMPAS 偏见的调查。但是我们通过像我们这样的项目来理解的是,这些应用需要展示更多的解决方案并提出难题,比如我们如何为社会做出贡献。只有这样,我们才能加深知识,理解我们的极限。


免责声明:本文由用户上传,如有侵权请联系删除!

2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ280 715 8082   备案号:闽ICP备19027007号-6

本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。