您的位置: 首页 >互联网 >

微软聊天机器人Tay突显出人工智能离真正的智能还有多远

2022-09-18 07:09:22 编辑:唐萍健 来源:
导读 对微软来说,这一直是公关周的噩梦。微软Xbox部门的负责人菲尔?斯宾塞(Phil Spence r)不得不为在微软(Micros of t)在游戏开发者大...

对微软来说,这一直是公关周的噩梦。微软Xbox部门的负责人菲尔?斯宾塞(Phil Spence r)不得不为在微软(Micros of t)在游戏开发者大会(GDC)上举办的一场晚会上,穿着“学校女生”服装的女舞蹈家道歉。他说,让舞者参加这次活动“绝对不符合或符合我们的价值观。这显然是错误的,不会被容忍”

这件事是内部处理的,所以我们不知道谁会负责,为什么他们可能会认为这是一个好主意。

但当一个叫Tay的聊天机器人开始在推特上发表攻击性评论,似乎支持纳粹、反女权和种族主义观点时,微软的情况会变得更糟。当时的想法是,Tay背后的人工智能将在Twitter和其他社交媒体网络上向他人学习,并以平均19岁女性的身份出现。然而,发生的事情是,实验被一群来自臭名昭著的“pol”(政治上不正确的)公告栏的人劫持了,他们开始训练Tay说一些非常不恰当的话。

这一次是由微软研究院的公司副总裁Peter Lee说的,他不得不说:“我们对来自Tay的无意冒犯和伤害性的推文深感遗憾,这些推文不代表我们是谁,也不代表我们的立场”。

泰被抓获,推特被删除,但在其中一些最具攻击性的推特被抓获并在互联网上进一步传播之前没有。

显然,微软的研究人员认为,由于他们成功地开发了一个类似的人工智能聊天机器人,称为XiaoIce,它一直在社交网络微博上成功地在运行,Tay在Twitter上与西方受众的经验将遵循同样的道路。

在IBM的Watson电脑上工作的人工智能交互设计师Caroline Sinders写了一个很好的解释,说明Tay的开发人员应该如何预测这一结果并加以保护。对机器人的测试还不够,当然,该技术的开发人员没有社会学技能来了解互联网上的社区范围,以及一旦该技术被释放到野外,他们会做些什么。

Tay的令人不安的结果是,微软的Peter Lee认为Tay“实验”的问题是一个技术问题,可以通过简单的技术修复来解决。他完全忘记了这个问题是一个社会学和哲学的问题,除非从这个角度加以解决,否则总会导致技术听起来表面上是人类的,但永远不会显示出任何真正的智慧。

聊天机器人的设计是为了了解语言是如何构建的,并利用这些知识来创建上下文正确和相关的单词。他们不被教导去理解这些词的实际含义,也不被教导去理解这些词的社会、道德和伦理层面。泰不知道什么是女权主义者,当它建议“他们都应该死在地狱里燃烧”时,它只是重复了一个词的结构,它的输入作为句子的一部分,它可以重新格式化,听起来很有可能是有意义的。

我们从听起来很聪明的东西到实际上很聪明的实体的飞跃,这证明了人性对人类技术的拟人化能力。最近谷歌的AI软件AlphaGo就是如此,它在复杂的Go游戏中击败了一个世界级的人类玩家。关于这一点的评论表明,AlphaGo展示了许多人类智能特征,而不是它所做的,这是有效地搜索和计算获胜策略,从它可以访问的数百万游戏。

即使是应用于人工智能的“学习”一词,也会导致许多人,包括人工智能本身的开发者错误地认为它相当于人类所经历的学习过程。这反过来导致了像斯图尔特·罗素(Stuart Russell)和彼得·诺维格(Peter Norvig)这样的人工智能专家多年来警告说,“人工智能系统的学习功能可能导致它演变成一个有着意想不到行为的系统”的风险。

与Tay的实验突出了微软开发人员的糟糕判断,以及聊天机器人的局限性。在这种情况下,人类和软件似乎都无法从这一不幸事件中吸取真正的教训。


免责声明:本文由用户上传,如有侵权请联系删除!

2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ280 715 8082   备案号:闽ICP备19027007号-6

本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。