您的位置: 首页 >科技 >

人工智能不会减轻Facebook人类主持人的痛苦

2019-04-25 16:58:37 编辑: 来源:
导读 无论公司怎么说,AI都不会解决在线内容审核的问题。这是我们之前多次听到的承诺,特别是来自Facebook首席执行官马克扎克伯格,但专家表示,

无论公司怎么说,AI都不会解决在线内容审核的问题。这是我们之前多次听到的承诺,特别是来自Facebook首席执行官马克扎克伯格,但专家表示,这项技术并不存在 - 事实上,可能永远不会。

大多数社交网络使用自动过滤和人工版主的组合将不需要的内容保留在其平台之外。正如The Verge在最近的调查中所揭示的那样,人类主持人经常在压力很大的情况下工作。员工每天必须点击数百项标记内容 - 从谋杀到性虐待 - 然后决定是否违反平台规则,通常是在严格控制的时间表上工作,没有足够的培训或支持。

当他们展示他们的平台正在创造的痛苦(以及其他适度相邻的问题,如感知偏见)时,公司常常说更多的技术就是解决方案。例如,去年在国会前的听证会上,扎克伯格引用人工智能作为这个和其他问题的答案超过30次。

“AI是扎克伯格的麦高芬,”詹姆斯Grimmelmann,康奈尔大学科技法律教授告诉华盛顿邮报 的时间。“它不会解决Facebook的问题,但它将解决扎克伯格的问题:让其他人承担责任。”

那么AI现在正在为Facebook和其他平台做些什么,为什么不能做更多呢?

人类文化自动化的问题

现在,使用人工智能和机器学习的自动化系统肯定在帮助适度方面做了很多工作。它们充当分类系统,例如,将可疑内容推送给人类主持人,并且能够自己清除一些不需要的东西。

但他们这样做的方式相对简单。通过使用视觉识别来识别容易出错的广泛类别的内容(如“人类裸体”或“枪支”); 或者通过将内容与被禁物品的索引相匹配,这需要人类首先创建所述索引。

后一种方法用于摆脱最明显的侵权材料; 来自恐怖组织的宣传视频,虐待儿童材料和受版权保护的内容。在每种情况下,内容都由人类识别并“散列”,这意味着它变成了一个更快速处理的唯一数字串。该技术广泛可靠,但仍可能导致问题。例如,YouTube的ContentID系统在过去曾将上传内容(如白噪声和鸟鸣)标记为侵犯版权。

当内容本身甚至不能被人类轻易分类时,事情变得更加棘手。这可以包括算法肯定会识别的内容,但是它具有许多含义(如裸露 - 母乳喂养计数?)或者是非常依赖于上下文的内容,如骚扰,假新闻,错误信息等。这些类别中没有一个具有简单的定义,并且对于它们中的每一个都存在没有客观状态的边缘情况,例如某人的背景,个人精神或者他们在任何特定日期的情绪可能会使一个定义与另一个定义之间产生差异。

我们要求AI理解人类文化的复杂性

非营利组织数据与社会的联盟研究员罗宾·卡普兰说,试图让机器理解这类内容的问题在于,它实质上是要求他们理解人类文化 - 这种现象过于流畅和微妙,无法在简单的,机器可读的规则。

“[这个内容]往往涉及特定于演讲者的背景,”卡普兰告诉The Verge。“这意味着权力动态,种族关系,政治动态,经济动力等。”由于这些平台在全球范围内运作,她说,还需要考虑不同的文化规范,以及不同的法律制度。

圣克拉拉大学法学教授埃里克戈德曼说,了解内容是否难以分类的一种方法是询问是否需要“外在信息” - 即图像,视频,音频之外的信息或文字。

“例如,过滤器不善于发现有争议事件的仇恨言论,模仿或新闻报道,因为这么多的决心取决于文化背景和其他外在信息,”高曼告诉The Verge。“同样,过滤器并不擅长根据美国版权法确定内容再版是否合理使用,因为该决定取决于外部信息,如市场动态,原始资料和上传者的其他活动。”

但人工智能作为一个领域正在迅速发展。那么未来的算法将来是否能够可靠地对这类内容进行分类?高盛和卡普兰持怀疑态度。

高曼说,人工智能将更好地理解背景,但人工智能很快就能比人类更好地做到这一点并不明显。“在可预见的未来,人工智能不会取代人类审稿人,”他说。

Caplan同意并指出,只要人们争论如何对这种材料进行分类,机器有什么机会?“没有简单的解决办法,”她说。“我们将继续看到问题。”

但值得注意的是,AI并非完全没有希望。最近深度学习的进步极大地提高了计算机对图像,视频和文本中的信息进行分类的速度和能力。为NanoNets工作的Arun Gandhi表示,这不应该打折扣,因为NanoNets是一家向在线企业销售AI审核工具的公司。

“很多焦点都集中在内容主持人的工作创伤或令人不安,这绝对是公平的,”甘地告诉The Verge。“但这也消除了我们正在解决其中一些问题的事实。”

已经取得了进展,但目前尚不清楚它能走多远

Gandhi解释说,机器学习系统需要大量的例子来了解违规内容是什么样的,这意味着随着训练数据集变大,这些系统将在未来几年内得到改善。他指出,即使在几年前,现有的一些系统看起来也不可能快速准确。“我很自信,鉴于我们在过去五年,六年中取得的进步,在某种程度上我们将能够完全自动化适度,”甘地说。

然而,其他人则不同意,他们指出,人工智能系统不仅要掌握政治和文化背景(每月都在变化,而且国家与国家之间的变化),还要掌握讽刺和讽刺等基本的人类概念。可以通过简单的黑客攻击AI系统的各种方式,并且完整的AI解决方案看起来不太可能。

牛津互联网研究所的律师和研究员Sandra Wachter表示,为了满足内容的需要,还需要将人类保持在循环中的法律原因。

“在欧洲,我们有一个数据保护框架[GDPR],允许人们对算法做出的某些决策提出异议。它还说决策的透明度很重要[并且]你有权知道你的数据发生了什么,“Wachter告诉The Verge。但是算法无法解释为什么他们做出某些决定,她说,这使得这些系统不透明,并可能导致科技公司被起诉。

Wachter说,有关GDPR的投诉已经提出,并且可能会有更多案件。“当有更高的权利,如隐私权和言论自由权时,重要的是我们有某种追索权,”她说。“当你必须做出影响其他人自由的判断时,你必须在循环中拥有一个可以仔细检查算法并解释这些事情的人。”

正如Caplan所指出的那样,科技公司可以做的事情 - 以其巨大的利润率和对员工的关注责任 - 改善了人类主持人的工作条件。“至少我们需要有更好的劳工标准,”她说。正如Casey Newton在他的报告中指出的那样,虽然像Facebook这样的公司确实做出了一些努力来适当地奖励人类主持人,给予他们健康福利和高于平均水平的工资,但往往超过了对更好的准确性和更多决策的不懈努力。

Caplan表示,解决内容自动化问题的技术公司面临的压力也可能导致这种状况。“当你遇到工人被迫遵守不可能的准确标准的问题时,”她说。需要尽快提出解决方案,这有助于硅谷经常受到诽谤的“快速行动并打破局面”的态度。虽然这可以成为推出应用程序时思考的好方法,但对于管理全球演讲微妙之处的公司而言,这是一种糟糕的心态。

“而我们现在说,也许我们应该使用机器来解决这个问题,”卡普兰说,“但这将导致一系列全新的问题。”

值得记住的是,这是一个新的独特问题。从来没有像Facebook和YouTube那样拥有庞大且信息密集的平台。这些地方世界上任何地方的任何人都可以随时上传和分享他们喜欢的任何内容。管理这个庞大且不断变化的半公共领域是“其他媒体系统无法面对的挑战,”卡普兰说。

我们所知道的是现状不起作用。负责清理互联网混乱的人是痛苦的,创造这种混乱的人类并没有好多少。人工智能没有足够的智慧来处理这个问题,而人类的智能也在不断提出解决方案。有些东西必须给予。


免责声明:本文由用户上传,如有侵权请联系删除!

2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ280 715 8082   备案号:闽ICP备19027007号-6

本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。