您的位置: 首页 >科技 >

这是AI的顶级研究人员认为人工智能将会实现的时候

2019-04-29 17:29:11 编辑: 来源:
导读 人工智能学科的核心是有一天我们能够建造一个像人类一样聪明的机器。这种系统通常被称为人工通用智能系统,即AGI,它是将概念与更广泛的研

人工智能学科的核心是有一天我们能够建造一个像人类一样聪明的机器。这种系统通常被称为人工通用智能系统,即AGI,它是将概念与更广泛的研究领域区分开来的名称。它还清楚地表明,真正的人工智能拥有广泛且适应性强的智能。到目前为止,我们已经建立了无数系统,这些系统在特定任务中都是超人,但在一般脑力方面,没有一个能够与老鼠相匹敌。

但是,尽管这个想法在人工智能领域具有中心地位,但研究人员对于何时可以实现这一壮举几乎没有一致意见。

在本周出版的一本名为“智力建筑师”的新书中,作家和未来学家马丁·福特采访了今天在AI工作的23位最杰出的男性和女性,其中包括DeepMind首席执行官Demis Hassabis,Google AI首席Jeff Dean和斯坦福AI导演Fei - 李飞 在一项非正式调查中,福特要求他们每个人猜测哪一年将至少有50%的机会建立AGI。

福特采访的23人中,只有18人回答,其中只有两人记录在案。有趣的是,这两个人提供了最极端的答案:谷歌的未来学家兼工程总监Ray Kurzweil建议,到2029年,AGI将有50%的可能性建成,Rodney Brooks,机器人和联合创始人iRobot,去了2200.其余猜测分散在这两个极端之间,平均估计是从现在开始的2099 - 81年。

换句话说:AGI是一个舒适的距离,虽然你可能活着看到它发生。

AGI意味着具有广泛智能的AI,但我们缺少很多关键组件来实现它。 摄影:Matt Winkelmeyer / Getty Images为WIRED25拍摄

这与人工智能研究人员关于这一主题的第一次调查相差甚远,但它提供了一个罕见的精英观点快照,目前正在重塑世界。福特说,他对The Verge说,特别有趣的是,他所收集的估计偏向更长的时间框架,而不是早期的调查,这些调查往往接近 30年。

福特说:“我认为你的态度和你的年轻程度之间可能存在着大致的相关性,”他指出,他所谈到的几位研究人员都是70多岁,经历过这个领域的起伏。“一旦你开展了数十年和数十年的研究,也许你的确会变得更加悲观。”

福特说,他的采访也揭示了专家意见中的一个有趣的分歧 - 不是关于什么时候可能建立AGI,而是使用现有方法是否甚至可能。

福特的一些研究人员说,我们拥有大多数基本工具,建立AGI只需要时间和精力。其他人说我们仍然缺少实现这一目标所需的大量基本突破。值得注意的是,福特说,研究人员的工作基于深度学习(人工智能的子领域,这推动了最近的繁荣),他们倾向于认为未来的进步将使用神经网络,即当代人工智能的主力。具有人工智能其他部分背景的人认为,建立AGI需要其他方法,如符号逻辑。无论哪种方式,都存在相当多的礼貌分歧。

福特说:“深度学习营中的一些人非常贬低试图在人工智能中直接设计常识。” “他们认为这是一个愚蠢的想法。其中一人说这就像是试图将一些信息直接粘贴到大脑中。“

所有福特的受访者都注意到了当前人工智能系统的局限性,并提到了他们尚未掌握的关键技能。这些包括转移学习,其中一个领域的知识应用于另一个领域,以及无监督学习,其中系统在没有人类指导的情况下学习。(绝大多数机器学习方法目前都依赖于人类标记的数据,这是发展的严重瓶颈。)

受访者还强调,在人工智能这样的领域进行预测是绝对不可能的,因为人工智能领域的研究已进入适应期,并且关键技术在首次发现后几十年才达到其全部潜力。

加州大学伯克利分校的教授斯图尔特罗素写了一篇关于人工智能的基础教科书,他说创建AGI所需的那些突破“与更大的数据集或更快的机器无关”,所以他们不能很容易绘制出来。

“我总是讲述核物理学中发生的事情的故事,”拉塞尔在接受采访时说。“欧内斯特卢瑟福在1933年9月11日表达的共识观点是,永远不可能从原子中提取原子能。因此,他的预测是“永远不会”,但事实证明是第二天早上Leo Szilard阅读了卢瑟福的讲话,对此感到厌烦,并发明了由中子介导的核链式反应!卢瑟福的预测是“从不”,事实是大约16个小时后。以类似的方式,对于我对AGI的这些突破何时到来进行定量预测感到非常徒劳。“

福特表示,这种基本的不可知性可能是他与之交谈的人不愿意将他们的名字放在猜测旁边的原因之一。“那些确实选择较短时间框架的人可能会担心被拘留,”他说。

许多研究人员表示,经济问题比超级智能的威胁更为紧迫。 摄影:Bill Pugliano / Getty Images

关于AGI构成的危险的意见也不一。牛津大学哲学家,超级智能 (Elon Musk's的最爱)一书的作者尼克博斯特罗姆是一个有强烈言论可以说明潜在危险的人,他说人工智能比气候变化对人类的存在更具威胁。他和其他人说,这个领域最大的问题之一就是价值调整 - 教导AGI系统具有与人类相同的价值(着名的“ 回形针问题 ”)。

“关注的不是[AGI]会因为奴役它而讨厌或怨恨我们,或者突然出现意识的火花并且它会反叛,”博斯特罗姆说,“但是它会非常有力地追求一个不同的目标。从我们真正想要的。“

大多数受访者表示,与经济破坏和战争中使用先进自动化等问题相比,存在威胁问题极为遥远。哈佛大学人工智能教授芭芭拉·格罗兹(Barbara Grosz)为语言处理领域做出了开创性贡献,他表示,AGI道德问题主要是“分散注意力”。“真正的一点是,我们现在有许多道德问题,我们通过人工智能系统有,“格罗兹说。“我认为由于可怕的未来主义情景而分散注意力是不幸的。”

福特说,这种来回可能是智能建筑师最重要的一点:在像人工智能那样复杂的领域里,确实没有简单的答案。即使是最精英的科学家也不同意世界面临的基本问题和挑战。

福特说:“人们没有得到的主要外卖是多少分歧。” “整个领域都是如此难以预测。人们不同意它的移动速度,下一个突破将是什么,我们将多快到达AGI,或者最重要的风险是什么。

那么我们能坚持什么样的真理呢?福特说,只有一个。无论AI接下来会发生什么,“这将是非常具有破坏性的。”


免责声明:本文由用户上传,如有侵权请联系删除!

2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ280 715 8082   备案号:闽ICP备19027007号-6

本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。