您的位置: 首页 >滚动要闻 >

对于大模型 我们真正应该担心什么?至少不是马斯克说的那些

2023-04-02 18:51:11 编辑:霍壮洋 来源:
导读 最近GPT-4推出,众多人工智能开发公司在纷纷推出自己的新产品,处于这种火热形势之下,马斯克和苹果公司的创始人史蒂夫和千余名的科技领袖

最近GPT-4推出,众多人工智能开发公司在纷纷推出自己的新产品,处于这种火热形势之下,马斯克和苹果公司的创始人史蒂夫和千余名的科技领袖联合签署了一封公开信,恳请在未来6个月的时间里科研人员暂停开发比GPT-4更强大的人工智能,在这封信中提到了几个对于未来人工智能的担忧,比如人工智能失控、竞赛失控等等,这些思考有一定的原因,然而或许并不是真正需要担忧的问题。

关于人工智能失控

目前有很多尖端的科研公司在争相开发更加先进的人工智能技术,一种创造者都无法“理解、预测或可靠地控制”的新技术正在慢慢来到这个世界,在签署的公开信里面提到,人类难道应该让机器用一种不真实的东西填充自己的信息渠道吗?或者有些工作真的需要自动化吗,因为正是这些工作给人们带来成就感,还提到人类是否应该开发一种比人脑更有优势的计算系统,让它来替代自己,不得不说这封信表达了对人工智能的担忧。

不同的声音

在这种声讨浪潮之下,也有人表达了不同的意见,纽约大学名誉教授加里就认为,其实人工智能更多的风险是大型语言模型的使用环境,若处于一个压迫性的环境当中,这就要比人类假想出来的未来人工智能侵占人类生存环境的情况还要危险得多,而不管人类对于人工智能的学习速度多么惊叹,每天也总有更多新的创新出现,它们都能用在对于人工智能的学习培养上面,我们应该担忧的是这种人工智能模型被大玩家在压迫体系下使用,而不是担忧正常的使用环境。


免责声明:本文由用户上传,如有侵权请联系删除!

最新文章

精彩推荐

图文推荐

点击排行

2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ   备案号:

本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。

邮箱:toplearningteam#gmail.com (请将#换成@)