您的位置: 首页 >科技 >

AI向善之惑:需要给大模型装上“红绿灯”吗?

2023-03-18 15:21:36 编辑:嵇瑾绿 来源:
导读 ChatGPT迎来市场大火,大模型应用落地有了新领域,国内企业纷纷选择进入大模型研究领域。随着大模型的不断发展,但是也出现了各种各样的安全隐患,比如内容安全,隐私保护,侵权以及结果合法性等等。在大力发展科技的同时,是否需要给大模型装上“红绿灯”来规范科技向善?

ChatGPT迎来市场大火,大模型应用落地有了新领域,国内企业纷纷选择进入大模型研究领域。随着大模型的不断发展,但是也出现了各种各样的安全隐患,比如内容安全,隐私保护,侵权以及结果合法性等等。在大力发展科技的同时,是否需要给大模型装上“红绿灯”来规范科技向善?

国内的各个大型互联网公司已经进入大模型研究领域,AIGC受到的追捧热度越来越高,国内企业的大模型布局也纷纷崭露头角。何晓冬在接受《通信产业报》媒体记者采访时表示:“多模态大模型是人工智能技术从限定领域的弱人工智能迈向通用人工智能路径的重要途径。通用多模态大模型将逐渐在人工智能领域扮演着基础模型的角色。”

大模型本身还存在着技术挑战以及不完善等各种问题,但是在当前大环境的影响下,已经展现出了强大的威力。对于科技行业的各种治理带来了各种不好的影响,比如可能会泄露用户的数据隐私,做出各种各样的侵权行为等等。

何晓冬表示:“随着人工智能应用的深入其自身的技术缺陷以及带来的隐私伦理,决策偏见,使用安全等问题,引发了信任危机。黑箱模型导致算法不透明,使得人们无法直观理解决策背后的原因。应用上训练数据中存在的偏见导致公平性缺失,以人脸识别技术为代表的生物识别信息的频繁使用增加了隐私泄露的可能。伦理上人工智能系统决策复杂,难以界定责任主体,带来伦理安全问题。”

针对这种情况廉世国表示:“人工智能领域的专家们已经开始考虑用技术手段来鉴别AI生成的内容。”


免责声明:本文由用户上传,如有侵权请联系删除!

最新文章

精彩推荐

图文推荐

点击排行

2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ   备案号:

本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。