首页 >> 资讯
石建兵:如何确保人工智能的安全
2018年09月19日 07:52 来源:光明日报 作者:石建兵 字号
关键词:人工智能;网络安全;就业

内容摘要:

关键词:人工智能;网络安全;就业

作者简介:

  人工智能技术革新的速度和力度令人眩目,在人们欢呼技术进步红利之余,越来越多的人担忧人工智能技术是否足够安全。霍金、比尔·盖茨等科技巨擘们都开始警示:无度发展可能导致人工智能最终反制人类,造成不可控的毁灭。毕竟在人类的漫漫进化之路上,人类经历无数次血与火的淬炼,才懂得相互之间沟通与妥协,才逐渐学会了如何同类合作及和睦相处,反观由人类一手创造出来的超级智能则会拥有远远超越人类的能力、意志,但是否还存在与人类相似的价值观和社会规范呢?人工智能时代,人类如何取得共识并相互协作,确保一个安全和谐的智能未来。

  人工智能面临的安全挑战

  美国兰德公司2017年发表报告指出人工智能时代最应关注的问题是安全和就业,次要问题还有健康、政策制定、冲突解决、网络安全和隐私等问题,本质原因是技术的潜在缺陷及其应用程度不同带来的不平等,而且人们倾向于无条件信任人工智能,从而造成“自动化偏见”。在就业领域,人工智能必然会取代许多职业,再现人们以往争论不休的“机器替代人类”的伦理道德问题,但技术进步还将创造新的工作机会。

  从技术层面来看,人工智能的最大安全问题是存在黑盒风险,其研发目标及其实施、运行机制等均不透明且不可解释,另外当前通过挑选和响应大量数据来完成机器学习的模式,仅仅是考虑如何提供和保护这些数据,就带来了隐私保护、数据安全及潜藏的算法偏见和歧视问题。

  从应用角度来看,人工智能将应用于健康、医疗、社会管理等领域,尤其是武器化人工智能,将带来人类尊严、伦理道德等价值观问题,未来人工智能技术的自我提升,将加剧此类问题。

  在社会文化层面,潜在风险是人们对人工智能观念过度分化,普通人难以理解技术的复杂性和多样性,另外当前法律法规对人工智能的监管还存在大量的灰色地带,人工智能带来的安全责任无法分担等诸多问题。

  这些问题若得不到稳妥解决,势必给人工智能技术的广泛应用蒙上阴影,给技术的进一步发展带来障碍。

作者简介

姓名:石建兵 工作单位:

转载请注明来源:中国社会科学网 (责编:钟义见)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们