您现在的位置:新闻首页>军事直击

美国发布军用AI伦理原则 打开AI军事化的闸门

2019-11-10 04:58中国播报网编辑:admin人气:


  五条伦理标准中既没有包括禁止美军将人工智能技术应用于致命性武器,也没有限制人工智能化武器的攻击目标。这意味着美国已经彻底放弃了“人工智能非军事化”理想目标,将其全面引入作战领域。这也给美军未来应用人工智能提供了有利的说辞和合法性依据,让美国社会接纳一个人工智能化的美军。

  委员会所提出的伦理道德标准看似严苛,但解除了美军应用人工智能的最忌。

  可控的理念,则试图给人工智能技术加上“保险丝”。委员会建议美军在人工智能系统和装备中设有“自动或手动”停机开关,一旦该设备运转偏离使用者和设计者初衷,作战和指挥人员就能立即关闭系统。

  近年来,美国军方显著加快了人工智能应用的速度,试图借助这一新颠覆性技术,彻底改变美军的作战模式。早在2019年2月,国防部发布首份美军人工智能战略文件,要求利用人工智能促进美国安全与繁荣,将人工智能赋能引入到具体军事任务中。

  11月1日,美国国防部下属的国防创新委员会推出了最终版的《人工智能伦理道德标准》。其实该标准酝酿已有数年。2018年7月,该委员会提出了标准的草案版本,并通过听证会接受了上百位业内人士的意见。此次最终版本在委员会投票中得到一致支持。

  伦理标准也是国际社会在人工智能治理领域最广泛谈论的内容。谷歌等美国科技巨头、军事军事科技各国政府、科技界的非政府组织都提出了自己的人工智能伦理。各方在这一问题上的博弈与合作刚刚开始。

  国防创新委员会提出了五项核心标准:即负责、公平、可追踪、可靠、可控。其中,公平和可控两条标准的争议性较大。

  委员会所提出的公平是指,美军在开发和部署人工智能化的装备时要避免出现意料之外的偏差,而这些偏差会在无意中对人员造成伤害。实现这条标准有很高难度。

  从全球范围看,伦理标准是人工智能治理的先导性规则。从道德和伦理上探讨人工智能,表明该技术的发展和使用可能对人类社会带来重大的影响,可能改变人类社会的基本形态。人类社会当前所依赖的道德和伦理标准,对人工智能研发者和使用者尚没有足够限制,需要基于该技术发展变化提出新的伦理标准。

  基于委员会的此份报告,美国很有可能成为全世界首个推出人工智能军事化伦理标准的国家。

  也不同于欧盟、中国等反对“人工智能军事化”的基本立场。可能产生新的安全风险。就是着眼于解决这些潜在风险,而此次国防创新委员会的伦理道德标准,一些观察人士开始担心美军的步子迈得太快,明确美军利用和研发人工智能的限制。美国所提出的标准与联合国致命自主武器系统所倡导的原则有一定差异,美国则在这场人工智能的国际规则之争中开辟了新的战场,美军快速引入人工智能技术,即人工智能军事化领域。也在美国内外引起了广泛担忧。

  下一阶段,美国会试图将自己的伦理标准演变为该领域国际规则的根本性原则,获取人工智能军事化的“最终解释权”。美国发布军用AI伦理原则 打开AI军事化的闸门

(来源:未知)

  • 凡本网注明"来源:中国播报网的所有作品,版权均属于中中国播报网,转载请必须注明中中国播报网,http://www.chinabobaowang.com。违反者本网将追究相关法律责任。
  • 本网转载并注明自其它来源的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。
  • 如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。






图说新闻

更多>>
湘财证券欢迎您!

湘财证券欢迎您!



返回首页