咸宁信息港

当前位置:

科学家机器人不能杀人图

2019/08/15 来源:咸宁信息港

导读

如果你的使命是:说服全球军事工业园区放弃可能会改变21世纪战争的一种武器。你会认为这是堂吉诃德式的想法?NoelSharkey却不这麽认为。

  如果你的使命是:说服全球军事工业园区放弃可能会改变21世纪战争的一种武器。你会认为这是堂吉诃德式的想法?NoelSharkey却不这麽认为。在2007年《卫报》上的一篇充满挑舋性的专栏文章中,这位英国谢菲尔德大学的计算机科学家写道,不久以后,武器将拥有决定哪些人是被杀害目标的权利。对许多人来说,该警告也许只会使他们想到小说中的机器人,但是对於一些人工智能专家来说,它体现了对那种只依靠算法区分战士与平民的自动武器的真实恐惧。

  由於Sharkey和其他科学家的努力,自主的到来可能会被阻止。上个月在瑞士日内瓦召开的会议上,签署《特定常规武器公约》(CCW)的117国成员同意检查针对自动武器的相关规定。CCW已经在规定中禁止或约束埋布地雷、燃烧弹、集束弹药和致盲激光。将机器人武器加入到该名单 已经不再是幻想 ,担任非政府间团体国际机器人武器控制委员会(ICRAC)主席的Sharkey如是说: 在阻止这些可憎武器的部署方面,我们已经迈出了重大一步。

  愚蠢的机器人是危险的,但是聪明的机器人更危险。

  NoelSharkey在游说过程中争取对机器人武器的禁令。

  就像坦克、潜艇和原子弹重写了20世纪战争规则一样,自动武器系统是少数被称为21世纪战争规则改变者的技术之一。 军队正在研发更多的自动系统,并不是因为它们灵巧或者冷酷,而是因为人们看到了它们在战场上的优势。 美国华盛顿布鲁金斯学会21世纪安全和情报中心负责人PeterSinger表示。

医药营销江湖摸爬滚打十年的老兵:莫让CSO唱走了调
2018年金华生活服务E轮企业
2018年嘉兴社区种子轮企业
标签

友情链接