来自150家科技公司的代表签署了反对杀手机器人的承诺
“我很高兴看到人工智能领导人从谈话转向行动,实施政治家迄今未能实施的政策,”生命未来研究所主席兼麻省理工学院物理学教授Max Tegmark说。
&ld
超过2,400名从事人工智能(AI)工作的人员和代表来自90个国家的150家公司的机器人签署了一项反对使用自主武器的承诺。
在斯德哥尔摩举行的2018年国际人工智能联合会议(IJCAI)上签署并由生命未来研究所组织的承诺呼吁各国政府,学术界和工业界“通过强有力的国际规范,法规和法律来创造未来致命的自主武器“。
“我很高兴看到人工智能领导人从谈话转向行动,实施政治家迄今未能实施的政策,”生命未来研究所主席兼麻省理工学院物理学教授Max Tegmark说。
“人工智能具有帮助世界的巨大潜力 - 如果我们侮辱并防止其滥用。自主决定杀人的人工智能武器就像生物武器一样恶心和不稳定,应该以同样的方式处理。”
该承诺的签署者来自谷歌DeepMind,XPRIZE基金会,ClearPath机器人/ OTTO汽车,欧洲人工智能协会以及Elon Musk等个人。
该研究所将致命的自主武器系统 - 也称为“杀手机器人” - 定义为可以识别,瞄准和杀死一个人的武器,而无需人类“在环”。
“也就是说,没有人做出授权致命武力的最终决定:关于某人是否会死亡的决定和授权留给了自主武器系统,”该研究所解释说。
然而,它说,这不包括今天无人机控制的无人机,也不包括仅仅防御其他武器的自主系统。
该承诺是在4月份由来自30个国家的50多名研究人员抵制韩国高等科学技术研究所(KAIST)后宣布,KAIST大学将 与国防公司大楼Hanwha Systems合作开设人工智能武器实验室 。集束弹药,尽管联合国禁令。
几天后,KAIST宣布不会参与致命自主武器的开发。
“KAIST没有打算开发致命的自主武器系统和杀手机器人,”KAIST总裁Sung-Chul Shin教授 在回应抵制时告诉 ScienceInsider。
“KAIST不会进行任何反对人类尊严的研究活动,包括缺乏有意义的人为控制的自主武器。”
新南威尔士大学(UNSW)Scientia人工智能教授Toby Walsh组织了KAIST抵制并签署了本周的承诺,他说,将生死决定置于人类控制之下非常重要。
“我们不能交出关于谁生活和谁死于机器的决定。他们没有这样做的道德规范。我鼓励你和你的组织承诺确保战争不会以这种方式变得更加可怕,”沃尔什星期二说。
- 上一篇
人工智能在2019年的状态
部分真实世界的AI问题,这是一种常见的心理现象:足够重复任何一个词,它最终会失去所有意义,像湿透的组织一样分解为语音虚无。对于我们许多人来说,“人工智能”这个词在很久以前就已经以这种方式崩溃了。人工智能现在到处都是技术,据说是从电视到牙刷的所有功能,但从来没有让自己的意思更少。 虽然毫无疑问,“人工智能”一词毫无疑问地被滥用,但这项技术比以往任何时候都要好 - 无论好坏。它被用于医疗保健和战争;它帮助人们制作音乐和书籍;它会仔细检查您的简历,判断您的信誉,并
- 下一篇
根据该领域的顶级思想家 AI可以帮助应对气候变化
近年来人工智能的复兴让许多人质疑这种技术如何帮助人类面临的最大威胁之一:气候变化。一些该领域最知名的思想家撰写的一篇新研究论文旨在回答这个问题,提供一些机器学习如何帮助防止人类破坏的例子。 建议的使用案例多种多样,从使用人工智能和卫星图像到更好地监测森林砍伐,到开发可替代钢铁和水泥的新材料(其产量占全球温室气体排放量的9%)。 人工智能不是银弹,但在未来的气候斗争中它将是非常宝贵的。但是,尽管有这种多样性,该论文(我们通过麻省理工学院技术评论发现)一次又一次地回到了一些广泛的部署领域。其中突出的是利用机器