换个姿势看新闻,换个态度看中华!— 集月文化
分享到:

决不允许AI杀人武器研发!马斯克领衔2400名科学家签署联名宣言

2019-12-06 21:17:35 浏览次数:979

导读 : | 公众号 QbitAI从产能ldquo;地狱rdquo;归来的马斯克,刚刚领衔2000多名AI专家签署了一份特殊协议。这份协议核心目的有且只有一个承诺永不发展致命的AI武器系统。在瑞典斯德哥尔

| 公众号 QbitAI

决不允许AI杀人武器研发!马斯克领衔2400名科学家签署联名宣言

从产能“地狱”归来的马斯克,刚刚领衔2000多名AI专家签署了一份特殊协议。

这份协议核心目的有且只有一个:承诺永不发展致命的AI武器系统。

在瑞典斯德哥尔摩举行的IJCAL 2018上,由MIT著名物理学家Max Tegmark发起,其任职主席的生命未来研究所(Future of Life Institute,FLI)起草,该协议一经发出就应者如云。

决不允许AI杀人武器研发!马斯克领衔2400名科学家签署联名宣言

包含企业领域的马斯克、DeepMind联合创始人哈萨比斯、穆斯塔法,Shane Legg;Skype创始人Jaan Tallinn;全球顶尖AI学者Yoshua Bengio、Stuart Russell、Jürgen Schmidhuber等2400全球AI科学家,都郑重签下了大名。

就国籍和企业归属而言,他们分属90个国家、160多家AI企业或机构。

这也是全球首个AI武器系统开发的民间反对组织,不出意外,也将是影响力最大的一个。

《致命性自主武器宣言》

这份协议全称《致命性自主武器宣言》(lethal autonomous weapons pledge),核心内容就是宣誓不参与致命性自主武器系统(LAWS)的开发、研制工作,而且LAWS的研发及使用应当被严格禁止。

决不允许AI杀人武器研发!马斯克领衔2400名科学家签署联名宣言

宣言称:人类个体生死的决定权,决不能交给机器。这一方面是出于道德层面的考虑,“掌控他人生死”这件让人产生负罪感的事,绝不能由没有感情的机器做出。

而且致命的AI武器,不受人类干涉、自主选择攻击目标,可归责性与难度都前所未有,它们将成为暴力活动中的强大工具,尤其是与监控、数据系统相结合时。

宣言还强调:致命性自主武器的特征不同于核武器、化学武器及生物武器,研发团队可以单方开启军备竞赛,而国际社会缺乏实行管制的技术手段。谴责并避免这场军备竞赛,是维护全球安全的优先考虑事项。

所以今日签署之协议,也是呼吁各国政府及首脑为了地球的未来,共同商议抵制LAWS的国际规范、法律。

“我们这些未参与LAWS的人,需要以更高标准要求自己:我们绝不参与或支持LAWS的发展、生产、贸易与使用。我们呼吁科技企业、组织及其领袖、决策者与其他民众,共同履行该承诺。”

军方加速、学界反对、企业夹心

AI致命的话题,早已不新鲜。

在AI的所有应用场景中,这是最具争议的一个,而且由于不同组织怀抱不同利益诉求,状态非常尴尬。

在军方,自主武器从2013年开始就开始在美国、英国、以色列和韩国等军方实验室中诞生。

决不允许AI杀人武器研发!马斯克领衔2400名科学家签署联名宣言

区别于其他武器,致命性自主武器,能够在无人控制情况下,自主完成寻找目标、定位、击杀敌人这一整套工作,而AI系统和技术应用,是这些武器最强大的“驱动力”。

一旦将这些武器派上战场,它们就能自主辨别敌人并给出致命一击,没有情感,没有更多判断,人类的生死权,在机器眼里就是二元的“敌人=死亡”。

然而硬币另一面,这些武器也不是没有可能落入反派之手,或者被恶意指定攻击目标,结果也就不堪设想。

决不允许AI杀人武器研发!马斯克领衔2400名科学家签署联名宣言

于是从AI致命武器出现开始,舆论反对的声音就未曾停歇。

在科学界,斯蒂芬-霍金、马斯克等知名人士早在2015年就联合千余名AI学者、科学家等向联合国提交过联名公开信,警示AI致命武器潜在风险,以及正在发生的军备竞赛,呼吁颁布相关禁令。

目前为止也有了一些初步结果。在2016年联合国《常规武器公约》审议大会上,AI致命武器首次被纳入讨论范围。

其后今年4月举行的最近一次会议上,包括中国在内的26国发表联合声明,支持对AI致命武器颁布禁令。

这一禁令已有先例:此前,出于人道、伦理原因及潜在的危害性,联合国已经对生物武器、化学武器及太空武器颁布禁令。

但是,正式的AI致命武器国际公约,现在仍未达成共识。

而且还将不少企业拖入军方和科研拉锯战的夹心层中。

头条新闻
最新资讯