埃隆·马斯克(Elon Musk)签署信函敦促军方取消人工智能机器人

正如消费者热切希望无人驾驶汽车一样,特斯拉首席执行官埃隆·马斯克(Elon Musk)和其他数百人也在敦促军事研究人员注意自己的期望。

马斯克和其他包括斯蒂芬·霍金在内的其他人并没有完全预知天网将成为自我意识的那一天,他们敦促他们停止研发自动人工智能武器。

呼吁世界范围内实施禁令的呼声令人now然,因为 意外的后果,恐怖分子在数年内获得这些武器的后果是可以预见和不可避免的,而且绝对不好

这是根据周一在布宜诺斯艾利斯举行的国际人工智能联合会议上公开的一封公开信。

与运送乘客的良性无人驾驶汽车不同,公开担心的自我引导,思维机器的类型可以将目标对准人并随意执行,而无须人工指导或对操作员造成风险。

“人工智能(AI)技术已经达到了这样一个程度,即即使不是合法的情况,这种系统的部署在数年而不是数十年内都是可行的,而且风险很高:自动武器被描述为继战争之后的第三次战争。火药和核武器。”这封信说。

musk_tweet

其他签署者包括苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)。语言学家和政治哲学家诺姆·乔姆斯基(Noam Chomsky);人工智能公司Google DeepMind的首席执行官Demis Hassabis报告了 纽约时报.

他们现在正在关切地发言。人工智能武器远比核武器简单,可以在预算内和有限的资源下制造;任何军队都可以负担得起的大规模生产,恐怖分子和其他不良经营者也可以在适当的时候大量生产。

信中写道:“如果任何主要军事力量推动AI武器的发展,全球军备竞赛实际上是不可避免的,而且这一技术轨迹的终点很明显:自动武器将成为明天的卡拉什尼科夫。” “直到他们出现在黑市上并交由恐怖分子,独裁者们希望更好地控制他们的平民,军阀们希望进行种族清洗等行动时,这只是时间问题。”

随着人类发展出越来越有效的杀戮手段,应避免对操作人员无人驾驶造成威胁的机器,这与生物武器的使用方式一样,因为潜力太可怕了。

“就像大多数化学家和生物学家对建造化学或生物武器没有兴趣一样,大多数AI研究人员对建造AI武器也没有兴趣-也不希望其他人这样做会损害其领域,可能会在公众面前对AI产生强烈反对削减其未来的社会利益。”

马斯克(Elon Musk)也表示,人工智慧本身具有令人恐惧的可能性,因此将其称为“最大的生存威胁对人类。

自主武器: 打开信封 来自AI&机器人研究人员

自主武器无需人为干预即可选择和交战目标。例如,它们可能包括可以搜寻并消灭符合某些预定标准的人员的武装四旋翼直升机,但不包括人类做出所有针对性决策的巡航导弹或遥控无人机。人工智能(AI)技术已经达到了这样的程度,即在数年而不是数十年内,几乎可以(即使不是合法的)部署这种系统也是可行的,而且风险很高:自动武器被描述为火药之后的第三次战争革命和核武器。

对于自动武器有很多反对意见,例如,用机器代替人类士兵有利于减少船东的人员伤亡,但不利于降低参战门槛。今天人类面临的关键问题是是要开始一场全球性的AI军备竞赛还是要阻止它的启动。如果任何主要军事力量推动AI武器的发展,那么全球军备竞赛实际上是不可避免的,而这一技术轨迹的终点是显而易见的:自动武器将成为明天的卡拉什尼科夫飞机。与核武器不同,它们不需要昂贵或难以获得的原材料,因此对于所有重要军事力量进行大规模生产而言,它们将无处不在且廉价。直到它们出现在黑市和恐怖分子手中,独裁者希望更好地控制其平民,军阀们希望进行种族清洗等,这只是时间问题。自治武器是诸如暗杀,破坏稳定等任务的理想选择国家,压制人口并有选择地杀死特定种族。因此,我们认为军事AI军备竞赛不会对人类有利。 人工智能 可以通过多种方式使战场对人类尤其是平民更加安全,而无需创建新的杀人工具。

就像大多数化学家和生物学家对建造化学或生物武器不感兴趣一样,大多数AI研究人员对建造AI武器也没有兴趣-也不希望其他人这样做会损害领域,可能会导致公众对AI的强烈反对,从而削弱其未来的社会效益。确实,化学家和生物学家广泛支持成功禁止化学和生物武器的国际协定,就像大多数物理学家支持禁止天基核武器和使激光武器致盲的条约一样。

总而言之,我们认为人工智能在许多方面都具有造福人类的巨大潜力,并且该领域的目标应该是这样做。开始军事AI军备竞赛是一个坏主意,应该通过禁止超出有意义的人类控制范围的进攻性自动武器来阻止。

纽约时报