在上周于斯德哥尔摩举行的年度国际人工智能联合会议上,来自科技界的领导人,包括埃隆·马斯克(Elon Musk)以及Google DeepMind联合创始人Demis Hassabis,Shane Legg和Mustafa Suleyman签署了一份政策声明,由未来生活研究所呼吁“禁止致命自动武器的法律”。该承诺代表了170个组织和2,400多人的想法。
信用:的YouTube
签署人同意,绝不应该将决定人类生命的决定权委托给机器。誓言说。[W] e不会参与也不支持致命自动武器的开发,制造,贸易或使用。这个立场有道义上的意义,那就是我们不应让机器做出他人或无人能为之的人生决定。还有一个强有力的务实论点:致命的自主武器,在没有人为干预的情况下选择和参与目标,将对每个国家和每个人造成不稳定的危险。污名化和防止这种军备竞赛应该是国家和全球安全的高度优先事项。
正如NPR指出的那样,最新的承诺类似于去年给联合国的一封公开信,呼吁该庄严的机构迅速采取行动,禁止使用人工智能武器。伊隆·马斯克(Elon Musk)是签署该文件的众多名人之一。它的内容简明扼要。它在相关部分中写道:
随着公司在人工智能和机器人技术中构建可能被重新用于开发自动武器的技术,我们在发出此警报方面负有特别责任。我们热烈欢迎联合国《某些常规武器公约》(CCW)大会决定建立一个致命性自动武器系统政府专家组。我们的许多研究人员和工程师都渴望为您的审议提供技术建议。
致命的自主武器有可能成为战争的第三次革命。一旦发展起来,它们将使武装冲突的斗争规模比以往任何时候都要大,而且时程比人类所能理解的快。这些可能是恐怖武器,专制和恐怖分子用来对付无辜人口的武器,以及被黑以不良方式行事的武器。我们没有长久的行动。潘朵拉盒子打开后,将很难关闭。因此,我们恳请各缔约国寻找一种方法来保护我们所有人免遭这些危险。
任何超越中学历史的人都知道,这种抗议毫无意义。人类的历史与有关武器发展如何使一群人更有效地屠杀另一群人的故事密不可分。它从方节开始,然后发展为长矛和宽剑。海军舰船很快就学会了如何互相射击炮弹,莱特兄弟在基蒂·霍克(Kitty Hawk)飞行后不久,人们便开始了如何从飞机上扔东西并向空中射击其他飞机的准备。
除美国外,每个国家都禁止使用地雷,而美国恰好是制造地雷的多家公司的所在地。在第一次世界大战中首次在部队中访问芥子气的恐怖之后,化学武器已被禁止使用了几代人,但今天在叙利亚仍在使用。广岛和长崎结束了核武器。禁止所有尚未拥有它们的人使用。然而,美国军方秘密实验室曾对生物和化学武器进行存储和研究,以防万一。
事实证明,禁止AI武器比证明禁止核,生物和化学武器更有效?如果您说“苗条”,您将赢得奖品。
科幻小说有一种预示现实的方式。朱尔斯·凡尔纳(Jules Verne)早在很久以前就写过有关核动力潜艇的文章。《终结者II》等电影为机器人勇士的到来锦上添花。该愿景变为现实需要多长时间?一旦有了认识,人们就会非常害怕。就像应该的那样。马斯克一年前在这个月说。
好吧,事实证明并非所有人。来自德克萨斯州的共和党议员皮特·奥尔森(Pete Olsen)(自然地)对NPR说:“这些机器会随着时间的推移从完成的活动中学习。通过学习,他们变得很聪明。这是我们国家的巨大价值和巨大利益。”如果只有得克萨斯州(或任何其他州)的共和党国会议员随着时间的推移变得“聪明”,那么世界可能就有机会避免使用另一种能够对地球上所有人构成恐怖的世界末日武器系统。
实际上,随着像Olsen这样无知的困境,我们可以肯定的是,带武器的AI将成为未来的祸害,它将科幻小说带离幻想领域,并将其变成可怕的现实。您难道不仅仅因为半知觉的机器有条不紊地消灭了所有人的生命,从而带来“巨大的价值,为我们的国家带来了巨大的利益?”