您的位置首页 >新闻 >

埃隆·马斯克,斯蒂芬·霍金警告人工智能军用机器人可能点燃下一次全球军备竞赛

想象一个未来,人工智能 (AI) 军事机器人决定杀死谁,何时以及为什么-完全依靠自己,而无需人工干预。斯蒂芬·霍金 (Stephen Hawking) 、埃隆·马斯克 (Elon Musk) 和史蒂夫·沃兹尼亚克 (Steve Wozniak) -- 他们一起呼吁人类在这一可怕的可能性开始之前阻止它。

今天,世界著名的知识分子与一些1,000思想领袖以及人工智能和机器人研究人员一起警告说,自主武器可能会引发下一次全球军备竞赛。也就是说,如果我们不先停止杀手机器。

他们的鲜明信息出现在总部位于波士顿的未来生活研究所 (FLI) 今天在线发表的一封公开信中。这封信 -- 也由谷歌DeepMind首席执行官德米斯·哈萨比斯、谷歌研究总监彼得·诺维格和认知科学家诺姆·乔姆斯基签署 -- 呼吁禁止 “进攻性自主武器”。它将于明天在阿根廷布宜诺斯艾利斯举行的国际人工智能联合会议开幕式上正式提出。

这封信警告: “如果任何主要军事力量推动人工智能武器的发展,全球军备竞赛几乎是不可避免的,这一技术轨迹的终点是显而易见的: 自主武器将成为明天的卡拉什尼科夫。”

根据严峻的,如果不是令人震惊的,呼吁采取行动的背后的领导思想,“明天” 有多快?我们在谈论很多年。信中写道: “人工智能 (AI) 技术已经达到了这样的地步,即使在法律上不是合法的情况下,这种系统的部署实际上是可行的。”

它的作者引用了武装刺客四轴飞行器的使用,“它可以搜索符合某些预先定义的标准的消除人员”,作为一种可以 “在没有人工干预的情况下选择和打击目标” 的技术的例子。(您可能还记得,就在上周,一架用手枪操纵的消费者无人机在互联网上起火,尽管它似乎是由一个卑鄙的人控制的。)

四段字母并不全是厄运和忧郁。它简要地承认,人工智能战争机器可以通过在战斗中取代人类而使人类受益,从而有可能减少人员伤亡。然而,另一方面,它们可能是灾难性的,有可能 “降低参战的门槛”,助长恐怖主义和破坏国家稳定。

这不是霍金和马斯克第一次公开呼吁对人工智能的应用保持谨慎。上1月,他们都签署了一份类似的FIL文件。它也表示有必要避免人工智能的潜在陷阱,同时敦促探索将其用于 “消除疾病和贫困”。

沃兹尼亚克 (Wozniak) 也签署了同一封较早的信,尽管此后他对AI的看法似乎有所减轻。这位苹果联合创始人最近表示,他已经克服了对我们将被人工智能机器人取代的担忧。当他们最终接管时,他认为我们会为他们做很棒的宠物。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。