专家呼吁暂停人工智能

潜在危险技术的迅速发展引起了人们的关注。
2023年4月11日

采访

Henry Shevlin,剑桥大学

大脑

一个被鲜艳色彩包围的大脑。

分享

最近,包括科技企业家埃隆·马斯克(Elon Musk)在内的1800多名科技领袖和研究人员写了一封公开信,敦促人工智能实验室暂停开发最先进的系统,并警告称,人工智能工具“对社会和人类构成了深刻的风险”。克里斯·史密斯想知道该领域的人认为这些风险是什么,所以他问亨利·舍夫林(来自剑桥大学未来情报中心)为什么他签署了这封信,以及他最担心的是什么……

Henry:现实地说,我认为在六个月里放慢人工智能研究的速度是非常困难的,更不用说停止它了。但我签了字,因为我觉得这是个好主意,可以让更多的公众注意到我们在玩火。我认为人工智能是一项了不起的技术,具有真正的潜力。人们将其与电力、互联网甚至微芯片的发明相提并论。我认为这些比较是恰当的,但与此同时,滥用和伤害的可能性很大,我认为我们只需要很好地处理正在发生的事情,而不是盲目地向前推进。

克里斯:当你说有滥用和伤害的风险时,给我们举几个例子,这可能会解开一些我们不希望它解开的东西。

亨利-所以你有一大堆的风险。我自己已经尝试过的一个是,由于人工智能,语音克隆比以往任何时候都容易。我可以录下你两分钟的声音片段,克里斯,把它输入人工智能系统。网站我就不说了,不过有很多这样的网站。然后发出一种和你的声音几乎没有区别的声音。所以想象一下,如果我打电话给你的制作人说,哦,嗨,我忘了大楼的密码。比如说,你能让我进去吗?这是一种进行黑客攻击甚至是物理入侵的简单方法。所以有一大堆恶意软件案例和滥用案例与之相关。从中期来看,你可以考虑使用像自主武器这样的东西,我们可能会在乌克兰这样的战区失去控制。 And then the really long range stuff that I think a lot of people who signed the letter are worried about are the idea that we might lose control of the whole thing. Now, I think that's quite speculative, but I also think it's, it's not a crazy thing to worry about. If as soon as you start building systems that are maybe smarter than us, more powerful than us, you do have to make sure that we're still the ones in the driving seat.

Chris -人们谈论2050年是一个转折点,在那里我们可能会达到一个临界点,在那里我们拥有比我们更光明的东西。但根据你所说的,我们就快成功了。2050年似乎是一个不太雄心勃勃的目标。

亨利:是的,如果你看看这些预测市场,专家们可以做出不同的预测,预测这些东西离我们有多远,我们需要多长时间才能在人工智能中获得超人的智能。如果你看一下日期,通用人工智能的预测日期,它有时被称为AGI。从2050年开始一直在稳步倒退,我认为现在的平均答案是2031年。当然,正如那句老话所说,预测很难,尤其是对未来的预测。我想,如果你在10年前问人们,我们是否能够仅仅通过在屏幕上输入几个单词就完美地创建视频和图像,我想人们会认为你疯了。然而,科技发展很快,但与此同时,你有时会遇到意想不到的障碍。我们可能会发现,我们开始用完了训练这些模型的数据。这是人们一直担心的事情。在制造越来越大的计算机时,我们可能会遇到一些困难。但我要强调的一点是,这不是世界末日的情景。 2031 is the point where we think that hopefully we'll have systems that can do better science than us, can design cities better, can build better cars. I mean, there's a lot to be optimistic about there. We just gotta make sure we've got our bases covered and these systems don't run amok or do things we don't want them to.

Chris:考虑到我们训练这些东西的方式,就是把我们目前在互联网上拥有的几乎所有知识都收集起来,让机器吸收这些知识,然后基本上看到所有这些不同数据之间的联系。但它基本上是被动地吸收我们已经做过的事情,人类的努力。但它无法做到的是,知道我们所不知道的。这就是我们想让它知道的。那么,它是否真的能够跳出固有的思维模式,或者它是否受到我们灌输给它的现有想法和概念的限制?因此,它仍然为人类大脑留下了很大的空间,为我们带来的创造力留下了很大的空间。

亨利-是的,我认为这是一个很好的问题,也解释得很好。这是棘手的。我想我要注意的一件事是,有时即使你已经拥有的信息也包含了你没有意识到的东西。想想17世纪启蒙运动时期天文学的运作方式,哥白尼等人的发现。我们对所有的恒星和行星进行了非常精确的测量,但要弄清楚它们是如何一起开始的,并得出太阳是太阳系的中心,而不是地球,这需要很大的头脑。所以有时即使在已有的数据中,你也能发现联系或新的理论。另一个经典的例子是福尔摩斯。有时候并不是他能看到别人看不到的东西,而是他能发现事物之间的联系。所以,即使这个系统只是根据我们已经掌握的信息进行训练,人工智能也有可能发现我们以前没有发现的连接或将数据联系在一起的方法。创造力是个棘手的问题。 It's something I've written about in my own research and I've gotta admit I'm very enamored of the AI image models. I've had great fun playing around with them, generating cool artworks. I've got a couple of pieces on my wall. Are they creative? Well, I think they can certainly be beautiful. I think they can be interesting. Whether we decide to call them creative is almost a societal decision I think.

Chris:在你的信中,你呼吁暂时搁置人工智能,你希望我们在这六个月左右的时间里做些什么,你说,“看,让我们暂停一分钟”。你觉得需要做些什么?

老实说,我一直认为六个月是不现实的。我是说,如果我们有六个月的暂停期也不是坏事。但我真正希望的是,这能引发更广泛的公众辩论,因为现在这些系统主要是由科技公司设计和建造的,实际上,即使作为一名学者,我也发现很难让政策制定者关心它。你的一些听众可能看过像“不要抬头”这样的节目,在那里科学家们拼命地试图让政治家们关注这个问题。很难引起政策制定者的注意,让他们说,‘看,我们需要对此进行更好的公开辩论’。我们可能需要更多的透明度,我们需要更多的监管。所以,当我签署这封信时,我希望的一件事是,这将使人工智能提升到公众和媒体的议程上。老实说,我认为这是有效的,自从这封信发表以来,媒体对人工智能的报道量大幅增加。我认为很多对话都是在相当复杂的高层进行的,希望政治家们开始注意到这一点。

克里斯:好吧,那我就为难你了。你认为这个领域最大的突破将会出现在哪里?在你看来,在不久的将来,普通人会在哪里看到这对他们生活的影响?

亨利:好吧,我要在这里做一个大胆的预测,我认为不一定是我所有的同事都会分享,但我很有信心。我认为我们将看到人工智能越来越多地参与到我们的社交生活中,以人工智能朋友的形式,甚至可能是人工智能的女朋友或男朋友。如果几年后,如果你看看TikTok或Instagram上的前50名影响力人物,其中会有一些人工智能人物,我一点也不会感到惊讶。因为我们已经可以构建AI系统,与之交谈很有趣,也很有魅力。现在我们正在将文本与视频和图像相结合。我认为我们已经具备了人工智能名人文化新时代的所有要素,这既令人兴奋,又有点令人担忧。

评论

添加注释