人工智能教父辞职,“后悔工作”

“人工智能教父”在谷歌辞职,理由是对人工智能的危险感到担忧
2023年5月5日

采访

Josh Cowls,牛津大学

人工智能

人工智能

分享

在对人工智能日益增长的危险发出警告后,被广泛认为是人工智能“教父”的扎克伯格决定离开谷歌。杰弗里·辛顿(Geoffrey Hinton)表示,他将离开这家科技巨头,并对自己在人工智能领域的工作感到后悔。我一直在和牛津大学牛津互联网研究所的乔希·考尔斯谈论这些危险是什么,首先是为什么它们似乎如此模糊地定义……

乔什:我认为,在沟通人工智能的潜在风险和危害方面,我们可以想到的许多不同的时间尺度都存在很多问题。所以有些人喜欢谈论人工智能的潜力,它可以接管人类,或者让我们为它工作,而不是相反,与其他科学家。我认为自己属于这群人,他们更多地考虑了人工智能当前和近期的潜在风险。现在,这变得有点复杂的原因是因为人工智能的科学进步非常迅速,像杰夫·辛顿(Geoff Hinton)这样的人谈到,他们对这项技术的发展速度感到有点惊讶。所以对一些人来说,这让他们更关注长期的危害。但我认为,对我来说,人工智能的一些更具体的潜在危害也很重要,这些危害就在我们眼前,也很重要。

克里斯-
它们是什么呢?

乔什:所以其中一些是围绕偏见的。因此,人工智能是在大量技术上进行训练的,这些技术通常来自互联网。这意味着人工智能基本上在某种程度上被训练来反映它所参与的社会。当然,社会并不完美,通过文本产生的偏见可能会传递给人工智能。另一个担忧是我们所说的虚假信息,即人工智能可能传播虚假信息,或看似真实但实际上并不真实的事情。例如,《纽约时报》最近对开放的人工智能ChatGPT系统进行了测试,看看它是如何回应关于会议的提示的,关于1958年人工智能的成立。它发现,开放人工智能的这种反应制造了许多实际上没有发生过的谎言。他们声称《纽约时报》在头版报道了这次人工智能会议。这不是真的,其他很多事情也不是真的。人工智能系统的问题在于,当我们与之互动的文本框中出现的信息时,我们不一定能分辨出真假。

克里斯:是的,确实如此。我查了一下ChatGPT对《裸体科学家》的看法,它告诉我帕特里克·摩尔,一位著金宝搏app最新下载名的天文学家,曾经是《裸体科学家》的成员,事实上他帮助创立了这本书,我希望这是真的,但事实并非如此。除此之外,你是如何看待这个社会的?你怎么看待它的使用?

我认为真正重要的贡献是他们采用的谈话风格。所以我认为,它们带来的一个危险是,我们可能会被误导,认为这些系统在某种程度上是智能的,甚至是超越它们实际能力的感知能力。这可能会影响和改变我们做决定的方式因为我们长期以来一直在刑事司法和健康等方面协助决策,这些协助越来越多地被使用,但如何在安全和道德的框架内做到这一点才是真正重要的事情。我认为像ChatGPT这样的现成产品的危险在于,我们开始把它们说的话当成真的,但我们也开始把这些陈述和回应融入到我们的日常生活中,很难追溯到人工智能系统,更不用说人工智能系统是如何做出决定的了。所以我认为最新一代的人工智能聊天机器人真正有趣的地方在于它们的对话能力,它们能让我们觉得它们在倾听我们,对我们做出回应,并理解我们的意思。他们知道自己在回复我们什么,但事实并非如此。

Chris -其中一个问题是这一切都是无法解释的。如果你问在人工智能领域工作的人它是如何工作的,即使是谷歌(笑)也会说他们不明白他们的系统是如何产生一些结果和输出的。这不是所谓的可解释。它无法告诉你它是如何得出这个结论的。这让人们天生感到不舒服,因为在整个社会中,我们做事的方式,我们记录事情,我们在会议上做记录,然后我们解释为什么我们做出了这样的决定。如果我们有一个黑盒子,我们把输入输入出来,结果出来,我们不知道是什么把它连接到中间,这对我来说是非常令人不安的。

乔什:没错。可解释性是人工智能面临的另一个主要挑战,无论是在技术上,还是在地面上工作的人,都试图让人工智能系统更具可解释性。这就是我认为监管真正要发挥作用的地方。欧盟正在制定自己的人工智能法案,为部署人工智能系统的公司制定新的保障措施和标准。很可能这些标准也会在其他地方被采用,这可能会迫使所有者回到开发和部署这些系统的公司。令人担忧的是,当这些系统如此深入到工作、生活和其他一切事物中时,可能是精灵离瓶子太远了,其中一些输出已经以一种难以摆脱的方式进入了人类生活的混乱之中。但我相信,各国政府和其他方面将设法对此作出回应。

评论

添加注释