在线自由意志:选择的幻觉

你可能认为你可以控制你的网络生活——但算法为你做了大部分决定……
2020年9月22日

采访

Kartik Hosanagar,宾夕法尼亚大学沃顿商学院

在线视频

观看者在线观看流媒体

分享

多亏了互联网,今天我们似乎比以往任何时候都有了更多的选择:可以看的电影或阅读的书籍,可以去的地方,可以交谈的人。但是网上有太多的信息,我们只能看到其中的一小部分——所以大多数科技公司都会跟踪你在他们的平台上所做的一切,建立一个你是谁的数字分身,然后把你的模型和其他人的模型进行比较,试图找出你最想看到的东西。Kartik Hosanagar在宾夕法尼亚大学沃顿商学院研究这一过程的后果,Chris Smith问他谁才是真正的控制者……

卡提克-我们都相信我们在做自己的选择,但我所有的研究都表明事实并非如此。例如,Netflix上80%的观看时间来自于自动推荐。YouTube的统计数据也非常相似。亚马逊近三分之一的销售额来自自动推荐;Tinder等应用上的绝大多数约会都是由算法发起的。真的,如果你仔细想想,我们现在做的决定很少不涉及基于大数据的算法。

Chris -那么这些算法实际上是如何发挥作用的,有什么风险?

Kartik:首先,我想承认算法创造了巨大的价值。我是说,我们谁想回到电视台决定我们该看的节目?但与此同时,这些算法不一定是客观的、绝对正确的决策者;它们容易产生许多与人类相同的偏见。例如,在最近的一个案例中,美国法庭使用算法来计算被告再次犯罪的风险,结果表明,这些算法对黑人被告有偏见。需要明确的是,并不是人类程序员在编程这些偏见;相反,算法是从数据中学习的。所以在过去,如果在警务系统或刑事判决系统中存在种族偏见,这个算法就会学会假设黑人被告更有可能再次犯罪。

但是这些算法也可以被聪明的人类推断出来,他们基本上知道它们是如何工作的。

卡提克-是的,我认为这是一个很好的看待问题的方式。如果你看看广告和营销的世界,甚至在电脑和数字技术出现之前,大多数营销和广告都关注于我们如何……我不想用“欺骗”人们做决定这个词,但我们确实应该如何说服人们?这个问题的新版本是:我们如何说服算法把我们放在人们面前?我认为这主要是积极的,因为这种做法有助于确保最相关的网站出现在消费者面前;但与此同时,它也有黑暗的一面。其中一些公司关注的是,“我们如何欺骗算法,让它认为我们的页面比实际情况更相关?”这里有一个灰色的元素。我们需要再次注意的是:算法是如何做出决定的?为什么会提出这个特别的建议?

Chris:这会不会有缩小我们选择范围的危险,因为它只会强迫我们吃自己喜欢的东西,这让我们不那么冒险,不太可能跳出固有的思维模式;因此,虽然我们的生活可能看起来更简单,但它可能因此更穷?我们在这里失去自由意志了吗?

卡提克-是的。事实上,在我的书《人类机器智能指南》中,我认为我们大多数人并不像我们认为的那样拥有自由意志。如果你想想我们是谁,在一天结束的时候,它是我们所做的选择的总和,我们读的东西,我们买的东西;它最终塑造了今天的我们。再次澄清,我并不是说我们需要成为勒德分子,回到一个没有算法的世界。我提供的类比是,这就像早期的穴居人发现了火,并说,“好吧,这可能很难控制——让我停止使用火”。相反,你学会使用火;你学会控制火;你学会了像消防部门这样的东西,可以扑灭火灾;你甚至可能在家里放灭火器等等; and you use fire.

评论

添加注释