社交媒体应该有一个值得信赖的按钮吗?

在社交媒体上设置一个“我相信这个”按钮是否有助于打击错误信息?
2023年6月16日

采访

劳拉·格洛比格,伦敦大学学院

移动电话

把手机放在电脑键盘上

分享

英国的新冠肺炎调查于本周启动。我们上周告诉过你这个过程是如何运作的。几乎可以肯定的是,调查人员将关注的一个方面是疫情期间的沟通和错误信息的传播,其中大部分是由社交媒体上不可靠的消息来源推动的。全球80多亿人口中约有50亿人经常使用某种形式的社交媒体——仅Facebook就有大约30亿活跃账户——这些媒体的社会影响——特别是人们通过它们传递的信息和信息——是巨大的。但正如伦敦大学学院的劳拉·格洛比格(Laura Globig)所说,许多社交媒体平台的问题在于,它们的设计初衷只是为了吸引用户和促进信息交流;他们不会因为分享内容的准确性或可靠性而奖励用户。所以她想出了一个更好的方法……

Laura -网上错误信息的传播已经飞速发展,这已经产生了相当严重的后果,比如两极分化加剧,对气候行动和疫苗的抵制。到目前为止,现有的阻止虚假信息在网上传播的措施,比如标记或举报帖子,效果有限。所以我们想知道我们是否能帮助解决网上错误信息的问题。

克里斯:有没有什么特定的群体更容易受到这种影响,还是每个人都可能受到这种影响?

劳拉:人们其实很善于辨别信息的真假。所以这不是缺乏能力。事实上,现有的研究表明,在区分真假信息方面,外行人和专业的事实核查员一样出色。相反,错误信息在网上传播的一个原因是,社交媒体平台缺乏分享真实信息和避免分享虚假信息的激励机制。人们倾向于选择那些能带来奖励或积极反馈的行为,而避免那些会导致惩罚的行为。在社交媒体平台上,这些奖励和惩罚以喜欢和不喜欢的形式出现。但是这些喜欢和不喜欢的问题是,它们并不能代表你分享的信息的准确性。例如,你可能喜欢一个明显是假的帖子,因为你认为它很有趣。因此,我们现在提出,减少错误信息在网上传播的关键不是告诉人们什么是真的,什么是假的,而是直接激励他们分享更多的真实信息,而不是虚假信息。所以我们需要一种激励结构,在这种结构中,社会奖惩直接取决于信息的准确性。

Chris:所以你的意思是,我可以用“我相信这个,我不相信这个”来代替“我喜欢或不喜欢”。

劳拉:没错。所以在这项研究中,我们通过稍微改变提供给用户的参与选项来做到这一点。所以我们并没有取消“喜欢”和“不喜欢”按钮,而是增加了一个选项来对帖子做出反应,就像你说的,信任和不信任按钮。

Chris:你可以想象为什么人们会被激励去使用它,因为这是一种额外的荣誉徽章,他们会说:“我在分享这个,但这有点不确定。”然后如果结果是有点不确定,他们可以说我告诉过你了。所以它确实在同样的奖励系统中发挥作用,但这是为了更清晰的沟通。

劳拉:没错。在这里,信任和不信任的使用没有歧义。所以从定义上讲,信任与可靠性有关。它是对事物真实性和可靠性的坚定信念。所以我们在这项研究中发现,人们会用这些按钮来区分真实和虚假的帖子。

克里斯:那么你有什么数据表明这是可行的呢?

劳拉:我们所做的就是创建模拟的社交媒体平台,在这些平台上,用户可以看到真实和虚假的信息。然后我们添加了一个选项,除了常用的“喜欢”和“不喜欢”按钮外,还可以使用“信任”和“不信任”按钮对帖子做出反应。然后我们发现,人们使用这些按钮来区分真实和虚假的信息,而不是使用喜欢和不喜欢的按钮。因此,为了获得更多的信任奖励和更少的不信任惩罚,其他参与者也更有可能分享真实信息,而不是虚假信息。所以我们看到的是传播错误信息的数量大幅减少。

克里斯-如果一个人相信的事情是真的,他是否能有效地得分?这就是它的反馈和认可,从而使那个人建立声誉的方式吗?这是诱因之一吗?

劳拉:所以动机是获得信任。所以我们有三个实验,在第一个实验中,我们让参与者选择使用信任、不信任、喜欢和不喜欢按钮来对帖子做出反应。这里的动机仅仅是参与到帖子本身。所以我们发现人们使用信任和不信任按钮。然后在第二个和第三个实验中,我们观察了从其他参与者那里得到信任和不信任的反馈是如何影响分享的。所以人们有动力分享真实的帖子,这样他们就会得到大量的信任和很少的不信任。

当然,你的时机很好,因为至少在英国,网络安全法案正在通过政府程序。这个想法是试图让互联网成为一个更安全的地方,让错误信息传播得更慢。所以整个世界,整个商业世界,都应该接受他们不仅能提高参与度,还能提高参与度质量的方法。

劳拉:没错。这也是我们的希望,我们在这里所做的是,我们不依赖任何事实核查员或任何人来确定某件事是否真实,相反,我们把责任放在用户身上,这实际上增加了用户的自主权,这也将对平台非常有吸引力,希望对社交媒体用户本身也是如此。

评论

添加注释