人工智能和冠状病毒:受偏见限制

人工智能可以对人类的偏见进行编码,对我们如何应对疫情产生影响
2020年9月10日

人工智能

人工智能(AI)

分享

随着冠状病毒大流行的持续,种族和性别对感染Covid-19和死亡的社会经济影响已经暴露出来。人工智能(AI)在应对措施中发挥着关键作用,但它也可能加剧我们卫生系统内的不平等——这是一个严重的问题,使该技术的局限性重新成为人们关注的焦点。

在许多方面,对危机的反应是由数据介导的——人工智能算法正在使用大量信息来更好地了解和应对Covid-19,包括跟踪病毒的传播和制定治疗干预措施。

人工智能,就像它的人类制造者一样,也难免受到偏见的影响。这项技术——通常被设计用来消化大量数据并进行推理以支持决策——反映了开发它的人的偏见,并向它提供用于吐出结果的信息。例如,几年前,亚马逊开发了一种人工智能工具,通过从过去的招聘中学习来帮助对求职者进行排名,该系统模仿了其制造商的性别偏见,降低了女性简历的等级。

美国纽约大学杰出研究科学家、人工智能研究所(AI Now Institute)联合创始人梅雷迪思·惠特克(Meredith Whittaker)指出:“在新冠肺炎之前,我们看到人工智能被广泛使用,在新冠肺炎期间,你会看到某些类型工具的使用有所增加。”该研究所开展了人工智能社会影响的研究。

监视在家工作的白领的监控工具和声称可以检测学生是否在考试中作弊的教育工具越来越普遍。但惠特克说,大多数这项技术都未经测试,有些已经被证明存在缺陷。然而,她补充说,这并没有阻止公司将其产品宣传为治疗大流行造成的附带损害的万灵药。

例如,在美国,一种名为脉搏血氧仪的紧凑型医疗设备被设计用来测量血液中的氧气水平,一些冠状病毒患者被粘在它的小屏幕上,以决定何时去医院,此外,医生还用它来帮助医院内的临床决策。

然而,该设备的工作方式容易存在种族偏见,可能是针对浅肤色的用户进行校准的。早在2005年,一项研究明确表明,对于非白人,该设备“往往会高估(氧)饱和度几个点”。

惠特克说,脉搏血氧仪的问题几十年前就已经为人所知,但制造商一直没有解决这个问题。“但是,即便如此,这些工具正在被使用,它们正在产生数据,这些数据正在形成医疗保健中使用的诊断算法。”所以,你看,即使在我们的人工智能系统构建的层面上,它们也在编码同样的偏见和同样的种族主义和歧视历史,这些在2019冠状病毒病的背景下得到了如此清晰的体现。”

证据

与此同时,随着越来越多的证据表明有色人种更有可能死于Covid-19感染,这种多样性不一定反映在为开发药物和疫苗而进行的大量临床试验中——这种令人不安的模式早在大流行之前就存在了。在性别多样性方面,最近的一项综述发现,在与Covid-19相关的927项试验中,超过一半的试验明确排除了怀孕,孕妇完全被排除在疫苗试验之外。

欧盟人工智能高级专家组成员、致力于培育负责任人工智能的ALLAI联合创始人卡特琳•穆勒(Catelijne Muller)指出,这些临床试验产品的结果不一定能代表人群。

她说:“如果你用这些结果来为人工智能算法提供预测未来的数据,这些人在这些预测模型中也会处于劣势。”

在新冠疫情背景下使用人工智能技术的问题,与疫情前困扰该技术的偏见问题没有什么不同:如果你向技术提供有偏见的数据,它就会产生有偏见的结果。事实上,现有的大规模人工智能系统也反映出构建它们的环境和构建它们的人缺乏多样性。这些几乎都是少数几家科技公司和精英大学实验室——“在西方,这些地方往往是白人、富裕、以技术为导向的男性”,人工智能研究所(AI Now Institute) 2019年的一份报告称。

但惠特克说,这项技术不仅仅是其制造商的反映——人工智能也放大了他们的偏见。

她说:“一个人可能会有偏见,但他们不会将这些偏见扩展到数百万甚至数十亿的决策中。”“而人工智能系统可以对人类的偏见进行编码,然后以产生更大影响的方式分配这些偏见。”

她补充说,使问题进一步复杂化的是,人们对自动化存在偏见的担忧。“人们倾向于更信任由电脑做出的决定,而不是由人做出的决定。”因此,我们需要注意人工智能系统洗白这些偏见的方式,让它们看起来严格而科学,这可能会导致人们不太愿意质疑这些系统做出的决定。”

安全

专家们表示,尽管研究人员开始就公平性、可解释性和稳健性等有用的步骤达成一致,但对于如何使人工智能技术整体上负责任和安全,目前还没有明确的共识。

根据穆勒的说法,第一步是问“零问题”:我的问题是什么?我该如何解决它?我是用人工智能还是别的什么来解决这个问题?如果使用人工智能,这个应用程序是否足够好?它是否损害了基本权利?

“我们看到的是,许多人认为有时候人工智能就像一根魔杖……它会解决所有问题。但有时它不能解决任何问题,因为它不适合这个问题。有时它的侵入性太强,可能会解决一个问题,但会产生一个更大的、不同的问题。”

穆勒说,当涉及到在Covid-19背景下使用人工智能时,会有大量数据,但这些数据需要可靠并得到优化。

她说:“数据不能被扔给另一个算法。”她解释说,算法的工作原理是找到相关性。他们不明白什么是病毒。

英国阿兰·图灵研究所(Alan Turing Institute)人工智能项目主任阿德里安·韦勒(Adrian Weller)博士表示,人工智能的公平性问题显示了人类决策过程中的偏见。他说,认为不使用算法就意味着一切都会好起来的想法是错误的。

韦勒说,人们对这些系统充满希望和兴奋,因为它们比人类运行得更一致、更有效,但它们缺乏常识、推理和背景的概念,而人类在这些方面要好得多。

问责制

让人类更多地参与决策过程是给人工智能应用带来问责制的一种方式。但弄清楚这个人应该是谁是至关重要的。

惠特克说:“仅仅在决策过程中安排一个人并不能保证做出一个好的决定。”她说,有一些问题需要解决,比如人们为谁工作,他们在什么样的激励下工作。

“我认为我们需要真正缩小‘人类’这个宽泛的范畴,看看是谁,为了什么目的。”

ALLAI的Muller及其同事在一份报告中分析了欧盟监管机构正在制定的一项提案,该提案旨在监管“高风险”人工智能应用,如用于招聘、生物识别或医疗部署。报告建议,人类监督可以以多种方式纳入,以确保透明度和减少偏见。

这些包括审核AI系统的每个决策周期,监控系统的运行,在任何特定情况下决定何时以及如何使用系统的自由裁量权,以及推翻系统做出的决定的机会。

对惠特克来说,最近的事态发展令人鼓舞,比如欧盟监管机构愿意监管“高风险”应用,或者美国的社区组织导致禁止面部识别技术。

“我认为我们需要更多相同的东西……以确保这些系统是可审计的,我们可以检查它们以确保它们是民主控制的,并且人们有权拒绝使用这些系统。”

评论

添加注释