医疗保健中负责任的 AI:解决偏见和公平结果

医疗保健中负责任的 AI:解决偏见和公平结果

随着医疗保健人工智能的快速增长,在解决公平和公正的患者护理问题时,算法往往被忽视。我最近参加了由芝加哥大学布斯商学院主办的应用人工智能会议(CAAI):医疗保健中的负责任人工智能。会议汇集了业务多个方面的医疗保健领导者,目的是讨论并找到减轻医疗保健中算法偏见的有效方法。需要不同的利益相关者群体来识别人工智能偏见,并对确保公平的结果产生影响。

如果你正在阅读这篇文章,你可能已经熟悉人工智能偏见,这是向前迈出的积极一步。如果你看过像《社会困境》或《编码偏见》这样的电影,那么你就有了一个良好的开端。如果你读过像Ziad Obermeyer博士的《医疗保健算法中的种族偏见》这样的文章和论文,那就更好了。这些资源解释的是,算法在推荐我们看的电影、我们看到的社交帖子和推荐的医疗保健服务以及其他日常数字互动方面发挥着重要作用。这些算法通常包括与种族、性别、社会经济、性取向、人口统计等相关的偏见。与人工智能偏见有关的兴趣显着上升。例如,arXiv网站上提到种族偏见的数据科学论文数量在2019-2021年间翻了一番。

我们已经看到了研究人员和媒体的兴趣,但我们实际上在医疗保健领域能做些什么呢?我们如何将这些原则付诸行动?

在我们开始将这些原则付诸行动之前,让我们先解决如果不这样做会发生什么。

偏见对医疗保健的影响

让我们以一个已经处理各种健康问题很长一段时间的患者为例。他们的医疗保健系统有一个特殊的计划,旨在为心血管需求高风险的人进行早期干预。该计划为注册人员提供了很好的结果。但是,患者还没有听说过这件事。不知何故,他们没有被列入外展名单,即使其他病人被通知并登记。最终,他们去了急诊室,他们的心脏状况已经发展得比本来要严重得多。

这就是作为一个服务不足的少数群体的经历,无论卫生系统使用什么方法,都是看不见的。它甚至不一定是人工智能。心血管外展的一种常见方法是仅包括年龄在45 +的男性和年龄为55 +的女性。如果你因为是一个没有达到年龄界限的女性而被排除在外,结果是一样的。

我们如何解决这个问题?

Chris Bevolo 的 Joe Public 2030 是对医疗保健未来的 10 年展望,由妙佑医疗国际、盖辛格、约翰霍普金斯医学院等的领导者提供信息。它看起来对解决医疗保健差异没有希望。在大约40%的质量指标中,黑人和原住民得到的护理比白人差。没有保险的人对62%的质量措施的护理较差,西班牙裔和黑人获得保险的机会要低得多。

“我们仍在处理自80年代以来处理的一些相同问题,我们无法弄清楚它们,”妙佑医疗国际战略情报执行主任Adam Brase说。“在过去的10年里,这些问题只是作为问题增长,这越来越令人担忧。

为什么数据没有解决人工智能中的偏见问题

自 80 年代以来没有进展?但从那以后,情况发生了很大变化。我们正在收集大量数据。我们知道数据永远不会说谎,对吧?不,不完全正确。让我们记住,数据不仅仅是电子表格上的东西。这是人们如何试图解决他们的痛苦或改善他们的护理的例子列表。

当我们纠结和折磨电子表格时,数据会按照我们的要求去做。问题是我们要求数据做什么。我们可能会要求数据帮助推动数量、增加服务或最大限度地降低成本。但是,除非我们明确要求它解决护理方面的差异,否则它不会这样做。

参加会议改变了我对人工智能偏见的看法,这就是我的方式。

仅仅解决算法和人工智能中的偏见是不够的。为了解决医疗保健差距,我们必须在最高层做出承诺。会议汇集了技术专家、战略家、法律和其他人士。这与技术无关。因此,这是呼吁与医疗保健中的偏见作斗争,并严重依赖算法来提供帮助!那是什么样子的呢?

呼吁在算法的帮助下对抗偏见

让我们先谈谈人工智能何时失败,以及人工智能何时在整个组织中取得成功。麻省理工学院和波士顿咨询集团调查了2,500名从事人工智能项目的高管。总体而言,这些高管中有70%表示他们的项目失败了。失败的70%和成功的30%之间最大的区别是什么?

这是人工智能项目是否支持组织目标。为了进一步澄清这一点,这里有一些项目想法以及它们是否通过或失败。

  • 购买功能最强大的自然语言处理解决方案。

失败。自然语言处理可以非常强大,但这个目标缺乏关于它将如何帮助业务的背景。

  • 通过智能分配高危患者来增加我们的初级保健量。

通过。有一个目标需要技术,但这个目标与整体业务目标相关联。

我们理解定义项目业务目标的重要性,但这两个目标都缺少什么?他们没有提到解决偏见、差异和社会不平等。作为医疗保健领导者,我们的总体目标是我们需要开始的地方。

请记住,成功的项目始于组织目标,并寻求 AI 解决方案来帮助支持它们。这为您提供了一个从医疗保健领导者开始的地方。您为部门定义的 KPI 很可能包括围绕增加服务不足人群访问的具体目标。例如,“增加x%的数量”很可能包括“将代表性不足的少数群体的数量增加y%。

您如何获得要定位的良好指标?首先要询问有关患者群体的棘手问题。与周围社区相比,按种族和性别细分的是什么?这是为需要解决的医疗保健差距提供数字和大小的好方法。

这种自上而下的关注应该推动一些行动,例如让供应商和算法专家负责帮助实现这些目标。然而,我们需要在这里进一步解决的是,这一切是为了谁。患者,您的社区,您的消费者是在这方面损失最大的人。

以信任的速度进行创新

在会议上,巴拉克·奥巴马(Barack Obama)的前首席技术官阿尼什·乔普拉(Aneesh Chopra)直接谈到了这一点:“创新只能以信任的速度发生。这是一个很大的声明。我们医疗保健领域的大多数人已经在询问种族和民族信息。我们中的许多人现在都在询问性取向和性别认同信息。

没有这些数据点,解决偏见是极其困难的。不幸的是,服务不足的群体中的许多人对医疗保健的信任不足以提供这些信息。老实说,在我生命的大部分时间里,包括我。我不知道为什么我会被问到这些信息,如何处理它,甚至它是否会被用来歧视我。所以我拒绝回答。我并不孤单。我们查看向医院确定其种族和民族的人数。通常四分之一的人没有。

我与ideas42的行为科学家Becca Nissan进行了交谈,结果发现关于如何解决这个问题的科学文献并不多。所以,这是我个人的请求:与你的病人合作。如果有人经历过偏见,那么提供人们用来歧视你的细节很难有任何好处。

伙伴关系是建立在信任基础上的关系。这需要几个步骤:

  • 值得合作。 必须真正致力于消除偏见和个性化医疗保健,否则要求提供数据是无用的。
  • 告诉我们您将做什么。消费者厌倦了共享数据导致的陷阱和垃圾邮件。与他们平起平坐。对如何使用数据保持透明。如果要个性化体验或更好地解决医疗保健问题,请拥有它。我们厌倦了对算法感到惊讶。
  • 贯彻到底。在后续发生之前,信任并没有真正赢得。不要让我们失望。

结论

如果你正在构建、启动或使用负责任的 AI,那么与正在做同样事情的其他人在一起是很重要的。以下是对人类有影响的项目或活动的一些最佳做法:

  • 拥有一支多元化的团队。缺乏多样性的群体往往不会问一个模型是否有偏见。
  • 收集正确的数据。 如果没有已知的种族和民族、性别、收入、性别、性偏好和其他健康的社会决定因素的值,就没有办法测试和控制公平性。
  • 考虑某些指标如何可能带有隐藏的偏见。2019年研究中的医疗保健支出的想法表明,该指标对某些人群来说可能存在多大问题。
  • 衡量目标变量引入偏差的可能性。 对于任何指标、标签或变量,检查其跨种族、性别、性别和其他因素的影响和分布是关键。
  • 确保使用的方法不会对其他人群造成偏见。团队应设计适用于所有组的公平性指标,并针对它不断进行测试。
  • 设定基准并跟踪进度。启动模型并投入使用后,持续监视更改。
  • 领导支持。 你需要你的领导支持,它不能只是一个人或团队。
  • “负责任的AI”不是终点,它不仅仅是让算法公平。这应该是更广泛的组织承诺的一部分,以打击整体偏见。
  • 与患者合作。 我们应该更深入地了解我们如何与患者合作并让患者参与这个过程。他们能告诉我们他们希望如何使用他们的数据吗?

作为一个热爱数据科学领域的人,我对未来以及为医疗保健消费者带来真正影响的机会感到非常乐观。我们还有很多工作要做,以确保影响是公正的,每个人都可以使用,但我相信,只要进行这些对话,我们就走在正确的道路上。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/4266.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

网络安全形势:托管安全服务现状

下一篇

Snowflake和MongoDB是否正在发生碰撞?

微信公众号

微信公众号