需要公共支持来解决卫生保健人工智能方面的种族和其他偏见

人工智能
资料来源:CC0公共领域

公众被要求帮助消除医疗保健人工智能算法中基于种族和其他弱势群体的偏见。

卫生研究人员呼吁提供支持,解决“少数”群体——他们在社会结构中处于积极的不利地位——如何看不到未来在卫生保健中使用人工智能的好处。伯明翰大学和伯明翰大学医院领导的研究小组在报告中写道自然医学今天,他们启动了一项关于一套标准的咨询,他们希望这些标准将减少人工智能算法中已知存在的偏见。

越来越多的证据表明,一些人工智能算法对某些群体的效果不太好,特别是那些少数种族/.其中一些原因是用于开发人工智能算法的数据集存在偏差。这意味着来自黑人和少数民族的患者可能得到不准确的预测,导致误诊和错误的治疗。

站在一起是一个该公司将为人工智能中使用的医疗数据集制定最佳实践标准,确保这些数据集是多样化、包容性的,不会让代表性不足或少数群体掉队。

伯明翰大学炎症与衰老研究所的刘晓轩(音译)博士是“站在一起”项目的联合负责人,他说:“通过正确地建立数据基础,站在一起可以确保‘没有人掉队’,因为我们寻求解锁AI等数据驱动技术的好处。我们已经向公众开放了我们的德尔菲研究,这样我们就可以最大限度地接触到社区和个人。这将帮助我们确保‘站在一起’提出的建议真正代表了对我们多元化社区重要的东西。”

伯明翰大学医院眼科顾问、伯明翰大学炎症与衰老研究所教授阿拉斯泰尔·丹尼斯顿教授是该项目的联合负责人。丹尼斯顿教授说:“作为NHS的一名医生,我欢迎人工智能技术的到来,它可以帮助我们改善我们提供的医疗保健——更快、更准确的诊断,越来越个性化的治疗,以及给病人更多控制权的健康界面。但我们还需要确保这些技术具有包容性。我们需要确保它们有效、安全地为每个需要它们的人工作。”

“站在一起”项目的耐心合伙人Jacqui Gath说:“这是我参与过的最有价值的项目之一,因为它不仅包含了我对使用准确的验证数据和对帮助发现的良好文档的巨大兴趣,而且还包含了让少数群体和服务不足的群体参与有利于他们的研究的迫切需要。”在后一组中,当然是女性。”


进一步探索

患者症状和生活质量评估必须具有包容性和公平性

更多信息:Ganapathi, S.等人,通过“站在一起”倡议解决人工智能数据集中的偏见,自然医学(2022)。DOI: 10.1038 / s41591 - 022 - 01987 - w
期刊信息: 自然医学

所提供的伯明翰大学
引用:解决卫生保健人工智能领域的种族和其他偏见需要公共支持(2022年,9月26日),可在2022年10月17日从//www.puressens.com/news/2022-09-tackle-racial-biases-ai-health.html获得
本文件受版权保护。除用于个人学习或研究的公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。
43股票

反馈给编辑