潜在陪审员赞成在精密药物中使用人工智能

人工智能
资料来源:CC0公共域名

根据美国潜在陪审团候选人在1月份发表的新的研究,遵守人工智能(AI)建议的医生可能被视为普遍认为的普遍思考。核医学杂志(JNM.)。该研究提供了与医生使用AI在个性化医学中使用AI相关的第一个数据,这通常偏离标准护理。

新的人工智能工具可以帮助医生以及诊断,包括医学图像的解读,”凯文·托比亚说,他是法学博士、博士,也是华盛顿特区乔治敦大学法律中心的助理教授“但如果医生依赖人工智能工具而出了问题,陪审团判定他们承担法律责任的可能性有多大?”许多此类案件永远不会有陪审团,但对于有陪审团的案件,答案取决于医学专家的观点和证词,以及非专业陪审团的决策。我们的研究是第一个关注最后一个方面的,研究潜在陪审员对使用人工智能的医生的态度。”

为了确定潜在的陪审员的责任判决,研究人员在美国在美国进行了一项代表性样本的在线研究,每个参与者读过AI系统提供药物剂量治疗的四种情况之一给医生。这种情况各方面的建议(标准或非标准药物剂量)和医生的决定(接受或拒绝AI推荐)。在所有情景中,医生的决定随后对患者造成伤害。

然后,研究参与者通过评估治疗决定是否是“大多数医生”和“合理的医生”在类似情况下进行的待遇决定评估医生的决定。更高的分数表明了更大的协议,因此较低的责任。

研究结果显示,参与者使用两个不同的因素来评估医生对医疗AI系统的使用:(1)提供的治疗是否标准,(2)医生是否遵循AI建议。参与者对接受标准人工智能建议的医生的评价要比不接受建议的医生高。然而,如果医生收到了非标准的人工智能建议,他或她拒绝该建议并不能被认为是更安全的责任。

虽然先前的文献表明外行人非常反对人工智能,但这项研究发现,他们实际上并不强烈反对医生接受人工智能的医疗建议。这一发现表明,威胁医生的合法对于接受AI建议可能小于通常是普遍认为的建议。

在JNM的一篇文章中,W. Nicholson Price II及其同事指出:“责任可能会影响决定是否遵循人工智能建议的医生的行为,以及实施人工智能工具的医院使用和开发人员首先创建这些工具。托比亚。的学习应作为一个有用的滩头,以便进一步努力通知将AI集成到的可能性。"

在一篇相关的JNM文章中,研究作者接受了Irène Buvat博士和Ken Herrmann博士的采访,他们都是核医学和分子成像领域的领导者。在采访中,作者讨论了他们的研究结果是否适用于其他国家,如果人工智能可以被视为一种"医学专家",以及从法律角度使用人工智能的优势等话题。


进一步探索

文章突出了与医生扩展器相关的法律问题

更多信息:Kevin Tobia等,医师何时使用AI增加责任?,核医学杂志(2020)。DOI:10.2967 / JNUMED.120.256032
信息信息: 核医学杂志

由核医学与分子影像学会提供
引文:潜在陪审员倾向于在精准医疗中使用人工智能(2021年1月12日),2021年4月23日从//www.puressens.com/news/2021-01-potential-jurors-favor-artificial-intelligence.html检索
此文件受版权保护。除作私人学习或研究之公平交易外,未经书面许可,任何部分不得转载。本内容仅供参考之用。
7股票

反馈到编辑

用户评论