本文综述了科学根据X编辑过程政策编辑器强调了以下属性同时确保内容的可信度:

核查事实的

可信的源

校对

AI工具获得医生的信任像同事提供建议

医生
信贷:Pixabay / CC0公共领域

医院已经开始使用“决策支持工具”由人工智能可以诊断疾病,建议手术治疗或预测的结果。但没有算法是正确的,所以医生如何知道什么时候相信人工智能的建议吗?

助理教授领导的一个新的研究黔阳康奈尔大学信息科学的安美国鲍尔斯学院的计算和信息科学,认为如果AI工具可以顾问医生像colleague-pointing相关生物医学研究,支持决定医生可以更好的权衡推荐的优点。ob欧宝直播nba

研究人员将新的研究中,“利用生物医学文献校准临床医生相信人工智能决策支持系统,”4月计算机械太极协会会议上在计算系统的人为因素。

以前,大多数人工智能研究人员试图帮助医生评估决策支持工具的建议解释底层算法是如何工作的,或者哪些数据被用来训练AI。但教育如何人工智能预测不充分,杨说。许多医生想知道被验证的工具,一般不会发生用这些工具。

“医生的主要工作不是学习人工智能是如何工作的,”杨说。“如果我们可以构建系统,帮助验证AI建议基于临床试验结果和期刊文章,值得信赖的医生的信息,我们可以帮助他们了解人工智能是否可能为每一个具体案例对或错。”

开发这个系统,研究人员首先采访了9个医生通过一系列的专业,和三个临床图书馆员。他们发现,当医生不同意正确的行动,他们从相关的生物医学研究和追踪结果ob欧宝直播nba,考虑到每项研究的质量和它适用于手头的情况是多么的相似。

杨和她的同事们建立了一个原型的临床决策工具,模拟这个过程给生物医学证据与人工智能的建议。他们用GPT-3去发现和总结相关的研究。(ChatGPT GPT-3知名分支,这是针对人类对话。)

“我们建立了一个系统,基本上是试图重现人际沟通,我们观察到当医生给的建议,从临床文献和获取同样的证据来支持艾未未的建议,”杨说。

决策支持工具的接口列表患者信息,一边和实验室测试结果,与人工智能的个性化诊断或治疗建议另一方面,紧随其后的是相关的生物医学研究。针对医生反馈,每个研究中,研究人员增加了一个简短的摘要强调病人的细节,医学干预和病人的结果,所以医生可以快速吸收最重要的信息。

研究小组开发原型三specialities-neurology决策支持工具,精神病学和缓和,也要求三个医生从每个专业测试原型通过评估样本的病例。

在采访中,医生说,他们欣赏,发现它直观、容易理解,喜欢它的解释艾未未的内部运作。

“这是一个高度可归纳的方法,”杨说。这种方法可以适用于所有医学专业和其他应用程序是必要的,比如问答平台回答病人的问题,甚至自动检查与健康有关的新闻报道。“我希望把它嵌入在不同种类的AI系统正在开发中,所以我们可以让它们用于临床实践。”

更多信息:利用生物医学文献校准临床医生的信任在人工智能决策支持系统(2023)。DOI: 10.1145/3544548.3581393www.researchgate.net/publication/367295941

所提供的康奈尔大学
引用:人工智能工具获得医生的信任等提供建议的同事(2023年4月4日)检索2023年5月6日从//www.puressens.com/news/2023-04-ai-tool-gains-doctors-advice.html
本文档版权。除了任何公平交易私人学习或研究的目的,没有书面许可,不得部分复制。内容只提供信息的目的。

进一步探索

未满足潜在的心脏病的临床决策支持工具

32股票

反馈给编辑