担忧“夸大”的研究声称AI优于医生
许多研究声称人工智能一样好(或优于)人类专家解读医学图像质量差,可以说是夸张,构成风险的成千上万的病人的安全警告的研究人员英国医学杂志今天。
他们的发现提高质量的担忧支撑这些研究证据,并强调需要提高他们的设计和报告的标准。
人工智能(AI)是一种创新和快速移动领域潜在的改善病人护理和减轻负担过重的卫生服务。深度学习是人工智能的一个分支,在医学成像显示特定的承诺。
发表研究的体积深度学习增长,一些媒体头条,声称性能优越,医生们炒作推动快速实现。但是偏差的方法和风险的研究这些头条新闻背后没有详细检查。
为了解决这个问题,一个研究小组回顾了过去10年,发表的研究结果比较深入学习算法的性能在医学成像专家医生。
他们发现只有两个随机的资格临床试验和81年non-randomised研究。
non-randomised的研究中,只有9个潜在(跟踪和收集个人信息随着时间的推移)和六被测试的现实世界中”临床。
人类专家比较器组的平均数量是4,而访问原始数据和代码(允许独立审查的结果)是极其有限的。
81年超过三分之二(58)研究被认为是高危的偏见(问题研究设计可以影响结果),坚持认可报告标准往往很差。
三个季度(61)研究指出,人工智能的表现至少相当于(或更好)的临床医生,只有31(38%)表示,需要进一步的前瞻性研究或试验。
研究人员指出,一些限制,比如错过的可能性研究和关注深度学习医学成像研究结果可能不适用于其他类型的人工智能。
不过,他们说,目前,“许多可以说夸大存在关于等价(或优势)临床医生、患者安全带来了潜在的风险和社会人口健康水平。”
承诺过多语言”叶子研究容易被媒体和公众的误解,因此可能提供不适当的护理,不一定结合病人的最佳利益,”他们警告说。
“患者安全最大化将最好的服务,确保我们开发一个高质量和透明地公布证据基础前进,”他们总结道。
更多信息:人工智能与临床医生:设计的系统回顾,报告标准,和深度学习的研究在医学成像,英国医学杂志,DOI: 10.1136 / bmj.m689