医疗保健平台上算法(il)识读的风险

医疗保健平台上算法(il)识读的风险
图片来源:De lzf/Shutterstock

可穿戴技术、移动健康应用程序和在线健康平台的使用在上升,让我们可以跟踪和分享我们的健康数据,并参与在线论坛,询问与健康有关的问题。理论上丰富的数据使我们能够更有效地管理自己的健康,在看医生时也能有更好的准备。这些工具还可以作为知识合法性的新来源,整合“外行”输入,使患者能够访问和控制信息。而患者获取医疗保健系统及其保密专有的权力在患者数据方面,尽管存在隐私和安全问题,但它正在增加,并显示出对患者具有治愈能力的潜力。

根据皮尤研究中心的数据,越来越多的人正在寻求相关资料。在美国,每天有9300万人这样做,其中55%的人在就医前会寻求与自身健康状况相关的信息。PatientsLikeMe、MedHelp和MyHealthTeams等数字平台提供了改变现有权力动态的潜力这是医疗保健行业长期以来的特点,把焦点重新放在病人身上。事实上,具有科学严谨性的传统医学研究正在ob欧宝直播nba从由研究人员控制转向众包患者需求。

其中一个在线健康平台PatientsLikeMe (PLM)汇集了一个由不同利益相关者组成的社区——患者、医生、护理人员、研究人员、与美国政府合作进行大数据生成和医学研究。ob欧宝直播nba该平台目前在全球拥有超过60万名会员。PLM患者已经生成迄今为止有4300万数据点.患有改变生活的疾病或状况(包括多发性硬化症、癫痫和渐冻症)的患者公开分享他们的数据,如他们使用的药物及其副作用、生活方式的改变以及诊断和预后疾病信息。

然后,该公司收集和汇总这些患者生成的数据用于研究,并使用算法工具对其进行分析和可视化。这些数据被出售给机构和合作公司用于医学研究。ob欧宝直播nba根据开发的任何新疗法,患者都有机会改变自己的行为,更好地管理自己的健康。患者也与他们的医生分享他们的数据,在临床环境中创造了患者和医生之间的新互动形式,并增加了到临床试验。PLM在其网站上声称,它寻求使用人工智能和其他工具来“民主化学习”关于健康和医药

的确,人工智能医疗应用用于诊断和治疗目的,设计新的药物和治疗方法,以及支持患者的健康决策。

数据文盲的风险

尽管这些平台前景广阔,但提高利益相关者的包容性对于提高我们与他人共享和使用健康数据的透明度至关重要。尽管这些技术和平台看起来很强大,很乌托邦,但人们不禁会想到专家与外行之间的鸿沟。换句话说,病人有多专业来提供他们的意见以及解释提供给他们的数据?在一个2008年的文章宏观营销杂志在演讲中,我提请大家注意新媒体素养问题及其增强能力的潜力,以及对能够使用这些技术并从中受益的专业知识的需求。

在今天的在线健康跟踪平台的情况下,那些没有足够的文化来使用这些工具和描述他们的症状的患者将无法获得好处。此外,当我们谈到数据素养时,我们不仅需要认知和技术技能,还需要根据这些数据采取行动来管理我们的健康的能力。因此,大数据算法的社会挑战出现了,因为需要人类的判断来理解它并采取行动(Gillespie, 2017Kitchin 2014).这样的行为也可能影响其他人的健康——例如,一个人可以努力追踪朋友、伴侣或家人的情绪波动,提醒她或他吃药。尽管这些自我追踪工具具有巨大的潜力,但它们的使用将责任转移到个人身上,不仅是为了自己的健康,也是为了他人的健康。

此外,当公司设计跟踪工具时,他们可能无法捕捉患者体验的所有方面,最重要的是,不能理解患者在描述他/她的经历时使用的语言(Tempini 2015).因此,患者和企业的文盲成为数字鸿沟的主要贡献者,阻碍了报告、分析和理解数据的能力,并相应地管理我们和他人的健康。

知道的太多

但是当病人他们在跟踪和报告数据的时候是有文化的吗?事实上,数据操纵的风险是存在的,有合适的形象来提出迎合自己利益的具体要求,然后可能产生导致治疗失败的结果。这令人担忧,因为PLM等平台与制药和研究机构合作,从事由患者产生的医学研究。ob欧宝直播nba

如果太有文化而不能操作数据,或者没有足够的文化来提供必要的数据,可能会阻碍医学知识生成过程。具有科学技能的患者可以操纵数据,对隐私和安全构成挑战,例如工作保障,保险和犯罪问题.此外,在临床环境中,当患者与他们的医生分享他们的自我跟踪数据时,这种风险被带到患者-医生的知识交流中。尽管在线健康平台创建了预测数据模型,可以跟踪每次报告的药物使用和症状变化,但这种数据模型的准确性仍然是一个问题。

当我们沉迷于谈论开放、透明、个性化和授权时,我们常常忽略了这些话语对控制和信息不对称的有害影响。在线健康平台作为新的数据中介控制着数据的流动和操纵(Gillespie, 2017;2019年企业,),作为大数据生成和分发的把关人。企业(2015(2019)坚定地表达了大数据在监视资本主义时代的危险,以及它如何通过难以理解的提取、商品化和控制机制构成“大他者”,这些机制将人们从自己的行为中驱逐出来,并创造出看似不民主的新市场。

关键问题仍然是关于(错误)使用自我跟踪工具以及道德和隐私问题。这些问题包括第三方如何存储和使用患者生成的数据,谁拥有和控制数据,以及患者在数据的使用、重用和销售方面应该在多大程度上拥有发言权。

所提供的谈话

本文转载自谈话在创作共用许可下读了原文谈话

引用:医疗平台上的算法扫盲风险(2020年,2月19日)检索于2023年1月3日从//www.puressens.com/news/2020-02-algorithmic-illiteracy-onhealthcare-platforms.html
这份文件受版权保护。除为私人学习或研究目的而进行的公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。

进一步探索

卫生部门需要大数据使用指南

8股票

对编辑的反馈