数字化心理健康服务中的伦理问题

发布时间:2023-08-25 16:54:02 来源:网友投稿

唐瑀蓁,张蕾,黄晶晶, 杜江

近年来,互联网发展使心理学相关领域有更多机会呈现在大众眼前,心理健康问题逐渐引起社会各界重视,同时也面临着严峻的挑战。2019 年,一项横断面流行病学调查结果显示,我国成年人中罹患除痴呆外各类精神疾病的加权终身患病率高达16.6%(Huang et al., 2019)。然而,这其中真正获得专业心理援助的人却甚少,究其原因,一方面在于人们对自身心理健康关注较少、就医意愿不强,且社会存在对心理疾病的忽视、歧视和污名化现象(江光荣 等, 2021);
另一方面在于我国心理健康领域专业人才较为匮乏,人们在受心理问题困扰时往往会陷入“求助途径少,可靠性不一”的困境(栗克清,2018)。

中国互联网络信息中心于2021 年2 月发布的第47 次《中国互联网络发展状况统计报告》显示,截至2020 年12 月,我国网民规模已达9.89亿。新型冠状病毒肺炎疫情暴发后,网民对在线医疗的需求量增长,促进了我国医疗行业的数字化转型,在线医疗用户达2.15 亿,占整体网民的21.7%。数字医疗是一种把现代计算机技术和数字技术应用到整个医疗过程中的新兴医疗方法或数字健康解决方案。在心理健康领域应用数字医疗,可以帮助人们获取更多心理健康相关信息,学习并应用改善心理问题的技巧,远程联络专家寻求心理援助(Marsch et al., 2020),并有助于加强对精神疾病的早期识别、预防、干预和康复等全过程防范。

享受数字医疗带来便利的同时,还应警惕其可能存在的风险。例如,应用数字技术游戏干预注意缺陷与多动障碍儿童时,需照顾到家长因担忧这类干预让孩子患上游戏成瘾而产生的焦虑情绪(Aboujaoude & Gega, 2020)。为应对这类潜在的不良后果,美国食品及药物管理局(Food and Drug Administration,FDA)在2017 年启动了一个专门测试、审查和创新数字医疗的项目;
英国国家健康与临床卓越研究所(National Institute for Health and Care Excellence,NICE)于2019 年3 月制定了《数字健康技术证据标准框架》等,以维护使用者的基本权益,为其提供医学伦理上的保护。

本文针对数字医疗在心理健康服务中可能涉及到的伦理问题进行讨论,并提出解决方案,以期引起业界关注,规范数字化心理健康的发展,更好地服务于患者。

韩瑾(2019)按照数字技术在心理健康领域内融合程度的高低,将数字化心理健康(digital mental health)分为了四类:(1)“ 利用网络平台进行心理科普、培训或咨询”,如壹心理、KnowYourself 等互联网公司或公益平台;
(2)“利用计算机化心理治疗程序进行自助式或半自助式 治 疗”,如 实 时 自 适 应 机 制(real-time adaptive mechanisms)、计算机化的认知行为疗法等;
(3)“利用数字技术进行情绪或行为实时监测、追踪及干预”,包括社交媒体同伴交流(如微博“树洞”)、主动或被动的生态瞬时评估(ecological momentary assessment,EMA)及数字表型(digital phenotyping)类产品;
(4)“应用聊天机器人等其他新兴网络或数字技术”,如Woebot、Wysa 等模拟人工心理治疗。

目前,国内外已有多家公司推出诊疗精神疾病的数字医疗措施,并积极开展临床试验证明其有效性。例如Akili Interactive 公司开发的EndeavorRX,于2020年6 月15 日被FDA 批准为首个基于电子游戏治疗8 ~12 岁注意缺陷与多动障碍(attention deficit and hyperactivity disorder,ADHD)儿童的数字处方(Canady,2020)。此外,数字医疗在心理健康领域还适用于物质使用所致障碍、焦虑症、抑郁症、孤独症、精神分裂症及创伤后应激障碍等(动脉网·蛋壳研究院,2021)。国内的数字医疗监管尚处于起步阶段,目前多作为二类医疗器械证获批,20 余张已获批医疗器械证中还暂无一项涉及心理健康领域(国家药品监督管理局, 2022)。

数字医疗发展将有助于整合医疗健康服务线上和线下资源,同时也不可忽视潜在的伦理风险。尤其当人类作用越被智能化的数字产品替代时,伦理问题将愈加凸显。

学术界通常站在辩证角度,认为对科学技术过严或过松的监管都不利于人类和社会的发展。无论在什么领域应用科学技术,遵守伦理规范都是保证其稳定发展的必要因素。伦理指一系列指导行为的观念,是从概念角度对道德现象的哲学思考,包含着人与人、人与社会、人与自然之间关系处理的行为规范。一篇采用德尔菲法(Delphi study)探讨心理健康领域数字医疗应用的研究指出,目前需要重视的伦理问题主要有隐私、透明、公平、知情同意与问责(Martinez-Martin et al., 2021)。

3.1 隐私和数据安全问题

人们可以通过互联网这个开放窗口获取信息、分享经验、相互交流,但同时也承担着隐私泄露的风险。在心理健康领域发展数字技术的过程中,隐私问题是最核心的伦理问题。除了企业可能变卖用户个人信息外,在云网络时代因系统遭受黑客攻击导致信息被第三方获取的事件也时有发生(Federal Trade Commission, 2016),这都让用户和数字医疗开发者不得不担忧数字平台的保密性和安全性。

各国都试图立法保护数字医疗记录和健康信息,以保护用户隐私与数据安全。美国1996 年《健康保险可携性和责任法案》(Health Insurance Portablity and Accountabililty Act of 1996,HIPAA)中的隐私规则,旨在保护医疗保健系统中收集到的健康信息;
欧洲联盟2018 年出台的《通用数据保护条例》(General Data Protection Regulation,GDPR)中第5 条针对数据安全问题规定了目的限制、数据最小化与存储限制原则;
中国也在2021 年通过了《中华人民共和国个人信息保护法》,强调要在保障个人信息权益的基础上,合法利用信息数据,推动数字经济健康发展。

3.2 其他伦理问题

除了最核心的隐私安全之外,还有以下四方面的伦理问题:

(1)透明性(transparency)方面:指目前一些数字医疗应用机器学习等存在算法黑盒,比如很难评估工具输出的特定结果(Magrabi et al., 2019)。加上行业对知识产权的保护,监管机构难以检测出产品的系统性误差,且无法判断其是否影响输出结果(Obermeyer et al., 2019)。为实现对数字医疗算法更好的监管,FDA 推出了数字软件预认证项目(Digital Software Precertification Program),却因没有明确定义卓越标准(standards for excellence)等饱受争议(Warren et al., 2018)。目前应更多关注机器学习的算法问题,亟需能够提升机器学习安全性和有效性、解决透明性问题的监管方式出现。

(2)公平性(fairness)方面:指在应用数字医疗时存在各种形式的误差。比如开发过程收集的数据不能回答研究问题、不能充分代表目标用户、工具在不同群体产生不同效果等(DeCamp & Lindvall, 2020)。根本层面还反映出与性别、种族、宗教等有关的社会不平等(Mittelstadt, 2019)。若公平性问题没有得到解决,诊断和治疗也会受到相应影响,带有一定“算法歧视”意味的数字技术终将无法使老年人、偏远地区或低收入人者等边缘群体受益(Mittelstadt & Floridi,2016)。除了不断改善技术解决数据集和算法中的误差外,增加对这类群体使用数字医疗工具的指导或许能有助于缓解公平性问题带来的影响。

(3)知情同意(consent)方面:主要表现在应用数字医疗时存在企业与用户不对等的情况,如通知用户数据处理方法复杂、处理过程涉及机密等而没有充分告知潜在风险。《中华人民共和国个人信息保护法》中多项条目强调数据使用的知情同意;
欧洲《一般数据保护法》中第7 条与第12 条也包含同意原则与透明原则,并特别强调敏感处理来自儿童的任何信息。收集数据到产生结果的过程是复杂的,因此完全实现知情同意存在困难。有研究表明,将利益相关者纳入协作设计数字医疗产品的过程,将有利于确定哪些信息应被纳入知情同意和结果反馈(Martinez-Martin et al.,2021)。

(4)问责(accountability)方面:指在医疗领域应用具有自动数据挖掘和深度学习功能的数字技术,可能会破坏传统的医患关系。比如使用人工智能(artificial intelligence,AI)辅助诊断可能会扰乱,甚至取代治疗师(Potier, 2020)。由于AI 方法给出的分析结果通常被视为是更加客观的,而当这种自动建议与医生或患者的判断不一致时,责任归属的困境会出现。什么样的情况可以交由AI 进行自主决策?若造成治疗关系失衡或患者实际损伤时,应该追究哪一方主体的责任?目前仍需完备的责任分配体系,在明确约束所有主体责任的基础上,保障数字医疗的健康发展。尤其当AI 技术应用于心理咨询时,心理咨询师从业须遵守的伦理规范就受到了挑战。目前大多AI 辅助心理咨询采用AI 与真人相结合的模式,而人类咨询师在借助新兴技术收集信息、建立咨访关系、倾听来访和给予反馈之前,同样应当思考(Fulmer et al., 2021):AI是什么、能做什么、不能做什么?深度学习算法将如何分析来访者提供的信息?自动输出的结果信度和效度又如何?AI 对建立医患同盟的利弊如何?心理咨询最关键的疗效因素之一是来访者与咨询师之间互动产生的信任关系,所以就算人工智能掌握了所有咨询技术,来访者的接受程度和体验如何还有待探究。发展“智能化”心理咨询时,需要及时对从业伦理规范进行更新,才能更好地保护来访者权益。

对于数字技术应用于心理健康领域存在的伦理问题,有以下应对方向:

(1)健全规章制度,完善具体伦理规范,给予数字技术使用者最基本的隐私保护。我国于2020 年出台实施了《信息安全技术个人信息安全规范》,文件从法律角度构建了较为完整的个人信息保护制度,并将健康生理信息和生物识别信息作为敏感个人信息进行特殊保护,只有在特定目的和充分必要的情况下才被允许处理。欧洲《一般数据保护法》规定,禁止处理能够识别自然人生物性、健康、性取向等相关信息的数据。政策明确了数字平台相关主体对隐私信息保护的法律责任,但更多强调的是保护数据安全,对于网络服务提供者是否有权以及何种情境下有权挖掘什么类型的数据资料,还有待相应法规来界定和落实(谢晋 等, 2021)。

(2)对数字技术持辩证态度,明确其功能和使用范围,保护人类的安全。在心理健康领域应用数字医疗时,应充分发挥其便捷性,同时要避免过度依赖。例如,可以利用AI 进行初步诊断,让患者在就医前就对自身情况有初步了解,节省时间的同时,也减小了医生的工作量。最好仅借用数字技术做预判,最终的诊断、咨询和治疗仍应掌握在人类专家手中。有研究者指出,在按程序设计驱动的弱人工智能范畴内,数字科技就是人类的盟友,而非敌人(刘荣, 2018)。另外,还需更多地关注多样性和包容性,避免“算法歧视”带来的伤害。国家药品监督管理局于2022 年3月9 日发布了修订版《医疗器械软件注册审查指导原则》,各类单位在开发心理健康相关数字医疗工具时,可参考此通用指导原则进行调整、修改与完善。

(3)完善产生医疗相关损伤时的责任归属和赔偿制度,保障各方主体的权益。再先进的技术在应用时都难免会出现问题,而事故责任划分及后续赔偿问题较为复杂,目前并没有一个系统的问责与赔偿标准供参考。这类标准应当明确在不同情况下各个主体的责任所在,从产品研发到应用的每个环节,都保证在消极影响出现时可以明确追溯到个人,而非将责任推脱到存在不确定性的技术原因上(段文萱, 石旭雯,2019)。问责标准越明确,越能有效避免违反伦理原则的产品被设计出来,从根源上向研发主体发出警告。

只有正确对待数字医疗中的伦理问题,建立针对数字医疗的伦理管理、审批体系,积极健全相关要求、规范,才能在保障个体权益的基础上,共同推动数字技术在心理健康领域良性发展。

猜你喜欢伦理心理健康医疗《心之死》的趣味与伦理焦虑英美文学研究论丛(2022年1期)2022-10-26心理健康品牌研究(2022年9期)2022-04-06心理健康品牌研究(2022年8期)2022-03-23心理健康品牌研究(2022年6期)2022-03-23心理健康品牌研究(2022年1期)2022-03-18护生眼中的伦理修养活力(2019年19期)2020-01-06京张医疗联合的成功之路中国卫生(2016年1期)2016-11-12我们怎样理解医疗创新中国卫生(2016年1期)2016-11-12医疗扶贫至关重要中国卫生(2016年1期)2016-01-24医改莫忘构建伦理新机制中国卫生(2014年6期)2014-11-10

推荐访问:数字化 心理健康 伦理

版权所有:睿智文秘网 2009-2024 未经授权禁止复制或建立镜像[睿智文秘网]所有资源完全免费共享

Powered by 睿智文秘网 © All Rights Reserved.。备案号:辽ICP备09028679号-1