医患关系的神圣性是医疗行业的基石。这个受保护的空间充满了传统——希波克拉底誓言、医学道德、职业行为准则和立法。但所有这些都准备好被数字化、新兴技术和“人工智能”(AI)颠覆。

 

创新、机器人技术、数字技术以及改进的诊断、预防和治疗可以使医疗保健变得更好。它们还提出了道德、法律和社会方面的挑战。

 

自 2022 年ChatGPT(Generative Pertaining Transformer)的闸门打开以来,像我们这样的生物伦理学家一直在思考这个新的“聊天机器人”在医疗保健和健康研究中可以发挥的作用。

 

Chat GPT 是一种语言模型,经过大量互联网文本的训练。它试图模仿人类文本,可以在医疗保健和健康研究中扮演各种角色。

 

早期采用者已经开始使用 ChatGPT 来协助完成日常任务,例如写病假单、患者信件以及要求医疗保险公司为患者支付特定昂贵药物费用的信件。换句话说,这就像拥有一位高级私人助理来加快官僚任务并增加与患者互动的时间。

 

但它也可以协助更严肃的医疗活动,例如分流(选择哪些患者可以接受肾透析或重症监护病床),这在资源有限的环境中至关重要。它可以用来招募临床试验的参与者。

将这种复杂的聊天机器人纳入患者护理和医学研究会引发许多伦理问题。使用它可能会导致意想不到和不受欢迎的后果。这些问题涉及保密性、知情同意、护理质量、可靠性和不公平性。

 

现在了解在医疗保健和研究中采用 ChatGPT 的所有伦理影响还为时过早。这项技术使用得越多,其影响就会越清晰。但有关 ChatGPT 在医学上的潜在风险和治理的问题将不可避免地成为未来对话的一部分,我们将在下面简要介绍这些问题。

 

潜在的道德风险

 

首先,使用 ChatGPT 存在侵犯隐私的风险。成功和高效的 AI 取决于机器学习。这需要数据不断反馈到聊天机器人的神经网络中。如果可识别的患者信息被输入 ChatGPT,它将成为聊天机器人未来使用的信息的一部分。换句话说,敏感信息“就在那里”并且容易泄露给第三方。此类信息的保护程度尚不清楚。

 

患者信息的保密性构成了医患关系信任的基础。ChatGPT 威胁到这种隐私——弱势患者可能不完全理解的风险。同意人工智能辅助医疗保健可能不是最理想的。患者可能不明白他们同意的是什么。有些人甚至可能不会征求同意。因此,医生和机构可能会面临诉讼。

 

另一个生物伦理问题与提供高质量的医疗保健有关。传统上,这是基于强有力的科学证据。使用 ChatGPT 生成证据有可能加速研究和科学出版物。但是,当前格式的 ChatGPT 是静态的——其数据库有一个结束日期。它不实时提供最新的参考资料。在这个阶段,“人类”研究人员正在做更准确的证据生成工作。更令人担忧的是,有报道称它捏造了参考资料,损害了以证据为基础的良好医疗保健方法的完整性。不准确的信息可能会危及医疗保健的安全。

 

高质量的证据是医疗和医疗建议的基础。在医疗保健民主化的时代,提供者和患者使用各种平台来访问指导他们决策的信息。但 ChatGPT 在其开发阶段可能没有足够的资源或配置来提供准确和公正的信息。

 

使用基于来自有色人种、妇女和儿童的代表性不足的数据的偏见信息的技术是有害的。在最近的 COVID-19 大流行期间,一些用于测量氧气水平的脉搏血氧仪品牌的读数不准确让我们明白了这一点。

 

还值得思考一下 ChatGPT 对低收入和中等收入国家可能意味着什么。访问问题是最明显的。新兴技术的好处和风险往往在国家之间分配不均。

 

目前,访问 ChatGPT 是免费的,但这不会持续太久。对这种语言聊天机器人高级版本的货币化访问是对资源匮乏环境的潜在威胁。它可能会加剧数字鸿沟和全球健康不平等。

 

人工智能的治理

 

不平等的访问、被利用的可能性以及数据可能造成的危害强调了在低收入和中等收入国家制定特定法规来管理 ChatGPT 的健康使用的重要性。

 

全球准则正在出现,以确保 AI 的治理。但许多低收入和中等收入国家尚未调整这些框架并将其置于背景中。此外,许多国家缺乏专门适用于人工智能的法律。

 

南半球国家需要就采用这项新技术的伦理和法律影响进行当地相关对话,以确保享受和公平分配其利益。

Logo

AI·Earth

更多推荐