
ChatGPT是一种由OpenAI训练的、基于GPT-3.5和GPT-4架构的大型语言模型,是可用于疾病监测、药物信息提供、虚拟医疗助理等医疗健康的聊天机器人的示例。作为一种语言模型,ChatGPT旨在为基于文本的输入生成类似人类的响应,这使得它非常适合回答问题和提供与健康相关的建议。虽然ChatGPT可以使医疗保健工作者从一些繁琐的事务和繁重的劳动中解放出来,但对其专业技能的取代也会导致前所未有的技术性失业危机。此外,与其他新兴科技产物一样,ChatGPT在医疗健康领域的应用无可避免也充满"阳光下的暗礁"。
版权归中华医学会所有。
未经授权,不得转载、摘编本刊文章,不得使用本刊的版式设计。
除非特别声明,本刊刊出的所有文章不代表中华医学会和本刊编委会的观点。
ChatGPT是一种由OpenAI训练的、基于GPT-3.5和GPT-4架构的大型语言模型,是可用于疾病监测、药物信息提供、虚拟医疗助理等医疗健康的聊天机器人的示例。作为一种语言模型,ChatGPT旨在为基于文本的输入生成类似人类的响应,这使得它非常适合回答问题和提供与健康相关的建议。虽然ChatGPT可以使医疗保健工作者从一些繁琐的事务和繁重的劳动中解放出来,但对其专业技能的取代也会导致前所未有的技术性失业危机。此外,与其他新兴科技产物一样,ChatGPT在医疗健康领域的应用无可避免也充满"阳光下的暗礁"。
迄今为止的人文主义所关注的重点在于确认和提高人在这个世界的地位和价值,促进人的潜力的发挥,但ChatGPT的算法和算力不断迭代,远远超出人类的信息处理能力,也挑战了以人为中心的人文主义,人类需要充分认识这种变化的可能性和现实性,以此来考虑人在这个世界上是否还是至上的地位。
自主原则要求人类能够完全控制其在医疗健康中的决策,更确切地说,ChatGPT应该帮助人类作出明智的决定,必须确保患者能够获得公正的信息并尊重他们的自主权。尊重自主权还意味着对个人隐私的保护,并通过采用适当的数据保护法律框架确保参与者知情、有效的同意。如果个人不同意,则不应限制或拒绝基本的服务。
与医疗健康中的所有人工智能应用程序一样,透明度对于在患者、医疗保健提供者和人工智能开发人员之间建立信任至关重要。ChatGPT必须公开透明地说明其运作方式、收集的数据以及决策方式。但ChatGPT基于多层复杂神经网络搭建的深度学习模型,目前还不能解释其算法逻辑,经常出现事实性错误,产出的结果也不具有安全保障,如果被恶意利用,将造成严重的安全隐患。
必须有人对ChatGPT的决策和行动负责,这有助于医疗保健提供者能够负责任地使用人工智能技术。尽管ChatGPT对话能力和交互能力大幅提升,但经常出现事实性错误,无法提供专业性强的答案,对于医学的知识并不深入和专业,人类利益相关者有责任确保ChatGPT能够执行其任务并且在适当的条件下使用。当ChatGPT做出的医疗决定对个人造成伤害时,应明确责任分配原则,然而当前大多数国家/地区的法律中对此并没有明确界定,对传统的产品责任理论是否可应用于ChatGPT也没有明确规定。尽管欧洲和美国法院将医疗软件视为医疗设备,然而,开发商可能通过将ChatGPT解释为服务而非产品来逃避责任,患者可能难以从中获得赔偿。
ChatGPT的开发和实施方式必须确保所有社会成员都能平等获得和受益,无论其社会经济地位或其他人口因素如何。这包括确保ChatGPT可供残障人士使用,应避免或识别并减轻在使用过程中出现的偏见。应制定特殊条款保护弱势群体的权利和福利,并在出现或指控出现此类偏见和歧视时建立补救机制。该系统也需要设置自己的优先事项——在推荐治疗方法时,成本效益、不惜代价的疗效、便利性、副作用最小还是医疗公正?
为解决上述问题,需要适当的道德和治理框架,以确保以负责任和合乎道德的方式开发和使用人工智能。WHO发布了《健康领域人工智能伦理与治理指南》,该指南还就如何确保人工智能的负责任治理提供了建议,包括符合伦理要求和透明的人工智能技术设计,公众参与和发挥作用的机制以及向提供者展示诚信的机制,对人工智能应用的影响评估等,这些建议可应用于ChatGPT在医疗健康领域的使用:
利益相关者包括患者、医疗保健提供者和人工智能开发人员,他们的共同参与可以确保ChatGPT以响应各方需求的方式开发和实施。通过让利益相关者参与ChatGPT的开发和实施,可以确保以患者为中心的方式使用ChatGPT。
伦理审查委员会可以努力促进以合乎道德和负责任的方式使用ChatGPT,就可能出现的棘手伦理问题提供指导,并确保ChatGPT符合透明度、问责制和公平原则。
数据保护措施对于确保正确使用患者数据至关重要。这包括确保安全地收集和存储患者数据,并且患者可以控制他们的数据。目前,数据保护政策在人工智能算法面前备受挑战,但医疗保健提供者可以通过实施数据保护措施尽可能保障ChatGPT以合乎道德和负责任的方式收集和使用患者数据。
评估和验证有助于确保ChatGPT准确、可靠且安全地用于医疗健康。通过在临床环境中实施ChatGPT算法之前对其进行评估和验证,医疗保健提供者可以确保ChatGPT为患者提供准确可靠的建议和信息。
ChatGPT的发展引起了很多伦理挑战,如果遵守高水平的道德规范,可能难以保证其快速发展,但如果保证其首先进入市场,则道德原则可能会被淡化、修改变得无效,因此,如何将伦理规范写入到人工智能的源代码中,如何确定哪些是可接受的、哪些是不可接受的,当前的法律和管理系统仍然存在很多模糊,需要在实践中不断探寻和摸索。
ChatGPT本身还在更新和迭代中,其中的技术发展和社会伦理问题的交织将使问题变得更加复杂,目前已有"暂停ChatGPT训练比GPT-4更强大的人工智能系统至少6个月"的建议出台。何去何从,需要多方人士群策群力,才能确保在医疗领域负责任地使用ChatGPT。





















