ChatGPT 和类似系统将越来越多地成为我们生活的一部分,包括医疗保健。 我们需要指导方针来确保他们的道德部署。

作者:Mayo Clinic Platform 总裁、医学博士 John Halamka 和 Mayo Clinic Platform 高级研究分析师兼传播专家 Paul Cerrato。

像 ChatGPT 这样的生成式 AI 系统,一个基于生成式预训练转换器的聊天机器人,已经引起了公众的注意,导致对其潜力的正面和负面猜测纷至沓来。 他们甚至找到了进入流行漫画的方式。 例如,在一个呆伯特漫画中,老板问沃利他的状态报告是否由商业级人工智能编写。 Wally 说是,并感谢他的称赞,此时老板建议添加一些错误,这样看起来更像是人写的。 虽然漫画阐明了这种情况,但大学教授、医疗保健主管和许多其他人都真正担心这些强大工具可能被滥用。

根据一个定义,生成式人工智能“指的是可以生成新颖内容的人工智能,而不是简单地分析现有数据或根据现有数据采取行动。 生成式 AI 模型生成文本和图像:博客文章、程序代码、诗歌和艺术品。 该软件使用复杂的机器学习模型,根据先前的单词序列预测下一个单词,或根据描述先前图像的单词预测下一张图像。” 从积极的方面来看,该技术可用于改进翻译、回答患者问题和进行情绪分析,这可能使医疗保健提供者在与患者的医院或办公室实践互动时更好地了解患者的积极和消极体验。 最终,这些工具还可以改进诊断过程并促进新药的发现。

但也有需要解决的可疑用途。 巴布森学院教授 Thomas Davenport 和德勤美国人工智能增长负责人 Nitin Mittal 指出,该技术可以创建更难检测的伪造文件和图像。 想象一个不良行为者或不道德的应用程序开发人员想要将软件作为医疗设备 (SAMD) 进行营销,但不想进行昂贵的尽职调查来分析数以万计的医学图像来训练其算法,而是开发其“解决方案” ” 使用支持 ChatGPT 的假图像。 如果像这样的产品在医学界获得关注,就会危及生命。 或者想象一名医学院学生使用生成式 AI 应用程序编写作业来评估他们的诊断技能或病理生理学知识。 当人类开始更多地依赖生成人工智能时,它可能会失去执行基础任务的能力。

迄今为止,生成式人工智能系统缺乏透明度。 虽然他们创建的文档可能读起来很流畅,逻辑也很合理,但它们的最新性取决于他们最新的培训数据,就 ChatGPT 而言,这是 2021 年之前的数据。在医疗保健技术领域,这是一个重大缺陷,因为 知识变化如此之快。 更严重的是,这些数字工具往往依赖未经过滤的互联网和社交媒体内容,这些内容充斥着错误信息。 斯坦福大学 2022 年的一份人工智能报告发现,大多数生成模型只有 25% 的时间是真实的。 同样,Statpoints 的一份报告指出,这些工具“有可能通过降低制造错误信息的障碍来加深对医学的不信任。” 这种恐惧是有道理的,因为这些机器人有时会捏造事实,但会以非常合理的方式将其记录下来。

考虑到这些问题,我们需要制定政策和法规来管理生成式人工智能和其他基于人工智能的新系统。 人工智能健康联盟正在为在医疗保健中负责任地使用人工智能提供指南。 同样,欧盟已经为可信赖的人工智能制定了道德准则,民主与技术中心和其他几个团体也是如此。 个人和医疗保健提供者和供应商还需要了解在逐个项目的基础上使用生成人工智能工具的潜在后果。 开发人员应该想象他们的新内容可能会如何被滥用或误解,并采取措施阻止这种可能性。 一种方法是在事实核查员的帮助下,他们的职责是查找错误和被误解的事实。

ChatGPT 将人工智能带入了一个新的领域,一个可以创造真正价值和明显危害的领域。 但我们不相信人工智能,我们相信增强智能——也就是说,作为人类,给我们对过去的数据进行统计分析,帮助我们做出未来的决策,这很美妙。 然而,将决策权交给统计模型充满了危险的可能性。

内容中包含的图片若涉及版权问题,请及时与我们联系删除