10.3 C
布鲁塞尔
Friday, 3年2024月XNUMX日
新闻医疗 AI 的前景和陷阱引领我们前行

医疗 AI 的前景和陷阱引领我们前行

免责声明:文章中转载的信息和观点是陈述他们的信息和观点,由他们自己负责。 发表于 The European Times 并不自动意味着赞同观点,而是表达观点的权利。

免责声明翻译:本网站的所有文章均以英文发表。 翻译版本是通过称为神经翻译的自动化过程完成的。 如有疑问,请始终参考原始文章。 谢谢你的理解。

新闻台
新闻台https://europeantimes.news
The European Times 新闻旨在报道重要的新闻,以提高欧洲各地公民的意识。

斯坦福大学的研究人员在扩展和构建新的医学人工智能模型时为工程师制定了一个框架。

机器人辅助手术。 图片来源:Graphic 维基媒体, CC-BY-SA-4.0

当手术团队陷入僵局时,一名患者躺在手术台上。 他们找不到肠破裂。 一位外科医生大声问道:“检查我们是否错过了过去 15 分钟的视觉反馈中的任何肠道切片视图。”

An 人工智能医疗助理 开始工作,查看患者过去的扫描结果并实时突出显示该过程的视频流。 当团队跳过手术步骤时,它会提醒团队;当外科医生遇到罕见的解剖现象时,它会读出相关医学文献。

在人工智能的帮助下,所有学科的医生可能很快就能在所有医疗保健数据和每篇已发表的在线医学文献的背景下快速查阅患者的整个医疗档案。 由于最新一代的人工智能模型,医生办公室的这种潜在多功能性现在才有可能实现。

“我们看到医疗人工智能领域正在发生范式转变,”他说 法力莱斯科维克,斯坦福工程学院计算机科学教授。 “以前,医疗 AI 模型只能解决非常小的医疗难题。 现在我们正在进入一个新时代,在这个高风险领域,更多的是关于更大的拼图。”

斯坦福大学的研究人员及其合作者将通才医学人工智能 (Generalist Medical AI, GMAI) 描述为一类新的医学人工智能模型,它们知识渊博、灵活且可在许多医学应用程序和数据类型中重复使用。 他们对这一进展的看法发表在 自然.

Leskovec 和他的合作者记录了 GMAI 将如何解释来自成像、电子健康记录、实验室结果、基因组学和医学文本的不同数据组合,这远远超出了 ChatGPT 等并发模型的能力。 这些 GMAI 模型将提供口头解释、提供建议、绘制草图和注释图像。

“由于人类医生的高度专业化和信息流动缓慢且参差不齐,导致当今医学中发生的许多低效率和错误,”共同第一作者说 迈克尔摩尔,医学博士,现在是斯坦福工程学院的博士后学者。 “通才医学 AI 模型的潜在影响可能是深远的,因为它们不仅是自己狭窄领域的专家,而且具有更多跨专业的能力。”

医学无国界

在 FDA 批准的 500 多个临床医学 AI 模型中,大多数只执行一两个狭窄的任务,例如扫描胸部 X 光片以寻找肺炎迹象。 但基础模型研究的最新进展有望解决更加多样化和更具挑战性的任务。

“令人兴奋和开创性的部分是通才医学人工智能模型将能够摄取不同类型的医学信息——例如,影像学研究、实验室结果和基因组学数据——然后执行我们指示它们即时执行的任务”莱斯科维茨说。

“我们预计医疗人工智能的运作方式将发生重大变化,”Moor 继续说道。 “接下来,我们将拥有的设备不仅可以执行一项任务,还可以执行一千项任务,其中一些任务甚至在模型开发期间都没有预料到。”

作者还包括哈佛大学的 Oishi Banerjee 和 Pranav Rajpurkar、耶鲁大学的 Harlan Krumholz、多伦多大学的 Zahra Shakeri Hossein Abad 和斯​​克里普斯研究转化研究所的 Eric Topol,概述了 GMAI 如何处理聊天机器人的各种应用程序与患者一起做笔记,一直到为医生提供床边决策支持。

作者建议,在放射科,模型可以起草放射学报告,直观地指出异常,同时考虑患者的病史。 放射科医生可以通过与 GMAI 模型聊天来提高他们对病例的理解:“你能突出显示之前图像中不存在的任何新的多发性硬化病灶吗?”

在他们的论文中,科学家们描述了将 GMAI 发展成为一项值得信赖的技术所需的额外要求和能力。 他们指出,该模型需要使用所有个人医疗数据以及历史医学知识,并且仅在与授权用户交互时引用这些数据。 然后它需要能够与患者进行对话,就像分诊护士或医生一样,以收集新的证据和数据或提出各种治疗计划。

对未来发展的担忧

在他们的研究论文中,合著者阐述了一个模型的含义,该模型能够完成 1,000 项医学任务,并有可能学习更多。 “我们认为医学通才模型的最大问题是验证。 我们怎么知道模型是正确的——而不是胡编乱造?” 莱斯科维奇说。

他们指出了 ChatGPT 语言模型中已经发现的缺陷。 同样,AI 生成的教皇穿着设计师设计的蓬松外套的图像也很有趣。 “但是,如果存在高风险场景并且人工智能系统决定生死,验证就变得非常重要,”Moor 说。

作者继续表示,保护隐私也是必要的。 “这是一个巨大的问题,因为对于像 ChatGPT 和 GPT-4 这样的模型,在线社区已经找到了越狱当前安全措施的方法,”Moor 说。

“在数据和社会偏见之间破译也对 GMAI 构成了巨大挑战,”Leskovec 补充道。 GMAI 模型需要能够专注于导致特定疾病的信号,并忽略仅与结果相关的虚假信号。

假设模型尺寸只会变得更大,Moor 指出早期研究表明,较大的模型往往比较小的模型表现出更多的社会偏见。 “这些模型和供应商的所有者和开发人员有责任真正确保尽早发现并解决这些偏见,特别是如果他们将它们部署在医院中,”Moor 说。

“目前的技术非常有前途,但仍有很多不足,”Leskovec 表示同意。 “问题是:我们能否找出当前缺失的部分,例如事实验证、对偏见的理解以及答案的可解释性/合理性,以便我们为社区提供一个议程,说明如何取得进展以充分发挥 GMAI 的深远潜力? ”

Sumber: 斯坦福大学


来源链接

- 广告 -

更多来自作者

- 独家内容 -现货图片
- 广告 -
- 广告 -
- 广告 - 现货图片
- 广告 -

必读

最新文章

- 广告 -