一项新研究表明,OpenAI 的 o1-preview 人工智能系统在诊断复杂医疗案例方面,可能优于人类医生。哈佛医学院和斯坦福大学的研究团队对 o1-preview 进行了全面的医疗诊断测试,结果显示该系统相比于早期版本有了显著进步。
根据研究结果,o1-preview 在所有被测试的病例中,正确诊断率达到了78.3%。在对70个特定病例的直接比较中,该系统的准确诊断率更是达到了88.6%,显著超越了其前身 GPT-4的72.9%。在医疗推理方面,o1-preview 的表现同样引人注目。使用 R-IDEA 量表这一医疗推理质量评估标准,该 AI 系统在80个病例中获得了78个满分。相较之下,经验丰富的医生仅在28个病例中获得满分,而医学住院医师则仅在16个病例中达到满分。
研究人员也承认,o1-preview 在训练数据中可能包含了一些测试案例。然而,当他们对系统进行新案例的测试时,性能只略有下降。研究作者之一亚当・罗德曼博士强调,虽然这是一项基准研究,但研究结果对医疗实践有重要的启示。
o1-preview 在处理由25名专家特别设计的复杂管理案例时表现尤为突出。“人类在这些难题面前显得力不从心,但 o1的表现让人惊艳,” 罗德曼解释道。在这些复杂案例中,o1-preview 获得了86% 的得分,而医生使用 GPT-4仅获得41%,传统工具更是只有34%。
不过,o1-preview 并非毫无缺陷。在概率评估方面,该系统的表现没有明显改善,比如在评估肺炎的可能性时,o1-preview 给出了70% 的估计,这远高于科学范围25%-42%。研究人员发现,o1-preview 在需要批判性思维的任务上表现优异,但在更抽象的挑战中,如估计概率方面则显得力不从心。
此外,o1-preview 通常提供详细的答案,这可能提升了其评分。但研究仅关注 o1-preview 单独工作的情况,而没有评估其与医生合作的效果。一些批评者指出,o1-preview 建议的诊断测试往往成本高昂且不切实际。
尽管 OpenAI 已发布了全新版本的 o1和 o3,并在复杂推理任务中表现出色,但这些更强大的模型仍未能解决批评者提出的实际应用和成本问题。罗德曼呼吁,研究人员需要更好的评估医疗 AI 系统的方法,以便在现实医疗决策中捕捉复杂性。他强调,这项研究并不意味着可以取代医生,实际医疗仍需要人类的参与。
文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。
奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。
“以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。
华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。