中国团队一出手就是36.4万对数据!超声AI大模型要变天,CT/MRI们准备好了吗?
_这条新闻最让我兴奋的,是它终于解决了一个被大家反复提但始终没突破的痛点——医疗AI“看得见”图像,“听不懂”临床语言。
过去五年,各种医疗AI模型层出不穷,但绝大部分都是“图像分类器”:给一张超声图,AI能识别出有没有肿块、囊肿。可一旦医生的报告里出现“结合病史考虑”“建议复查观察”这种带临床语境的描述,AI就傻眼了。为啥?因为训练数据里只有图像标签,没有医生写报告时的思考过程。
这次中国团队搞的us-36m不一样。它把超声图像和医生的诊断报告配对做训练,相当于让AI同时学习“图像长什么样”和“医生看到这个图像会怎么写报告”。这一步看似简单,实则把医疗AI从“看图”升级到了“读诊断”的层面。
_说白了,这 就是医疗大模型真正意义上的第一步。之前很多公司吹自己能做“AI问诊”,实际上无非是把问诊文本喂给语言模型,跟医学图像没半毛钱关系。但超声检查特别依赖“图像+描述”的耦合——一个资深超声医生,看图写报告的过程本身就是推理,不是简单分类。所以这个数据集的价值,不在于数据量有多大(36.4万对其实不算特别大),而在于它第一次把“图像-诊断”的语义对齐做扎实了。
_对行业的影响,我判断会有两个方向:一是超声设备厂商会加速推出“AI辅助诊断”功能,医生打图的时候,系统能实时生成诊断建议——这个在技术路径上已经可行了;二是远程超声会迎来真正爆发,以前基层医生经验不够,写不好报告,AI可以在“语义”层面帮一把,这对分级诊疗是大利好。
_当然,话说回来,AI终究是辅助,永远不可能替代超声科医生的判断。数据集中会不会有标注偏差?不同医院、不同医生的诊断习惯不同,怎么标准化?这些挑战都还在。但至少现在,我们看到了一个更清晰的起点。
_如果你在医疗AI这个赛道,我的建议是:短期关注落地场景(比如产科、甲状腺、乳腺这些超声应用成熟的领域),长期盯着多模态融合。超声只是第一步,CT、MRI早晚也会走上这条路的。
来源 量子位
阅读原文