由怀疑手术刀

对于人工智能在医学领域来说,七月是一个有趣的月份。

麻省理工学院(MIT)的一项研究发现,当人类医生要求对患者进行测试时,他们会考虑一些人工智能目前尚未意识到的因素。作者分析了波士顿贝斯以色列女执事医疗中心(Beth Israel Deaconess Medical Center)约6万名ICU患者的病历。

通过查看病人记录中医生的积极或消极情绪的进展记录,他们得出了与诊断成像测试的次数相关的分数。当其他因素被控制时,医疗数据本身并不能驱动检查的顺序,但是医生的情绪可以预测有多少检查被安排。

起初,悲观的医生要求进行更多的检查,但后来,当人们对病人的病情看法非常消极时,他们就减少了检查。

该研究得出的结论是,“直觉”或直觉对所安排的测试数量有很大影响。该研究的一位作者说,“这种直觉可能来自医生的历史经验。”他把这比作一个母亲看到一个做错事的孩子时的感觉。

麻省理工学院的研究人员正在思考如何教会计算机拥有直觉,但目前为止,人工智能还没有被编程来运用这种智慧。

人工智能又一次受到了Stat News的冲击,他们对IBM的肿瘤学沃森做了一篇深度报道。沃森似乎是由纽约纪念斯隆凯特琳癌症中心(Memorial Sloan Kettering Cancer Center)的医生和其他人训练的假想病例,而不是使用该机构大量癌症患者的“大数据”。

一位曾在IBM工作并帮助运行该项目的肿瘤学家在公司的演示中概述了该项目的问题。他说治疗建议是基于少数肿瘤医生的意见,而不是指导方针或证据。在一个例子中,沃森建议用一种带有黑框警告的药物治疗一个模拟肺癌和出血的病人,这种药物的使用可能导致大出血。没有真正的病人接受这种药物治疗。

IBM没有公开披露与沃森肿瘤学的任何问题,并声称它“进展非常顺利”。IBM沃森健康公司的一位高管说,医生们喜欢这个项目。然而,Stat的文章引用了一位来自佛罗里达州朱比特医院的医生用户的话说:“这个产品就是个垃圾,”并补充说,它在大多数情况下都无法使用。

我的直觉是,我们这些医生应该还能再工作几年。

skeppel是一名退休外科医生,曾担任外科系主任和住院医师项目主任多年。他在普通外科和一个外科次专业的董事会认证,并已在这两个认证的几次。在过去的八年里,他一直在SkepticalScalpel.blogspot.com和微博@SkepticScalpel。他的博客有超过300万的页面浏览量,他在Twitter上有超过18000名粉丝。