财新传媒
位置:博客 > 胡泳 > 胡泳:我们能相信人工智能医生吗?

胡泳:我们能相信人工智能医生吗?

IBM正在考虑出售沃森健康(Watson Health),这标志着人工智能的雄心在医疗保健业遭遇重大挫折。
作为这家标志性科技企业近年来的明星业务,沃森健康最重要的产品可以帮助医生诊断和治疗癌症。它是IBM最早也是最大的AI尝试之一。然而,尽管为了打造这一增长引擎,IMB展开了一系列有针对性的价值数十亿美元的收购,但沃森健康在争取美国国内外市场份额上的进展并不顺利,并且短期内也看不到盈利的前景。
 
在休斯敦的MD安德森癌症中心,沃森健康于2013年首次部署认知计算技术,以帮助肿瘤学家从卫生系统的大量研究和患者数据中挖掘洞见,并开发新的以NLP(神经语言程序)为基础的工具来支持决策。
然而,到2018年,这两个组织的合作陷入困境,MD安德森中心在花费超过6000万美元之后取消了该项目,原因是“存在许多不安全和不正确的治疗建议实例”。
 
失败的原因不一而足。医疗专家相信,沃森机器人医生的困境凸显了将AI用于治疗复杂疾病的障碍,可能同时包括人力、财务和技术。比如,获得具广泛代表性的患者群体的数据一直是一项挑战,而在另外一方面,这些疾病的结果往往取决于许多可能无法在临床数据库中完全捕获的因素。
同时,科技公司缺乏深厚的医疗保健专业知识,如果它们不够了解实战的临床工作流程,就会增加在病患环境中实施人工智能的困难。必须知道可以在哪里插入AI,以及AI又能够在哪些方面提供帮助,而一切都要以提高医院的效率为准。
 
不过,究其根本,在医院中应用人工智能,首当其冲的是解决信任问题。在相当大的程度上,我们还是第一次见证人和机器人共处一室的复杂环境。当医生首次与沃森交流时,他们发现自己处于相当困难的境地。一方面,如果沃森提供了与他们自己的观点相一致的治疗指导,医生们对沃森的建议就看不出太多价值。超级计算机只是告诉他们本身业已知道的东西,而这些建议并没有改变实际的处理方式。这可能会让医生放心,让其对自己的决定更有信心。然而如果只是帮忙确认,机器人医生值得在医院里部署吗?
 
另一方面,如果沃森提出了与专家意见相矛盾的建议,医生通常会得出结论:沃森对癌症无能为力。机器无法解释为什么它的处理是合理的,因为它的算法太复杂了,不能被人完全理解。因此,这导致了更多的不信任和怀疑,许多医生会忽略看起来异乎寻常的AI建议,并坚持自己的专业知识。
由此来看,沃森的肿瘤诊断问题是医生根本不信任它。人类的信任往往基于我们对其他人如何思考的理解,以及对其可靠性的经验了解。这有助于创造一种心理安全感。而AI对于大多数人来说仍然是相当新颖和陌生的。它使用复杂的分析系统进行决策,以识别潜在的隐藏模式和来自大量数据的微弱信号。
 
即使可以在技术上解释(并非总是如此),AI的决策过程对于大多数人来说通常难以理解。和自己不明白的事情互动会引起焦虑,并使我们感觉失去了控制。许多人也不太了解许多AI实际工作的实例,因为它们常常发生在后台。
 
相反,人们总能敏锐地意识到人工智能出错的情况:谷歌算法将黑人分类为大猩猩;一个微软聊天机器人在不到一天的时间里成为白人至上主义者;在自动驾驶模式下运行的特斯拉汽车导致了致命的事故。这些不幸的例子受到了媒体不成比例的关注,向社会发出了人类不能完全依赖技术的信息。机器学习并非万无一失,部分原因是设计它的人不是万能的。
 
具体到医疗保健领域,发生问题的也不是只有IBM。谷歌的DeepMind部门在开发了轰动世界的围棋程序之后,也曾推动多项针对慢性病的医疗保健举措。然而它目前也处于亏损状态,并在收集健康数据方面遇到了隐私担忧。
虽说如此,用人工智能改进医疗保健业的努力还会继续。原因很简单:在这个价值万亿美元的行业里,效率只能实现40%到60%。因此,用机器学习算法或可扩展的AI之类的优雅工具使它得到显著改善的想法,显然还是非常诱人。
 
然而,要想达至诱人的前景,至少需要完成三件事情:第一,打开黑箱,让AI能够解释自己所做的事情;第二,发现和减轻训练数据及算法中的偏见;第三,为人工智能系统赋予伦理价值。
 
文章来源于南风窗



推荐 4