医生的AI还是AI医生?

来源:医师报  2019-12-03 A- A+

人工智能(AI)“不可解释性”的特点,让人不明觉厉,但在医疗领域则可能面临巨大的伦理挑战。当医疗AI应用对的时候,所有人皆大欢喜;当医疗AI犯了错,尽管概率很小,但错的时候,由谁承担这个责任?是医生,是程序员,还是签字购买医疗AI服务的院长?11月22日,在北京大学医学部举行的“智慧医疗革命:潜力与挑战” 论坛上,清华大学临床医学院院长、北京清华长庚医院执行院长董家鸿院士分享了他的精彩观点。

在某些方面AI可以超过人,但在总体的智慧上,机器永远不可能超过人类。技术是服务于人的,人工智能的发展是为了为人类提供更好的健康服务。我们要认识到是医生的AI,而不是AI医生。

从医疗服务诊断的感知、认知、决策、干预几个主要流程上,AI可以在感知方面超越人的极限,在认知方面也可以在某种程度上超越人,为医生提供辅助决策支持。包括对于肿瘤发生机理的研究,未来如果在算法上无法取得突破,则对于肿瘤本质的认识和防治策略不可能有突破。但是个体疾病复杂的变异性,常态的个体差异,一定还需要医生的智慧。如果要求医生遵从机器的决策,那会出很多问题。从干预方面,机器可以提高手术操作的精度和可控性,但必须要由医生作出判断和控制。

当前医疗AI风险在于不可解释性,那就是为什么人工智能能够作出准确的判断,如果没有明晰的原理可解释,在实际使用过程中医生心里不踏实,患者接受起来也有疑虑。如果一个医生犯了错,受损害的是一个患者。如果人工智能机器人出了错,将会损害一批患者。因此,对于不可解释的人工智能技术,应该严格限定它的应用边界。

我们主张将机器人作为辅助,让它处理确定性的事件,由医生来处理不确定性事件,并承担法律上的责任。

人体和疾病都是极其复杂的,因此在人类的健康医疗服务中是不可能不出错误。医学发展的本身就是一个不断试错和校正的过程,先进的科技手段确实能够帮助医生作出更正确的判断,做更精准的干预,但仍然不可能完全避免出错,最终主导的主体仍然是医生。医生也应该加强培训和学习,更好地理解AI带来的辅助决策的支持和其局限性,从而让人类站在更高的智慧水平上,更好、更准确地利用AI。

(张广有根据智慧医疗革命论坛整理)

*声明:本文由入驻新浪医药新闻作者撰写,观点仅代表作者本人,不代表新浪医药新闻立场。
收藏
扫描二维码,关注新浪医药(sinayiyao)公众号
360°纵览医药全局,365天放送新闻时事,医药资讯轻松一览,
精彩不容错过。
文章评论
《医师报》2007 年创刊,是中国医师协会为国内各学科领域的专家、学者、医生搭建的专业医学媒体平台。经过十多年的基点拓展,形成了涵盖报纸、网站、APP、微信等,涵盖20 余万读者的立体传播形态。
+订阅
印象笔记
有道云笔记
微信
二维码
意见反馈