专家笔谈
人工智能对胃肠疾病诊疗的推动作用
中华胃肠外科杂志, 2020,23(1) : 33-37. DOI: 10.3760/cma.j.issn.1671-0274.2020.01.006
摘要

高速发展的计算机技术给日常生活及工作带来巨大变化。人工智能是计算机科学的一个分支,是让计算机去行使通常情况下具备智能生命才可能行使的活动,广义的人工智能涵盖机器学习和机器人等等,本文主要聚焦于机器学习与相关的医学领域,深度学习是机器学习中的人工神经网络,卷积神经网络(CNN)是深度神经网络的一种,是在深度神经网络基础上,进一步模仿大脑的视觉皮层构造和视觉活动原理而开发;目前在医疗大数据分析中应用的机器学习方式主要为CNN。在未来数年内,人工智能作为常规工具进入医学图像解读相关的科室是发展趋势。本文主要分享人工智能与生物医学的融合进展,并结合实际案例,重点介绍CNN在胃肠道疾病的病理诊断、影像学诊断及内镜诊断等方面的应用研究现状。

引用本文: 于颖彦. 人工智能对胃肠疾病诊疗的推动作用 [J] . 中华胃肠外科杂志, 2020, 23(1) : 33-37. DOI: 10.3760/cma.j.issn.1671-0274.2020.01.006.
参考文献导出:   Endnote    NoteExpress    RefWorks    NoteFirst    医学文献王
扫  描  看  全  文

正文
作者信息
基金 0  关键词  0
English Abstract
评论
阅读 0  评论  0
相关资源
引用 | 论文 | 视频

版权归中华医学会所有。

未经授权,不得转载、摘编本刊文章,不得使用本刊的版式设计。

除非特别声明,本刊刊出的所有文章不代表中华医学会和本刊编委会的观点。

2016年3月,围棋机器人AlphaGo与韩国职业围棋手(前世界围棋冠军)进行了5轮对抗赛,最终以人类围棋选手失败而告终,该结果让我们不得不正视人工智能(artificial intelligence,AI)可能对人类真实世界带来的影响。AI已经不再是小说与影视作品里的科幻故事,它实实在在地走进现实生活。在生物医学领域,AI最容易介入的分支是医学影像学,涉及到的科室有放射科、病理科、超声科和内镜相关科室等。近十年来,AI技术的发展迅速,临床医师极有必要了解AI相关知识与发展方向。本文不同于以往此类文章,大多面向生物信息学与计算机科学人员,而是以生物医学领域读者为对象,介绍人工智能与生物医学的融合进展,并结合实际案例介绍其在胃肠道疾病研究的现状。

一、人工智能

人工智能是计算机科学的一个分支,是让计算机去行使通常情况下具备智能生命才可能行使的活动。广义的人工智能涵盖机器学习和机器人等。本文主要聚焦于机器学习与相关的医学领域。机器学习(machine learning)是让计算机通过学习大数据,开发出一种算法,让计算机去完成对未知事件的预判。机器学习依据训练方式的不同分为监督性学习、非监督性学习和强化学习三种[1]

监督性学习也叫监督性训练,是用人工事先做好标记的分类数据(比如将数据分别标记出是肿瘤还是正常)训练机器。监督性学习包括随机森林、支持向量机、决策树、线性回归、逻辑回归、朴素贝叶斯、K-近邻、AdaBoost和神经网络方法。监督性机器学习的关键是给予机器训练的数据量与对数据的标注。比如,如果希望机器区分胃镜照片是单纯性胃炎还是萎缩性胃炎,我们提供给机器的信息只是色泽不一的单纯性胃炎与萎缩性胃炎的胃镜照片,仅凭照片的颜色差异去训练计算机算法未必会得到良好的分类结果,如果事先将训练照片分别标注好病变特征,比如是否有黏膜皱襞萎缩消失,则计算机在训练阶段就会得到胃镜图像的色泽与形态双重特征,这样训练出来的模型误判率会大大降低。

非监督性学习是指拟分析的数据里面包含有需要检测的目标,但是没有经过人工任何标记,也就是将缺乏人工标记的分组信息直接提交给计算机进行分类。非监督性学习包括K-均数法、均数移动法、聚类分析法、高斯混合建模法、马可夫随机域法和迭代自组织数据法等,其中以聚类分析较为常用。

强化学习是指在开始阶段先利用人工标记的数据集构建一个计算机分类器,然后再对构建的系统给予一定数量的非标记数据训练,目的是优化提升模型的性能。强化学习方法类似于非监督性学习法。在医学影像分析中以监督性学习方法比较常用。

二、深度学习

深度学习(deep learning)是机器学习中的人工神经网络,是模仿了人类大脑的神经元学习数据、进行信息传递的过程,是2013年世界十大科技突破性进展之一。深度学习的网络有多个神经节点(类似于人类的神经元)相互连接,故人工神经网络对计算机要求很高,需要具备高性能图像处理器(graphics processing unit,GPU)可并行运算的服务器。当前,深度学习已经用于对胃镜图像、X线片、B超图片等病变进行自动识别与诊断[2]。在医疗诊疗过程中会产生大量的医学图像,如果与快速发展的计算机技术相结合,将大大改善医疗图像诊断的准确性,并提高诊疗过程的工作效率。

人工神经网络的仿人类大脑神经元和神经纤维构造主要有以下几部分:数据输入层,数据输出层和位于中间的多个隐藏层。含有多个隐藏层的神经网络又叫深度神经网络。输入层的神经节连接着下一层的神经节,并依靠神经纤维结构将神经节连接起来。信息进入输入层的神经节后,每一个值的权重相乘后汇总到下一层的神经节,此过程在隐藏层中重复进行,使得分类越来越精确。人工神经网络一般都在4层以上,通过多层分析,可以在复杂的数据中提取到泛在性的特征,故深度神经网络可以用于医学图像的分类研究。

卷积神经网络(convolutional neural network,CNN)是深度神经网络的一种,伴随着医疗大数据的爆发式增长,CNN在医疗大数据分析中的优势越发明显[3]。CNN是在深度神经网络基础上,进一步模仿大脑的视觉皮层构造和视觉活动原理而开发。在CNN模型里面有多层图像感知器(相当于人工视神经元)、多个神经网络层、连续的卷积层与后方池化层,其中卷积层主要行使从输入图像中提取关键特征,进入模型的多种图像特征通过CNN的多个层次后,自动过滤掉不重要的特征,完成对图像中关键特征的提取,最终通过全连接层输出分类决策结果。

三、CNN在病理图像分类的应用

CNN在病理学图像分析的应用发展速度较快,得益于2012年以来国际上发起的AI病理图像挑战赛。最早的竞赛内容是利用有专家注释的乳腺癌组织病理图像进行癌细胞有丝分裂相的识别。此后,国际生物医学图像研究小组还举办了数次Camelyon挑战赛(Cancer Metastases in Lymph Nodes),探索计算机算法在检测苏木精-伊红染色全切片图像(whole slide images,WSI)中淋巴结内有无转移性癌细胞[4]。从竞赛结果看,如果不考虑诊断花费的时间因素,AI诊断结果与病理学家差别不大,但若考虑时间因素,则AI诊断可以大大缩短所需时间。美国食品药品管理局(Food and Drug Administration,FDA)已经认证,可将数字化病理全切片用作病理诊断。这一决定导致了病理切片数字化扫描仪的销售量增加。

病理科诊断切片的流程数十年来没有太大改变,病理学家依赖显微镜对疾病的诊断是公认的金标准。以往病理切片的载体是玻璃切片,但随着病理切片扫描仪的普及应用,很多病理科将病理图片转化为数字化的WSI存储。数字化的WSI是病理图像进行AI分析的必备步骤[5]。正是由于病理科WSI数量不断增加,才吸引了AI从业人员的目光。前述病理图像挑战赛的开展就是很好的例子。CNN模型不仅能用于上述癌症组织中细胞核分裂像的识别,还可以进行肿瘤标志物分析、癌症分类等。

现阶段医院病理科的玻璃切片无法直接用于AI分析,必须利用全自动切片扫描仪转化为整张的数字化图片(即WSI)。人工数据标注(labeling)是指由病理学家对WSI进行标注,手动勾勒出胃癌区域或者正常区域。提取感兴趣区域(regions of interest,ROI),这个过程是指WSI内很多区域是缺乏组织的空白区域,如果一起交由计算机分析会减慢运算速度,故先由计算机提取有使用价值的区域图像。病理WSI是医学影像中占据内存的超大图像,依切片内组织大小不同在50 000~100 000像素不等(占3G以上内存),过大的图像无法放到任何计算机模型进行运算处理。故WSI在应用之前需要进行切割处理。图像的切割(segmentation),是指由计算机将图像先切割成不同像素的小图块(patch),比如360像素×360像素或者299像素×299像素,每一张WSI可以切割成千上万的小图块,切割多少取决于每一张WSI上病理专家标记的数据量。颜色的归一化处理(stain normalization),是指如果WSI颜色差别过大,可能会影响到机器判别,需要先进行颜色的统一化预处理。选定一张苏木精-伊红染色图片的"参考"图片,将其他不同染色情况的WSI去贴合"参考"图片。完成以上操作后,便可在小图块水平上训练CNN模型。需要将上述切割的小图块分成训练集、验证集以及测试集三部分。其中,训练集所需数量最大,一般占全部数据的70%,用于直接放入CNN模型进行机器学习。验证集数据量可以占10%左右,主要在CNN模型训练完成之后,用此部分数据进行验证性能,再根据验证结果去调整CNN的模型参数。剩下20%数据是纯粹的测试集,是该CNN模型在训练中完全没有见过的图像,也可以将其当做"另一组新数据",用于验证CNN模型的表现。目前,开源数据库内有多个CNN模型可供选择,主要依据具体研究目的而定。比如ResNet、DenseNet、AlexNet、VGG以及InceptionV3等。根据笔者团队应用体会,AlexNet的训练与预测速度比较慢,DenseNet有过度拟合问题,而InceptionV3在兼顾运算速度的同时,可以兼顾到较高的分析准确率。小图块恶性概率的预测及可视化展示,是指利用上述切割的小图块训练好CNN模型后,模型会对每一张小图块输出一个恶性概率,再把小图的恶性概率赋值在大图的相应位置上,得到一张大图WSI水平的恶性概率热图,可以直观地展示该WSI图片的AI预测结果。

四、CNN在放射科影像中的应用

众所周知,大型医院的放射科20年前就启用了完整的图片文献与交流系统(picture archiving and communication system,PACS),已经存储的数字化图片为深度学习提供了宝贵资料。近年来,利用放射科数据进行深度学习的报道日渐增多,但分析方法学上依然是以CNN模型为主。比如,进行放射科图像的病变性质分类或者是判断良性与恶性;CNN模型在胸部X线片上区分有无肺结核病或者区分肺小结节的良恶性等。最近,Zhang等[6]采用CNN模型对CT图像进行分析,判别出结直肠息肉的良恶性。Fu等[7]将CNN模型用于腹部3D MRI图像的器官区分,开发的全自动程序可以精确地区分出肝脏、胃、结直肠和十二指肠。也有学者利用机器学习分析ROI的像素组成,勾勒出靶标结构的轮廓,进行器官的亚区域或者亚结构分析。以NiftyNet深度学习医学影像开放式平台为例,可以对放射科影像进行图像切割、回归、可视化展示等操作,还可以在此平台上传数据、构建模型网络和输出2D或者3D计算机作图,对于特定的解剖部位产生仿超声图形等[8]

五、CNN在内镜图像中的应用

内镜图像同样是AI研究人员关注的热点。内镜图像分析也需要CNN模型。在AI模型建立阶段仍需要内镜医生对图像进行手工标注。图像分析之前也要把图像切割成小图块处理,比如,先将图片切割成256像素×256像素的小图块,再导入模型进行分析。Hirasawa等[9]曾采用13 584幅胃的内镜图像训练CNN模型,并用2 296幅胃的内镜图像验证其精准性,结果显示,CNN模型对2 296幅内镜图像的分析仅用了47 s,CNN对其中肯定为胃癌的77例诊断正确达71例(正确率超过92%),而漏诊的病例图像主要表现是浅表凹陷型或者高分化黏膜内早期肿瘤,而上述病变对于有经验的内镜专家也同样容易误诊。Shichijo等[10]采用22层深度的CNN模型训练了32 208幅胃镜图像,训练用图像在输入模型前先切割成244像素×244像素的小图块,事先由人工标注出有或无幽门螺杆菌(Hp)感染;验证集是一套采自397例患者的11 481幅胃镜图像;研究人员将CNN模型的分类与23位内镜专家的分类进行对比(其中6位是资深内镜专家),结果显示,CNN模型的敏感性、特异性、准确性与诊断时间分别为88.9%、87.4%、87.7%和194 s,23位内镜专家的对应值分别是79.0%、83.2%、82.4%和(230±65)min,其中,6位资深内镜专家的对应值分别是85.2%、89.3%、88.6%和(253±92)min。可见,在这一轮针对内镜图像有无Hp感染的人机竞赛中,CNN模型的表现优于内镜专家。最为重要的是,CNN模型分析大大节省了分析时间。Zhu等[11]采用ResNet 50 CNN模型分析内镜图像中癌细胞的浸润深度,训练集是790幅图像,测试集是203幅图像。研究人员将CNN模型分析结果与内镜医生的分析结果对比显示,CNN模型的精准性可以达到89.16%,而内镜医生的精准性只有17.25%,该研究表明,在判断内镜图像中的癌细胞浸润深度方面,CNN模型的表现优于人眼判断。

六、深度学习在其他医药领域的应用

随着各医疗机构电子病历的普及应用,通过电子病历去提取知识与信息,并指导临床决策也逐步受到关注。这个领域不同于前述的医学影像分析,它是AI的另外一个分支,属于自然语言加工范畴(natural language processing,NLP)[12]。NLP的关键点就是信息提取问题,需要开发可以理解自然语言的计算机模型。这个体系包括语法处理模块和语义处理模块等。现在已经开发成功的自然语言加工系统有MedLEE、MetaMap、KnowledgeMap、cTAKES、HiTEX和MedTagger等,相信NLP领域今后同样会有很大的发展空间。

七、AI的局限性与展望

虽然已经有许多AI成功的案例,但生物医学领域依然存在不少障碍。有人形象地说"人工智能的背后是人工"。的确,在AI介入医学研究的初期阶段有这样的问题。因为大量的医学影像数据在训练计算机之前需要进行医学数据的手工注释,这一步如果做不好,很难保障后续建立模型的精准。纵然有大量的医学影像数据,如果没有医学专家在后台的注释和经过无数次训练后形成的标准化模型,这些数据均无法得到有效的利用。再比如,现阶段为了获得AI模型的良好表现,各种研究采用的训练集或者测试集数据均为高质量的数据。以内镜图像为例,那些充气不足、活检后有出血、有光晕、有黏液、模糊或者对焦不好的图像均被剔除(当然,上述低质量图像即使人眼判别也有困难)。就深度学习技术而言,目前尚处于黑匣子状态,CNN进行特征提取以及做出决策过程的许多细节尚无法捕捉,主要原因在于网络系统内整合有成千上万的指标,需要今后通过计算机人员的深入研究加以阐明。从法律角度而言,采用大量高质量的医学图像开发的AI诊断系统最终必将走向商业化,其中的医学伦理问题也需要考虑。如果AI辅助系统发生诊断错误时,还会引发责任归属问题的争端。

未来数年内,AI作为常规工具进入医学图像解读相关的科室是发展趋势[13]。AI可以有效地辅助医师对病变进行定位和定性,对肿瘤进行分级和预测预后等等。AI还可以用于医学教学与医师规范化培训等多种场合。

参考文献
[1]
JangHJ, ChoKO. Applications of deep learning for the analysis of medical data[J]. Arch Pharm Res, 2019, 42(6): 492-504. DOI: 10.1007/s12272-019-01162-9.
[2]
EricksonBJ, KorfiatisP, AkkusZ, et al. Machine learning for medical imaging[J]. Radiographics, 2017, 37(2): 505-515. DOI: 10.1148/rg.2017160130
[3]
SharmaH, ZerbeN, KlempertI, et al. Deep convolutional neural networks for automatic classification of gastric carcinoma using whole slide images in digital histopathology[J]. Comput Med Imaging Graph, 2017, 61: 2-13. DOI: 10.1016/j.compmedimag.2017.06.001.
[4]
LandauMS, PantanowitzL. Artificial intelligence in cytopathology: a review of the literature and overview of commercial landscape[J]. J Am Soc Cytopathol, 2019, 8(4): 230-241. DOI: 10.1016/j.jasc.2019.03.003.
[5]
MKKN, ParwaniAV, GurcanMN. Digital pathology and artificial intelligence[J]. Lancet Oncol, 2019, 20(5): e253-e261. DOI: 10.1016/S1470-2045(19)30154-8.
[6]
ZhangS, HanF, LiangZ, et al. An investigation of CNN models for differentiating malignant from benign lesions using small pathologically proven datasets[J]. Comput Med Imaging Graph, 2019, 77: 101645. DOI: 10.1016/j.compmedimag.2019.101645.
[7]
FuY, MazurTR, WuX, et al. A novel MRI segmentation method using CNN-based correction network for MRI-guided adaptive radiotherapy[J]. Med Phys, 2018, 45(11): 5129-5137. DOI: 10.1002/mp.13221.
[8]
GibsonE, LiW, SudreC, et al. NiftyNet: a deep-learning platform for medical imaging[J]. Comput Methods Programs Biomed, 2018, 158: 113-122. DOI: 10.1016/j.cmpb.2018.01.025.
[9]
HirasawaT, AoyamaK, TanimotoT, et al. Application of artificial intelligence using a convolutional neural network for detecting gastric cancer in endoscopic images[J]. Gastric Cancer, 2018, 21(4): 653-660. DOI: 10.1007/s10120-018-0793-2.
[10]
ShichijoS, NomuraS, AoyamaK, et al. Application of convolutional neural networks in the diagnosis of helicobacter pylori infection based on endoscopic images[J]. E Bio Medicine, 2017, 25: 106-111. DOI: 10.1016/j.ebiom.2017.10.014.
[11]
ZhuY, WangQC, XuMD, et al. Application of convolutional neural network in the diagnosis of the invasion depth of gastric cancer based on conventional endoscopy[J]. Gastrointest Endosc, 2019, 89(4): 806-815. DOI: 10.1016/j.gie.2018.11.011.
[12]
WangY, WangL, Rastegar-MojaradM, et al. Clinical information extraction applications: a literature review[J]. J Biomed Inform, 2018, 77: 34-49. DOI: 10.1016/j.jbi.2017.11.011.
[13]
HeJ, BaxterSL, XuJ, et al. The practical implementation of artificial intelligence technologies in medicine[J]. Nat Med, 2019, 25(1): 30-36. DOI: 10.1038/s41591-018-0307-0.
 
 
展开/关闭提纲
查看图表详情
回到顶部
放大字体
缩小字体
标签
关键词