生物医学研究国际

PDF
生物医学研究国际/2021/文章
特殊的问题

医学图像分析的人工智能

查看本期特刊

回顾文章|开放获取

体积 2021 |文章的ID 6671417 | https://doi.org/10.1155/2021/6671417

艾世良,李晨,李晓燕,姜涛,Marcin Grzegorzek,孙昌浩,Md Mamunur Rahaman,张敬华,姚玉栋,李红 胃组织病理学图像分析方法及未来发展综述",生物医学研究国际 卷。2021 文章的ID6671417 19 页面 2021 https://doi.org/10.1155/2021/6671417

胃组织病理学图像分析方法及未来发展综述

学术编辑器:永夏
收到了 2020年12月23日
修改后的 2021年5月9日
接受 2021年5月25日
发表 2021年6月28日

摘要

胃癌是世界上常见的致命癌症。胃癌检测的金标准是病理学家的组织学检查,其中胃组织病理学图像分析(GHIA)提供了重要的诊断信息。胃癌的组织病理学图像包含充分的表征信息,对胃癌的诊断和治疗起着至关重要的作用。为了提高GHIA的准确性和客观性,计算机辅助诊断(CAD)已广泛应用于胃癌的组织学图像分析。本文就胃癌病理图像的CAD技术作一综述。本文首先对图像预处理方法进行了总结,然后介绍了图像特征提取的方法,然后对现有的分割和分类技术进行了概括。最后,对这些技术进行了系统的介绍和分析,以方便今后的研究人员。

1.简介

1.1.背景

癌症是一种人体细胞生长失控的疾病。2018年,约96必威24900万人死于癌症[1].胃癌是由于异常细胞群在胃中不断增殖,最终形成肿瘤而引起的一种癌症。根据胃肿瘤的形态特征,胃癌可分为腺癌、粘液癌、印戒细胞癌、腺鳞癌、鳞状细胞癌、未分化细胞癌。腺癌占所有胃恶性肿瘤的95%以上。一般来说,胃癌是指胃腺癌。腺癌包括管状腺癌和乳头状腺癌。管状腺癌具有明确的腺腔。

胃癌的发病率和死亡率在所有癌症中排名第二[2].根据世界卫生组织(WHO)的数据,每年约有必威249080万人死于胃癌。中国和日本是胃癌发病率最高的国家,占所有癌症的30%,美国每年的癌症病例也在增加。在性别分析中,胃癌是男性中第二常见的癌症,占26%,女性中第三常见,占11%。据估计,每年约有3万例胃癌新发病例。必威2490

胃癌的诊断主要是通过病理活检,用苏木精和伊红染色。在显微镜下观察活检的形态和组织特征,并综合医生的知识来确定检测结果。但每个病理医生的诊断都是根据自己不同的经历和状态做出的,这可能会导致对胃癌组织病理图像做出不同的判断。同时,病理学家每天都要检查大量的组织病理学图像[3.].诊断过程需要长时间的专注,长时间的工作可能会导致医生误诊。因此,病理学家对胃癌的准确筛查和诊断是一个重大问题[4].病理学家的数量也非常稀缺。为了缓解病理学家的短缺,降低组织病理学检查的误诊率,将CAD系统引入胃癌病理图像的检测[5].在CAD系统的辅助下,标出恶性肿瘤的区域,利用计算机的准确判断作为第二意见,协助病理学家做出判断[6].

CAD系统始于20世纪80年代。其主要目的是利用计算机的准确性和效率,协助病理学家进行判断。CAD系统可以客观地做出判断,优秀的算法可以减少处理时间[7].在过去的几十年里,机器学习算法的不断进步,使得CAD技术在胃癌中的快速发展,可以更快速、准确地识别癌症区域[8] [9].

在胃癌领域的机器学习CAD系统中,主要有两种分割和分类。分类算法的主要步骤是先对图像进行预处理,以提高图像质量,使数据满足实验要求。然后,对图像进行特征提取,找出实验感兴趣的特征。最后,设计了合适的分类器对特征进行分类。分割算法包括图像预处理和图像分割两个步骤[10].近年来,出现了一种新的技术:深度学习技术。深度学习算法可以直接作用于RGB图像,通过卷积神经网络自动学习图像的特征,通过大量训练搜索实验数据的相似特征,最终实现分割和分类[11].

1.2.动机

目前已有文献综述了组织病理学图像分析方法的相关工作,但对胃癌的研究较少。因此,本工作的重点是胃癌组织病理学图像的技术分析。

1979年,综合调查“计算机辅助医学诊断:文献综述”发表[12].本文综述了CAD的开发、测试和应用所涉及的所有医学诊断技术。在本次调查中,有一项与胃癌相关的工作。

2004年,[13)提出了一份关于“医学中的人工智能”的调查报告。必威2490本文介绍了可以分析复杂医疗数据,并在医学领域进行诊断、治疗和预测结果的人工智能。本文涉及七种组织病理学,其中一种是胃组织病理学。

2005年,[14)提出了一项关于“基于组织病理学图像的自必威2490动化癌症诊断”的调查。本文从图像预处理、特征提取、图像分类三个方面,共总结了75篇论文。总共涵盖了11种癌症,但只有一种与胃癌有关。

2007年,完成了“神经网络和其他机器学习方法在癌症研究”的调查[15].本文总结了一些主要应用于癌症领域的机器学习方法,并讨论了它们在医学领域的优缺点。在这篇文章中,提到了十种癌症组织,但只有一篇是关于胃癌的。必威2490

2018年开展“深度学习与医学诊断:文献综述”调研。本文全面分析了组织病理学图像中的深度学习技术[16].这项工作中有46篇关于深度学习的文章,但只有一篇论文关注GHIA。除上述相关工作外,还有一些组织病理学分析的调查[17181920.],但不涉及胃癌。

从上述工作中,我们可以发现有很多关于组织病理学图像分析的综述论文,总结了医学领域的各种癌症。然而,他们都没有特别关注胃癌方向的组织病理学图像。在本文中,我们总结了胃组织病理学图像分析方法的最新进展。数字1其中为谷歌Scholar根据胃癌组织病理学分析关键词收集的胃癌组织病理学图像文献。共下载相关论文364篇,通过简单阅读删除了234篇与胃癌无关的论文,删除了106篇与胃癌组织病理图像无关的论文;必威2490最终筛选出24篇论文。如图所示2,本文从预处理、特征提取、分割、分类四个方面对文献进行分类和总结。从图中可以看出2, GHIA相关论文主要从2012年开始发表,此后相关论文数量逐渐增加。关于图像预处理和图像分割的论文只有4篇和6篇,而特征提取方法有8篇。分类方法最多的论文有14篇。

数字3.是本文的结构图,从四个方面总结了胃癌的组织病理学。数字3.(a)为预处理方面。预处理步骤采用数据增强,对数据集进行增强,为接下来的实验做准备。数字3.(b)为特征提取方面。直方图定向梯度(HOG)特征和灰度协同出现矩阵(GLCM)特征,以及其他特征,用于提取细胞核的颜色、纹理和其他特征。线性判别分析(LDA)和局部线性嵌入(LLE)是处理特征向量。数字3.(c)为分割方面。最小模型法和深度学习网络用于寻找核区域。数字3.(d)表示分类方面。应用人工神经网络(ANN)和卷积神经网络(CNN)从组织病理学图像中筛选出实验所需的细胞。

2.图像预处理方法

2.1.相关工作

图像预处理[21是GHIA的重要组成部分。在实验中,数据量可能较小,图像质量可能较差。因此,为了更准确地对实验进行分类或分割,需要大量的数据集。实验数据需要进行预处理,才能使数据满足实验要求,得到更好的结果。

在[22],提出了一种基于深度卷积神经网络(Deep Convolutional Neural Network, DCNN)的胃癌免疫组化图像淋巴细胞自动检测模型。这项工作从胃癌组织全尺寸显微照片的40倍放大扫描中提取数据。实验数据由3257张图像组成。然而,这些数据集远远不够。在本研究中,采用旋转和反射的数据展开方法来增加数据集的数量,总共得到10868个数据集。

工作在[23提出了一种有效的学习算法来取代传统的特征提取方法。该算法需要一个大型数据集进行机器学习。使用了一些标准的数据增强方法来生成大量的图像,在本工作中使用了各种数据增强方法来处理数据,包括0.3x重叠、反射、反射后旋转、剪切。通过这些方法,每个病理切片可以生成21000张图像,总共生成11个切片的实验数据,总共生成23.1万个数据集。

工作在[24]提出了一种基于深度学习的胃癌自动识别框架。在本工作中,原始胃图像数据集的分辨率为 而深度学习网络无法直接处理胃部图像,因此出现了一片空白 是从原始胃图像中截取的。胃数据集包含560个胃癌切片和140个正常切片。为了增加数据集,补丁将旋转90°、180°和270°。旋转后,数据被切割,数据变成了8992条胃癌数据和14000条正常数据。

在[25],提出了一种图像分类模型,可以缓解标注训练集的不良。通过分两个阶段对神经网络进行微调,并引入新的中间数据集,提高了在注释训练集较差的情况下网络在图像分类中的性能。

2.2.总结

从上面的工作可以得出结论,机器学习需要大量的数据集。增强方法是主要的解决方案。上述工作中提到的增强方法包括旋转、反向和尺度变换。此外,还有一些其他的数据增强方法,如添加噪声和颜色振动。数字4(a)为原图。数字4(b)为旋转变换,与原图像顺时针旋转90°、180°、270°。数字4(c)显示颜色振动,亮度在10%时增强或亮度降低到10%和20%。在图4(d),添加噪声:高斯噪声、椒盐噪声、泊松噪声;数字4(e)为反向变换:水平旋转和垂直旋转。

3.特征提取方法

3.1.相关工作

特征提取[26]指的是在图像中感兴趣的区域中寻找有代表性的数据。特征提取主要包括三个部分:颜色特征、纹理特征和形状特征。其中一些需要对特征进行后处理,如特征降维。

3.2.颜色特征

基于颜色强度的特征在病理学中是非常重要的。由于采用了特殊的染色方法,病理图像中细胞质、细胞核、细胞壁等染色不同,可通过颜色特征表现出来。工作在[2327]提取色相、饱和度和值(HSV)直方图;灰度直方图;以及红、绿、蓝(RGB)直方图作为颜色特征来描述颜色之间的差异。

3.3.纹理特征

纹理特征也是一种常用的组织病理学图像检测方法。在胃癌的组织病理学图像中,可以从细胞核和细胞壁提取纹理特征。纹理特征主要包括GLCM特征、HOG特征和LBP (local binary pattern)特征。

在[23],分别提取GLCM、LBP和Gabor滤波器组特征,作为对比实验中的纹理特征提取。

在[28],从胃癌组织病理学图像中提取HOG特征。在正常、良性、恶性胃图像上绘制HOG特征,得到HOG特征向量。胃癌的直方图采用HOG特征直方图绘制。然后直接使用HOG直方图中的数据进行分类。本次工作分类准确率为100%。

工作在[29]提出了一种HOG-LDA-ANN胃组织病理图像分类方法。将HOG特征与GLCM和LBP特征进行了比较。HOG-LDA-ANN的准确率为88.9%。有两个对比实验,glcm - lsp - ann的准确率为85.56%,lbp - lsp - ann的准确率为80.12%。

工作在[30.]提取HOG和LBP特征。这项工作测试了许多特征降维方法和分类器。通过比较,胃癌组织病理学图像中LBP特征优于HOG特征。

3.4.形状特征

利用形状特征从图像中提取拓扑结构信息作为特征。例如,图像中某些点的距离被提取为特征,然后进行分类。

工作在[31]得到核的位置信息,然后提取特征。首先测量相邻三个单元格的对齐距离和平均距离,然后计算这两个指标的均值和标准差作为第一个特征集。另一个特征集是从围绕中央细胞的40微米圆中提取的。计算圆内核数与空圆截面的比值作为特征。

工作在[32]提取了上皮细胞、白细胞、纤维细胞和聚团细胞四种类型的核位置信息,并得到细胞核的归属关系图。然后,可以从核的顶点和边获得均值、方差、偏度和峰度特征。

3.5.特征的后处理方法

在[29],提出了胃癌图像的HOG-LDA-ANN方法。LDA是一种监督学习的降维技术,可以保留和筛选有效特征,消除无效特征。在这项工作中,通过特征提取获得了46900个HOG特征向量,通过LDA算法进行特征降维获得了90组向量。

工作在[30.]比较了各种特征约简方法:Sammon映射,随机邻居嵌入,拉普拉斯映射,等距映射,经典多维缩放,局部线性嵌入,线性判别分析,和 -分布随机邻居嵌入。根据最终的分类精度,得到了两种更好的分类方法:LBP-MDS-ANN方法和LBP-LLE-ANN方法。

工作在[33改进了PCA+LDA算法。在传统PCA+LDA的基础上,对LDA变换进行了优化。该方法提高了传统PCA+LDA检测样本的泛化性,提高了分类精度。优化后的算法分类准确率提高了3.43%。

3.6.总结

本文总结了表中的特征提取方法1.综上所述,在这三个特征中,颜色特征具有很强的局限性。仅适用于染色效果好、对比度高的胃癌组织病理图像。纹理特征的应用非常广泛,很多文章都选择了纹理特征方法。形状特征使用最少,提取方法大多是提取核,从核之间的位置关系中提取特征。


目的 一年 参考 团队 方法

特征提取 2017 23 夏尔马等人。 GLCM, LBP, HSV和RGB
2015 27 夏尔马等人。 RGB特征、形状特征和纹理特征
2017 28 Korkmaz等人。 猪的特性
2017 29 Korkmaz等人。 猪的特性
2018 30. Korkmaz等人。 LBP特征,HOG特征
2013 31 Cosatto等人。 核位置关系特征
2017 32 夏尔马等人。 核位置关系特征

后处理 2017 29 Korkmaz等人。 乔治。
2018 30. Korkmaz等人。 SNE, Isomap, MDS, LLE, LDA和T-SNE
2012 33 甘等人。 PCA和LDA

胃癌组织病理的特征后处理以降维为主,采用PCA、LDA等不同算法对特征进行处理。总体而言,LDA对传统方法的特征降维有较好的效果。在分析其他癌症的组织病理学图像时,我们也参考了相关的后处理方法。虽然相关文献较少,但主要方法为PCA和LDA,如宫颈癌[3435]、乳癌[3637],以及结直肠癌[38].

4.分割方法

4.1.相关工作

图像分割[39]将图像划分为几个特定而独特的区域。然后,提取实验中感兴趣的部分。图像分割是图像分析中的一个重要步骤。

在[27],提出了一种核分割技术,利用最小模型方法自动分割核。最小模型由两个主要步骤组成。一是最小先验信息,二是独立于图像形状的轮廓检测方法。该方法避免了形状特征的分割偏差,能够准确分割。

在[40],作者提出了一种用于胃癌组织病理图像分割的深度学习模型。该方法的工作流程如图所示5.它包含两个卷积层、三个池化层、三个多尺度模块、一个特征金字塔模块和一个上采样卷积模块。卷积层使用 卷积核,最大池化大小为 为了提取和融合特征,浅层采用多尺度模块,深层采用特征金字塔。该框架的分割性能为90.88%。

在[41],提出了一种基于变形卷积和多尺度嵌入网络的胃癌分割方法。该方法的工作流程如图所示6.这项工作结合了阿特劳斯卷积、变形卷积和阿特劳斯空间金字塔池模块。然后,利用轻量级解码器在子采样和特征融合中提取不同语义层次的特征。最后,进行密集的上采样。在这项工作中,数据集包括500张胃癌病理图像,图像大小为 实现了91.60%的像素级精度和82.65%的平均交叉。该方法与之前的FCN、VGG、U-net、DeepLab-V3等方法进行了比较。分割效果最高,准确率为91.6%。

在[42],提出了一种基于重复学习的胃肿瘤部分标记物分割方法。模型的体系结构如图所示7.在没有人工标注的情况下,训练弱标记数据集得到的并集系数的平均交点为0.883,平均准确率为91.09%。然后通过重叠区域预测消除斑块间的偏差。

在[4344],提出了一种基于层次条件随机场(HCRF)的胃癌组织病理图像分割方法。该方法的工作流程如图所示8.该方法可以在胃癌组织病理图像中自动定位和标记癌区。在这项工作中,数据集中共收集了560张h&e染色的胃癌病理图像。该方法分割准确率为78.91%,召回率为65.59%,特异性为81.33%。

4.2.总结

综上所述,胃癌组织病理图像分割主要有两种分割方法:传统的机器学习分割方法和深度学习分割方法。传统方法使用边缘检测进行分割,深度学习方法使用FCN模型进行分割。U-net在病理图像分割方面有很好的效果。然而,利用U-net对胃癌进行组织病理学分割的研究尚未见报道。深度分割的优势在于其良好的分割效果。它是一种通用的框架结构,可以适应各种功能。但缺点是时间复杂度和空间复杂度较高。机器学习分割的优点是覆盖范围广,适应性强,缺点是计算量大,模型设计复杂,对硬件要求高。

5.分类器设计方法

分类器(45设计是一个非常重要的部分。选择合适的分类器可以使实验结果更好。在传统的机器学习中,分类器一般包括SVM和RF。在深度学习网络中,常用的网络有ResNet和U-net。

5.1.机器学习分类器

在[27],提出了一种传统的用于细胞分类的机器学习方法。该模型采用最小模型方法进行多分辨率图像分割,然后提取7个基于强度的特征、20个形态学特征和4个纹理特征。然后,Adaboost将细胞分为8类。最后,对多分辨率分割结果进行组合和评价。

在[30.,作者从特征提取、特征降维、分类器三个角度对胃癌组织病理图像进行了比较。在分类器中,本工作比较了射频和神经网络。人工神经网络分类器优于射频分类器。

在[32,作者提出了一种利用核属性关系图对胃癌组织病理图像进行分类的方法。对图像进行预分析,首先对核进行分割[46],然后进行选择性核分类。根据分类,将不同类型的细胞核构造成细胞关系图,并提取每个细胞关系图的特征。根据地图的特征,包括均值、方差、偏度和峰度,共提取332个特征向量。最后,采用随机森林进行分类。

在[47],作者提出了三种用于胃癌组织病理学的深度学习分类算法。该方法的工作流程如图所示9.第一组实验采用CNN方法进行分类。第一层为输入层,输入图像大小为 从第二层到第四层是卷积和池化;卷积核是 步长为1,最大池化大小为 第五层是a 卷积特性。分类结果的准确率为86.4%。在第二组实验中,通过CNN提取特征,然后用RBF核支持向量机进行分类。分类结果的准确率为89.2%。在第三组实验中,使用K-SVD学习从CNN中提取的特征,得到一个过完备字典,然后进行稀疏分解。采用线性核支持向量机进行分类,分类准确率达95%。

5.2.深度学习分类器

在[22],提出了一种9层DCNN,该DCNN由3个卷积层、3个最大池化层、2个全连接层和1个输出层组成。该方法的工作流程如图所示10.的 卷积核的步长为1。卷积输出池的最大大小为 经过三次卷积池化后,输出特征的数量分别为64、128和256。最后,将池化结果放入两个全连接层,得到2048个特征向量。这项工作的准确率为96.88%。

在[23],设计了一个纯监督前馈CNN模型。如图所示11时,该模型由9层,3层卷积层和池化层,最后3层全连接层组成。三个卷积层的卷积核大小为 而且 最大池化是大小为的池化层 最后,特征向量进入全连接层。该网络对肿瘤和坏死区域的分类准确率分别为69.9%和81.4%。此外,本文还进行了几次对比实验。AlexNet用于深度学习,颜色和纹理特征用于机器学习,RF用于分类。

在[24],作者提出了一种新的基于深度学习网络的胃癌组织病理图像分类模型。为了提取深度特征,本文提出的深度学习网络具有不同的结构,即浅层多尺度模块和深层网络模块。该方法的工作流程如图所示12.绿色矩形表示卷积层,其卷积核大小为 蓝色矩形表示最大池化层,内核大小为 橙色矩形表示平均池化层,内核大小为 紫色矩形表示全连接层。进行了AlexNet、VGG-16、ResNet-50、ResNet-101、Inception-V4、DenseNet-121等对比实验。经过比较,该网络的这项工作取得了良好的效果。对于patch级别,模型的分类准确率为97.93%。对于切片级别,模型的分类准确率为100%。

在[48],建立了50层残差网络模型。在该模型中,使用多尺寸卷积核来提取特征 而且 卷积核分为两步。然后利用ReLU或Sigmoid函数对特征进行非线性激活。经过大量的训练,该网络实现了输出 -得分95.5%。在此基础上,对模型进行了优化,增加了 -得分96%。

在[49],提出了一种特征平衡模块(feature balanced module, FBM)来区分图像中的微小差异。FBM的流程图如图所示13.平衡模块有两种类型的通道:第一种是通道关注(CA)模块,第二种是空间关注(SA)模块。在CA中,对输入特征进行上采样,然后进行最大池化和平均池化。卷积使用 卷积核,使用ReLU函数进行激活,卷积使用 卷积的内核。最后,添加两个输出作为输出特征。在SA中,使用卷积核3、5和7进行卷积,并对特征进行压缩。

在[50],作者提出了一种十层卷积神经网络,其中3层卷积提取特征,4层池化减小图像大小,3层全连接层输出特征值。该方法的工作流程如图所示14

在[51],提出了一种基于再校准多实例深度学习的胃癌组织病理学图像分类方法。该方法增加了两个卷积层和一个池化层,将ResNet-v2网络转化为一个完整的网络模型。池化层为平均池化,有两个卷积层:一个用于特征提取,另一个用于分类。该网络如图所示15.网络主要由三个模块组成,一是局部全局特征融合模块,二是再校准模块,三是多实例池。该模型的分类准确率为86.5%。

在[52],融合DeepLab-V3和ResNet-50两个网络,将ResNet-50网络的结构引入到DeepLab-V3中,并基于DeepLab-V3构建了一个新的卷积神经网络。在这项工作中,选择2166个完整的切片作为训练集,300个切片作为测试集。经过大量训练,模型的最终准确率为87.3%,灵敏度为99.6%,特异性为84.3%。

在[53],作者提出了一种多尺度深度学习网络,从整个WSI图像中选择不同放大倍率的图像,从不同放大倍率的图像中提取相同大小的补丁,然后将这些补丁放入深度HIPO中。然后,网络可以在多个尺度上学习图像。网络如图所示16

在[54],作者使用标准的Inception-V3网络框架。通过改变深度乘数,可以减少参数。为了提高图像的鲁棒性,采用了镜像和旋转等数据增强方法。采用Adam优化算法对网络进行优化。经过大量的训练,选择验证误差最小的网络模型。

在[55],作者提出了三种经典的卷积神经网络用于图像分类:AlexNet, ResNet-50和Inception-V3。在数据选择中,采用十倍交叉验证来检验分类的性能。数据分为十部分,训练:验证:测试= 8:1:1。对于每一个组合,都得到了三个经典网络的分类结果。最后,将这十个结果依次输出,以计算准确性、敏感性和特异性。网络如图所示17

5.3.总结

在胃癌组织病理图像的分类设计中,使用传统机器学习分类方法的文章很少,其中使用的技术包括SVM、RF、ANN、Adaboost等。有很多分类文章使用深度学习方向。卷积神经网络主要包括ResNet、Inception-V3和一些他们自己提出的网络。在表2,本文总结了所有胃癌组织病理学图像的分类方法。


目的 一年 参考 团队 数据集 方法 评价

机器学习 2015 27 夏尔马等人。 5541张30x和3730张40x图像 演算法
2017 32 夏尔马等人。 795张图片 随机森林
2018 47 Liu等。 560名癌症患者和140名非癌症患者 CNN和SVM

深度学习 2017 22 加西亚等人。 3275张图片 DCNN
2017 23 夏尔马等人。 21000张图片 提出了CNN 癌症分类准确率为69.9%;坏死检测正确率为81.4%
2018 24 李等人。 560名癌症患者和140名非癌症患者 提出了CNN patch级别分类准确率为97.93%;切片级分类准确率100%
2018 48 Liu等。 120万张图片 ResNet
2019 51 Wang等。 608张完整的幻灯片图片 ResNet
2020 52 宋等人。 2123张数字幻灯片 DeepLab-V3和ResNet

6.方法分析

6.1.胃组织病理学方法分析

本文从预处理、特征提取、分割方法、分类器设计方法等方面对胃癌组织病理图像的研究工作进行了总结。下面,本文简要介绍了每一步所使用的方法。

6.1.1.图像预处理方法

通过本文的总结,图像增强技术是图像预处理中最常用的方法。实验训练需要大量的数据,但从实验中获得的数据往往是不够的。此时,实验需要对数据图像进行增强。

数字18介绍了胃癌组织病理图像的预处理方法。工作在[222324]通过旋转、镜像等数据增强方法扩展了实验数据。这减少了过拟合的情况,为实验提供了有力的帮助。

6.1.2.特征提取方法

胃癌组织病理学特征提取包括特征提取和特征后处理。特征提取方法主要包括颜色特征、纹理特征和形状特征。特征后处理主要是特征降维。必威2490数字19介绍了胃癌组织病理图像的特征提取方法。

(1)传统特征提取方法.颜色特征的主要方法有RGB直方图和HSV直方图。RGB直方图反映了图像中颜色的组成和分布,即出现了哪些颜色以及各种颜色出现的概率。工作在[56]首次提出了用颜色直方图表示图像颜色特征的方法。HSV直方图[5758]是RGB直方图的进一步表达形式。在RGB颜色空间中,只能得到颜色信息,不能用颜色之间的距离来表示相似度。因此,在RGB色彩空间的基础上提取更能代表颜色信息的特征,如色相(H)、饱和度(S)、值(V)等。胃癌组织病理图像主要通过对胃组织切片进行H&E染色获得。所获得的图像中组织颜色对比强烈,颜色特征比较明显。工作在[2327]利用HSV和RGB直方图从胃癌组织病理图像中提取颜色特征,取得了较好的效果。

纹理特征是一种图像全局特征,它可以描述图像的属性,主要包括HOG和GLCM。HOG特征是一种像素间统计梯度方向变化的特征,具有良好的几何不变性和光学不变性,在人体检测中表现优异。工作在[59]表明HOG可以比现有特征更有效地用于人体检测。由[60]是描述图像局部区域的某一像素与相邻像素或一定距离内像素之间灰度关系的矩阵。GLCM是一个描述像素之间关系的特性。在原始图像上构造灰度共生矩阵,然后将矩阵中的统计属性提取为特征向量。与正常胃组织细胞相比,癌性胃组织细胞质地改变,细胞核变大,细胞核形状不规则。提取这些纹理特征可以区分正常胃组织和癌性胃组织。在[28] [29],分别在正常、良性、恶性胃图像上绘制HOG特征,得到HOG特征向量。

利用一种算法描述形状特征,得到形状参数。胃癌组织中的细胞变密,细胞间的密度可以通过描述细胞核之间的位置关系来表示;因此,可以提取有效的形状特征。工作[31]通过提取核的位置和结构来获得形状特征。在[32],提取了四种类型细胞的细胞核属性关系图作为形状特征。

(2)后处理方法.在GHIA中,特征提取的维数非常大。特征后处理的目的是降低特征的维数,减少计算机的运行内存,提高工作效率。主要方法有LDA和PCA。LDA和PCA都采用了矩阵分解的思想来实现数据的降维。

LDA (61是一种实现两个或多个对象的特征分类的方法。它可以用于数据降维或分类。这是监督学习;LDA将高维的数据投射到能进行最佳识别的向量空间中。在新的向量空间中,可以得到样本的最大类间距离和最小类内距离。这样可以更好地提取分类信息和特征降维。工作在[29]采用LDA降维处理得到更高效的特征数据。

主成分分析(62]是一种常用的数据分析方法,它通过线性变换将原始数据转换为一组线性无关的表示形式。它是一种无监督学习,可用于提取数据的主要特征,常用于降维。工作在[33]采用PCA的降维方法,去除原始数据中的冗余特征,使投影在每个维度上的方差尽可能大。

6.1.3.分割方法

对于胃癌组织病理图像,现有的图像分割方法主要包括机器学习和深度学习。机器学习方面采用边缘检测分割方法,深度学习则采用U-net网络。数字20.介绍了胃癌组织病理图像的分割方法。

边缘检测是找出图像灰度变化较大的点,可以减少数据量,找到边界明显的地方,保留图像的重要结构属性。

U-net [63]是基于FCN的语义分割网络,最初应用于医学细胞显微图像的分割。在编码器部分,输入通过最大池化进行下采样和下采样。在解码器部分,对编码器的输出进行上采样以恢复分辨率,上采样通过反褶积来实现。跳过连接用于特征融合。工作在[41]使用U-net分割胃组织病理学图像,并与其他神经网络结构进行比较。U-net具有更好的分割效果。

6.1.4.分类器设计方法

在胃组织病理图像中,有两种分类设计,机器学习和深度学习。机器学习分类器主要使用SVM、Adaboost和随机森林。深度学习使用卷积神经网络进行分类,如ResNet和Inception-V3。数字21介绍了胃癌组织病理图像分类器的设计方法。

(1)机器学习分类器设计方法.支持向量机(64是一个二分模型。通过将数据映射到高维空间,并在高维空间中找到一个超平面,使分离的数据类之间的距离最大化,从而达到最优分类的目的。这项工作[48]使用了SVM分类器,并优化了SVM分类器中的核函数,提高了分类精度。

Adaboost [65算法是一种提升方法,它将几个弱分类器组合成一个强分类器。Adaboost每次训练一个弱分类器,然后在训练后迭代训练下一个弱分类器。工作在[27]使用Adaboost分类器对颜色、纹理和形状三个特征组进行分类,最终得到最优分类结果。

随机森林[66是机器学习中的集成学习方法。该方法通过集成学习将多个决策树集成在一起。可以通过集成多个模型来避免限制。这项工作[32]使用随机森林分类器对由核组成的网状地图的形状特征进行分类。

(2)深度学习分类器设计方法.ResNet [67]将残差的思想应用到卷积神经网络。与传统卷积神经网络直接表示输入输出之间的映射关系不同,它通过多个参数化层表示输入输出之间的残差。作者在[4855]使用基于ResNet的编码器对胃组织病理图像进行处理。与其他神经网络结构相比,ResNet可以为用户提供端到端的服务,并保留更详细的胃癌组织病理图像信息。

Inception-V3 [68]在卷积层中使用不同大小的卷积核来改善网络的感知,并提出批量标准化来缓解梯度消失的问题。它在Inception-V2的基础上采用了更好的卷积核分解方法,提高了计算复杂度,减少了特征的表征瓶颈,避免了信息丢失。工作[54优化了Inception-V3网络架构,减少网络参数,避免过拟合,提高网络效率。

6.2.胃组织病理学图像分析的潜在方法
6.2.1.图像预处理方法

在图像预处理中[69],其他领域的方法也可应用于胃癌组织病理学领域。

在[70],开发了一种基于CNN的图像去噪网络,并利用复杂数值运算的优点对去噪网络进行优化,提高了卷积的紧密性。

在[71],提出了一种新的图像去噪方法,该方法利用新的损失函数关注感知的视觉质量,并将损失函数应用于跳转连接网络,以获得高精度细节图像。在胃癌组织病理学图像中,切片和染色的操作会影响图像质量并产生噪声。[中的图像去噪方法7071]可应用于胃癌组织病理学,提高图像质量。

在[72],提出了一种数据扩展方法。在胃癌组织病理学中,由于数据采集的问题,数据量相对较少,因此可以将这种数据扩展方法应用到胃癌组织病理学中,增加数据集,提高实验质量。

在[73],提出了一种视网膜图像对比度增强的方法,该方法采用剪切波变换和基于自适应伽玛校正的奇异值均衡混合技术,结合限制对比度的自适应直方图均衡技术。在胃癌组织病理学图像中,通常采用HE染色,具有明显的颜色特征。图像对比度增强技术在[73]可以使色彩特征更加突出,提高图像质量。

6.2.2.特征提取方法

工作在[74]总结了特征提取方法。特征提取也是胃癌组织病理图像的重要步骤,[74]可应用于胃癌组织病理学图像。

在[75],基于计算机x线摄影提取图像特征向量,得到279个图像描述符。通过Hellwig方法,找到总体索引信息容量最大的特征组合集。然后,通过测试11个分类器的分类结果,选择准确率最高的两个特征集。该方法还可以应用于胃癌组织病理学图像的特征选择,选择最有效的特征。

在[76],作者提出了一种新的无监督特征选择方法,计算特征之间的依赖关系,避免选择冗余特征。提高了实验操作效率。在胃癌组织病理图像中,实验数据量大,系统执行时间长,实验过程中内存需求大。[中提到的特征选择方法76]也可应用于胃癌组织病理学,改善系统的运行环境,提高实验的运行效率。

6.2.3.分割方法

工作在[77]总结了在各个领域应用的分割技术。在胃癌组织病理学中,经常使用图像分割,目前主流的分割技术也可应用于胃癌组织病理学。

在医学图像中,[78]提出了一种新的基于多深度编解码网络组合的息肉分割方法。该网络可以提取不同有效接收野和多尺寸图像的特征来表示多层次信息,也可以从训练阶段缺失的像素中提取有效信息特征。[方法]78]可以应用于胃癌组织病理学图像,

在[79],提出了一种基于可扩展多通道加权区域模型的图像分割方法。为了提高图像拼接的性能,提出了一种新的边缘检测函数。该模型也可用于胃癌组织病理学图像分割。

在[80],这项工作提出了一种基于放射学的深度监督U-net,用于前列腺和前列腺病变的分割。U-net网络还可以用于胃癌组织病理学图像中正常和癌变区域的分割。

在[81],提出了一种结合低级运算、仿射概率图和多重图的图像分割方法。该方法用于计算机断层扫描(CT)图像的分割。实验结果表明,与图集选择和非刚性配准相比,该方法在整个感兴趣区域具有更好的性能。该方法也可应用于胃癌的组织病理学图像分割,取得了较好的效果。

6.2.4.分类器设计方法

在[82,作者总结了各种分类技术,其中许多技术可以应用于胃癌组织病理学图像。

在[83],采用卷积神经网络与机器学习分类器相结合的方法对交通密度进行分类,并将CNN、CNN- svm、CNN- rf、CNN- xgboot进行比较,筛选出合适的模型。该方法也可应用于胃癌组织病理图像。通过深度学习网络提取特征,然后采用机器学习方法进行分类。

在[84],作者提出了一种基于深度学习模型的乳腺肿块分类新方法。它能自动处理小二维射频信号及其振幅样本。利用射频数据构建乳腺肿块的深度学习分类模型。该分类模型也可用于胃癌病理的分类。

在[85],作者提出了一种基于海豚回声定位的正弦余弦算法的深度CNN。该算法采用基于dolphin - sca的模糊融合模型进行分割,然后利用权重、均值、方差、偏度等统计属性进行特征计算。最后,利用卷积神经网络进行分类。该方法也可应用于胃癌的组织病理学。

在[86],提出了一种基于多类损失反馈判别的支持向量机字典学习方法。该框架在训练支持向量机的同时学习判别字典,使得从学习字典中提取的特征与支持向量机更好地匹配。该分类模型也可用于胃癌病理的分类。

6.3.其他潜在领域的胃组织病理学方法
6.3.1.图像预处理方法

在胃癌组织病理学中,图像预处理方法主要是数据增强。数据增强技术可以应用于其他领域,例如微生物学领域的数据库增强。在[87],结合几何变换和GAN网络对微生物数据进行扩展。在乳腺癌的病理图像中,数据集的数量也是不足的。数据增强技术也适用于增加数据集,使实验更加准确。在[88],采用几何变换方法增加了数据集的数量,减少了过拟合的情况,使实验更加准确。

6.3.2.特征提取方法

在胃癌组织病理学中,采用CRF和GLCM方法进行特征提取。这些方法在微生物学领域也被广泛应用,因为胃癌组织病理学的细胞形态和大小与微生物相似。在[89],采用CNN-CRF网络框架提取特征,利用CRF进行特征后处理。纹理特征也是乳腺癌病理图像中常用的特征提取方法。在[90],采用GLCM方法进行特征提取。

6.3.3.分割方法

在胃癌组织病理学中,图像分割包括基于颜色的阈值分割和基于纹理的边缘检测。与胃癌组织病理学图像相比,微生物图像中微生物与背景的颜色对比也比较鲜明,可以采用阈值分割。微生物的纹理和背景也有很大的不同,因此可以使用边缘检测。在[91],作者使用了一种与颜色和纹理相关的图像分割方法。子宫颈癌的病理学研究[92],由于宫颈癌细胞与胃癌细胞相似,胃癌的分割方法也可以应用于宫颈癌的病理图像中,最小模型法也可以应用于宫颈癌。

6.3.4.分类器设计方法

在胃癌组织病理学中,采用SVM和RF方法对图像进行分类。这些方法也可以应用于宫颈癌的微生物图像和病理图像。在[93,总结了微生物分类的方法,发现适用于胃癌组织病理学图像的方法也适用于微生物图像。在[94], SVM分类器用于宫颈癌分类。

7.结论及未来工作

本文综述了胃癌组织病理学图像分析的方法,包括预处理、特征提取、分割和分类。在预处理中,为了解决数据不足的问题,采用了数据增强的方法。数据增强方法主要是图像旋转和几何变换。在特征提取方面,主要从机器学习方法和深度学习方法两个方面进行总结。机器学习方法包括颜色特征、纹理特征和形态特征。在图像分割方面,采用机器学习方法的论文较多,主要采用边缘检测、分割方法和U-net卷积神经网络进行深度学习。在图像分类方面,主要应用了SVM、RM等机器学习分类器。深度学习网络采用了一些经典的卷积神经网络结构,如ResNet和Inception-V3。另一种是结合机器学习和深度学习的框架,通过深度学习网络提取特征,再通过机器学习分类器进行分类。

未来胃癌的组织病理学图像分析仍有改进的空间。首先,胃癌领域的图像分析方法相关论文较少。研究人员可以结合胃癌组织病理图像建立新的网络模型,对胃癌组织病理图像进行分析。以下技术,例如,“DoDNet:学习从多个部分标记数据集中分割多器官和肿瘤”[95],“三维级联卷积网络的多椎体分割”[96]和“PGL:基于先验引导的局部自监督学习的三维医学图像分割”[97],可应用于胃癌的病理图像处理。其次,在胃癌组织病理学领域,缺乏完整、清晰、准确标记的病理图像,因此建立更完善的数据可以为实验提供很大的帮助。最后,在特征提取和分类器设计方面,有许多新颖的技术可以应用于胃癌组织病理学图像分析,是一个很有前景和有价值的研究方向。

信息披露

陈力是本文的共同第一作者和通讯作者。艾世良、李晨为共同第一作者。

利益冲突

作者声明,这篇论文的发表不存在利益冲突。

致谢

作者感谢李子贤老师和李国贤先生的重要讨论。感谢国家自然科学基金(No. 61806047)、中央高校基本科研业务费专项资金(No. 61806047)的资助。国家留学基金委(2018GBJ001757)。

参考文献

  1. O. M. Yis, G. Bugdayci, M. B. Pehlivan和M. Basol,“全身炎症反应生物标志物在实体瘤癌症患者诊断中的作用”,实验生物医学研究,第2卷,no。1,页37-43,2019。视图:出版商的网站|谷歌学者
  2. 答:O.-O。陈炳昌-杨黄,s - k。Lam,“胃癌:过去,现在和未来”加拿大胃肠病学杂志,第15卷,no。7, pp. 469-474, 2001。视图:出版商的网站|谷歌学者
  3. T. M. Elsheikh, R. M. Austin, D. F. Chhieng等人,“美国细胞病理学学会自动化巴氏试验筛查工作量建议:由自动化筛查工作组时代的生产力和质量保证开发。”细胞病理学诊断,第41卷,no。2, pp. 174-178, 2013。视图:出版商的网站|谷歌学者
  4. R. Lozano,“计算机辅助和人工宫颈细胞学筛查的比较”,妇科肿瘤,第104卷,no。1, pp. 134-138, 2007。视图:出版商的网站|谷歌学者
  5. K. Doi,“医学影像中的计算机辅助诊断:历史回顾,现状和未来潜力,”计算机医学影像与图形学,第31卷,no。5,页198-211,2007。视图:出版商的网站|谷歌学者
  6. H. Sharma,“在组织病理学整体切片图像中使用纹理特征和SVM与判别阈值的基于外观的坏死检测”,在IEEE第十五届生物信息学与生物工程国际会议, ieee, 2015。视图:谷歌学者
  7. K. Doi,“医学影像计算机辅助诊断的现状和未来潜力”,英国放射学杂志,第78卷,补编1,第s3-s19页,2005年。视图:出版商的网站|谷歌学者
  8. E. Bengtsson和P. Malm,“利用pap涂片自动分析筛查宫颈癌”,医学中的计算和数学方法“,《中国科学》,2014年第4期,第12页。视图:出版商的网站|谷歌学者
  9. L. Zhang, H. Kong, C. Ting Chin等,“人工苏木精和伊红染色液基细胞学自动化辅助宫颈癌筛查,”细胞检测A部分第85卷,no。3,页214 - 230,2014。视图:出版商的网站|谷歌学者
  10. K. Y. Win, S. Choomchuay, K. Hamamoto, M. Raveesunthornkiat, L. Rangsirattanakul,和S. Pongsawat,“在细胞学胸腔积液图像上检测癌细胞的计算机辅助诊断系统”,生物医学研究国际《中国日报》,2018年第4期,Article ID 6456724, 21页。视图:出版商的网站|谷歌学者
  11. Y. LeCun, Y. Bengio, G. Hinton,《深度学习》自然,第521卷,no。《中国日报》,2015年第4期,页436-444。视图:出版商的网站|谷歌学者
  12. W. Rogers, B. Ryack, G. Moeller,“计算机辅助医学诊断:文献综述”,国际生物医学计算杂志,第10卷,no。4, pp. 267-289, 1979。视图:出版商的网站|谷歌学者
  13. A. N. Ramesh, C. Kambhampati, J. R. T. Monson和P. J. Drew,《医学中的人工智能》英国皇家外科学院年鉴,第86卷,no。5, pp. 334-338, 2004。视图:出版商的网站|谷歌学者
  14. C. Demir和B. Yener,基于组织病理学图像的癌症自动诊断系统综述,伦斯勒理工学院,技术代表,2005年。
  15. A. Vellido和P. J. G. Lisboa,“神经网络和癌症研究中的其他机器学习方法”,在人工神经网络国际工作会议,施普林格,柏林,海德堡,2007。视图:谷歌学者
  16. M. Bakator和D. Radosav,“深度学习和医学诊断:文献综述”,多模态技术与交互,第2卷,no。3, 2018年第47页。视图:出版商的网站|谷歌学者
  17. T. J. Fuchs和J. M. Buhmann,“计算病理学:组织分析的挑战和前景”,计算机医学影像与图形学,第35卷,no。7-8,页515-530,2011。视图:出版商的网站|谷歌学者
  18. J. Gilbertson和Y. Yagi,“病理学中的组织学、成像和新的诊断工作流程”,诊断病理学,第3卷,补编1,第S14页,2008年。视图:出版商的网站|谷歌学者
  19. M. N. Gurcan, L. E. Boucheron, a . Can, a . Madabhushi, N. M. Rajpoot,和B. Yener,“组织病理学图像分析:综述”IEEE生物医学工程评论, vol. 2, pp. 147-171, 2009。视图:出版商的网站|谷歌学者
  20. N. Bayramoglu, J. Kannala和J. Heikkilä,“用于放大独立乳腺癌组织病理学图像分类的深度学习”,在2016第23届模式识别国际会议(ICPR), ieee, 2016。视图:谷歌学者
  21. M. Sonka V. Hlavac和R. Boyle,图像预处理,图像处理、分析与机器视觉,施普林格,波士顿,马萨诸塞州,1993年。
  22. E. Garcia,“使用深度学习对胃癌IHC图像进行自动淋巴细胞检测”,在2017 IEEE第30届基于计算机的医疗系统国际研讨会, ieee, 2017。视图:谷歌学者
  23. H. Sharma, N. Zerbe, I. Klempert, O. Hellwich和P. Hufnagl,“在数字组织病理学中使用整张幻灯片图像进行胃癌自动分类的深度卷积神经网络”计算机医学影像与图形学《中华人民共和国学报》,vol. 61, pp. 2-13, 2017。视图:出版商的网站|谷歌学者
  24. 李勇,“基于深度学习的胃癌识别”,在2018 IEEE第15届生物医学成像国际研讨会(ISBI 2018), ieee, 2018。视图:谷歌学者
  25. J. Qu, N. Hiruta, K. Terai, H. Nosato, M. Murakawa,和H. Sakanashi,“基于深度神经网络的逐步微调胃病理图像分类”,医疗工程杂志, 2018年第1卷,Article ID 8961781, 13页。视图:出版商的网站|谷歌学者
  26. 第二,特征提取:基础与应用,卷207,施普林格,2008。
  27. H. Sharma, N. Zerbe, D. Heim等人,“在组织病理学图像中使用核分割和分类结合视觉信息的多分辨率方法”,在第十届计算机视觉理论与应用国际会议论文集, 2015年,德国柏林。视图:谷歌学者
  28. S. A. Korkmaz, A. Akcicek, H. Binol和M. F. Korkmaz,“通过使用HOG特征识别概率HOG特征向量直方图的胃癌图像”,在2017 IEEE第十五届智能系统与信息学国际研讨会(SISY), ieee, 2017。视图:谷歌学者
  29. S. A. Korkmaz, H. Binol, A. Akcicek和M. F. Korkmaz,“使用HOG特征和线性判别分析的人工神经网络胃癌图像专家系统:HOG_LDA_ANN”,在2017 IEEE第十五届智能系统与信息学国际研讨会(SISY), ieee, 2017。视图:谷歌学者
  30. S. A. Korkmaz和H. Binol,“利用ANN, RF, LBP, HOG和尺寸缩小方法进行早期胃癌检测的分子结构图像分类”分子结构杂志2018.中国科学院学报,vol. 1156, pp. 255-263。视图:出版商的网站|谷歌学者
  31. E.科萨托,p.f。Laquerre, C. Malon等人,“h&e染色切片胃癌自动诊断;用多实例机器学习大规模地训练分类器。”医学影像2013:数字病理学, vol. 8676, SPIE, 2013。视图:谷歌学者
  32. H. Sharma, N. Zerbe, C. Boger, S. Wienert, O. Hellwich和P. Hufnagl,“组织病理学胃癌全幻灯片图像中细胞核属性关系图的知识描述和分类的比较研究”,在2017 IEEE第30届基于计算机的医疗系统国际研讨会, ieee, 2017。视图:谷歌学者
  33. 甘丽丽,吕文文,张旭,X.孟,“改进PCA + LDA在胃癌图像分类中的应用”,物理Procedia, vol. 24, pp. 1689-1695, 2012。视图:出版商的网站|谷歌学者
  34. R. Geetha, S. Sivasubramanian, M. Kaliappan, S. Vimal, and S. Annamalai,“基于随机森林分类器的合成少数群体过采样技术和PCA分析的宫颈癌识别”,医学系统杂志,第43卷,no。9日,2019年。视图:出版商的网站|谷歌学者
  35. D. Kashyap, A. Somani, J. Shekhar等人,“使用独立水平集和多支持向量机进行宫颈癌检测和分类”,在2016年第39届国际电信与信号处理会议(TSP), ieee, 2016。视图:谷歌学者
  36. M. Veta, P. J. van Diest, S. M. Willems等人,“乳腺癌组织病理学图像中有丝分裂检测算法的评估,”医学图像分析,第20卷,no。1, pp. 237-248, 2015。视图:出版商的网站|谷歌学者
  37. S. Naik, S. Doyle, S. Agner, A. Madabhushi, M. Feldman和J. Tomaszewski,“前列腺和乳腺癌组织病理学分级的自动腺体和核分割”,在2008第五届IEEE生物医学成像国际研讨会:从纳米到宏观, ieee, 2008。视图:谷歌学者
  38. 刘伟,孙志强,陈杰,Jing C.,“拉曼光谱在结直肠癌诊断中的应用:PCA-LDA和PLS-DA模型的比较,”光谱学杂志, 2016年第1期,文章ID 1603609, 6页。视图:出版商的网站|谷歌学者
  39. R. M. Haralick和L. G. Shapiro,“图像分割技术”,计算机视觉,图形学和图像处理,第29卷,no。1,页100-132,1985。视图:出版商的网站|谷歌学者
  40. Li Y.,谢x .,刘s ., Li X.和L. Shen,“GT-Net:用于胃部肿瘤诊断的深度学习网络”,在2018 IEEE第30届人工智能工具国际会议(ICTAI), ieee, 2018。视图:谷歌学者
  41. 孙明,张国强,党宏,齐旭光,周旭光,常强,“基于可变形卷积和多尺度嵌入网络的数字病理图像胃癌精确分割”,IEEE访问中国科学院学报,2019年第7卷,第75530-75541页。视图:出版商的网站|谷歌学者
  42. 南勇,“基于斑块重复学习的部分标记胃肿瘤分割”,2017,http://arxiv.org/abs/1712.7488视图:谷歌学者
  43. Sun C., Li C., J. Zhang, F. Kulwa,和X. Li,“层次条件随机场模型在胃组织病理图像中的多目标分割,”电子信件第56卷,no。15, pp. 750-753, 2020。视图:出版商的网站|谷歌学者
  44. 匿名,“胃分割”电子信件, vol. 56, pp. 747-747, 2020。视图:出版商的网站|谷歌学者
  45. R. M.科马克,《分类综述》皇家统计学会杂志:A辑(一般),第134卷,no。3,第321-353页,1971。视图:出版商的网站|谷歌学者
  46. S. Wienert, D. Heim, K. Saeger等人,“虚拟显微镜图像中细胞核的检测和分割:最小模型方法,”科学报告,第2卷,no。1, 2012。视图:出版商的网站|谷歌学者
  47. B. Liu, M. Zhang, T. Guo,和Y. Cheng,“基于深度学习和稀疏表示的胃切片分类”,在2018中国控制决策会议(CCDC), ieee, 2018。视图:出版商的网站|谷歌学者
  48. 刘波,姚凯,黄敏,张俊杰,李玉英,李荣仁,“基于深度残余网络的胃病理图像识别”,载于2018 IEEE第42届计算机软件与应用年会(COMPSAC), vol. 2, IEEE, 2018。视图:出版商的网站|谷歌学者
  49. Z. Zhu, X. Ding, D. Zhang,和L. Wang,“弱监督平衡注意网络用于胃病理图像定位和分类”,在2020 IEEE第17届生物医学成像国际研讨会, ieee, 2020。视图:出版商的网站|谷歌学者
  50. J.克洛克纳,T. K.桑索诺维奇,Á。L. Rodrigues和T. W. N. Nunes,“深度学习应用于胃癌诊断的多分类分类”,巴西病理医学实验室杂志中国科学院学报,2020年第56卷。视图:出版商的网站|谷歌学者
  51. S. Wang, Y. Zhu, L. Yu等人,“RMDL:重新校准的多实例深度学习用于整个幻灯片胃图像分类,”医学图像分析, 2019年第58卷第101549条。视图:出版商的网站|谷歌学者
  52. Song Z., Zou S., Zhou W.等,“深度学习用于胃癌检测的临床应用组织病理诊断系统”,自然通讯,第11卷,no。1、2020年第4294条。视图:出版商的网站|谷歌学者
  53. S. C. Kosaraju, J. Hao, H. M. Koh和M. Kang,“deep - hipo:用于组织病理学图像分析的多尺度接受野深度学习”,方法, vol. 179, pp. 3-13, 2020。视图:出版商的网站|谷歌学者
  54. O. Iizuka, F. Kanavati, K. Kato, M. Rambeau, K. Arihiro和M. Tsuneki,“胃和结肠上皮肿瘤组织病理学分类的深度学习模型”,科学报告,第10卷,no。1、2020年第1504条。视图:出版商的网站|谷歌学者
  55. K.-O。赵,李s.h.和H. j。zhang,“基于深度学习的全幻灯片图像全自动分类的可行性”,韩国生理学和药理学杂志,第24卷,no。1,页89-99,2020。视图:出版商的网站|谷歌学者
  56. M. J. Swain和D. H. Ballard,“颜色索引”国际计算机视觉杂志,第7卷,no。1,第11-32页,1991。视图:出版商的网站|谷歌学者
  57. T. Carron和P. Lambert,“联合使用色相,饱和度和强度的颜色边缘检测器”,在第一届图像处理国际会议论文集,第3卷,IEEE, 1994。视图:谷歌学者
  58. S. Sural, G. Qian,和S. Pramanik,“使用HSV颜色空间进行图像检索的分割和直方图生成”,在程序。图像处理国际会议, vol. 2, IEEE, 2002。视图:谷歌学者
  59. N. Dalal和B. Triggs,“面向梯度直方图的人类检测,”在2005 IEEE计算机学会计算机视觉与模式识别会议(CVPR ' 05), vol. 1, IEEE, 2005。视图:谷歌学者
  60. R. M. Haralick, K. Shanmugam和I. H. Dinstein,“图像分类的纹理特征”,IEEE系统、人与控制论汇刊, vol. 6, pp. 610-621, 1973。视图:出版商的网站|谷歌学者
  61. S. Balakrishnama和A. Ganapathiraju,“线性判别分析-简要教程”信号与信息处理研究所, 1998年第18卷。视图:谷歌学者
  62. S. Wold, K. Esbensen, P. Geladi,《主成分分析》化学计量学与智能实验室系统“,,第2卷,no。1-3页,37-52,1987。视图:出版商的网站|谷歌学者
  63. O. Ronneberger, P. Fischer和T. Brox,“U-Net:用于生物医学图像分割的卷积网络”,见医学图像计算与计算机辅助干预国际会议,施普林格,Cham, 2015。视图:谷歌学者
  64. W. S. Noble,“什么是支持向量机?”自然生物技术,第24卷,no。12,页1565-1567,2006。视图:谷歌学者
  65. T. Hastie, S. Rosset, J. Zhu和H. Zou,“多类adaboost”统计数据及其接口,第2卷,no。3, pp. 349-360, 2009。视图:出版商的网站|谷歌学者
  66. A. lilaw和M. Wiener,“随机森林的分类和回归”,R新闻,第2卷,no。3,页18-22,2002。视图:谷歌学者
  67. 何凯,张x,任s,和孙杰,“图像识别的深度残差学习”,在IEEE计算机视觉与模式识别会议论文集, ieee, 2016。视图:出版商的网站|谷歌学者
  68. C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens和Z. Wojna,“重新思考计算机视觉的初始架构”,在IEEE计算机视觉与模式识别会议论文集, ieee, 2016。视图:出版商的网站|谷歌学者
  69. A. Rehman和T. Saba,“撤回文章:高级图像处理对临床和临床前决策的分析与定量成像生物标志物的概述,”人工智能评论,第42卷,no。4、2014年第1045条。视图:出版商的网站|谷歌学者
  70. Quan Y., Chen Y., Shao Y., Teng H., Xu Y.,和Ji H.,“基于复值深度CNN的图像去噪”,模式识别,第111卷,第107639条,2021。视图:出版商的网站|谷歌学者
  71. A. F. M. S. Uddin, T. Chung, S. h。Bae,“一种使用L1和感知损失的感知启发的新盲图像去噪方法,”IEEE访问2019年中国科学院学报,vol. 7, pp. 90538-90549。视图:出版商的网站|谷歌学者
  72. 黄世建。Yu, W. Ahn, S. H. Nam, and H. K. Lee,“BitMix:用于图像隐写分析的数据增强”,电子信件第56卷,no。24, pp. 1311-1314, 2020。视图:出版商的网站|谷歌学者
  73. G. Palanisamy, N. B. Shankar, P. Ponnusamy和V. P. Gopi,“基于亮度和边缘对比度增强的彩色眼底图像混合特征保存技术”,生物控制论与生物医学工程,第40卷,no。2, pp. 752-763, 2020。视图:出版商的网站|谷歌学者
  74. 丁世峰,朱鸿辉,贾文伟,苏超,“基于特征提取的模式识别研究综述”,人工智能评论,第37卷,no。3, pp. 169-180, 2012。视图:出版商的网站|谷歌学者
  75. Z. Omiotek, O. Stepanchenko, W. Wójcik, W. legieich,和M. Szatkowska,“基于放射学图像的骨髓瘤骨破坏检测中Hellwig的特征选择方法的使用,”生物控制论和生物医学工程,第39卷,no。2,页328-338,2019。视图:出版商的网站|谷歌学者
  76. H. Lim和d . w。Kim,“基于成对依赖的无监督特征选择,”模式识别,第111卷,第107663条,2021。视图:出版商的网站|谷歌学者
  77. Z. Wang, E. Wang,和Y. Zhu,“图像分割评估:方法综述,”人工智能评论,第53卷,no。8,第5637-5674页,2020年。视图:出版商的网站|谷歌学者
  78. N.-Q。阮和s.w。Lee,“使用连续深度编码器-解码器网络在医学图像中的鲁棒边界分割,”IEEE访问《中国科学院学报》,2019年第7卷,第33795-33808页。视图:出版商的网站|谷歌学者
  79. H. Jiang, S. Piao, M. Z. Qadir,和Q. Guo,“医学图像分割的M-WRSF模型”,电子信件,第55卷,no。7,页386-389,2019。视图:出版商的网站|谷歌学者
  80. P. Hambarde, S. Talbar, A. Mahajan, S. Chavan, M. Thakur和N. Sable,“基于深度监督U-Net的放射组学在MR图像中的前列腺病变分割”,生物控制论与生物医学工程,第40卷,no。4, pp. 1421-1435, 2020。视图:出版商的网站|谷歌学者
  81. C. Platero和M. C. Tobar,“使用图切割的多图谱分割应用于CT扫描中的肝脏分割”,医学中的计算和数学方法“,《中华人民大学学报》,2014年第4期。视图:出版商的网站|谷歌学者
  82. A. Carreño, I. Inza和J. A. Lozano,“在监督分类框架下分析罕见事件,异常,新颖性和异常值检测术语,”人工智能评论,第53卷,no。5,第3575-3594页,2020。视图:出版商的网站|谷歌学者
  83. K.-H。N. Bui, O. hyun jeong,和H. Yi,“使用声音数据集的交通密度分类:不对称道路交通流的实证研究,”IEEE访问, vol. 8, pp. 125671-125679, 2020。视图:出版商的网站|谷歌学者
  84. P. Jarosik, Z. Klimonda, M. Lewandowski和M. Byra,“基于卷积神经网络的超声射频信号乳腺病变分类”,生物控制论与生物医学工程,第40卷,no。3,第977-986页,2020年。视图:出版商的网站|谷歌学者
  85. S. Kumar和D. P. Mankame,“优化驱动的深度卷积神经网络用于脑肿瘤分类”,生物控制论与生物医学工程,第40卷,no。3, pp. 1190-1204, 2020。视图:出版商的网站|谷歌学者
  86. B.-Q。杨,X.-P。关,J.-W。朱,c c。顾,K.-J。吴和j.j.。Xu,“基于svm多类损失反馈的图像分类判别字典学习”,模式识别,第112卷,第107690条,2021。视图:出版商的网站|谷歌学者
  87. 徐宏,李超,M. M. Rahaman等人,“生成对抗网络(EF-GANs)的增强框架,用于有限旋转不变训练数据的环境微生物图像增强,”IEEE访问, vol. 8, pp. 187455-187469, 2020。视图:出版商的网站|谷歌学者
  88. M. Veta, P. J. van Diest, R. Kornegoor, A. Huisman, M. A. Viergever和J. P. W. Pluim,“H&E染色乳腺癌组织病理学图像中的自动核分割”,《公共科学图书馆•综合》,第8卷,no。7,第e70221条,2013。视图:出版商的网站|谷歌学者
  89. 张俊杰,李超,F. Kulwa等,“环境微生物图像分割的多尺度CNN-CRF框架,”生物医学研究国际, vol. 2020, Article ID 4621403, 27页,2020。视图:出版商的网站|谷歌学者
  90. A. D. Belsare, M. M. Mushrif, M. A. Pangarkar,和N. Meshram,“使用纹理特征分析的乳腺癌组织病理学图像分类”,在TENCON 2015-2015 IEEE第10区域会议, ieee, 2015。视图:出版商的网站|谷歌学者
  91. F. Kulwa, C. Li, X. Zhao等,“微生物图像分割方法的最新研究和未来潜力,”IEEE访问2019年,中国科学院学报,vol. 7, pp. 100243-100269。视图:出版商的网站|谷歌学者
  92. b。c。Patel和g。r。Sinha, "适应性 -均值聚类算法用于乳腺图像分割国际计算机应用杂志,第10卷,no。4, pp. 35-38, 2010。视图:出版商的网站|谷歌学者
  93. C. Li, K. Wang, X. Ning,“基于内容的显微图像分析在微生物分类领域的应用综述”,人工智能评论,第51卷,no。4,页577-646,2019。视图:出版商的网站|谷歌学者
  94. Y. Rejani和S. T. Selvi,“使用SVM分类器技术进行乳腺癌的早期检测”,2009,http://arxiv.org/abs/912.2314视图:谷歌学者
  95. 张杰,“多器官网络:学习从多个部分标记数据集中分割多器官和肿瘤,”2020年,http://arxiv.org/abs/10217视图:谷歌学者
  96. 夏l .,肖l ., Quan G., Bo W.,“用于多椎体分割的三维级联卷积网络,”当代医学影像,第16卷,no。3,页231 - 240,2020。视图:出版商的网站|谷歌学者
  97. 谢勇,“PGL:基于先验引导的局部自监督学习的三维医学图像分割”,2020,http://arxiv.org/abs/2011.12640视图:谷歌学者

betway赞助版权所有©2021艾世良等。这是一篇开放获取的文章,在创作共用署名许可协议它允许在任何媒介上不受限制地使用、传播和复制,前提是正确地引用原始作品。


更多相关文章

PDF 下载引用 引用
下载其他格式更多的
订购印刷本订单
的观点38
下载28
引用

相关文章

年度文章奖:由我们的主编选出的2020年杰出研究贡献。阅读获奖文章