2. 辽宁省肿瘤医院, 辽宁 沈阳 110042;
3. 中国医科大学附属肿瘤医院, 辽宁 沈阳 110042
2. Liaoning Cancer Hospital & Institute, Shenyang 110042, China;
3. Cancer Hospital of China Medical University, Shenyang 110042, China
宫颈癌是最常见的妇科恶性肿瘤之一, 其发病率处于全世界女性恶性肿瘤发病率的第三位, 因此宫颈癌的预防与诊断工作非常重要[1].在宫颈癌的诊断中, 组织病理学方法被称为“金标准”, 而癌细胞分化阶段的判断是其中的一个关键步骤[2].然而, 这一步骤需要临床经验丰富的医生对大量组织病理学图像进行分析, 其培训成本高、工作强度大, 严重阻碍了宫颈癌预防与诊断工作的普及.因此, 使用人工智能方法进行辅助诊断将能够大幅推进以上工作的普及[3-4].
国内在使用计算机对医学图像进行辅助诊断方面的研究起步较晚, 最早提到计算机辅助医学图像诊断的是1996年Li等发表的使用计算机对食管癌医学图像的数据分析与处理方案[5].在2000年, Ding等发表了对宫颈癌细胞涂片计算机自动诊断方案的未来发展意见, 说明国内虽然少有系统性的计算机辅助诊断宫颈癌细胞病理图的方案, 但逐步意识到癌细胞图像自动诊断的重要意义[6].2014年Zhao等把k-means颜色聚类用于CIELab颜色空间中对宫颈癌细胞进行图像分割[7].2016年Ning等使用支持向量机对宫颈组织病理图像分类[8].
国外很早就有将计算机技术应用在细胞病理学显微图像的分类的尝试, Wied等在1968年发表的论文中就提到了他们在所开发的TICAS系统中, 使用了图像处理的方法对宫颈细胞显微图像中的细胞进行了分类[9].近几年利用计算机进行图像分析和处理在国外已有较为广泛的应用[10].在卷积神经网络(convolutional neural networks, CNNs)等模型被提出后, 陆续发展出很多高效的CNN模型, 如:VGGNet与生成对抗网络(generative adversarial networks, GAN)[11-12].Song等[13]提出了一种超像素技术和卷积神经网络技术在宫颈癌图像中分割细胞质和细胞核的方法, 对细胞核区域检测准确率达到了94.50%.Purwanti等[14]提出了一种利用人工神经网络和学习矢量对正常和异常宫颈细胞进行分类的方法, 准确率达到了90%.
目前, 对于宫颈癌组织病理学图像计算机辅助诊断系统的研究被专家学者广泛关注, 且宫颈癌组织病理学图像较难获取, 容易导致训练数据不充分的问题.本文使用恰当的图像处理与生成方式产生有效的宫颈癌组织病理学图像, 扩充训练数据集, 提升人工神经网络的学习效率, 最终提高人工神经网络对病理图像的识别率, 达到了提高辅助诊断效果的目的.
1 宫颈癌组织病理学图像与机器学习 1.1 宫颈癌组织病理学图像本研究中所使用的宫颈癌组织病理学图像有低分化与高分化两类.低分化:细胞结构松散, 细胞核分布杂乱.高分化:细胞有一定结构, 细胞核分布比较集中.如图 1所示, 低分化的宫颈癌细胞病变程度严重, 从图中已经很难看出细胞原始形态, 高分化的宫颈癌细胞病变程度较轻, 依然能从图中看出细胞结构[15].
k-means聚类算法具有计算效率高和处理数据量大的优势, 其基本思想是:人为给定k值, 找到即将处理的数据集当中的k个聚类点, 使所有数据到与它距离最小的聚类点距离的平方总和最小[16].
1.3 CNNCNN是深度学习方法的热点, 其基础框架由3个部分组成:卷积层, 负责对获取的数据进行不同形式的卷积, 最终达到提取数据特征并将特征传递给池化层的目的; 池化层, 接收到卷积层提供的数据特征后进行选择和过滤, 精炼数据特征, 从而减少神经网络的计算复杂度; 全连接层, 数据经过卷积层与池化层后会有多个特征传递给全连接层, 即全连接层中有多个特征需要分析, 最终一般会使用归一化层对所提取的特征进行归一化作为输出[17].
1.4 GANGAN是一种基于博弈论思想开发出来的深度学习模型, 主要包含生成模块和判别模块[18].GAN的运行原理为生成模块与判别模块不断博弈的过程, 生成模块不断生成数据, 判别模块学习原始的真实数据, 并对生成模块所生成的数据进行判别, 而生成模块在生成的过程中依靠判别模块的判别结果来调整自身参数, 最终结果为生成模块能够生成判别模块无法判断真伪的数据.
2 使用GAN生成宫颈癌组织病理学图像 2.1 研究内容及主要工作从计算机辅助诊断所使用的图像数据入手, 重点研究宫颈癌组织病理学图像的生成方法, 主要研究内容如图 2所示.
步骤1 因为宫颈癌组织病理学图像较难获取, 很容易导致由于数据不足引起的网络训练过程中参数的过拟合现象, 所以使用图像切割与仿射变换使数据量扩充为原始数据的640倍, 对原始的宫颈癌组织病理学图像进行数据扩充.
步骤2 使用k-means进行图像分割, 并保留原始宫颈癌组织病理学图像的主要特征(细胞核部分); 使用GAN进行训练, 并生成次要特征(细胞质与细胞间质部分).
步骤3 再次使用k-means筛选出理想的次要特征生成图, 并将其随机拼接为与原始宫颈癌组织病理学图像相同大小的图像, 然后与之前保留的细胞核进行融合.
步骤4 使用现有的CNN迁移学习模型对高、低分化宫颈癌图像进行分类训练以及测试, 并对网络进行微调使其适用于宫颈癌组织病理学图像的分类任务.充分利用现有数据和生成数据, 合理分配训练数据集与测试数据集, 对分类结果进行评价.
步骤5 在训练与分类过程中, 对比使用原始宫颈癌组织病理学图像训练的分类结果和加入生成图像后训练的分类结果并进行分析, 以调整生成图像加入的比例, 进一步优化分类结果.
2.2 数据扩充在使用计算机进行图像分析或机器学习时, 往往需要大量训练数据.尤其在使用深度学习方法时, 数据量不充足很容易导致训练过程中参数的过拟合[19].使用合理的方式扩充数据量可以有效地提升实验质量.①图像剪裁:将原始2560×1920像素图像剪裁为320×192像素, 从原本的低分化与高分化各100张图像扩充为低分化与高分化各8000张图像.②仿射变换:因为众多细胞核在显微图像中方向本身是杂乱的, 所以旋转变换与翻转变换完全不影响图像的真实性.因此, 本实验中使用旋转变换与翻转变换, 将数据量扩充至变换前的8倍, 达到64000张.
2.3 GAN的图像生成由于宫颈癌组织病理学图像在深度学习分类中主要使用细胞核的特征, 而细胞核没有固定形状, 难以使用GAN进行生成, 因此本研究使用GAN进行图像中次要特征的生成(细胞质与细胞间质部分).经过合理预处理的宫颈癌组织病理学图像数据有低分化64000张图像与高分化64000张图像.实验使用GAN进行图像生成, 训练中将batch size设定为100, 一共训练100000迭代次数[19-20].实验对生成过程中的结果参数进行分析, 迭代次数在50000以上时, 判别模块对生成图像的识别正确率为90%左右, 准确率不再明显上升, 生成结果如图 3所示.
如图 3所示, 生成图像之间的红绿蓝(red green blue, RGB)值相差很远, 很明显有部分图像不适合做数据的次要特征生成.对此, 研究使用k-means聚类算法对其进行筛选,其过程如图 4所示, 具体次要特征生成类型见图 5, 图 6.
生成网络中输出的图像尺寸为120×120像素, 对其图像中全部像素点的RGB值求均值, 以三维向量形式使用k-means算法进行聚类, 根据生成图像效果, 经过实验, k=7时有最好的效果, 聚类效果如图 5所示.
由图 5可知, 从7个聚类结果中筛选出比较适合用于生成组织病理学图像的次要特征的类型:聚类2中的结果适合做背景偏蓝的图像的次要特征生成; 聚类6中的结果适合做背景偏白的图像的次要特征生成; 其余的聚类结果与真实图像差距大, 故不采用.其中, 聚类2中的结果色调偏蓝, 而研究中使用的宫颈癌组织病理学图像有相当一部分整体色调偏蓝, 因此聚类2的整体色调与原图像色调接近, 不需要再次对图像的RGB值进行k-means筛选.而聚类6中结果的RGB均值虽然都与背景色调偏白的原宫颈癌组织病理学图像背景接近, 但其中还有部分色彩效果稍差的图像, 因此需要进行第2次k-means聚类筛选.本次聚类设定k=3, 最终获得正常色调图像的效果如图 6所示.
2.4.2 基于RGB值的图像筛选在进行两次k-means图像聚类后, 生成的图像色彩逐步趋于真实宫颈癌组织病理学图像的色彩, 并且有一定量合适的噪声作为生成数据的次要特征.不过由于2.4.1节中的聚类对象是整张图像的RGB均值, 所以最终聚类结果中难免有一些整体色彩效果不好的图像混入, 因此需要对获得的图像进行再次筛选.观察聚类2图像集, 可以发现有部分图像中所有像素点的RGB值很接近, 导致整张图像模糊、纹理辨识度低, 不适合做生成图像的背景.对选取的像素点进行方差计算, 将所有像素点的色彩过于接近(方差低)的图像排除, 得到纹理特征较强的生成图像, 筛选效果如图 7所示.
对聚类6中图像的RGB值与原图像中背景色偏白的图像细胞质部分的RGB值进行对比, 将选取的像素点整体色彩表现为偏绿以及轻微偏红的图像都排除, 得到最适合做生成数据的次要特征的图像, 筛选效果如图 8所示.
生成的图像数据加入数据集并参与训练, 提高准确率的关键在于能否生成或保留图像中的关键特征.在使用深度学习方法对组织病理学图像的诊断中, 细胞核特征是计算机诊断的关键特征, 而宫颈癌组织病理学图像中细胞核与细胞质、细胞间质的主要区别在于其颜色特征, 因此本实验中使用k-means算法对图像中每个像素的RGB值进行聚类, 达到细胞核分割的目的, 获得并保留宫颈癌组织病理学图像的细胞核部分.经过测试, 本研究设定k=3, 其图像分割效果如图 9所示.
观察图 9a与图 9b发现k-means算法对像素点RGB值的聚类在图像分割中有很好的表现, 能将绝大部分细胞核都标记出来, 因此使用图 9b中的标记对图 9a进行分割, 最终得到图 9c的细胞核分割结果.
2.5.2 组织病理学图像的次要特征(细胞质)的生成在通过GAN的图像生成及多步筛选之后, 得到了一批适合做组织病理学图像次要特征生成的图像.然后随机选取并将其进行拼接、剪裁, 最终获得2560×1920像素的图像, 作为所生成的组织病理学图像的次要特征, 如图 10所示.
将2.5.1节中提取的主要特征与2.5.2节中生成的次要特征进行融合.具体方法为:依据细胞核提取图像的形状将生成的次要特征图像进行分割, 分割后与细胞核提取图像叠加生成最终的组织病理学图像,如图 11所示.
本研究使用低分化与高分化宫颈癌组织病理学图像作为实验数据.宫颈癌组织切片的制备、显微成像工作以及肿瘤病理类型、分化程度、肿瘤大小的标记工作都由中国医科大学完成.
3.2 GAN的生成实验使用320×192像素的原图进行直接生成,将64000张宫颈癌组织病理学图像输入GAN进行训练的生成效果如图 12所示.
由图 12可以发现, 在GAN进行训练的过程中, 随着迭代次数的增加, 生成的图像纹理越来越清晰, 更加接近真实宫颈癌组织病理学图像的纹理效果.
3.3 组织病理学图像的生成 3.3.1 细胞质与细胞间质的生成在进行筛选工作后, 获得与原图十分相近的次要特征(细胞质与细胞间质)图像, 如图 13所示.
从图 13中随机选择352张图像进行随机排序、拼接与剪裁工作, 最终生成2560×1920像素的次要特征图像, 如图 14所示.
k=3, 4, 5时的细胞核分割效果如图 15所示.
从图中可以看出, 在k=3的情况下可以有效地划分出颜色为紫色的区域, 细胞核的分割效果较好, 如图 16所示.
将3.3.1节得到的次要特征的图像与3.3.2节得到的主要特征的图像进行融合, 生成最终的新图像, 如图 17所示.
使用Inception-V3进行迁移学习, 对高、低分化的宫颈癌组织病理学图像进行CNN分类训练, 以此来实现辅助诊断的功能.所生成的2560×1920像素的融合图像, 由于分辨率过高, 无法直接使用Inception-V3网络进行学习, 所以先将其统一为299×299像素的图像, 然后再对其进行卷积与池化等操作, 最后将图像输入神经网络进行训练.在训练过程中发现迭代次数在300以后, 训练曲线波动幅度逐渐变小, 图像质量开始趋于稳定,因此在后续实验训练中将迭代次数设置为300, 以保证学习效率.在此CNN参数的设置下, 针对每种训练集与测试集的配比进行图像分类测试, 并与加入一定比例的生成图像(生成图像占训练集数据的1/3)后的分类结果进行对比.其中, 分类结果为通过分析宫颈癌组织病理学图像判断患者患有高分化宫颈癌还是低分化宫颈癌.由于本研究是从数据集方面入手尝试提升CNN的分类效果, 因此实验中合理的数据集的分配比例是必要的.对训练集、测试集和所加入的生成图像进行统计, 最后总结得到实验结果.实验中训练集与测试集的配比为5:5, 6:4, 7:3和8:2, 以此测试生成图像数据的可靠性.结果表明:在4种数据集配比情况下, 对宫颈癌组织病理学图像进行分类的4个指标均有提高:准确率平均上升1.44%, 在8:2的情况下增幅最大(2.50%); 精确率平均上升1.82%, 在8:2的情况下增幅最大(2.50%); 召回率平均上升3.18%, 在6:4的情况下增幅最大(2.50%); F1值平均上升1.55%, 在6:4的情况下增幅最大(2.38%).具体结果如图 18所示.
由图 18可以发现, 在原始宫颈癌组织病理学图像与生成图像数据配比为5:5时, 对于低分化图像识别的准确率、召回率及F1值均有明显上升; 当数据配比为6:4时, 对于低分化图像的召回率和F1值以及高分化图像的准确率有明显上升; 当数据配比为7:3时, 各项指标均有提升, 其中对于低分化图像识别准确率的提高较为明显; 当数据配比为8:2时, 各项指标均有明显提升, 增幅较大.在分类前对图像进行压缩处理, 虽然会丢失部分信息, 但是并不影响GAN生成图像的质量, 压缩图像并不会对图像分类结果造成影响.综上所述, 在加入生成图像数据进行训练后, 能较稳定地提高其对于低分化宫颈癌组织病理学图像的分类准确率.
4 结语本文以宫颈癌组织病理学图像为研究对象, 为计算机辅助诊断提供了一种使用计算机扩充数据量的新方法.在实验中, 通过CNN迁移学习的图像分类任务对生成图像的性能进行了验证, 发现在训练集中加入生成图像能够有效提高模型对图像的分类效果, 尤其对低分化宫颈癌组织病理学图像,识别效果有稳定的提升.
[1] |
Arbyn M, Castellsague X, De Sanjose S, et al. Worldwide burden of cervical cancer in 2008[J]. Annlas of Oncology, 2011, 22(12): 2675-2686. DOI:10.1093/annonc/mdr015 |
[2] |
卞美璐, 刘树范. 子宫颈疾病的诊治[M]. 北京: 科学技术文献出版社, 2001. (Bian Mei-lu, Liu Shu-fan. Diagnosis and treatment of cervical diseases[M]. Beijing: Scientific and Technical Literature Publishing House, 2001.) |
[3] |
Sukumar P, Gnanamurthy R K. Computer aided detection of cervical cancer using pap smear images based on adaptive neuro fuzzy inference system classifier[J]. Journal of Medical Imaging & Health Informatics, 2016, 6(2): 312-319. |
[4] |
Loh B C S, Then P H H. Deep learning for cardiac computer-aided diagnosis:benefits, issues & solutions[J]. Mhealth, 2017, 3(10): 45. |
[5] |
李连捷, 宋金英. 食管癌计算机辅助诊断中医学图像的量化与数据处理[J]. 河北医科大学学报, 1996(1): 23-25. (Li Lian-jie, Song Jin-ying. Quantification and data processing of medical images in the process of computer aided diagnosis for esophageal cancer[J]. Journal of Hebei Medical University, 1996(1): 23-25.) |
[6] |
Ding H Y, Sun Y G, Tian D T. Computer-assisted cervical smears screening technology review[J]. International Journal of Biomedical Engineering, 2000(2): 85-90. |
[7] |
Zhao Y H, Hong Y L, Sun C J, et al. Segmentation for cervical cancer cell based on k-means clustering algorithm[J]. Clinical Medical Engineering, 2014, 21(9): 1089-1090. |
[8] |
Ning Z Y, Luo W, Li Y, et al. Based on the feature of the nucleus of cervical cancer cell image identification and classification[J]. Automation and Instrumentation, 2016(10): 197-199. |
[9] |
Wied G, Bartels P, Bahr G, et al. Taxonomic intra-cellular analytic system(TⅡCAS) for cell identification[J]. Acta Cytologica, 1968, 12(3): 180-204. |
[10] |
齐守良, 张波, 李萌, 等. 基于图论的分裂型人格障碍多加权脑结构网络研究[J]. 东北大学学报(自然科学版), 2019, 40(8): 1093-1098. (Qi Shou-liang, Zhang Bo, Li Meng, et al. Graph theory based study on multi-weighted structural brain network of schizotypal personality disorder[J]. Journal of Northeastern University(Natural Science), 2019, 40(8): 1093-1098.) |
[11] |
Szegedy C, Liu W, Jia Y, et al.Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition.Boston, 2015: 1-9.
|
[12] |
Xiao C W, Li B, Zhu J Y, et al.Generating adversarial examples with adversarial networks[C]//Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence.Stockholm, 2018: 3905-3911.
|
[13] |
Song Y, Zhang L, Chen S, et al.A deep learning based framework for accurate segmentation of cervical cytoplasm and nuclei[C]//The 36th Annual International Conference of the IEEE Engineering in Medicine & Biology Society.Chicago, 2014: 2903-2906.
|
[14] |
Purwanti E, Bustomi M A, Aldian R D.Applied computing based artificial neural network for classification of cervical cancer[C]//The 6th Conference of Indonesian Students Association in Korea.Daejeon, 2013: 4-7.
|
[15] |
Buja L. Netter's illustrated human pathology[M]. Beijing: People's Medical Publishing House, 2008.
|
[16] |
Macqueen J.Some methods for classification and analysis of multivariate observations[C]//Proceedings of Berkeley Symposium on Mathematical Statistics & Probability.Berkeley, 1965: 281-297.
|
[17] |
Alex K, Ilya S, Hg E.Imagenet classification with deep convolutional neural networks[C]//Proceedings of Neural Information Processing Systems.Lake Tahoe, 2012: 1097-1105.
|
[18] |
Goodfellow I J, Pouget-Abadie J, Mirza M, et al. Generative adversarial networks[J]. Advances in Neural Information Processing System, 2014, 3: 2672-2680. |
[19] |
Murphy K. Machine learning:a probabilistic perspective[M]. Cambridge: MIT Press, 2012.
|
[20] |
Szegedy C, Vanhoucke V, Ioffe S, et al.Rethinking the inception architecture for computer vision[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Las Vegas, 2016: 2818-2826.
|