论文摘要
针对人工判别胃癌病理图像对专业知识要求较高且费时费力的问题,提出一种基于深度学习的分割算法对胃癌病理图像的病变区域进行自动分割,为病理医生的工作提供更有依据的诊断指导。在已有的U-Net模型基础上,提出一种基于多尺度输入与特征融合的多输入融合网络(MIFNet)模型,通过对不同输入尺度特征进行自动提取和融合以实现对胃癌病理图像中病变区域的自动分割。多尺度输入数据能够帮助模型更有针对性地捕捉图像的局部和全局特征,特征融合策略能够兼顾模型对全局特征与局部特征的关注。在中国大数据人工智能创新创业大赛的"病理切片识别AI挑战赛"数据集上的实验结果显示,MIFNet在测试中的dice系数达到了81.87%,比U-Net和SegNet等模型提高了10%以上,模型的参数规模也大大下降。所以说,MIFNet模型在提高分割的准确度以及节省计算资源等方面都取得了更好的效果。
论文目录
文章来源
类型: 期刊论文
作者: 张泽中,高敬阳,赵地
关键词: 多输入融合网络,多尺度输入,特征融合,胃癌病理图像,图像分割
来源: 计算机应用 2019年S2期
年度: 2019
分类: 信息科技,医药卫生科技
专业: 肿瘤学,计算机软件及计算机应用,自动化技术
单位: 北京化工大学信息科学与技术学院,中国科学院计算技术研究所
基金: 国家重点研发计划项目(SQ2017ZX106047),北京市自然科学基金资助项目(5182018),北京市自然科学基金重点项目(4161004),北京市科技计划项目(Z171100000117001,Z161100000216143)
分类号: R735.2;TP391.41;TP18
页码: 107-113
总页数: 7
文件大小: 1625K
下载量: 211