广西师范大学学报(自然科学版) ›› 2021, Vol. 39 ›› Issue (5): 122-133.doi: 10.16088/j.issn.1001-6600.2020122801

• 研究论文 • 上一篇    下一篇

基于卷积神经网络的眼底图像配准研究

吴玲玉, 蓝洋, 夏海英*   

  1. 广西师范大学 电子工程学院,广西 桂林 541004
  • 收稿日期:2020-12-28 修回日期:2021-03-09 出版日期:2021-09-25 发布日期:2021-10-19
  • 通讯作者: 夏海英(1983—), 女, 山东聊城人, 广西师范大学教授, 博士。E-mail: xhy22@mailbox.gxnu.edu.cn
  • 基金资助:
    国家自然科学基金(61762014); 广西研究生教育创新计划项目(YCSW2020101)

Retinal Image Registration Using Convolutional Neural Network

WU Lingyu, LAN Yang, XIA Haiying*   

  1. College of Electronics Engineering, Guangxi Normal University, Guilin Guangxi 541004, China
  • Received:2020-12-28 Revised:2021-03-09 Online:2021-09-25 Published:2021-10-19

摘要: 传统眼底图像配准方法提取的特征点分布过于密集,导致配准图像无法准确对齐,而眼底血管分叉特征点具有分布稀疏和特征稳定等特性,能提高图像的配准精度和速度。因此,本文针对血管分割和分叉特征点提取,提出一个基于深度学习的眼底图像配准框架。这个框架由2个深度卷积神经网络组成:第一个是眼底血管分割网络SR-UNet, 其在U-Net的基础上融合通道注意力(SE)和残差块,用于分割血管去辅助提取特征点;第二个是特征点检测网络FD-Net,用于从血管分割图中提取分叉特征点。提出的配准模型在公共眼底配准数据集FIRE上进行实验,其特征点正确匹配率为90.03%,与较先进的算法进行对比,本文提出的算法在配准定量和视觉分析上都有较好的性能提升,具有较强的鲁棒性。

关键词: 眼底图像配准, 深度学习, 血管分割网络, 特征提取网络, U-Net

Abstract: The distribution of feature points extracted by traditional fundus image registration methods is too dense, which leads to the inaccurate alignment of the images to be registered images. And the retinal vessel bifurcation feature points have sparse distribution and stable features to improve the accuracy and speed of image registration. Therefore, this paper proposed a deep learning-based fundus image registration framework for vessel segmentation and bifurcation feature point extraction. This framework is composed of two deep convolutional neural networks. The first is the fundus blood vessel segmentation network SR-UNet, which combines channel attention (SE) and residual blocks on the basis of U-Net to segment retinal vessels to assist feature points extraction. The second is the feature point detection network FD-Net, which is used to extract bifurcation feature points from the vessel segmentation map. The proposed registration model is tested on the public fundus registration data set FIRE. The correct matching rate of the feature points is 90.03%. Compared with more advanced retinal image registration algorithms, the algorithm proposed has better performance and strong robustness both in registration quantitative and visual analysis.

Key words: retinal image registration, deep learning, vessel segmentation network, feature point detection network, U-Net

中图分类号: 

  • TP18
[1] MITCHELL P, LIEW G, GOPINATH B, et al. Age-related macular degeneration[J]. The Lancet, 2018, 392(10153): 1147-1159. DOI:10.1016/S0140-6736(18)31550-2.
[2] FU H Z, WANG B Y, SHEN J B, et al. Evaluation of retinal image quality assessment networks in different color-spaces[C] // Medical Image Computing and Computer Assisted Intervention-MICCAI 2019: LNCS Volume 11764. Cham: Springer Nature Switzerland AG, 2019: 48-56. DOI:10.1007/978-3-030-32239-7_6.
[3] 陈丹华. 彩色眼底视网膜图像配准算法研究[D]. 桂林: 广西师范大学, 2019.
[4] 张娟. 医学图像配准中相似性测度的研究[D]. 广州: 南方医科大学, 2014.
[5] LEGG P A, ROSIN P L, MARSHALL D, et al. Improving accuracy and efficiency of mutual information for multi-modal retinal image registration using adaptive probability density estimation[J]. Computerized Medical Imaging and Graphics, 2013, 37(7/8): 597-606. DOI:10.1016/j.compmedimag.2013.08.004.
[6] 朱明, 姚强, 唐俊, 等. 超图约束和改进归一化互相关方法相结合的图像配准算法[J]. 国防科技大学学报, 2019, 41(3): 50-55. DOI:10.11887/j.cn.201903009.
[7] LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110. DOI:10.1023/B:VISI.0000029664.99615.94.
[8] 张欣鹏, 杜伟强, 肖志涛, 等. 结合SIFT变换与Otsu匹配的彩色眼底图像拼接方法[J]. 计算机工程与应用, 2017, 53(18): 176-181, 249. DOI:10.3778/j.issn.1002-8331.1604-0243.
[9] 孙华魁. SIFT方法在医学图像配准中的应用研究[D]. 济南: 山东大学, 2015.
[10] BAY H, TUYTELAARS T, Van GOOL L. SURF: speeded up robust features[C] // Computer Vision - ECCV 2006: LNCS Volume 3951. Berlin: Springer, 2006: 404-417. DOI:10.1007/11744023_32.
[11] 罗天健, 刘秉瀚. 融合特征的快速SURF配准算法[J]. 中国图象图形学报, 2015, 20(1): 95-103. DOI:10.11834/jig.20150110.
[12] CHEN J, TIAN J, LEE N, et al. A partial intensity invariant feature descriptor for multimodal retinal image registration[J]. IEEE Transactions on Biomedical Engineering, 2010, 57(7): 1707-1718. DOI:10.1109/TBME.2010.2042169.
[13] RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: an efficient alternative to SIFT or SURF[C] // 2011 IEEE International Conference on Computer Vision (ICCV 2011). Los Alamitos, CA: IEEE Computer Society, 2011: 2564-2571. DOI:10.1109/ICCV.2011.6126544.
[14] 杨炳坤, 程树英, 郑茜颖. 改进的ORB 特征匹配算法[J]. 传感器与微系统, 2020, 39(2): 136-139. DOI:10.13873/j.1000-9787(2020)02-0136-04.
[15] LEUTENEGGER S, CHLI M, SIEGWART R Y. BRISK: binary robust invariant scalable keypoints[C] // 2011 IEEE International Conference on Computer Vision (ICCV 2011). Los Alamitos, CA: IEEE Computer Society, 2011: 2548-2555. DOI:10.1109/ICCV.2011.6126542.
[16] RONNEBERGER O, FISCHER P, BROX T. U-Net: convolutional networks for biomedical image segmentation[C] // Medical Image Computing and Computer-Assisted Intervention-MICCAI 2015: LNCS Volume 9351. Cham: Springer International Publishing AG Switzerland, 2015: 234-241. DOI:10.1007/978-3-319-24574-4_28.
[17] YI K M, TRULLS E, LEPETIT V, et al. LIFT: learned invariant feature transform[C] // Computer Vision - ECCV 2016: LNCS Volume 9910. Cham: Springer International Publishing AG Switzerland, 2016: 467-483. DOI:10.1007/978-3-319-46466-4_28.
[18] MISHCHUK A, MISHKIN D, RADENOVIC F, et al. Working hard to know your neighbor′s margins: local descriptor learning loss[EB/OL]. (2017-05-30)[2020-12-28]. https:// arxiv.org/pdf/1705.10872.
[19] 陈向前, 郭小青, 周钢, 等. 基于深度学习的2D/3D医学图像配准研究[J]. 中国生物医学工程学报, 2020, 39(4): 394-403. DOI:10.3969/j.issn.0258-8021.2020.04.002.
[20] 姚明青, 胡靖. 基于深度强化学习的多模态医学图像配准[J]. 计算机辅助设计与图形学学报, 2020, 32(8): 1236-1247.
[21] DETONE D, MALISIEWICZ T, RABINOVICH A. SuperPoint: self-supervised interest point detection and description [EB/OL]. (2017-12-20)[2020-12-28]. https:// arxiv.org/pdf/1712.07629.
[22] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C] // 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Los Alamitos, CA: IEEE Computer Society, 2016: 770-778. DOI:10.1109/CVPR.2016.90.
[23] HU J, SHEN L, ALBANIE S, et al. Squeeze-and-excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8): 2011-2023. DOI:10.1109/TPAMI.2019.2913372.
[24] FRAZ M M, REMAGNINO P, HOPPE A, et al. Blood vessel segmentation methodologies in retinal images: a survey[J]. Computer Methods and Programs in Biomedicine, 2012, 108(1): 407-433. DOI:10.1016/j.cmpb.2012.03.009.
[25] TAN M X, LE Q V. EfficientNet: rethinking model scaling for convolutional neural networks[EB/OL]. (2019-05-28)[2020-12-28]. https:// arxiv.org/pdf/1905.11946.
[26] LU Z, PU H M, WANG F C, et al. The expressive power of neural networks: a view from the width[EB/OL]. (2017-09-08)[2020-12-28]. https:// arxiv.org/pdf/1709.02540.
[27] ZAGORUYKO S, KOMODAKIS N. Wide residual networks[EB/OL]. (2016-05-23)[2020-12-28]. https:// arxiv.org/pdf/1605.07146.
[28] HOWARD A G, ZHU M L, CHEN B, et al. MobileNets: efficient convolutional neural networks for mobile vision applications[EB/OL]. (2017-04-17)[2020-12-27]. https:// arxiv.org/pdf/1704.04861.
[29] HERNANDEZ-MATAS C, ZABULIS X, TRIANTAFYLLOU A, et al. FIRE: fundus image registration dataset[J]. Journal for Modeling in Ophthalmology, 2017, 1(4): 16-28.
[30] DECENCIÈRE E, ZHANG X W, CAZUGUEL G, et al. Feedback on a publicly distributed database: the Messidor databas[J]. Image Analysis & Stereology, 2014, 33(3): 231-234. DOI:10.5566/ias.1155.
[31] WANG G, WANG Z C, CHEN Y F, et al. Robust point matching method for multimodal retinal image registration[J]. Biomedical Signal Processing and Control, 2015, 19: 68-76. DOI:10.1016/j.bspc.2015.03.004.
[1] 陈文康, 陆声链, 刘冰浩, 李帼, 刘晓宇, 陈明. 基于改进YOLOv4的果园柑橘检测方法研究[J]. 广西师范大学学报(自然科学版), 2021, 39(5): 134-146.
[2] 杨州, 范意兴, 朱小飞, 郭嘉丰, 王越. 神经信息检索模型建模因素综述[J]. 广西师范大学学报(自然科学版), 2021, 39(2): 1-12.
[3] 邓文轩, 杨航, 靳婷. 基于注意力机制的图像分类降维方法[J]. 广西师范大学学报(自然科学版), 2021, 39(2): 32-40.
[4] 薛涛, 丘森辉, 陆豪, 秦兴盛. 基于经验模态分解和多分支LSTM网络汇率预测[J]. 广西师范大学学报(自然科学版), 2021, 39(2): 41-50.
[5] 唐熔钗, 伍锡如. 基于改进YOLO-V3网络的百香果实时检测[J]. 广西师范大学学报(自然科学版), 2020, 38(6): 32-39.
[6] 张明宇, 赵猛, 蔡夫鸿, 梁钰, 王鑫红. 基于深度学习的波浪能发电功率预测[J]. 广西师范大学学报(自然科学版), 2020, 38(3): 25-32.
[7] 李维勇, 柳斌, 张伟, 陈云芳. 一种基于深度学习的中文生成式自动摘要方法[J]. 广西师范大学学报(自然科学版), 2020, 38(2): 51-63.
[8] 刘英璇, 伍锡如, 雪刚刚. 基于深度学习的道路交通标志多目标实时检测[J]. 广西师范大学学报(自然科学版), 2020, 38(2): 96-106.
[9] 张金磊, 罗玉玲, 付强. 基于门控循环单元神经网络的金融时间序列预测[J]. 广西师范大学学报(自然科学版), 2019, 37(2): 82-89.
[10] 黄丽明, 陈维政, 闫宏飞, 陈翀. 基于循环神经网络和深度学习的股票预测方法[J]. 广西师范大学学报(自然科学版), 2019, 37(1): 13-22.
[11] 岳天驰, 张绍武, 杨亮, 林鸿飞, 于凯. 基于两阶段注意力机制的立场检测方法[J]. 广西师范大学学报(自然科学版), 2019, 37(1): 42-49.
[12] 余传明, 李浩男, 安璐. 基于多任务深度学习的文本情感原因分析[J]. 广西师范大学学报(自然科学版), 2019, 37(1): 50-61.
[13] 王祺, 邱家辉, 阮彤, 高大启, 高炬. 基于循环胶囊网络的临床语义关系识别研究[J]. 广西师范大学学报(自然科学版), 2019, 37(1): 80-88.
Viewed
Full text


Abstract

Cited

  Shared   
  Discussed   
[1] 陈春强, 邓华, 黄芳芳. 广西桂平锰矿区土壤重金属含量及形态分析[J]. 广西师范大学学报(自然科学版), 2014, 32(4): 108 -114 .
[2] 黄佳玉, 谈宇, 廖妤婕, 王维生, 王英辉. 丛枝菌根真菌对桉树吸收Cu和Zn的作用研究[J]. 广西师范大学学报(自然科学版), 2013, 31(2): 118 -122 .
[3] 李晖, 尹辉, 蒋忠诚, 杨奇勇, 王月. 典型岩溶区石漠化和土壤侵蚀遥感解译与关键问题[J]. 广西师范大学学报(自然科学版), 2013, 31(2): 133 -139 .
[4] 陈尤莺, 郑之, 孔祥增, 张胜元. 基于贝叶斯分类器的结肠癌数据分类[J]. 广西师范大学学报(自然科学版), 2011, 29(3): 187 -191 .
[5] 李昭梅, 李文琳, 孟安欣, 赵振池, 覃永富, 蓝海会, 卢慧金, 陈丽莎, 梁维刚, 沈洪涛. 古代字画加速器质谱14C测年研究[J]. 广西师范大学学报(自然科学版), 2019, 37(2): 38 -43 .
[6] 段化娟, 尉永清, 刘培玉, 周鹏. 一种面向不平衡分类的改进多决策树算法[J]. 广西师范大学学报(自然科学版), 2020, 38(2): 72 -80 .
[7] 张明宇, 赵猛, 蔡夫鸿, 梁钰, 王鑫红. 基于深度学习的波浪能发电功率预测[J]. 广西师范大学学报(自然科学版), 2020, 38(3): 25 -32 .
[8] 胥鹏, 李超峰, 常新威, 张延武. 固体碱催化水性酮醛树脂的合成[J]. 广西师范大学学报(自然科学版), 2020, 38(3): 70 -79 .
[9] 徐建闽, 韦佳, 首艳芳. 基于博弈论-云模型的城市道路交通运行状态综合评价[J]. 广西师范大学学报(自然科学版), 2020, 38(4): 1 -10 .
[10] 胡锦铭, 韦笃取. 分数阶永磁同步电机的广义同步研究[J]. 广西师范大学学报(自然科学版), 2020, 38(6): 14 -20 .
版权所有 © 广西师范大学学报(自然科学版)编辑部
地址:广西桂林市三里店育才路15号 邮编:541004
电话:0773-5857325 E-mail: gxsdzkb@mailbox.gxnu.edu.cn
本系统由北京玛格泰克科技发展有限公司设计开发