手机版
您的当前位置: 多文范文网 > 专题范文 > 公文范文 > 视网膜眼底图像黄斑中央凹检测算法综述

视网膜眼底图像黄斑中央凹检测算法综述

【摘  要】中央凹在人类视网膜中的地位至关重要,对于视网膜疾病的判断起着关键作用。因此,在医学领域,对于中央凹的检测需求日益增长,对其定位也成了计算机视觉领域一个热门话题。本文详细地分析了中央凹的检测算法,包括了基于先验知识的算法、基于模型匹配的算法、基于特征提取的算法、基于神经网络的算法,并且比较了不同算法的优缺点。最后提出了展望。

【关键词】黄斑中央凹检测;眼底图像

【中图分类号】TP391.41      【文献标识码】A      【文章编号】1672-3783(2019)07-0269-02

1 引言

視网膜中央有个很小的区域叫黄斑,黄斑中央有个更小的区域叫中央凹,而这个小小的区域集中了绝大多数的视锥细胞(Cone Cells),负责视力的高清成像。它是视网膜上最重要的区域之一,是临场医学关注的重点。

中央凹的位置对于各种疾病诊断发挥着巨大的作用,因此成为了医学图像处理的热点。针对中央凹位置的检测算法可分为基于先验知识的算法、基于模型匹配的算法、基于特征提取的算法、基于神经网络的算法。本文列举了各类算法的检测原理和检测过程,分析了其优点与不足,最后提出了展望。

2 眼底图像中央凹检测算法

2.1  基于先验知识的眼底图像中央凹检测算法

Chanjira,Sinthanayothin等人介绍的方法分析了中央凹在彩色眼底图像中的强度差异,中央凹被认为是最暗的区域,其光强度与血液大致相同。他们提出用强度模板匹配的技术定位中央凹,如果最大响应的位置同时也是OD中心直径的2.5倍,则把该最大响应的位置作为中央凹位置,该算法在112张眼底图像上达到的精度为99.1%。

L. Gagnon等人利用金字塔分解的多尺度方法先定位了视觉神经头OD,然后基于眼睛解剖学的几何标准(黄斑位置和相对于OD的距离是相对恒定的),在特定范围内寻找原始分辨率最暗的像素,将该像素作为黄斑中央凹的中心。该方法在40幅眼底图像上的中央凹检测精度为95%。

由于数量的限制,本文认为以上精度并不能反映所有的情况,尤其是在有疾病的眼底图像上,灰度差异不足以将中央凹与其他区域区分开来。由于考虑的先验的不足,有很多被认为正确的检测结果,其位置离精确的中央凹中心也存在着一定的距离差距。

2.2基于几何模型匹配的眼底图像中央凹检测算法

Huiqi Li等人利用主成分分析先定位了视觉神经头OD,然后提出了一种改进的主动形状模型(ASM)检测OD的边缘以及主要的血管,在此基础上建立了极坐标眼底坐标系,该坐标系定义了中央凹的候选区,然后通过阈值的方法定位中央凹。该方法在35幅眼底图像上进行试验,精度为100%。

上述方法建立在检测视觉神经头和血管的基础上,但在有些情况下,视觉神经头并不能有效的定位,OpasChutatape等人提出了一种改进方法,利用改进的ASM方法检测血管,利用最小二乘法拟合抛物线血管轨迹,直接利用抛物线模型在特定区域内寻找暗区的方法确定中央凹。该方法较为简单快速,减少了对视觉神经头的依赖,在35张图像上进行了实验,有三幅图像的实验结果稍有偏差。

同样的,Kenneth W. Tobin等人也使用了抛物线模型拟合血管,将中央凹定义为离抛物线中心2.5OD的位置上。这种方法在345张眼底图像上的精度为92.5%。此外他们的实验显示,该方法显示在视网膜中央静脉阻塞的图像和湿性AMD患者的图像中表现不够理想。

M.Niemeijer等人构建了一个16个点的点分布模型,通过构造成本函数,优化成本函数的方式确定最终中央凹的位置。这是一种有监督的学习方式,他们将1000张图像分为500张图像的训练集和500张图像的测试集。测试集的精度为94.4%。该方法的特点是将中央凹、视觉神经头、血管弓的位置相联系,然而当视觉神经头或者血管弓的位置产生错误的时候,中央凹的位置也会发生错误。

Alan D Fleming等人使用椭圆模型对主要的视网膜血管进行建模,并根据视盘的圆形边缘和中央凹的暗特征进行细化,利用椭圆模型确定中央凹的位置。该方法依赖于血管的增强技术,需要高精度的血管分割。在1056张眼底图像上达到了96.6%的精度。

以上方法均为根据OD或者血管建立模型确定中央凹搜索范围或者中央凹位置的方法,这些方法对OD定位和血管分割有较高的依赖,而OD定位和血管的分割在疾病情况下也是非常困难的任务,因此这些方法都有一定的局限性,鲁棒性不高。

2.3基于特征抽取的眼底图像中央凹检测算法

MeindertNiemeijer等人提出了一种基于kNN回归的视网膜彩色眼底图像检测黄斑中心凹的方法。他们将视网膜上结构的定位问题定义为回归问题,他们使用KNN回归器测量图像中到任何给定位置的感兴趣对象的距离,使用的是在该位置提取的一组特征(包括血管数量,血管平均宽度,血管宽度的标准差等)。一个局限是他们提取的特征仍需要用到血管信息,这种方法在500张正常眼睛的彩色眼底图像上的准确率为96.8%,在100张有严重病变的眼睛中的准确率为89%。该方法给出了最终定位的距离误差不超过10个像素。

Huajun Ying等人提出了一种简单鲁棒的无监督方法,这种方法能够区分以视盘为中心还是以中央凹为中心的眼底图像,在区分了两种不同形式图像的基础上,根据血管的宽度和密度,绘制血管图,形成血管拓扑图(VTM),利用血管拓扑图确定中央凹的搜索区域,在搜索区域提取3个反应像素周围血管存在的特征确定该像素是否属于中央凹。该方法也建立在血管分割的基础上,并且受到一些视网膜病变例如硬性渗出物或者Drusen的影响。

Gegundez-Arias等人通过已知的先验和解剖特征,通过特征抽取的方法定位包含中央凹的子图像。然后提出了一种基于灰度值准则的多阈值分割方法用于计算中央凹的中心。实验数据包含1200张眼底图像,其中600张是DR患者的眼底图像。实验的精度按照OD的半径的倍数表示,误差在1倍半径以内的正确率均在90%以上。

通过特征抽取的方法确定中央凹位置一定程度上摆脱了OD的定位和血管的分割精度的束缚,算法的鲁棒性得到了提高,但提取特征成为了决定精度的重要因素,有的特征提取仍有一定的难度,而神经网络的引入一定程度上克服了人工抽取特征的困难。

2.4  基于神经网络的眼底图像中央凹检测算法

SumanSedai等人利用全卷积神经网络设计了双阶段的中央凹检测算法,在第一阶段粗分割用于检测中央凹的位置,再通过一个精细分割中央凹的全卷积神经网络精确定位中央凹的位置。然后使用来自第一阶段的位置信息在第二阶段执行中心凹区域的细粒度分割。算法在400张眼底图像上进行了验证,距离误差为14±7像素。网络结构使用的是具有跳跃连接的全卷积神经网络,这种方法的优势是不需要任何临床先验如OD和血管几何等

Baidaa Al-Bander等人设计了一种深层多尺度序列卷积神经网络。网络框架分为阶段,第一阶段输入为经过血管增强的眼底图像,输出为粗略的OD和中央凹的中心位置,分别以这两个位置为中心裁剪两倍OD半径为半径的区域作为第二阶段的输入,最后分别得到精确的中央凹和视觉神經头OD的位置。该算法具有很高的时间效率,平均每幅图像的运行时间为0.007秒。在两个公共数据库共1200幅图像上的运行精度分别为96.6%和95.6%。

Maria Ines Meyer等人使用全卷积神经网络进行了多任务学习同时分割了中央凹和视觉神经头,他们利用每个像素到OD和中央凹的距离构造距离地图,将距离地图作为标签使用FCN做回归。这一算法的优势是,即利用了神经网络的优势,又考虑了OD和中央凹的位置关系。所达到的精度是目前最高的。

以上算法达到很高精度得益于深度学习的快速发展。尽管深度学习在精度和性能上比传统方法的表现都要优异,但其需要大量的训练数据,一个局限在于医学图像的小样本性不足以让网络学到足够的信息,这限制了计算精度的进一步提高。深度学习的黑盒模型也影响了算法的进一步改进。

3 总结与展望

本文总结了视网膜眼底图像黄斑中央凹检测的算法,并比较了各个算法的优缺点。

随着医疗水平的不断提高,医护人员对视网膜的了解也逐渐增强,这代表着更多的先验知识将被应用于检测算法之中。同时,随着硬件技术的不断发展,高质量的成像设备将为后续的检测提供更加清晰的数字图像。而且伴随着人工智能、深度学习等算法的逐渐成熟与发展,中央凹的检测将会更加的高效、达到更高的精度。

参考文献

[1] A. D. Fleming, K. A. Goatman, S. Philip, J. A. Olson, and P. F. Sharp, “Automatic detection of retinal anatomy to assist diabetic retinopathy screening,” Phys. Med. Biol., vol. 52, no. 2, pp. 331–345, 2007.

[2] M. Niemeijer, M. D. Abràmoff, and B. van Ginneken, “Fast detection of the optic disc and fovea in color fundus photographs,” Med. Image Anal., vol. 13, no. 6, pp. 859–870, 2009.

[3] J.-C. L. Huajun Ying, “AUTOMATED LOCALIZATION OF MACULA-FOVEA AREA ON RETINA IMAGES USING BLOOD VESSEL NETWORK TOPOLOGY Department of Computer Science , Texas A & M University College Station , TX , USA , 77843-3112,” Ieee, pp. 650–653, 2010.

[4] M. E. Gegundez-Arias, D. Marin, J. M. Bravo, and A. Suero, “Locating the fovea center position in digital fundus images using thresholding and feature extraction techniques,” Comput. Med. Imaging Graph., vol. 37, no. 5–6, pp. 386–393, 2013.

多文范文网 https://www.zzhangzheng.com

Copyright © 2009-2022 . 多文范文网 版权所有 备案号:冀ICP备09028588号-2

Top