在目前的临床应用中,手术导航系统采用的空间配准方法多为基于点的刚性配准方法[1-2].在点配准方法中,医生可以使用人工标记物,也可以使用人体本身固有的解剖特征点进行图像空间与实际病人空间的配准.相关研究表明,基于人工标记物的配准精度要比基于解剖特征点的配准精度高[3].因此,基于人工标记物的点配准方法是现阶段临床应用最广泛的方法.
在基于点配准的手术导航系统中,人工标记物的选取精度对空间配准精度的影响很大[4-5].目前,在图像空间和实际病人空间中,标记物的选取均由系统的操作人员完成,选取的精度依赖于操作人员的经验.因此,若能在图像中自动识别人工标记物,则可以大大降低人为因素引起的误差[3].另外,临床上因为手术导航系统的应用而增加的手术时间主要是反复选取标记物的时间,对新医生进行培训的重点内容之一也是如何准确快速选取标记物.因此,人工标记物的自动定位可以提高手术导航系统的智能性,缩短手术准备时间,加快新医生的学习速度.
现阶段已经有一些自动分割人工标记物的研究工作.例如,Wang等提出了一个自动识别颅骨置入性标记的方法[6];Chen等提出了一种基于边缘检测的曲线识别的方法[7].但这些方法标记物在图像中必须有固定的CT值.Tan等提出了一种基于序列模板的标记物识别方法[8],但这种方法要求标记物与皮肤的边界必须连续,否则将无法准确检测到标记物.Gu等提出了一个基于三维形态学运算的标记物识别方法[9],但没有临床真实数据进行验证.Wang等提出了一种基于形状指数和曲率的标记物分割方法[3],但这种方法容易受噪声影响.
在本实验中,标记物分割是基于肺穿刺手术导航系统进行的.首先找出断层图像中的可疑标记物,然后根据标记物在胸部图像中的序列特性,对疑似标记物进行筛选,得到正确标记物.
1 实验材料和方法选用的人工标记物材料在CT图像中应能够清晰成像,而且具有明显的、肉眼容易识别的形状特征.本实验使用的是手术导航通用的美国IZI Medical Product公司生产的人工标记物,型号为MM3005.这种标记物可以在CT中清晰成像,外部圆环半径为15 mm,内部圆环半径为5 mm,厚度为3.5 mm,可以很好地粘贴在人体皮肤表面.标记物如图 1所示.
实验主要分为两个步骤:第一步使用自适应区域生长算法对图像进行分割,判断出疑似标记物;第二步使用人工标记物在胸部CT图像的序列特性对疑似标记物进一步筛选,得到正确的标记物.具体实现如下.
1.1 标记物初分割首先,对CT图像进行预处理,得到疑似标记物,流程如图 2所示.
CT图像以不同的CT值来表示,以此反映器官和组织对X射线的吸收程度.人体不同组织的CT值不同,黑影表示低吸收区,即低密度区,如肺部;白影表示高吸收区,即高密度区,如骨骼.如图 3所示,骨和软组织的CT值相差很大,而标记物的CT值范围高于骨密质CT值范围并有部分重叠.因此,先采用单阈值分割方法将胸腔内CT值小于1 000HU的器官和组织去除,以此来减少后续处理的计算量,分割结果如图 4b所示.
由于椒盐噪声和标记物都属于高CT值部分,为了降低椒盐噪声对标记物分割的影响,采用3×3中值滤波器去除噪声,如图 4c所示.
对去噪后图像的高CT值部分选取种子点,利用自适应三维区域生长的方法将疑似标记物初分割出来.分割结果如图 4d所示.
1.2 基于标记物序列特性的分割由于标记物与骨骼的CT值都比较大,如图 3所示,通过上面的初分割后,会有一部分骨骼也被误分割出来,如图 4d所示.接下来根据标记物在胸部CT图像中的序列特性,对疑似标记物进行筛选,得到正确标记物.
1.2.1 标记物的序列特性原理本实验基于人体胸部CT数据,标记物均贴在病人的胸部或背部.如图 5所示,XY轴所在平面总是与CT扫描平面平行或者近似平行,CT扫描平面沿Z轴方向移动.
实验所用CT图像层厚为1 mm,而人工标记物外部半径为15 mm,所以扫描一个标记物约15幅图像.若每隔1幅截取一幅标记物图像,共8幅图像,如图 6所示.
由于标记物为圆环柱体,当扫描面开始经过标记物时,图像先呈现一块标记物切面;当扫描面沿着Z轴移动,开始切割标记物内环时,图像呈现两块标记物切面;最后,当扫描面移出标记物内环时,图像中又呈现一块标记物切面.所以,对所有标记物而言,整个扫描过程图像分为两种情况:包含一块标记物切面或两块标记物切面,分别定义为A特性和B特性(其他情况记为C特性).那么图 6所示的标记物图像用序列可以表示为A, A, A, B, B, A, A, A,当字母连续重复出现时合并为一个,如将“AAA”合并为一个“A”,即标记物的序列特性为ABA.而事实上,所有贴在胸背部的标记物均符合这样的特性.
1.2.2 算法实现若标记物初分割后共得到n个疑似标记物.定义Ei(i=1, 2, …, n)为第i个疑似标记物的三维数据体;Ei(x, y, zk)(k=1, 2, …, d)为第i个疑似标记物沿Z轴方向的第k层,d表示该疑似标记物共有d层.根据标记物序列特性的原理,需要统计每层图像标记物的切面数,利用区域生长的方法对每层图像进行处理.如果第i个疑似标记物在第k层图像中呈现两块标记物切面,则对应数据Ei(x, y, zk)存在两块像素数据,共需要两次8-邻域区域生长运算才能将该层数据全部生长出来,所以由区域生长次数即可以判断疑似标记物在该层的切面数,由此可以得出该层属于A特性、B特性或C特性.
算法具体实现的流程如图 7所示.
具体实现的步骤和细节如下:
1) 选定第i个疑似标记物Ei;
2) 对第i个疑似标记物的每层数据Ei(x, y, z1), Ei(x, y, z2), …, Ei(x, y, zd)分别作8-邻域区域生长运算,得出生长次数和特性,组成序列串S,当S中的特性字母连续重复出现时,合并为一个;
3) 判断序列串S是否满足标记物的序列特性ABA,若符合,则判断第i个疑似标记物为正确标记物,否则为错误标记物;
4) i=i+1,重复步骤1)~3)直至所有疑似标记物判断完毕.
经过上述过程处理后,能准确筛选和识别出所有标记物,结果如图 8所示.
为了验证本实验的算法,对30组临床CT图像数据标记物进行检测实验.图像的分辨率为0.625 mm×0.625 mm×1.0 mm,图像大小为512×512,每组数据有6个标记物.实验结果表明,30组数据中的180个标记物全部正确识别出来.
由于标记物用于手术导航系统,分割的准确性对导航的精度有很大影响.为了进一步判断本方法的精确程度,将自动分割的像素点与手动分割的像素点对比,并计算像素点的重合率:
其中:A为自动标记物分割的像素点;B为手动标记物分割的像素点.
首先从30组胸部CT数据中随机抽取5组,即共30个标记物,进行自动标记物分割和手动标记物分割,然后计算像素点的重合率来验证识别率,结果如图 9所示.
可以看出,在30个标记物中,手动分割与自动分割像素重合率高于98%的有4个,占13.3%;重合率高于97.0%的有12个,占40.0%;重合率高于96%的有22个,占73.3%;重合率高于95%的有29个,占96.7%;重合率高于94%的有30个,占100%.具有很高的准确性.
此外,在肺穿刺手术导航平台中,规定标记物中心坐标的误差小于0.6 mm[8].所以从30组胸部CT数据中再次随机抽取5组,共30个标记物,自动分割所获得的物理中心坐标与手动分割的中心坐标比较,如表 1所示.
在30个标记物中,中心坐标误差最大为0.22 mm,最小为0.02 mm,完全满足肺穿刺手术导航中标记物中心点坐标的误差要求.
3 结论通过基于序列特性的标记物自动分割算法能快速识别胸部标记物并得到中心坐标.在肺穿刺手术导航平台中,该方法保证高精度同时缩短了手术准备时间,减小了人为误差.
由于标记物在人体胸、背部与其他部位的序列特性不一定相同,所以该方法目前只适用于对胸、腹部或者背部粘贴标记物的手术导航系统.
[1] | Zitova B, Flusser J. Image registration methods:a survey[J]. Image & Vision Computing , 2003, 21 (11) : 977–1000. |
[2] | Woerdeman P A, Willems P W, Noordmans H J, et al. Application accuracy in frameless image-guided neurosurgery:a comparison study of three patient-to-image registration methods[J]. Journal of Neurosurgery , 2007, 106 (6) : 1012–1016. DOI:10.3171/jns.2007.106.6.1012 |
[3] | Wang M, Song Z.Automatic detection of fiducial marker center based on shape index and curvedness[C]//Medical Imaging and Augmented Reality.Berlin:Springer, 2008:81-88. |
[4] | Ji S, Roberts D W, Hartov A, et al. Intraoperative patient registration using volumetric true 3D ultrasound without fiducials[J]. Medical Physics , 2012, 39 (12) : 7540–7552. DOI:10.1118/1.4767758 |
[5] | Dang H, Otake Y, Schafer S, et al. Robust methods for automatic image-to-world registration in cone-beam CT interventional guidance[J]. Medical Physics , 2012, 39 (10) : 6484–6498. DOI:10.1118/1.4754589 |
[6] | Wang M Y, Maurer C R, Fitzpatrick J M, et al. An automatic technique for finding and localizing externally attached markers in CT and MR volume images of the head[J]. IEEE Transactions on Biomedical Engineering , 1996, 43 (6) : 627–637. DOI:10.1109/10.495282 |
[7] | Chen D G, Tan J, Chaudhary V, et al. Automatic fiducial localization in brain images[J]. International Journal of Computer Assisted Radiology & Surgery , 2006, 1 (6) : 45–47. |
[8] | Tan J, Chen D G, Chaudhary V, et al. A template based technique for automatic detection of fiducially markers in 3D brain images[J]. International Journal of Computer Assisted Radiology and Surgery , 2006, 1 (6) : 47–49. |
[9] | Gu L, Peters T. 3D automatic fiducial marker localization approach for frameless stereotactic neuro-surgery navigation[J]. Lecture Notes in Computer Science , 2004, 3150 : 329–336. DOI:10.1007/b99698 |