基于Harris-SIFT算法和全卷积深度预测的显微镜成像的三维重建研究
近年来,随着人工智能和机器视觉技术的快速发展,基于图像的三维重建方法越来越受到关注,但在面向显微镜应用领域,其主要应用于平面标本的观测,鲜有针对立体标本成像以及建模的显微设备。研发新一代智能显微设备的同时,开发出面向立体标本的三维模型重建和立体标本几何参数测量的技术具有重要意义。
作为机器视觉的热门方向,已有诸多方法和理论用于基于图像的三维重建,其中,运动恢复结构法(Structure from Motion,SfM)[
以上三维重建算法对拍摄设备要求较高,适用于对大场景成像的纹理等细节丰富的场景,而在实体显微镜应用场景中,由于显微镜工作环境、珠宝等立体标本在显微镜局部放大观测时存在弱纹理、细节不丰富和反光等问题,运用上述算法得到的三维重建效果并不理想。本文提出了一种适用于显微镜应用场景下基于特征提取的多视图立体三维重建算法。以基恩士VHX-6000高级体视显微镜作为实验平台,以集成电路板元器件或珠宝首饰作为实验对象,通过显微镜采集物体不同角度的图像序列(大于10张),对立体标本显微镜图像进行三维重建,取得较好效果。
2 相关工作
2.1 图像采集与预处理
显微镜具有高放大率和窄场的特点,对立体标本的图像采集往往只能获得物体较小的局部放大图像,所采集的显微图像包含的纹理信息较少属于弱纹理图像。因此,为了增强图像的细节信息和纹理信息以便后续过程可以提取到图像更多的特征信息,使用直方图均衡化方法增强图像的细节信息以使图像灰度分布更均匀[
图1 基恩士VHX-6000
Fig.1 KEYENCE VHX-6000
2.2 改进的Harris-SIFT匹配算法
特征点提取与匹配是基于图像三维重建算法的关键一步,特征提取与匹配的精度直接影响重建效果。Harris[
2.2.1 Harris角点检测
Harrs角点检测算法是利用移动的局部窗口在图像中计算灰度变化值,若在任意方向上移动都存在较大的灰度变化就认为该窗口中存在角点。通过设置合理的阈值来决定检测到的角点数。Harris角点检测变化如
图2 Harris角点检测变化
Fig.2 Change of Harris corner detection
窗口由像素点移动产生的灰度变化可以表示为:
(1) |
其中:是图像灰度函数,是窗口函数,将
(2) |
其中:,为自相关矩阵;,分别为像素点在方向和方向上的梯度值。
为了在显微图像中可能存在的弱纹理区域检测到尽可能多的特征点,对图像逐像素点计算灰度变化。使自相关矩阵的权重,则有,表示图像每个像素点在,方向的二阶偏导数和方向的导数的Hessian矩阵。从图像中提取到的角点可表示为:
(3) |
其中:为角点响应函数;为矩阵的行列式;为矩阵的迹;为常数(取值范围0.04~0.06),在本文实验中函数的局部极大值点即为特征角点,此时取。
通过
(4) |
(5) |
其中:为图像某像素处的灰度值与周围像素的灰度分布的综合特征,N为图像尺度,为图像二维熵,为像素灰度值。分别对图像中初步检测出的特征角点利用
2.2.2 生成SIFT特征描述子
Harris算法提取到特征角点,还需要采用SIFT算法来描述并建立特征向量。SIFT通过利用特征角点邻域像素的梯度方向分布特性为每个关键点指定方向参数,使算子具备旋转不变性。
(6) |
(7) |
其中:为处梯度的幅度,为处的梯度方向,为所有关键点的尺度。在特征点周围邻域内以尺度大小建立一个大采样区域,用式(
在本文实验中,SIFT首先将采样区域旋转至特征点方向上,然后在其周围的邻域内计算梯度方向和大小。然后在每个的采样窗口中计算个方向的梯度直方图,绘制每个方向的累加值,即可形成一个种子点。如
图3 SIFT描述特征点
Fig.3 SIFT description of feature points
2.2.3 特征匹配
为了提高对显微弱纹理图像的匹配精度,用马氏距离[
(8) |
(9) |
其中:,为两个特征向量,为两组特征向量的协方差矩阵,为均值。从
2.3 实体显微镜场景下物体的三维重建
2.3.1 稀疏点云重建
利用基恩士VHX-6000可变倍镜头可将智能显微镜镜头调整到一个固定的角度,然后上下、前后、左右等多方向移动载物台,从不同视角拍摄立体样本获得图像序列。本文采用如文献[
2.3.1.1 有序图像输入
由于增量SfM需要对所有图像依次进行匹配,用无序图像进行模型重建时由于图像的无序导致图像位姿的先验条件未知,在匹配环节存在多张图片之间的交叉匹配和多次交叉验证匹配点,所以计算量大,实时性差。为提高图像的匹配效率,采用有序图像序列作为输入。通常相邻拍摄的两张图像所包含的共同特征信息最多,也更加容易正确匹配。在采集图像时根据显微镜载物台移动的轨迹以及图像拍摄时间对所采集的物体不同视角图像添加标签,将图像根据载物台运行轨迹和时间的先后排列成一组顺序固定的图像序列(类似视频中的帧)。显微镜载物台工作距离较小,拍摄的相邻图片中两两之间物体信息的重合很多,包含的特征点信息最多;在特征匹配时使相邻的图片先进行特征匹配。在SfM算法选好初始的两张匹配图象时默认把与这两张图像相邻的图像作为下一最佳匹配图像进行重建,依次将与上一张图像邻近的图像作为下一最佳输入进行迭代,这样所有图像只需添加匹配一次即可完成所有图像的重建。
2.3.2 稠密点云重建
SfM重建得到的点云模型为稀疏点云,只有大致的模型结构,缺少了很多细节部分,所以还需要将稀疏点云进行稠密化。多视图立体(MVS)是一种将SfM输出的稀疏点云稠密化的方法,MVS重建利用SfM算法输出的稀疏点云、相机参数及相机位姿,然后融合图像的深度图获得物体的稠密三维点云。但对于显微镜工作场景下拍摄的物体局部存在弱纹理的图像,由于表面灰度信息有限,传统MVS方法图像深度信息估计误差较大。因此,针对上述在显微镜应用场景中的物体稠密重建问题,利用CNN网络与MVS结合的方法来估计和预测采集的显微图像的深度图,进而使用深度图进行稠密重建。
为保证模型收敛,本文采用文献[
用于预测图像深度的全卷积网络结构如
图5 深度预测网络结构
Fig.5 Depth prediction network structure
本文的研究旨在恢复显微镜应用场景中所拍摄物体的近似真实的三维结构。重建物体近似真实的三维结构是以正确估计图像深度为前提的。所以,为了尽可能正确地预测图像的深度信息,约束预测的图像深度值和真实值之间的误差。结合文献[
(10) |
其中:在图像处预测的深度值为,在图像处真实深度值为,图像包含的像素点数为,为常数。将预测深度图像素点的预测值和真实值之间的平均误差定义为损失,该损失函数对预测的深度值惩罚较严格,可以很好地减少显微镜载物台背景区域带来的深度误差影响,进一步约束了前景物体的深度误差。
3 实验结果与分析
本文的实验平台为基恩士VHX-6000高性能实体显微镜系统,以电子电路板上元件为实体标本采集的立体标本图像序列来验证本算法的可行性。实验PC平台配置为:系统为Ubuntu20.04.3LTS,CPU为英特尔Xeon E5-1630 V3,主频为3.70 GHz,内存为16 G,显卡为英伟达Quadro K2200,显存为4 G,硬盘为2 T固态硬盘。如
图6 电容的多视角图像
Fig.6 Multi-view image of capacitance
随机从拍摄的36张图像中选取2张图像进行图像匹配实验,选取的图片如
图7 选取的待匹配图像
Fig.7 Selected image to be matched
Matching algorithm | Img_L feature_point | Img_R feature_point | Matching_point | Matching_accuracy | Time/s |
---|---|---|---|---|---|
Harris | 1 403 | 1 372 | 1 057 | 80.61% | 6.02 |
SIFT | 1 786 | 1 631 | 723 | 91.53% | 11.64 |
Ours | 850 | 927 | 392 | 94.82% | 4.61 |
图8三种匹配算法实验结果
Fig.8Experimental results of three matching algorithms
可以发现,尽管其他算法能提取出较多的特征点,但本文算法在针对显微图像中弱纹理区域的匹配上具有明显优势。如
本文在稀疏重建环节改进了特征提取与匹配,将使用无序图像进行增量SfM重建改为使用有序图像重建。对
图9 稀疏点云重建
Fig.9 Sparse point cloud reconstruction
Algorithm | Num_image_matches | Time/min | Num_point_cloud |
---|---|---|---|
OpenMVG | 3 107 | 10.839 | 13 257 |
SFM | 3 057 | 11.146 | 14 088 |
Ours | 4 281 | 9.724 | 16 440 |
可以看到改进后的SfM重建结果具有更好的结构完整性,本文算法在电容壁处的弱纹理区域重建后的点云比较密集,本文算法相比SfM算法整体点云数量增加16.69%,相比OpenMVG算法重建时间节省了10.29%。
在使用本文深度预测网络模型进行深度预测前先对模型进行训练。本文使用基恩士-VHX6000超景深显微镜拍摄的宝石、电子元器件等不同颜色、形状、材质的立体标本的多视角显微图像构建的本地图像数据集,随机从中取出部分图像构成训练集和验证集,对深度预测网络进行监督训练。基恩士-VHX6000超景深显微镜具有3D测量功能可以同步扫描立体标本的深度信息生成深度图,即在拍摄立体标本多视角图像时可以同步扫描同一视角的深度图作为模型训练的输入图像,图像对应的深度图作为训练标签。模型的前半部分即卷积层部分使用ResNet50在公开数据集ImageNet[
图10 深度预测结果
Fig.10 Depth prediction result
通过以SfM稀疏重建阶段获得的物体稀疏点云和估计的场景几何参数为基础,用本文全卷积神经网络方法预测的图像深度和MVS估计的深度图相融合,以增强显微镜场景下对弱纹理区域的表征效果,重建出物体的稠密点云。将本文的稠密重建方法的重建效果与开源的三维建模系统COLMAP中的MVS方法相比较,估计的深度图如
图11深度图
Fig.11Depth map
图12 稠密重建后的点云
Fig.12 Densely reconstructed point cloud
在深度图估计方面,COLMAP中MVS方法估计出的深度图会受显微镜聚焦位置的影响,与场景中物体真实结构深度信息不一致。本文方法用全卷积神经网络预测的图像深度对MVS方法估计的深度图进行矫正,得到的深度图更加精确。在稠密点云方面,可以明显看到本文方法比COLMAP得到的稠密点云具有更好的结构完整性,在
Algorithm | RMSE | REL | LOG10 | Time/min | Num_point_cloud | SSIM |
---|---|---|---|---|---|---|
COLMAP | 2.396 | 0.121 | 0.073 | 12.335 | 560 012 | 0.64 |
Ours | 1.127 | 0.086 | 0.042 | 9.724 | 735 016 | 0.89 |
用均方根误差(VRMSE)、平均相对误差(VREL)和平均log10误差()这3种常见的预测评价指标验证本文使用的全卷积神经网络模型预测深度的精确性,表示为:
(11) |
(12) |
(13) |
其中:为第个像素点的真实深度,为个像素点的深度预测值,为图像像素点总数。可以发现与COLMAP的MVS算法相比,本算法在对包含了弱纹理区域的显微图像深度预测误差评价指标均更小。点云数目增加31.25%,整体重建时间节省了21.16%。
对重建得到的稠密点云进行模型化,使用泊松表面重建方法将点云网格化,用MeshLab软件对重建后的模型进行显示,实验结果如
图13泊松表面重建结果
Fig.13Poisson surface reconstruction results
(14) |
由
为了对本文算法的鲁棒性[
图14 鲁棒性测试
Fig.14 Robustness test
从
4 结 论
本文针对实体显微镜应用场景提出了一种对立体标本显微图像进行三维重建的算法。首先,将显微镜镜头固定角度,移动载物台拍摄立体标本的多视角图像,根据拍摄时间以及载物台移动坐标使得采集的图像为有序图像序列。然后,通过使用改进的Harris与SIFT相结合的特征提取与匹配算法,提升了算法对于立体标本显微图像在弱纹理区域特征信息的提取,提升了增量SfM算法性能,得到结构完整性更好的稀疏点云。最后,通过使用与深度残差网络相结合的全卷积神经网络对输入的图像进行深度估计和预测,将预测得到的深度信息通过阈值法与MVS深度图相融合,对MVS深度图进行修正,重建出物体的稠密点云,提升了重建结构完整性和点云数量。实验结果表明,本算法在显微镜应用场景下无需事先对显微镜镜头进行标定,只需固定显微镜镜头移动载物台采集立体标本的多视角图像进行重建。有效地解决了在显微镜观测场景下对立体标本局部放大观测时,存在的弱纹理区域三维重建效果不佳的问题。相比一些文献的方法,本文方法可以在实体显微镜应用场景下重建出物体结构完整性更好、更加稠密的三维点云,且具有很好的鲁棒性。
- 2025年中科院分区表已公布!Scientific Reports降至三区
- 官方认定!CSSCI南大核心首批191家“青年学者友好期刊名单”
- 2023JCR影响因子正式公布!
- 国内核心期刊分级情况概览及说明!本篇适用人群:需要发南核、北核、CSCD、科核、AMI、SCD、RCCSE期刊的学者
- 我用了一个很复杂的图,帮你们解释下“23版最新北大核心目录有效期问题”。
- 重磅!CSSCI来源期刊(2023-2024版)最新期刊目录看点分析!全网首发!
- CSSCI官方早就公布了最新南核目录,有心的人已经拿到并且投入使用!附南核目录新增期刊!
- 北大核心期刊目录换届,我们应该熟知的10个知识点。
- 注意,最新期刊论文格式标准已发布,论文写作规则发生重大变化!文字版GB/T 7713.2—2022 学术论文编写规则
- 盘点那些评职称超管用的资源,1,3和5已经“绝种”了