局部方向二值模式结合协同表示的3D掌纹识别
随着社会科技水平的发展,信息安全已是当今社会面临的一个重大难题。在银行、刑侦、门禁、商场、车站和机场安检等应用场景中,基于生物特征的模式识别由于其可靠性和准确性受到越来越多的关注[
目前掌纹识别方法主要包括2D和3D掌纹识别。在2D掌纹识别方面,Zhang等人[
与2D掌纹识别相比,3D掌纹识别解决了上述问题,还包括更丰富的特征信息。在目前流行的3D掌纹识别方法中,文献[
为了解决上述问题,充分利用掌纹的特征信息,本文采用形状指数来描述3D掌纹的几何结构,采用表面类型编码来表征3D掌纹的几何特征。另外,提出一种局部方向二值模式(Local Orientation Binary Pattern,LOBP)以提取掌纹的主方向和方向置信度[
2 相关原理
3D掌纹感兴趣区域(Region of Interest,ROI)可以清楚表达掌纹图像的特征信息,如
图1 3D掌纹图像ROI图像
Fig.1 ROI 3D palmprints
在信息采集过程中,掌纹图像往往会受到噪声的干扰而发生形变。均值曲率(Mean Curvature,MC)和高斯曲率(Gaussian Curvature,GC)作为描述曲面特征的内在几何不变量,其值与手掌在3D空间的位置、姿态等因素无关,只与手掌局部的固有形状相关。因此,通常用曲率来刻画3D掌纹图像的曲面特征。对于任意曲面,其高斯曲率和均值曲率都可定义如下:
(1) |
(2) |
式中:、是的一阶偏导,、是的二阶偏导,则是的混合偏导。
2.1 表面类型及其编码
为了将3D掌纹的曲面特性描述得更加具体,根据掌纹表面的凹凸性将手掌中的点分成不同的类型,即将一个曲面划分为8种基本类型[
GC>0 | GC=0 | GC<0 | |
---|---|---|---|
MC<0 | Peak (STC=1) | Ridge (STC=2) | Saddle Ridge (STC=3) |
MC=0 | None (STC=4) | Flat (STC=5) | Minimal Surface (STC=6) |
MC>0 | Pit (STC=7) | Valley (STC=8) | Saddle Valley (STC=9) |
最小表面的判定定义了趋于零值的区间域。对处于范围内的值,认为其或等于零值。
因此,通过上述步骤,每个3D掌纹ROI都可以获得其对应的ST图。作为一种3D特征,表面类型映射具有很强的分辨力,但对测试图像和训练图像之间的少量配准误差敏感,而基于分块的ST特征提取方法则解决了这一问题。如
图2 不同掌纹ROI及其对应的ST图像
Fig.2 Different palmprint ROI and its corresponding ST images
2.2 形状指数
为了更加完整地描述3D的细节信息,提出了形状指数[
(3) |
(4) |
形状指数根据和可以表示为:
(5) |
同时根据形状指数的取值范围,掌纹曲面可转化为8 bit的灰度图像,即为形状指数图像,具体公式见
(6) |
由
图3 3D掌纹的形状指数图及其特征直方图
Fig.3 Shape index diagram and characteristic histogram of three-dimensional palmprint
3 本文方法
3.1 局部方向二值模式
3.1.1 掌纹的主方向和方向置信度
在提取掌纹方向特征方面,通常是利用几组不同方向的直线检测器。本文利用Gabor滤波器来检测掌纹的主方向,该方法的公式如
(7) |
式中:,是单位长度的径向频率(单位:弧度),和分别是椭圆高斯沿轴和轴的标准偏差。将
(8) |
式中:表示方向为的Gabor滤波器的实部,“”是卷积算子,表示输入的掌纹图像,是Gabor模板和输入掌纹图像之间的对应卷积。所以定义掌纹的主方向为:
(9) |
掌纹的主方向可以最大程度表现掌纹的方向特征,其方向上的卷积也反映了掌纹方向的重要性和鲁棒性,所以将其方向上卷积响应的最大值,即作为3D掌纹主方向的置信度,公式如
(10) |
3.1.2 局部方向二值模式编码
由掌纹的主方向和方向置信度的内容可知,和反映了掌纹的方向特征。也就是说代表主方向,对应的则反映主方向的置信度。假设掌纹上的一条纹线,在划分局部区域后,有点的方向与该纹线的方向保持一致,也有点或因不在线上而导致主方向的差异。所以掌纹局部区域内的主方向关系可以反映掌纹方向的变化。即掌纹的主方向关系(Orientation Binary Pattern,OBP)可以定义为:
(11) |
式中:代表中心像素的主方向,表示其相邻像素的主方向。e()代表对中心像素的主方向与邻域进行比较。将周围域定义为(8,1)个域集,即将中心点与周围8个点进行比较。当等于时,为1,否则为0。基于掌纹主方向上卷积的最大卷响应,即。因此方向置信度的差(Confidence Binary Pattern,CBP)可以定义为:
(12) |
式中:和分别表示中心像素和相应相邻点的方向置信度。当>0时,为1,否则为0。与传统的局部二值模式(Local Binary Pattern,LBP)相比,CBP是卷积响应的结果,其结果更稳定,抗噪能力强。
由于掌纹的主方向和方向置信度具有高度相关的信息,因此将两者结合。具体来说给定一张掌纹图像,将其均匀地划分为一组不重叠的块,块的大小设置为16像素×16像素。对于每个块分别提取主方向和相应的置信度,进而分别计算特征直方图。然后,将基于块统计的OBP和CBP直方图结合,得到掌纹的全局直方图,定义为基于3D掌纹图像的LOBP特征。
图4 LOBP方法基本思想
Fig. 4 Basic idea of LOBP method
3.2 基于协同表示的掌纹分类
3.2.1 基于稀疏表示的分类方法
稀疏表示的思想[
SRC算法的具体步骤如下:
Step1:对训练集样本和测试集样本提取特征向量并对提取到的特征向量进行归一化操作,用1代替范数,同时获取训练集的字典矩阵和测试集的特征向量。
Step2:求解最小范数问题。
,使得 | (13) |
式中:表示与之间的编码误差。
Step3:计算类别残差。
(14) |
式中:为第类的编码系数矢量。
Step4:计算测试样本类别。
(15) |
将使最小的i所对应的类别作为测试集样本的类别,用表示。
3.2.2 基于协同表示的分类方法
协同表示[
CRC_RLS算法的具体步骤如下:
Step1:用表示第类掌纹的训练样本集,则第类训练样本可以定义为:
( | (16) |
式中:为第类掌纹的第个样本的特征向量,为特征向量的维度。
Step2:若表示一个测试样本的特征向量,则可以用训练样本集中的特征向量线性表示出,即,,其中为第类的编码系数矢量。
Step3:若成立,则测试样本的特征向量属于第类掌纹。当基于所有的训练样本协同表示测试集样本时,为了降低计算的复杂度,可以通过将稀疏表示思想中的求解范数问题替换成求解规则化最小二乘的问题,公式如下:
(17) |
Step4:与稀疏表示的方法相比,解
(18) |
式中:代表单位矩阵,令,则可以看出,与是相互独立的,相当于一个投影矩阵。
在对测试样本进行识别过程中,只需要将投影到上,就可以直接计算系数向量,进而得到,这种方法可以明显降低计算复杂度,从而缩短计算时间。
4 实验与分析
4.1 数据集及关键参数说明
本文的所有实验均是在香港理工大学3D掌纹库(Hong Kong Polytechnic University 3D palmprint database)上进行的。该掌纹数据库采集了200名志愿者的掌纹信息,包含男性136名,女性64名,年龄在10~55岁之间。共采集到8 000张3D掌纹图像,每名志愿者分别采集左、右两只不同手掌各10张掌纹图像,共计采集两次,期间间隔为30天。在图像预处理以后,目前每张3D掌纹图像的ROI大小为像素。本实验平台的硬件规格为Windows 10系统,中央处理器为AMD Ryzen 3 4300U,主频为2.7 GHz,运行内存为8 GB。
4.2 分块方式实验
本文在进行掌纹的特征提取过程中,对掌纹的表面类型图像进行分块处理来提高识别率,图像被分成了若干个大小相同的子块,但是不同的分块方式对识别率有着不同的影响。为探究分块方式的有效性,将分块方式作为变量进行实验。实验处理过程参照
分块方式 | 识别率/% |
---|---|
11 | 76.69 |
22 | 78.33 |
33 | 80.45 |
44 | 86.93 |
55 | 90.58 |
66 | 93.98 |
77 | 97.95 |
88 | 99.29 |
99 | 99.16 |
1010 | 98.74 |
实验结果表明,当不对图像进行分块处理,即采用1×1的分块方式时,识别率为76.69%;随着分块数量的不断增加,识别率呈现上升趋势,当采用8×8的分块方式时,识别率最高可达到99.29%;而当分块继续增加时,识别率则呈现下降趋势,当采用10×10的分块方式时,识别率下降到98.74%。由此可见,当分块数量较大时,无法精确反映3D掌纹的纹理特征,故而有碍于识别过程;而当分块数量较小时,局部区域内包含的特征信息则会受限,不能表征掌纹图像的细节信息,造成识别效果不佳。因此,本文在综合考虑识别效果的情况下,选择8×8作为最佳分块方式。
4.3 特征有效性实验
为验证本文提出的ST和LOBP特征的有效性,以下实验均采用分块统计和基于协同表示的分类算法。当训练集样本个数从1增加到10时,分别提取OBP、CBP以及LOBP作为掌纹特征,
图6 OBP、CBP和LOBP的识别率。
Fig.6 Accuracy of OBP, CBP and LOBP, respectively.
图7 ST和LOBP结合的识别率
Fig.7 Accuracy combination of ST and LOBP
4.4 掌纹识别实验
为了验证方法的有效性,实验中分别选择各个类别样本数为1,2,3,4作为训练集,其余图像作为测试集。当选择每类样本数为时,则在掌纹图像中随机选择训练样本,不同样本数各运行10次并计算平均值。将本文方法与当前MCI_Comp[
N | MCI_Comp | MCI_Ordinal | MCI_GCI_ST | SI_Comp_LTP | ST_CR | ST_PCA | PDC | Proposed |
---|---|---|---|---|---|---|---|---|
1 | 87.16 | 83.12 | 80.99 | 82.84 | 90.51 | 93.76 | 94.41 | 95.53 |
2 | 94.90 | 93.09 | 92.09 | 93.46 | 95.10 | 98.69 | 98.74 | 99.04 |
3 | 96.86 | 93.86 | 95.06 | 95.33 | 97.83 | 99.18 | 99.32 | 99.44 |
4 | 98.75 | 97.95 | 97.50 | 97.42 | 98.36 | 99.39 | 99.48 | 99.55 |
4.5 CRC_RLS分类性能实验
为了验证CRC_RLS分类方法的优越性能,在解决基于范数最小化问题和协同框架的基础上,将本文方法与目前较为流行的分类方法进行比较,如SpaRSA、DALM、Homotopy,分别记作CR_L1_SpaRSA、CR_L1_DALM、CR_L1_Homotopy。将第1次采集到的10张掌纹图像作为训练集,第2次采集的10张掌纹图像作为测试集,在相同设备环境下,将3种对比方法和本文方法分别运行10次,并计算识别率及识别时间(包括训练和分类识别)的平均值列为
分类方法 | 识别率/% | 识别时间/s |
---|---|---|
CR_L1_SpaRSA | 98.94 | 52.463 7 |
CR_L1_DALM | 99.17 | 19.145 7 |
CR_L1_Homotopy | 99.22 | 1.334 8 |
Proposed | 99.29 | 0.874 9 |
从
5 结论
本文提出的局部方向二值模式结合协同表示的3D掌纹识别方法,不仅可以实现更高的识别精度,而且具有出色的识别效率。在特征提取方面,本文用ST来描述3D掌纹的几何特征,以满足几何特征表达的确定性和稳定性。本文提出局部方向二值模式的编码算法,用掌纹图像的主方向和方向置信度表达掌纹的方向特征,可以在最大程度上反映掌纹的方向及其变化趋势。通过CRC_RLS的分类方法,将ST和LOBP特征进行结合,有效地提高了算法的识别精度,降低了识别时间。在香港理工大学3D掌纹库上的实验结果表明:获得的平均识别率最高可达99.55%,平均识别时间为0.874 9 s。
- 2025年中科院分区表已公布!Scientific Reports降至三区
- 官方认定!CSSCI南大核心首批191家“青年学者友好期刊名单”
- 2023JCR影响因子正式公布!
- 国内核心期刊分级情况概览及说明!本篇适用人群:需要发南核、北核、CSCD、科核、AMI、SCD、RCCSE期刊的学者
- 我用了一个很复杂的图,帮你们解释下“23版最新北大核心目录有效期问题”。
- 重磅!CSSCI来源期刊(2023-2024版)最新期刊目录看点分析!全网首发!
- CSSCI官方早就公布了最新南核目录,有心的人已经拿到并且投入使用!附南核目录新增期刊!
- 北大核心期刊目录换届,我们应该熟知的10个知识点。
- 注意,最新期刊论文格式标准已发布,论文写作规则发生重大变化!文字版GB/T 7713.2—2022 学术论文编写规则
- 盘点那些评职称超管用的资源,1,3和5已经“绝种”了