基于粗糙集神经网络的图像分割技术研究
摘 要 神经网络用于分割图像时需要大量的训练数据,由于数据量大,计算速度相当慢,不适合实时数据处理。网络节点个数、网络层数等的设计还缺乏比较系统的理论指导。基于此,本文提出一种新的方法,即粗糙集神经网络图像分割方法。该方法利用粗糙集约减理论对分割后的图像区域特征进行约减,以降低特征向量维数,抽取出规则,然后根据这些规则构造神经网络隐含层的神经元个数,从而确定粗糙集神经网络的初始拓扑结构。粗糙神经网络中每个神经单元的输入为区域值,输出为决策分类值,此时权值由粗糙集上下近似客观得到的原始粗糙度得到,然后用BP算法迭代,得到最终的决策结果,即实现图像的分割。实验证明,该方法大大缩短了训练时间,提高了精度,并且得到优于常规的分割图像,满足图像处理的实时性要求。该方法为进行图像分割
提供了一个崭新的视角。 关键词 粗糙集 约减 等价类 粗糙集神经网络 图像分割
Research of Image Segmentation Technology Based on Rough Sets Neural Network
Abstract Neural Network for image segmentation need a lot of training data, calculation speed and at a very slow and not suitable for real-time data processing. Number of network nodes and network layers in the design of a lack of systematic theoretical guidance. Based on this, this paper proposes a new method that rough set neural network image segmentation. The method uses the theory of rough reduction to cut segmented image features about regional to reduce the dimension of feature vectors, extracted rules, then those rules construct ANN number of hidden layer neurons, in order to determine the initial rough neural network topology. Rough neural network modules each neuron input values for the region, and the output value for the classification decision, this time from the right rough set Approximate value of the original roughness to be objective, then BP iterative algorithm, the final decision finding that the image segmentation. The experiments show that this method greatly reducing the training time and improve the accuracy, but will also be superior to conventional image segmentation, image processing to meet the real-time requirements. The method for image segmentation with a new perspective.
Keywords rough set; reduction; equivalence class; rough sets neural network; image segmentation
1 引言
图像分割是图像处理到图像分析的关键步骤,
也是进一步图像理解的基础。所谓图像分割是指把图像分成各具特性的区域并提取出感兴趣目标的技术和过程。尽管如今已有多种图像分割算法,但是没有任何一种分割方法能够适用于所有的图像。本文将粗糙集和神经网络结合起来用在图像分割中,是一种新的尝试。
粗糙集理论是一种刻划具有不精确、不确定、不完整和不一致信息的全新数学工具,它可以从大量的数据中分析、推理、挖掘隐含知识及规律。神经网络具有很好的数值逼近能力和泛化能力,它能够处理定量、数值化的信息,较粗糙集处理数据而言,能够得出更精细的结果,但是当网络规模较大、样本较多时,训练过程变得复杂而且漫长,从而限制了神经网络使用化的推广。将粗糙集和神经网络结合起来,用粗糙集对输入信息进行预处理,也就是对训练集的选取。一般情况下,训练集往往会有很多冗余,神经网络用这样的训练集往往会造成过配现象,粗糙集分析可以过滤冗余的信息,从而提高神经网络的泛化能力。
本文用粗糙集神经网络进行图像分割,是基于粗糙集对图像区域特征进行的约减,以降低特征向量维数,抽取出规则,然后根据这些规则构造神经网络隐含层的神经元个数,从而确定粗糙集神经网络的模型。粗糙神经网络中每个神经单元的输入为区域值,输出为决策分类值,此时权值预设为各规则粗糙隶属度值,然后用BP算法迭代,得到最终的决策结果,从而实现图像的分割。
2 粗糙集理论
[1][2]
2.1 知识表达系统
粗糙集理论的要点是将知识与分类联系在一
起。知识被认为是一种对对象进行分类的能力,对象用其属性集合表示,分类用来产生概念,概念构成知识的模块,知识是由对象论域的分类模块组成的,它提供关于现实的明显的事实,同时也具有明显事实推导出模糊事实的推理能力。一个知识表达系统定义为:
S??U,C,D,V,f? 式中,U是对象的集合,
C?D?R是属性集合(等价关系集合),子集C
和D分别称为条件属性和结果属性,V??a?AVa是属性集的集合,Va表示了属性a?A的范围,f:
U?A?V是一个信息函数,它指定U中的每一
对象x的属性值。这种定义方式使对象的知识可以方便地以数据表格形式描述,这种数据表称为知识表达系统。
2.2 不可分辨关系和边界
为了便于数学推导,粗糙集理论中以等价关系代替分类。当用R表示论域U中对象之间的等价关系时,则U/R表示U中的对象根据关系R构成的所有等价类族。若P?R,且P??,则?P(P中全部等价关系的交集)也是一种等价关系,称为 P上的不可分辨关系,且记为ind(P):
[X]ind(P)??[X]R P?R
不可分辨关系是对象P由属性集表达时在论域U中的等价关系。它揭示出知识的颗粒状结构,而知识的粒度是造成使用已有知识不能精确地表示某些概念的原因。
粗糙集理论中的不确定性和模糊性是一种基于边界的概念,即一个模糊的概念具有模糊的边界。每一个不确定概念由一对称为上近似和下近似的精确概念来表示:设给定知识库,对于每个子集和一个等价关系,可以根据基本集合描述来划分集合:
R(?X)??{Y?U/R:Y?X} R(?X)??{Y?U/R:Y?X??} BN(RX)?R(?X)?R(?X) 式中,R(和R(??X)X)分别称为X的R下近似和上近似,BN(RX)称为X的R边界。集合的下近似是包含给定集合中所有基本集的集合,集合的上近似是包含给定集合元素中所有基本集的最小集合。显然,当BNR??时,X是一个不确定的概
念。
集合的不确定性是由于边界域的存在而引起的,集合的边界域越大,其精度性越底,粗糙集理论引入了粗糙度的概念。令card为该集合的基数,且X??,则将从U中划分的一个子集合X的不确定程度定义为粗糙度,即
?(Rx,X)?card([x]R?X)card([x]
R)2.3 知识约简
在一个决策系统中,各个条件属性之间往往存在着某些程度上的依赖或关联,约简可以理解为在不丢失信息的前提下,可以最简单地表示决策系统的决策属性对条件属性集合的依赖性或关联度。
对于一个给定的决策系统S,条件属性集合C的约简是C的一个非空子集C?,它满足:(1)ind(C?,{d})=ind(C,{d});(2)不存在 C???C?,使ind(C??,{d})= ind(C,{d})。
C的所有约简的集合记作REDD(C)。C的所有约简的交集叫作核(CORE),记作CORED(C), CORED(C)=∩REDD(C)。
根据约简和核的概念,粗糙集理论提供了分析多余属性的方法,对知识的处理是通过对决策表中的属性值的处理实现的。具体步骤如下:(1)删除重复的实例;(2)删除多余的属性;(3)删除每个实例多余的属性值;(4)求出最小约简;(5)根据最小约简,求出逻辑规则。
3 粗糙集神经网络模型
3.1 网络原理
粗糙集理论定义条件属性和决策属性间的依赖关系,即输入空间与输出空间的映射关系可通过
简单的决策表简化得到的[3]
,而且,通过去掉冗余属性,可以大大简化知识的表达空间维数,其决策表的简化又可以利用并行算法处理。神经网络完成输入空间与输出空间的映射关系是通过网络结构不断学习、调整,最后以网络的特定结构表达,没有显式函数表达,而完成并行处理却是神经网络的一大特长。因此,我们考虑将神经网络与粗糙集方法结合起来进行知识的简化的方法,该方法将粗糙集学习和神经网络学习结合起来,产生一个最小决策
推理网络[4]
。该方法原理如下:
最小决策规则实现 学习修正决策规则 决策规则实现网络 交换决策方案 粗集学习 神经网络学习 训练数据输入
图 1 网络结构原理 3.2 网络结构
[5]
本文设计的粗糙集神经网络共有四层。
第一层:输入层,它的值为实际的精确值,表示输入向量X?(x1,x2,?,xn)T。
第二层:隶属度函数层,分别将n个输入分量(x1,x2,?,xn)依照某种不可分辨关系进行划分,将每一个输入分量离散化为r个不同的值,这些值在[0,1]之间。可定义该层神经元的作用函数为Gauss函数:
??exp???xi?mij?2?ij??2?? (1) ??ij?i?1,2,?,n j?1,2,?,r,r为离散分割
数;mij为中心均值,?ij决定了其宽度。 第三层:推理层,该层的每个节点代表一条规则,这些规则是通过粗糙集理论得到的。假设有k(k?n)条规则,该层节点的作用函数为
n?i??1i?2i??ni???ji,1≤i≤k (2)
j?1第四层:清晰化层,这一层的节点代表输出变
量。在多输入单输出系统中,该层的节点数为1,权值wi的初始值预设为各规则粗糙隶属度值,该层节点的输出为:
y??wi?i (3)
i?1k其中,?为学习速率,?为修改步长的系数,
?为惯性系数(0???1)。
4 基于粗糙集神经网络的图像分割
x1x2y4.1 图像区域描述
xn第1层第2层第3层第4层
图 2 粗糙集神经网络的结构
3.3 学习算法
设误差函数为EP?1(y?Y)2,其中y为网2络实际输出,Y为期望输出。则学习过程中对mij,
?ij,wij的调整可以如下计算:
mij(n?1)?mij(n)????EP ???mij(n)?mij(n?1)? (4)
?mij?ij(n?1)??ij(n)???wij(n?1)?wij(n)????EP(5) ????ij(n)??ij(n?1)?
??ij?EP(6) ???wij(n)?wij(n?1)?
?wij图像区域常用区域内容和区域边界来表示。区域内容常通过颜色、纹理、矩等特征加以描述,而区域边界常用形状特征如圆形度、矩形度等来描述。
[6]
图3刻画了简单背景下的多个图像区域,其中区域2由区域1平移、缩放产生,区域4由区域3旋转、平移生成,区域6由区域5平移、旋转并缩放产生。
图 3 图像区域
本文依据粗糙集神经网络作为分类器的思想对区域进行划分,将图像区域匹配转化成图像区域类间匹配,这样可以有效地降低图像匹配的复杂度,提高算法的效率。
提取区域特征及测量结果如表1所示。
表 1 图像区域特征数据表
图像 区域1 区域2 区域3 区域4 区域5 区域6 区域7 A 588 565 952 952 802 787 548 P 117 113 175 175 154 147 108 C 0.54 0.56 0.59 0.59 0.71 0.73 0.38 F 23.24 22.44 21.18 21.47 17.64 17.26 33.24 S 0.66 0.66 0.65 0.65 0.75 0.75 0.49 R 0.51 0.53 0.72 0.72 0.76 0.77 0.56 Gavg 78 78 64 64 149 149 172 ф 0.20 0.20 0.14 0.14 0.16 0.16 0.26 W 0.45 0.03 0.28 0.28 0.25 0 0.54
其中,A:面积 P:周长 C:圆形度 F:轮廓复杂度 S:球状性 R:矩形性 Gavg:平均灰度级 ф:区域矩 W:纹理
第一步:将属性值集Va=(C0,C1,…,CK)中的属
性递增排序(相同属性值只取一个)并划分成区间
aa
等价类∪[Ci,Ci+1],其中a∈C∪D,0≤i<k;
aa
第二步:用取中点方法找出各区间[Ci,Ci+1]的
4.2 数据离散化
截断点Ci组成截断点集Va=(C0,C1,…,CK-1);
由于粗集只处理定性数据或概念类的对象,因 第三步:取最小和最大截断点C0,CK-1; 而先进行数据离散归一化。本文基于最大最小截断第四步:进行类标记 点离散化方法简单地把数据分成3类,不需要任何 类别信息,其算法如下: 0 a(x)<C0
最大最小截断点离散化算法 Class(X)= 1 C0≤a(x)≤Ck-1 输入:n个样本中m个特征值的数据(见表1); 2 a(x)>Ck-1
输出:决策表T=(U,C∪D,V,f)。 获得决策表,对表中相同的行进行合并,得到表2。
表 2 决策表 序号 1 2 3 4 5 6 A 1 1 2 1 1 0 P 1 1 2 1 1 0 C 1 1 1 1 2 0 F 1 1 1 1 0 2 S 1 1 1 2 2 0 R 0 1 1 1 2 1 Gavg 1 1 0 1 1 2 ф 1 1 0 1 1 2 W 1 1 1 1 0 2 Class 1 1 2 3 3 4 aaa
表2中,各种特征作为条件属性,添加类别作为决策属性。 4.3 属性约简
[7]
用A.Skowron分明矩阵方法对决策表2进行约 简,步骤如下: 第三步:计算各属性出现的次数NA=NP=NG=Nф
第一步:计算出决策表2对应的分明矩阵M(C,=2,NR=1,故得到约简属性集{S,ф}和{S,G}。 D)为表3。 由于决策表的约简并不唯一,本文选择{S,ф}。
第二步:利用分明矩阵的性质可知属性S是核,直观意义就是通过图像区域的球状性和区域不变删除分明矩阵M(C,D)中所有包含属性S的项,得矩等特征来区别图像区域。 表4。
表 3
序号 1 2 3 4 5 6
1 ? A,P,R,G,ф S,R 2 A,P,G,ф S 3 A,P,S,G,ф 4 ? 5 C,F,S,R,W C,F,S,R,W A,P,C,F,S,R,G,ф,W A,P,C,F,S,A,P,C,F,S,A,P,C,F,S,A,P,C,F,S,A,P,C,F,S,R,G,ф,W G,ф,W G,ф,W ф,W R,ф,W
百度搜索“77cn”或“免费范文网”即可找到本站免费阅读全部范文。收藏本站方便下次阅读,免费范文网,提供经典小说综合文库基于粗糙集神经网络的图像分割技术研究在线全文阅读。
相关推荐: