半监督广义学习系统的新方法——S2-BLS

释放双眼,带上耳机,听听看~!
本文介绍了一种新的半监督广义学习系统——S2-BLS,通过引入非监督信息和考虑标注样本与未标注样本之间的关系,解决了现有模型在处理相似性和相邻性问题时的局限性。

本文正在参加 人工智能创作者扶持计划

Broad learning system for semi-supervised learning

摘要:本文认为,原始BLS采用的稀疏自编码器来生成特征节点是一种无监督学习方法,这意味着忽略了标注数据的一些信息,并且难以保证同类样本之间的相似性和相邻性,同时SS-BLS和BLS都是构造线性模型,当不同类的样本分布存在重叠时,难以取得良好的分类效果。因此本文提出了一种新的半监督BLS——S2-BLS。

SS-ELM-AE

本文认为,SS-BLS或者是SS-ELM在引入非监督信息,即流形化的时候,考虑到选取k近邻点的情况,但是这种方法可能存在的缺点就是如果大多数标注样本它们所选择的k个近邻点都是标注样本,然后大多数无标注样本所选择的k个近邻点都是无标注样本,那么就没有充分利用到标注样本和未标注样本之间的关系。因此将SS-ELM-AE的目标函数定义为:

LSS−ELM−AE=12∥HW−X∥F2+C2∥W∥F2+λ2(GLL+GLU)L_{SS-ELM-AE}=frac{1}{2}Vert HW-XVert^2_F+frac{C}{2}Vert WVert^2_F+frac{lambda}{2}(G_{LL}+G_{LU})

其中X代表所有样本。而GLL、GLUG_{LL}、G_{LU}分别代表标注样本内部之间的信息以及标注样本和无标注样本之间的信息。

对于标注样本,其相似度矩阵定义为:

SijL={1yi,yj∈t0otherwiseS^L_{ij}=begin{cases}1quad y_i,y_j in t\0quad otherwiseend{cases}

就是属于同类的相似度为1,否则为0。因此GLLG_{LL}表示为:

GLL=12∑i=1l∑j=1lSijL∥g(xi)−g(xj)∥F2G_{LL}=frac{1}{2}sum_{i=1}^lsum_{j=1}^lS^L_{ij}Vert g(x_i)-g(x_j)Vert ^2_F

其中g(x)g(x)代表模型对样本的输出。

而对于未标注样本,其相似性矩阵定义为:

SijLU={1xi∈knn(xj),j∗  or  xj∈knn(xi),i∗0otherwiseS^{LU}_{ij}=begin{cases}1quad x_iin knn(x_j),j^* ~~or ~~x_jin knn(x_i),i^*\0quad otherwiseend{cases}

其中j∗j^*表示如果xjx_j是标注样本,那么其k个近邻点要从未标注样本之中选择。因此

GLU=12∑i=1l+u∑j=1l+uSijLU∥g(xi)−g(xj)∥F2G_{LU}=frac{1}{2}sum_{i=1}^{l+u}sum_{j=1}^{l+u}S^{LU}_{ij}Vert g(x_i)-g(x_j)Vert ^2_F

那么可以将该矩阵写为:

SLU=(0LLSLUSULSUU)S_{LU}=left(begin{matrix}0_{LL}quad S_{LU}\S_{UL }quad S_{UU}end{matrix}right)

斜对角线两个矩阵应该是转置关系。SUUS_{UU}就是简单的knn来计算。因此有:

半监督广义学习系统的新方法——S2-BLS

其中G=[g(x1);…;g(xl+u)]G=[g(x_1);…;g(x_{l+u})]。L定义为:

L=D−SD=diag(d1,…,dl+u),di=∑i=1l+uSijS=(SLSLUSULSUU)L=D-S\D=diag(d_1,…,d_{l+u}),d_i=sum_{i=1}^{l+u}S_{ij}\S=left(begin{matrix}S^Lquad S_{LU}\S_{UL}quad S_{UU}end{matrix}right)

因此可以推导出:

LSS−ELM−AE=12∥HW−X∥F2+C2∥W∥F2+λ2Tr(WTHTLHW)L_{SS-ELM-AE}=frac{1}{2}Vert HW-XVert^2_F+frac{C}{2}Vert WVert^2_F+frac{lambda}{2}Tr(W^TH^TLHW)

当输出节点输出多于隐藏层节点数目,可解出:

半监督广义学习系统的新方法——S2-BLS

否则:

半监督广义学习系统的新方法——S2-BLS

注意这里的损失函数是重构误差,因此可以看成是一个结合ELM思想的AE,是用来求解输入到隐藏层的权重的,而不是像ELM最终求解隐藏层到输出的权重的。

因此求解输入到特征节点映射的权重过程为:
半监督广义学习系统的新方法——S2-BLS

S2-BLS

该算法就是对原有SS-BLS算法的改良,其利用了同样样本间的相似性和近邻点间的相似性信息来获取映射后的特征,同时考虑了类内紧性和类间可分性,获得更好的判别模型。具体来说:

其特征节点的定义比较特殊,用到了非线性激活函数,即:

Zi=ϕi(XWeiT),i=1,2,…,nZ_i=phi_{i}(XW^T_{ei}),i=1,2,…,n

其中权重WeiW_{ei}正是通过SS-ELM-AE来获得的,而ϕphi是非线性函数。然后狗仔增强节点的过程与普通BLS相同,因此得到P=[Zn∣Hm]P=[Z^nmid H^m]

那么在计算输出权重时,其考虑了类内紧性和类间可分性,即:

半监督广义学习系统的新方法——S2-BLS

因此构造的损失项为:

半监督广义学习系统的新方法——S2-BLS

其中F=[F1;…;Fl+u]F=[F_1;…;F_{l+u}]为对每个样本模型的预测向量,Lintra=Dintra−Sintra=diag(d1intra,…,dl+uintra)L_{intra}=D^{intra}-S_{intra}=diag(d^{intra}_1,…,d^{intra}_{l+u})diintra=∑i=1l+uSintraijd^{intra}_i=sum_{i=1}^{l+u}S^{ij}_{intra}

半监督广义学习系统的新方法——S2-BLS

其中LinterL_{inter}也类似。

那么结合这两个L矩阵,可以用参数进行衡量。因此目标函数为:

半监督广义学习系统的新方法——S2-BLS

其中

U=(Ul×l,0   0    0)Ul×l=diag(1,…,1)F=Pβ,    β为连接权重L~=ηLintra−(1−η)LinterU=left(begin{matrix}U_{ltimes l},quad 0\~~~0quad ~~~~0end{matrix}right)\U_{ltimes l}=diag(1,…,1)\F=Pbeta, ~~~~beta 为连接权重\tilde{L}=eta L_{intra}-(1-eta)L_{inter}

当样本数目多于隐藏层节点数目,可解出

半监督广义学习系统的新方法——S2-BLS

否则:

半监督广义学习系统的新方法——S2-BLS
其示意图大致如下所示:
半监督广义学习系统的新方法——S2-BLS
伪代码如下所示:
半监督广义学习系统的新方法——S2-BLS

总结

这篇文章从两部分作为创新点,一是原先BLS的AE寻求特征节点映射的部分,这部分它结合了ELM的思想来求解权重向量,第二部分是在求解链接输出的权重时,加入了类内和类间样本之间的关系矩阵。

本文正在参加 人工智能创作者扶持计划

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI教程

高效的图像分类训练技巧

2023-11-30 21:19:14

AI教程

AI项目实战经验分享

2023-11-30 21:27:14

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索