神经网络层级结构及优化方法

释放双眼,带上耳机,听听看~!
本文介绍了神经网络的输入层和卷积层的优化方法,包括数据归一化和卷积运算的步骤,以及局部连接和权值共享的特征。通过学习本文,读者可以了解神经网络的层级结构及优化方法,提升对神经网络的理解和应用能力。

携手创作,共同成长!这是我参与「掘金日新计划 · 8 月更文挑战」的第26天,点击查看活动详情

输入层

我们通常在这一层对传入数据进行处理,此步骤可大幅优化图像处理结果,有效防止输入不同的数据单位,显著缩短神经网络训练耗时,提高网络收敛速率;需要引起注意的是,神经网络的激活函数一般都处于一定的数值区间,因此进行网络训练的数据得映射到相应的区间。

运行人工神经网络时,底层参数更新对其有显著的作用效果,造成的影响会导致假设条件难以满足。从事相关研究的科学家们在神经网络中采取归一化操作,能有效解决假设条件难以满足的问题。

此方法通常对数据做一定尺度的放大和缩小操作,一般情况下被用来对数据进行预处理或者对不同单位的测量数据作归一化数据分析。也就是说,归一化这一步骤就是将数据限制在某个数值范围内,再进行线性对比拉伸:

神经网络层级结构及优化方法

卷积层

卷积层的主要作用是对输入图像进行卷积运算和特征提取。卷积层中含有一系列具有同一大小的卷积核,不同的卷积核对特征提取有不同的作用。

本层进行卷积运算的步骤如下:先假设卷积核的尺寸为m×n,原始图像为X,再对尺寸为mxn的卷积核中的权值w与原始图像X中的像素值x进行求积运算,计算的公式如下:

神经网络层级结构及优化方法
以下图3.4为例展示标准卷积运算过程。卷积运算的卷积核每次滑过原始数字图像的9个像素,覆盖像素的滑动框会滑动四次,得到一个尺寸为2×2的二维数据。对于原始数据尺寸为n的数字图像,执行尺寸为f的卷积运算操作,最终输出的数字图像大小为n-f+1。

神经网络层级结构及优化方法

神经网络层级结构及优化方法

局部连接和权值共享是卷积层的两个最主要的特征:为提取数据的特征信息,需把数据中潜在的具有相关性的信息抽象化,便于进行以上两个特征操作。

局部连接是由人的视觉系统激发出来的,它通过将卷积层的结点与上一层的局部结点相结合,从而达到学习局部特征的目的。对于待识别的图像,在某个特定区域内,相邻的像素间的关联度高,而相距较远的像素关联度低。而在局部连接中,单一的神经元仅需要对图象的局部感知,再将全部的局部感知信息按顺序合并,就可以获得整个图象的整体信息。局部连接和全连接如图3.6所示,下图中,(a)是局部连接,(b)是全连接。

神经网络层级结构及优化方法

通过局部连接方式对神经元连接进行改进之后虽然在一定程度上使得网络中的参数量变少,但神经元数量任然很多,参数量依然会很多。想要参数数量变少,就需要运用权值共享策略。权值共享是指用权重参数相同的卷积核对输入图像进行卷积运算,用相同的参数提取图像特征。如图表示的是权值共享。

神经网络层级结构及优化方法

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI教程

Faiss开源库在Ubuntu下的源码编译及C++示例

2023-12-13 14:53:14

AI教程

PyTorch FX实践:模型量化与部署

2023-12-13 15:04:14

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索