神经网络问题,什么阈值是2,中间层到输出层权值为什么是{2,1}

神经网络问题,什么阈值是2,中间层到输出层权值为什么是{2,1},第1张

netIW 属性定义了从网络输入向量到网络层的权值向量(即输入层的权值向量)结构。其值为NlNi的细胞矩阵,Nl为网络层数(netnumLayers),Ni为输入向量数(netnumInputs)。通过访问netIW{i,j},可以获得第i 个网络层来自第j 个输入向量的权值向量值。 所以一般情况下net,iw{1,1}就是输入层和隐含层之间的权值。

netLW定义了从一个网络层到另一个网络层的权值向量结构。其值为NlNl的细胞矩阵,Nl为网络层数(netnumLayers)。通过访问netLW{i,j},可以获得第i 个网络层来自第j 个网络层的权值向量值。 因此,如果网络是单隐含层,netlw{2,1}就是输出层和隐含层之间的权值。

最需要理解的就是:这都是元胞数组。

因为神经元的传输函数在[0,1]之间区别比较大,如果大于1以后,传输函数值变化不大(导数或斜率就比较小),不利于反向传播算法的执行。反向传播算法需要用到各个神经元传输函数的梯度信息,当神经元的输入太大时(大于1比如),相应的该点自变量梯度值就过小,就无法顺利实现权值和阈值的调整)。传输函数比如logsig或tansig,你可以把函数图像画出来,会发现,[-1,1]之间函数图像比较徒,一阶导数(梯度)比较大,如果在这个敬意范围之外,图像就比较平坦,一阶导数(梯度)就接近0了。

欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/zaji/12459721.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-23
下一篇2023-05-23

发表评论

登录后才能评论

评论列表(0条)

    保存