你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
发现
动态
话题
发起
问题
登录
机器学习
解决梯度消失和梯度膨胀
如何解决梯度消失和梯度膨胀?
没有找到相关结果
已邀请:
与内容相关的链接
提交
1 个回复
Andre老师@小象学院
(1)梯度消失:
根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0。
可以采用ReLU激活函数有效的解决梯度消失的情况。
(2)梯度膨胀:
根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大。
可以通过激活函数来解决。
要回复问题请先
登录
或
注册
发起人
FrankXD
相关问题
解决梯度消失和梯度膨胀
这里为什么要用这样的归一化公式处理?
解释一下循环这道题
请解释“任务已销毁但待处理!”
如果要从第三行直接开始读取要怎么做
问题状态
最新活动:
2021-11-10 17:14
浏览:
124
关注:
2
人
1 个回复
Andre老师@小象学院
根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0。
可以采用ReLU激活函数有效的解决梯度消失的情况。
(2)梯度膨胀:
根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大。
可以通过激活函数来解决。