博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
LSTM:对比标准RNN
阅读量:4060 次
发布时间:2019-05-25

本文共 271 字,大约阅读时间需要 1 分钟。

RNN,recurrent neural network

LSTM,long short-term memory network

LSTM隐藏层激活函数,通常使用tanh函数。

输出层使用softmax函数。

RNN反向传播算法,back-propagation through time

LSTM可以学习长期依赖信息,增加遗忘门,输入门,输出门。

具体见:

LSTM解决RNN梯度弥散。

在RNN中将tanh换成ReLU可以一定程度上解决梯度消失,但:

RNN中使用ReLU会导致非常大但输出值,导致梯度爆炸;正交权重矩阵可以解决梯度爆炸;

转载地址:http://euwji.baihongyu.com/

你可能感兴趣的文章
大数据入门:ZooKeeper工作原理
查看>>
大数据入门:Zookeeper结构体系
查看>>
大数据入门:Spark RDD基础概念
查看>>
大数据入门:SparkCore开发调优原则
查看>>
大数据入门:Java和Scala编程对比
查看>>
大数据入门:Scala函数式编程
查看>>
Remove Duplicates from Sorted List II
查看>>
Spiral Matrix
查看>>
Sudoku Solver
查看>>
Bitwise AND of Numbers Range
查看>>
Happy Number
查看>>
Count Primes
查看>>
Isomorphic Strings
查看>>
Reverse Linked List
查看>>
Android面试题整理【转载】
查看>>
【opencv学习笔记】010之图像非线性滤波原理与操作(中值滤波、双边滤波)
查看>>
【opencv学习笔记】011之基本形态学操作(膨胀与腐蚀)
查看>>
【CryptoZombies - 1 Solidity 教程】010 msg.sender
查看>>
【opencv学习笔记】012之形态学操作(开闭操作,形态学梯度,顶帽与黑帽)
查看>>
【CryptoZombies - 1 Solidity 教程】011 Require
查看>>