誤差逆伝搬型ニューラルネットワークの伝達関数として ReLU (Rectified Linear Unit) は対応していますか?
5 visualizaciones (últimos 30 días)
Mostrar comentarios más antiguos
MathWorks Support Team
el 24 de Mzo. de 2017
Respondida: MathWorks Support Team
el 24 de Mzo. de 2017
現在、誤差逆伝搬型型ニューラルネットの出力関数にシグモイド関数を使用していますが、これを「ReLU(Rectified Linear Unit)」に変更したいと考えておりますがToolboxとして対応していますか?
Respuesta aceptada
MathWorks Support Team
el 24 de Mzo. de 2017
ReLU(Rectified Linear Unit) 関数は、 poslin() としてご利用頂く事が可能です。
>> doc poslin
にて、伝達関数の形を確認することが可能です。
0 comentarios
Más respuestas (0)
Ver también
Categorías
Más información sobre Deep Learning Toolbox en Help Center y File Exchange.
Community Treasure Hunt
Find the treasures in MATLAB Central and discover how the community can help you!
Start Hunting!