誤差逆伝搬型ニューラ​ルネットワークの伝達​関数として ReLU (Rectified Linear Unit) は対応していますか?

5 visualizaciones (últimos 30 días)
MathWorks Support Team
MathWorks Support Team el 24 de Mzo. de 2017
Respondida: MathWorks Support Team el 24 de Mzo. de 2017
現在、誤差逆伝搬型型ニューラルネットの出力関数にシグモイド関数を使用していますが、これを「ReLU(Rectified Linear Unit)」に変更したいと考えておりますがToolboxとして対応していますか?

Respuesta aceptada

MathWorks Support Team
MathWorks Support Team el 24 de Mzo. de 2017
ReLU(Rectified Linear Unit) 関数は、 poslin() としてご利用頂く事が可能です。 
>> doc poslin 
にて、伝達関数の形を確認することが可能です。 

Más respuestas (0)

Categorías

Más información sobre Deep Learning Toolbox en Help Center y File Exchange.

Productos


Versión

R2015b

Community Treasure Hunt

Find the treasures in MATLAB Central and discover how the community can help you!

Start Hunting!