活性化関数には様々なものが提案されています。ここでは、その一部について説明します。
ステップ関数は、入力が0以上であれば1を返し、0未満であれば0を返す関数です。グラフで表すと以下のようになります。
シグモイド関数は、以下のような関数です。
グラフで表すと以下のようになります。
Tanh関数は、以下のような関数です。
グラフで表すと以下のようになります。
ReLUは、以下のような関数です。
グラフで表すと以下のようになります。
最後にソフトマックス関数を挙げておきます。 犬と猫の画像を分類するといった問題の場合、出力値の合計が1となるような実数値を得ることに意味があります。 そこで、以下に示す関数を用いて確率に変換します。
数式ではわかりにくいので、具体例を挙げて説明します。 出力が4つあり、それらの値が(0.9, 0.1, 0.2, 0.4)だったとしましょう。 この時、1番目の出力値は
となります。
他にも様々な活性化関数が提案されており、対象とする問題に合わせて適切に選ぶことで、学習にかかる時間を短縮できることが知られています。