Softmax Loss

$$ {y_k = \frac{\exp(a_k)}{\sum_{i=1}^n \exp(a_i)}, \\ L = -\sum_k t_k \log(y_k) } $$

  • ニューラルネットワークの出力: a
  • Softmaxの出力; y
  • 教師データ: t
  • Loss: L

REFERENCES:

  • https://qiita.com/Yoko303/items/09efd10161d0a764833d