ディープラーニング

AI

[ディープラーニング]確率勾配降下法とは

ディープラーニングでは、重みパラメータを最適な値にして、損失関数を出来るだけ小さくするのが目標となります。

その目標のための方法の1つとして用いられるのが、確率勾配降下法です。

では、確率勾配降下法とは何なのでしょうか。

AI

[ディープラーニング]損失関数の使い分け

ディープラーニングでは、精度の指標として損失関数というのを使っています。

主な損失関数には、「交差エントロピー誤差」や「二乗和誤差」の2つがあります。

この2つはどのように使い分けらているのでしょうか。

AI

[ディープラーニング]交差エントロピー誤差とは

ディープラーニングを学習していくと、交差エントロピー誤差というのに出会うと思います。交差エントロピー誤差って何?ってなって、手が止まった人もいると思います。今回は、そういう人に向けて交差エントロピー誤差とディープラーニングでの使い方について解説します。
AI

[ディープラーニング]ソフトマックス関数とは

ディープラーニングを学習していると、ソフトマックス関数というのに出会うかもしれません。この関数分かんないんだけど…ってなって、ディープラーニングの学習が行き詰ってしまったという人もいると思います。この関数ってなんやねんという疑問に答えるために、今回はソフトマックス関数についてディープラーニングからの観点で解説します。
スポンサーリンク
タイトルとURLをコピーしました