ディープラーニング活性化関数完全ガイド|ReLUからSwishまで選び方と実装を徹底解説
「活性化関数って聞くけど、何のためにあるの?」 「ReLUとSigmoidの違いがよく分からない...」 「どの活性化関数を使えばいいの?」 「勾配消失問題って何?」ディープラーニングを学び始めると、必ず出会うこれらの疑問。実は、活性化関数...
ディープラーニングには、CNN(畳み込み型ニューラルネットワーク)というものがあります。
CNNは画像認識に特化したニューラルネットワークです。
その特徴として、畳み込み層とプーリング層を持つことが挙げられます。
今回は、プーリング層について解説します。
ディープラーニングでは、重みの初期値を適切に設定しないと学習に問題が起こることがあります。
重みの初期値によって起こりうる問題について解説します。
ディープラーニングでは、精度の指標として損失関数というのを使っています。
主な損失関数には、「交差エントロピー誤差」や「二乗和誤差」の2つがあります。
この2つはどのように使い分けらているのでしょうか。
ディープラーニングでは、しばしば過学習という問題が起こります。
過学習は、結構重要な問題となります。
では、過学習とはどのようなものなのでしょうか。
ディープランニングでは、SGD(確率勾配降下法)という重みパラメータの更新方法があります。
SGDは一般的なパラメータの更新方法なのですが欠点があります。
ディープラーニングでミニバッチ学習を勉強したら、「エポック」という単語が出てきます。
似たようなのに「バッチ」ってあるけど、「エポック」とは何なのでしょうか。