
[機械学習]教師あり学習とは
機械学習には、様々な学習方法があります。
学習方法の中でも、メジャーな方法の1つが、「教師あり学習」です。
今回は、教師あり学習について解説します。
機械学習には、様々な学習方法があります。
学習方法の中でも、メジャーな方法の1つが、「教師あり学習」です。
今回は、教師あり学習について解説します。
ディープラーニングには、CNN(畳み込み型ニューラルネットワーク)というものがあります。
CNNは画像認識に特化したニューラルネットワークです。
その特徴として、畳み込み層とプーリング層を持つことが挙げられます。
今回は、プーリング層について解説します。
ディープラーニングには、RNN(再帰型ニューラルネットワーク)というものがあります。
RNNは、連続的なデータを扱うことが出来ます。
ですので、RNNは自然言語処理や音声認識など多くの分野に役立ちます。
この記事では、RNN(再帰型ニューラルネットワーク)について解説します。
AIで出来ることに画像生成があります。
今の画像生成は、驚くことに1から画像を生成できるようです。
では、どのように行っているのでしょうか。
ディープラーニングには、畳み込みニューラルネットワークというものがあります。
畳み込みニューラルネットワークとは、何なのでしょうか。
この記事ではサクッと解説します。ディープラーニングでは、重みの初期値を適切に設定しないと学習に問題が起こることがあります。
重みの初期値によって起こりうる問題について解説します。
ディープラーニングでは、重みパラメータを最適な値にして、損失関数を出来るだけ小さくするのが目標となります。
その目標のための方法の1つとして用いられるのが、確率勾配降下法です。
では、確率勾配降下法とは何なのでしょうか。
ディープラーニングでは、精度の指標として損失関数というのを使っています。
主な損失関数には、「交差エントロピー誤差」や「二乗和誤差」の2つがあります。
この2つはどのように使い分けらているのでしょうか。
ディープラーニングでは、しばしば過学習という問題が起こります。
過学習は、結構重要な問題となります。
では、過学習とはどのようなものなのでしょうか。
ディープラーニングには活性化関数というものがあります。
活性化関数は、ニューロンからの出力を操作している関数で、ディープラーニングでは特別な役割を持っています。
活性化関数には、いくつか種類があり、それぞれの関数によって学習への影響が異なります。
今回は、活性化関数の1つのReLU関数につい解説します。
ディープラーニングでは、パラメータの更新を行う際に逆伝播法というのを使います。
逆伝播法を用いることによって、普通に微分してパラメータの更新を行うよりもパラメータの更新を高速にすることが出来ます。
逆伝播法では、連鎖律という原理を利用します。
この連鎖律とは、何なのでしょうか。
ディープランニングでは、SGD(確率勾配降下法)という重みパラメータの更新方法があります。
SGDは一般的なパラメータの更新方法なのですが欠点があります。
ディープラーニングでミニバッチ学習を勉強したら、「エポック」という単語が出てきます。
似たようなのに「バッチ」ってあるけど、「エポック」とは何なのでしょうか。