ディープラーニング

AI

[AI]ディープラーニングと機械学習の違い

ディープラーニングと機械学習ってどう違うのでしょうか。ディープラーニングと機械学習の違いについて解説します。
AI

[ディープラーニング]CNNのプーリング層とは

ディープラーニングには、CNN(畳み込み型ニューラルネットワーク)というものがあります。

CNNは画像認識に特化したニューラルネットワークです。

その特徴として、畳み込み層とプーリング層を持つことが挙げられます。

今回は、プーリング層について解説します。

AI

[機械学習]RNN(再帰型ニューラルネットワーク)とは

ディープラーニングには、RNN(再帰型ニューラルネットワーク)というものがあります。

RNNは、連続的なデータを扱うことが出来ます。

ですので、RNNは自然言語処理や音声認識など多くの分野に役立ちます。

この記事では、RNN(再帰型ニューラルネットワーク)について解説します。

AI

[ディープラーニング]CNN(畳み込み層ニューラルネットワーク)とは

ディープラーニングには、畳み込みニューラルネットワークというものがあります。

畳み込みニューラルネットワークとは、何なのでしょうか。

この記事ではサクッと解説します。
AI

[ディープラーニング]重みの初期値によって起こる問題

ディープラーニングでは、重みの初期値を適切に設定しないと学習に問題が起こることがあります。

重みの初期値によって起こりうる問題について解説します。

AI

[ディープラーニング]確率勾配降下法とは

ディープラーニングでは、重みパラメータを最適な値にして、損失関数を出来るだけ小さくするのが目標となります。

その目標のための方法の1つとして用いられるのが、確率勾配降下法です。

では、確率勾配降下法とは何なのでしょうか。

AI

[ディープラーニング]損失関数の使い分け

ディープラーニングでは、精度の指標として損失関数というのを使っています。

主な損失関数には、「交差エントロピー誤差」や「二乗和誤差」の2つがあります。

この2つはどのように使い分けらているのでしょうか。

AI

[ディープラーニング]過学習とは

ディープラーニングでは、しばしば過学習という問題が起こります。

過学習は、結構重要な問題となります。

では、過学習とはどのようなものなのでしょうか。

AI

[ディープラーニング]ReLU関数とは

ディープラーニングには活性化関数というものがあります。

活性化関数は、ニューロンからの出力を操作している関数で、ディープラーニングでは特別な役割を持っています。

活性化関数には、いくつか種類があり、それぞれの関数によって学習への影響が異なります。

今回は、活性化関数の1つのReLU関数につい解説します。

AI

[ディープラーニング]連鎖律とは

ディープラーニングでは、パラメータの更新を行う際に逆伝播法というのを使います。

逆伝播法を用いることによって、普通に微分してパラメータの更新を行うよりもパラメータの更新を高速にすることが出来ます。

逆伝播法では、連鎖律という原理を利用します。

この連鎖律とは、何なのでしょうか。

AI

[ディープラーニング]SGD(確率勾配降下法)の欠点

ディープランニングでは、SGD(確率勾配降下法)という重みパラメータの更新方法があります。

SGDは一般的なパラメータの更新方法なのですが欠点があります。

AI

[ディープラーニング]エポックとは

ディープラーニングでミニバッチ学習を勉強したら、「エポック」という単語が出てきます。

似たようなのに「バッチ」ってあるけど、「エポック」とは何なのでしょうか。

AI

[ディープラーニング]ミニバッチ学習とは

どうも、ちょげです。 ディープラーニングでは、ニューラルネットワークが学習する際にミニバッチ学習という手法を使います。 ミニバッチ学習によって、学習にかかるコストを減らすことが出来ます。 では、ミニバッチ学習とはどのよう...
AI

[ディープラーニング]訓練データとテストデータに分割する理由

ディープラーニングでは、データを訓練用とテスト用に分割するのを知っていますか。

データをわざわざ分割するのって、手間が増えるだけじゃないの?と思う方もいると思います。

しかし、データを分割するのにはちゃんとした訳があります。

今回は、その理由について解説します。

スポンサーリンク
タイトルとURLをコピーしました