機械学習

AI

[機械学習]教師あり学習とは

機械学習には、様々な学習方法があります。

学習方法の中でも、メジャーな方法の1つが、「教師あり学習」です。

今回は、教師あり学習について解説します。

AI

[ディープラーニング]確率勾配降下法とは

ディープラーニングでは、重みパラメータを最適な値にして、損失関数を出来るだけ小さくするのが目標となります。

その目標のための方法の1つとして用いられるのが、確率勾配降下法です。

では、確率勾配降下法とは何なのでしょうか。

AI

[ディープラーニング]損失関数の使い分け

ディープラーニングでは、精度の指標として損失関数というのを使っています。

主な損失関数には、「交差エントロピー誤差」や「二乗和誤差」の2つがあります。

この2つはどのように使い分けらているのでしょうか。

AI

[ディープラーニング]ReLU関数とは

ディープラーニングには活性化関数というものがあります。

活性化関数は、ニューロンからの出力を操作している関数で、ディープラーニングでは特別な役割を持っています。

活性化関数には、いくつか種類があり、それぞれの関数によって学習への影響が異なります。

今回は、活性化関数の1つのReLU関数につい解説します。

AI

[機械学習]ディープラーニングで使われる勾配降下法とは

ディープラーニングのような機械学習では、パラメータを更新するためによく勾配降下法というのを用います。

勾配降下法によって、パラメータを最適に更新することが可能となります。

では、勾配降下法とはどのようなものなのでしょうか。

機械学習

パーセプトロンとは

皆さんはパーセプトロンというのを聞いたことがあるでしょうか。

パーセプトロンというのは、ニューラルネットワークとよく比較されるアルゴリズムです。

そして、驚くべきことにパーセプトロンは、ディープラーニングの起源となったアルゴリズムのようです。

つまり、パーセプトロンを知ることは、ディープラーニングの理解に役立つということです。

ここでは、ディープラーニングの理解にも役立つようにパーセプトロンについて解説します。

AI

[ディープラーニング]交差エントロピー誤差とは

ディープラーニングを学習していくと、交差エントロピー誤差というのに出会うと思います。交差エントロピー誤差って何?ってなって、手が止まった人もいると思います。今回は、そういう人に向けて交差エントロピー誤差とディープラーニングでの使い方について解説します。
AI

[ディープラーニング]ソフトマックス関数とは

ディープラーニングを学習していると、ソフトマックス関数というのに出会うかもしれません。この関数分かんないんだけど…ってなって、ディープラーニングの学習が行き詰ってしまったという人もいると思います。この関数ってなんやねんという疑問に答えるために、今回はソフトマックス関数についてディープラーニングからの観点で解説します。
スポンサーリンク
タイトルとURLをコピーしました