科学

AI

[ディープラーニング]損失関数の使い分け

ディープラーニングでは、精度の指標として損失関数というのを使っています。

主な損失関数には、「交差エントロピー誤差」や「二乗和誤差」の2つがあります。

この2つはどのように使い分けらているのでしょうか。

AI

[ディープラーニング]過学習とは

ディープラーニングでは、しばしば過学習という問題が起こります。

過学習は、結構重要な問題となります。

では、過学習とはどのようなものなのでしょうか。

AI

[ディープラーニング]SGD(確率勾配降下法)の欠点

ディープランニングでは、SGD(確率勾配降下法)という重みパラメータの更新方法があります。

SGDは一般的なパラメータの更新方法なのですが欠点があります。

AI

[ディープラーニング]エポックとは

ディープラーニングでミニバッチ学習を勉強したら、「エポック」という単語が出てきます。

似たようなのに「バッチ」ってあるけど、「エポック」とは何なのでしょうか。

AI

[ディープラーニング]ミニバッチ学習とは

どうも、ちょげです。ディープラーニングでは、ニューラルネットワークが学習する際にミニバッチ学習という手法を使います。ミニバッチ学習によって、学習にかかるコストを減らすことが出来ます。では、ミニバッチ学習とはどのようなものなのでしょうか。デー...
AI

[ディープラーニング]訓練データとテストデータに分割する理由

ディープラーニングでは、データを訓練用とテスト用に分割するのを知っていますか。

データをわざわざ分割するのって、手間が増えるだけじゃないの?と思う方もいると思います。

しかし、データを分割するのにはちゃんとした訳があります。

今回は、その理由について解説します。

AI

[ディープラーニング]損失関数はどうして必要なのか

ディープラーニングでは、何故損失関数を使うのかを解説します。
AI

[ディープラーニング]交差エントロピー誤差とは

ディープラーニングを学習していくと、交差エントロピー誤差というのに出会うと思います。交差エントロピー誤差って何?ってなって、手が止まった人もいると思います。今回は、そういう人に向けて交差エントロピー誤差とディープラーニングでの使い方について解説します。
AI

[ディープラーニング]ソフトマックス関数とは

ディープラーニングを学習していると、ソフトマックス関数というのに出会うかもしれません。この関数分かんないんだけど…ってなって、ディープラーニングの学習が行き詰ってしまったという人もいると思います。この関数ってなんやねんという疑問に答えるために、今回はソフトマックス関数についてディープラーニングからの観点で解説します。
科学

[数学]ネイピア数eとは

高校でネイピア数を習うと思います。自分の高校の時の教科書だと極限の式を並べて出てきたのがネイピア数eという風な感じでした。正直、そんなの見ても結局のところネイピア数って何なの?っていう疑問が残ったままでした。今回はネイピア数eの正体を高校数学でも分かるように解説します。
AI

[機械学習]データの標準化はなぜするのか

機械学習では、基本的にデータを標準化します。ここでは、なぜデータを標準化しなければいけないのかについて解説します。
科学

[化学]水より氷の方が体積が大きくなるのはなぜか

中学校で体積は固体<液体<気体のように固体から気体になるほど大きくなると教わります。それと同時に水だけは特別に固体の方が液体よりも体積が大きくなるとも言われたと思います。水は身近な分この特徴は覚えやすいですけど、実際考えてみると不思議ですよね。今回は、なぜ水は氷の方が体積が大きくのなるのかについて解説します。
AI

[ディープラーニング]train_test_splitについて

ディープラーニングを学習していると、train_test_split()という関数に遭遇しました。最初見たときは「この名前が長い関数何?」と思いました。今回はそんな名前の長いtrain_test_split関数について解説します。訓練とテス...
科学

そもそも量子論とは何か

現代物理学において、重要な柱の1つが量子論です。量子力学というのを一度は聞いたことがあるのではないでしょうか。この量子力学に量子論は大きく関連しています。そんな量子論がそもそも何なのか解説したいと思います。量子とはまず、量子とは何かですが、...
スポンサーリンク