概要

参考:

ディープラーニング – Wikipedia

損失関数 (Loss Function)

参考:

機械学習における損失関数の役割や種類 | AVILEN AI Trend

仕組み理解/初実装 後編 – ディープラーニング最速入門 | @IT

損失関数とは?誤差関数/コスト関数/目的関数との違い | @IT

機械学習の Loss が下がらない原因は?精度低下を抑える工夫を解説 | TRYETING Inc.

損失関数とは?ニューラルネットワークの学習理論 | 株式会社ライトコード

損失関数/誤差関数 | AI 研究所

学習の種類と損失関数 | Jun Nishii

バッチサイズ

参考:

ディープラーニングにおけるバッチサイズ/イテレーション数/エポック数の決め方 – Qiita

ネコでも分かる学習回数ってなに? | NekoAllergy

バッチサイズ | Python 数値計算入門

エポック数とバッチサイズの解説と、変化させた時の精度の変化について確かめる | SE_BOKU の IT な日常

ミニバッチ学習と学習率/低バッチサイズから始めよ | ころがる狸

バッチサイズをどうやって決めるかについてまとめる | St_Hakky’s blog

バッチサイズと学習率をどう決めるか | ほろ酔い開発日誌

ニューラルネットワークのトレーニングに最適なバッチサイズについて | Weights & Biases

確率的勾配降下法

参考:

確率的勾配降下法と Python の実装例 | pystyle

勾配降下法 – 関数の傾きに着目して最小値を求める方法 | biopapyrus

確率的勾配降下法/最急降下法/最小二乗法 | AI 研究所

確率的勾配降下法 – Wikipedia

勾配降下法

参考:

勾配降下法について – Qiita

勾配降下法を入門しよう!初心者向けにやさしく解説 | AIZINE

勾配降下法とは?分かりやすく図解で解説 | 機械学習ナビ

勾配法の仕組みと Python での実装方法 | pystyle

過学習

参考:

過学習とは | Deep Learning Study

学習曲線からの過学習検知 | ReNom

Training Loss / Validation Loss

参考:

損失関数/評価関数の推移をグラフ化 (Keras) | algorithm.joho.info

Training Loss より Validation Loss が小さくなることってたまにあるけどなんで?というお話 | エンジニアぽい人の備忘録

Validation Loss < Train Loss 問題への解答 | マサムネの部屋

チュートリアル

深層学習とは?ディープラーニングの意味/ニューラルネットワーク (Able Programming)

活性化関数 – ReLU/シグモイド関数/ソフトマックス関数 (Able Programming)

損失関数/勾配降下法 – 交差エントロピー誤差/ミニバッチ勾配降下法 (Able Programming)

誤差逆伝播法/バックプロパゲーション (Able Programming)

ミニバッチ学習と確率的勾配降下法 (データサイエンス研究所)

単回帰分析/勾配降下法 (データサイエンス研究所)

Keras

動画:

Keras – 深層学習フレームワーク/深層学習の実装 (Able Programming)

公式サイト:

Keras [公式]

リポジトリ:

keras-team/keras: Deep Learning for Humans – GitHub

参考:

Keras とは?特徴やできること、インストール手順を解説 | AIsmiley

Keras を使って学べるレシピの紹介 – Qiita

損失関数/評価関数の推移をグラフ化 (Keras) | algorithm.joho.info

Keras – Wikipedia

記事をシェアする:

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

Protected by reCAPTCHA