概要
参考:
損失関数 (Loss Function)
参考:
機械学習における損失関数の役割や種類 | AVILEN AI Trend
仕組み理解/初実装 後編 – ディープラーニング最速入門 | @IT
損失関数とは?誤差関数/コスト関数/目的関数との違い | @IT
機械学習の Loss が下がらない原因は?精度低下を抑える工夫を解説 | TRYETING Inc.
損失関数とは?ニューラルネットワークの学習理論 | 株式会社ライトコード
バッチサイズ
参考:
ディープラーニングにおけるバッチサイズ/イテレーション数/エポック数の決め方 – Qiita
ネコでも分かる学習回数ってなに? | NekoAllergy
エポック数とバッチサイズの解説と、変化させた時の精度の変化について確かめる | SE_BOKU の IT な日常
ミニバッチ学習と学習率/低バッチサイズから始めよ | ころがる狸
バッチサイズをどうやって決めるかについてまとめる | St_Hakky’s blog
ニューラルネットワークのトレーニングに最適なバッチサイズについて | Weights & Biases
確率的勾配降下法
参考:
確率的勾配降下法と Python の実装例 | pystyle
勾配降下法 – 関数の傾きに着目して最小値を求める方法 | biopapyrus
勾配降下法
参考:
勾配降下法を入門しよう!初心者向けにやさしく解説 | AIZINE
勾配法の仕組みと Python での実装方法 | pystyle
過学習
参考:
Training Loss / Validation Loss
参考:
損失関数/評価関数の推移をグラフ化 (Keras) | algorithm.joho.info
Training Loss より Validation Loss が小さくなることってたまにあるけどなんで?というお話 | エンジニアぽい人の備忘録
Validation Loss < Train Loss 問題への解答 | マサムネの部屋
チュートリアル
深層学習とは?ディープラーニングの意味/ニューラルネットワーク (Able Programming)
活性化関数 – ReLU/シグモイド関数/ソフトマックス関数 (Able Programming)
損失関数/勾配降下法 – 交差エントロピー誤差/ミニバッチ勾配降下法 (Able Programming)
誤差逆伝播法/バックプロパゲーション (Able Programming)
ミニバッチ学習と確率的勾配降下法 (データサイエンス研究所)
Keras
動画:
Keras – 深層学習フレームワーク/深層学習の実装 (Able Programming)
公式サイト:
リポジトリ:
keras-team/keras: Deep Learning for Humans – GitHub
参考:
Keras とは?特徴やできること、インストール手順を解説 | AIsmiley