概要
- 教師あり学習
- 教師なし学習
- 強化学習
参考:
深層学習/ディープラーニング (Deep Learning)
参考:
ニューラルネットワーク (Neural Network)
参考:
ニューラルネットワークの基礎 | Chainer チュートリアル
畳み込みニューラルネットワーク (Convolutional Neural Network / CNN)
参考:
畳み込みネットワークの基礎の基礎を理解する | アイマガジン
活性化関数 (Activation Function)
- シグモイド関数
- ソフトマックス関数
- 恒等関数
- ReLU (Rectified Linear Unit)
参考:
活性化関数 (Activation Function) とは? | @IT
シグモイド関数 (Sigmoid function) とは? | @IT
ソフトマックス関数 (Softmax Function) とは? | @IT
恒等関数 (Identity Function)/線形関数 (Linear Function) とは? | @IT
ReLU (Rectified Linear Unit)/ランプ関数とは? | @IT
目的関数
参考:
目的関数、コスト関数、誤差関数、損失関数いろいろあるけど、なにが違うのかを検討 – Qiita
多層パーセプトロン
参考:
複素ニューラルネットワーク
参考:
成功!!複素ニューラルネットワーク (CxNN) を実装して衛星データから物体検出をしてみる | 宙畑
確率的勾配降下法 (Stochastic Gradient Descent / SGD)
参考:
確率的勾配降下法のメリットについて考えてみた – Qiita
Google Colaboratory 上で勾配降下法を可視化する – Qiita
SGD/クラス分類 | 機械学習、AI、ディープラーニングのプログラミングを解説
ディープラーニング (深層学習) を理解してみる/勾配降下法:最急降下法と確率的勾配降下法 | デジタル・デザイン・ラボラトリーな日々
ロジスティック回帰 (勾配降下法/確率的勾配降下法) を可視化する | StatsFragments
確率的勾配降下法 (SGD / Stochastic Gradient Descent) は局所最適解を抜け出せる可能性があるらしい | ts0818 のブログ
確率的勾配降下法 | 数理計画用語集 (msi.co.jp)
画像分類
参考:
Random Multimodel Deep Learning (RMDL)
参考:
kk7nc/RMDL: RMDL: Random Multimodel Deep Learning for Classification – GitHub
RMDL: Random Multimodel Deep Learning for Classification – Qiita
RMDL: Random Multimodel Deep Learning for Classification | arXiv.org
学習リソース
参考:
機械学習はデータ集めるのが一番大変… ⇛ Google が大量の機械学習用データベースを無料公開してた – Qiita
まとめ
参考:
記事
参考:
人間の命を救うはずだった AI が政治と無知によって無視されてしまった話 – Qiita
資料
参考:
書籍
Amazon 商品リンク:
Python によるスクレイピング & 機械学習 開発テクニック 増補改訂版
動画/チュートリアル
深層学習/プーリング層 – シンプルだけど大きな役割を担う層
MNIST
参考:
MNIST – Handwritten Digit Database | Yann LeCun
CIFAR-10 / CIFAR-100
参考:
CIFAR-10 and CIFAR-100 Datasets | Alex Krizhevsky
CIFAR-10 – 物体カラー写真 (乗り物や動物など) の画像データセット | @IT
YouTube-8M
参考:
YouTube-8M – A Large and Diverse Labeled Video Dataset for Video Understanding Research
Open Images
参考:
Open Images (storage.googleapis.com)
arXivTimes
参考:
arXivTimes/arXivTimes: repository to research & share the machine learning articles – GitHub