機械学習
(人工)ニューラルネットワーク
神経回路網を人工ニューロンという数式的なモデルで表現したもの。
ニューロン(神経細胞)モデル
人間の脳にあるニューロンを数式でモデル化したもの。モデル化により、複数の他のニューロンからの入力を受けて、一つの出力を他の複数のニューロンに伝達可能な構造を表現する。
単純パーセプトロン
複数の入力と単一の出力(ニューロン1個)からなるモデル。出力は0か1のどちらかの値をとる。最もシンプルなニューラルネットワークのモデル。線形分離可能なデータを分類することができる。
シナプス
他のニューロンからの入力とそれを受ける接合部をシナプスと呼ぶ。
シナプス強度
シナプスごとにもつ重みのこと。
多層ニューラルネットワーク(多層パーセプトロン)
3層以上の層構造を持つニューラルネットワークのこと。シナプス強度の調整を行うことで分類を行う。シナプス強度は損失関数を0に近づけるように調整する方針をとる。
隠れ層(中間層)
出力ニューロンと入力の間にあるニューロンの集団のこと。
活性化関数
入力の重み付き和と出力の対応関係を表現する関数。活性化関数には、シグモイド関数、ステップ関数、ソフトマックス関数、ReLU関数などが利用される。
損失関数
すべての分類結果とそのターゲットが一致すると0になり、それ以外は正の値を取る関数のこと。
勾配降下法
シナプス強度を調整する代表的な手法。
エポック
学習を進行させるための時間ステップ。
tol
Tolerance for stopping criterion.学習を打ち切るための許容誤差の基準。
過学習
学習データに適応しすぎて、それ以外のデータに対する柔軟性を失うこと。
ディープラーニング
中間層が2層以上あるニューラルネットワークに対し、より性能の良い結果を獲得させるための学習方式。
ディープニューラルネットワーク
ディープラーニングを行うニューラルネットワークのこと。
ミニバッチ学習
学習データから一部を選び出して、その塊単位で学習を行うこと。この塊の単位をミニバッチと呼ぶ。全てのデータをミニバッチ単位で学習した時間が1エポックとなる。
dropout
ニューラルネットワークの性能向上の仕組み。それぞれのミニバッチによる学習ごとに、いくつかのニューロンをランダムに無効化する。無効化されたニューロンからの入力は0となる。
畳み込みニューラルネットワーク(Convolutional Neural Network)
畳み込み層やPooling層と呼ばれる中間層を持つネットワークのこと。
畳み込み層
手前にある層の特徴抽出を行う層。「畳み込み」とは畳み込み層で行われる計算を指す数学上の用語。
特徴マップ
畳み込み層によって生成された特徴抽出が可能な層。一つの畳み込み層から複数の特徴マップを獲得できる。特徴マップでは入力画像のどこに縦棒が存在するか検出する層などが想定される。
Maxpooling層
入力された画像のサイズを縮小する層。入力のピクセルの値のうち最大値を取るという方法をとる。入力画像の位置ずれに強い分類器を得ることに貢献する。
ディープラーニング向けフレームワーク
Caffe、TensorFlow、Chainer、Theanoなど多数のフレームワークがある。
NumPy
Pythonにおいて数値計算を効率的に行うための拡張モジュール。
参考
この書籍からの内容を多く引用させていただいております。
speakerdeck.com
www.haya-programming.com