機械学習ライブラリを利用するとき、モデルやパラメータの良し悪しを判断するための評価基準。
- 3.3. Model evaluation_ quantifying the quality of predictions — scikit-learn 0.17.1 documentation
- 3.5. Validation curves_ plotting scores to evaluate models — scikit-learn 0.17.1 documentation
- Machine Learning with Scikit Learn (Part II) - 人工知能に関する断創録
Overfitting/Underfittingとパラメータの調整
学習曲線を描いてOverfitting/Underfittingの確認
Cond Pos | Cond Neg | |
---|---|---|
Pred Pos (陽性) | TP | FP |
Pred Neg (陰性) | FN | TN |
P | N |
- 陽性 Positive
- 陰性 Negative
- 真陽性率、感度、再現率 true positive ratio (TPR), sensitivity, recall
- TP/P = TP/(TP+FN)
- 正例のうちどれほど当てられたか
- 特異性 true negative ratio, spcificity (SPC)
- TN/(TN+FP)
- 負例のうちどれほど当てられたか
- 偽陽性率 false positive ratio (FPR), fall-out
- FP/N = 1-TN/N
- どれほど間違って陽性と判断されたか
- 精度、適合率 Precision, positive predictive ratio (PPR)
- TP/(TP+FP)
- 陽性と判断されたうちどれほど当たっているか
http://cdn-ak.f.st-hatena.com/images/fotolife/c/chezou/20160529/20160529204510.jpg
真のモデル→(バイアス)→得られたサンプル→(バリアンス)→推定結果
Overfitting
- ハイバリアンス
- 訓練とテストの差が大きい
- データを増やす
- 特徴量を減らす
Underfitting
- ハイバイアス
- 目標の精度に達しない
- 特徴量を増やす