某機械学習の授業まとめ
<某機械学習>(検索よけのためここは後ほど記入する)という東大前期教養課程の授業を履修するのでどのような授業なのかメモしていく
もちろん板書をそのまま載せるのは著作権的にまずそうなので、板書を見ないで思い出したり調べたりして書く。
一日目、二日目
基本的な要素(最小二乗回帰、正則化、ホールドアウト法、交差検証など)についての説明
最小二乗回帰とは
変数xとyの関係を求める
として、でyの値が求められるようにしたい。
→が最小になるようなa,bを求める。この関数を目的関数という。
一般化:とyの関係を求める
(w_dは常に1としてbの働きをさせる。バイアス項という。)
を要素に持つ行列 とすると、は よって
この目的関数を最小化するようなを求めたい。このとき、w_kについて偏微分すると
ベクトルwすべてについて偏微分する。
ここで、について考えると、行方向がkになり、ベクトルに左からかけてもkを残すことができるので
これがになる時について考えれば(少なくとも局所的な)解が見つかる
(https://risalc.info/src/inverse-matrix.html)
(正則化項)
L1正則化項…
この正則化項はw=0のところで連続ではないので微分できない。
→近接勾配法:勾配にProximal Operatorをかけることで微分できない部分の微分を考えなくていいようにする・
重みの更新には編微分すると 0のときは先ほどの考えで別に考える。
proximal operatorによりパラメータの一部を完全に0にする働きがあるらしい(よくわからん)
L2正則化項…
微分すると
・L2ノルムは[微分](http://d.hatena.ne.jp/keyword/%C8%F9%CA%AC)可能であり解析的に解ける
リッジ回帰…L2正則化項のみ
LASSO回帰…L1正則化項のみ
Elastic Net…両方の項を持ち、それぞれ別のハイパーパラメータを決定する
交差検証
・ホールドアウト法
trainとtest(valid)を分割してから、trainで訓練してtestで評価を行う
• K回交差検証
データをK個に分け、testを変えて残りでtrainしたものの評価を繰り返し、平均で最終的な評価をする
• 反復無作為抽出検証
全てのデータを使うとは限らないが、trainとtestを反復のたびにデータから無作為に抽出して作る。
• LOO交差検証
K回交差検証のKをデータ数と同じにしたもの。つまり一回の評価で使うtestデータは一つだけ。
実装
もちろん全てのコードを乗せると私の提出が失格になったりしそうなので(単位は取りきっていてなくても構わないのだが一応)一部分だけ載せるj。
まず殆どライブラリを使っているだけなのであまり意味もない。