[
板情報
|
カテゴリランキング
]
したらばTOP
■掲示板に戻る■
全部
1-100
最新50
|
1-
101-
この機能を使うにはJavaScriptを有効にしてください
|
Pattern Recognition and Machine Learning
22
:
karino2
:2017/01/06(金) 09:55:05
気づくと勉強会直前なので復習する^^;
細部はおいといてストーリーの確認から。
3章は線形モデルの回帰。
3.1は線形モデルの定義と、そのパラメーター推定の話。
最尤法と最小二乗法や正則化項の関係や幾何学的解釈、多変数への拡張など。
基本的には一章の話の一般化である。
3.2は損失関数を変形し、サンプルの集合を複数とった時のサンプル集合同士のモデルのバラ付きと、サンプル集合の平均と真の値とのばらつきに分割出来るという話(Bias Variance decomposition)。
なお、良く忘れるがvariance がサンプル集合同士のばらつき。(3.40)
3.3は線形モデルをベイズ的に取り扱うという話で、やはり1章の拡張になっている。
3.3.1でまずはパラメータ分布を求めて、観測データを足すごとにどうパラメータの事後分布が収束していくか、という事を見る。
3.3.2ではターゲット変数の事後分布を求め、その分布がどういう意味なのかを具体例を幾つか図示して見ていく。
3.3.3ではこのモデルは観測点からのある種の距離とターゲットの値の線形和と解釈出来て、観測点と近いインプットには観測ターゲットの値に重いweightを与えるような物になってる事を見る。
そこで先に基底関数を導入するのとは違う定式化として、先にカーネル関数を定義して予測分布を出すという見方を紹介する。
新着レスの表示
名前:
E-mail
(省略可)
:
※書き込む際の注意事項は
こちら
※画像アップローダーは
こちら
(画像を表示できるのは「画像リンクのサムネイル表示」がオンの掲示板に限ります)
スマートフォン版
掲示板管理者へ連絡
無料レンタル掲示板