MLaPP アドベントカレンダー9日目:Ch.9 Generalized linear models and the exponential family

本日は指数型分布族に関する章で,指数型分布族とはなんぞ その3のような感じです(その1, その2).任意の指数型分布族のメンバーは生成分類器をつくるためのクラス条件付き確率密度として簡単に用いることができます.また,反応変数yが指数型分布族分布となるような識別モデルとして,一般化線形モデル(Generalized linear models; GLM)と呼ばれるモデルクラスを考えることができます.

The exponential family

    • 指数型分布族が重要な理由
      • ある正則性条件の下で指数型分布族は有限サイズの十分統計量をもつ唯一の分布族.これはデータを情報損失なくある固定されたサイズに要約できることを意味し,online learningで特に重要
      • 指数型分布族は共役事前分布をもつ唯一の分布族
      • 指数型分布族はuser-chosen constraintに従う仮定が最小となる分布族(see Sec 9.2.6)
      • 指数型分布族はGLMのコア(see Sec 9.3)
      • 指数型分布族は変分推論のコア(see Sec 21.2)
  • Definition
    • : natural parameter or canonical parameter
    • : sufficient statistics
    • : partition function
    • : log partition function or cumulant function
    • : scaling constant (たいてい1)
    • もしならnatural exponential family
    • 指数型分布族は一般的に次のように書ける
    • はパラメータcanonical parameter 写像する関数
    • もし ならcurved exponential familyと呼ばれ,パラメータ数よりも多い十分統計量を持つ
    • ならモデルはcanonical formと呼ばれる
  • Log partition function
    • 指数型分布族の重要な性質はlog partition functionの微分が十分統計量のキュムラントを生成するのに使えること
    • そのため,はキュムラント関数と呼ばれることもある
  • MLE for the exponential family
    • 指数型分布族の尤度は
    • Pitman-Koopman-Darmois theorem
    • ある正則性条件の下で指数型分布族は有限の十分統計量をもつ唯一の分布族である
    • canonical exponential family modelの最尤推定値の計算法
    • N個のiid data point
    • 対数尤度は
    • ここでに対して凸なのでについて線形であり,対数尤度は凸
    • これを最大化するためにlog partition functionの微分は十分統計量ベクトルの期待値であることを用いて
    • 十分統計量の経験平均はモデルの理論的期待十分統計量と一致しなければならないので
    • を満たす
    • これはmoment matchingと呼ばれる
  • Bayes for the exponential family
  • Maximum entropy derivation of the exponential family

Generalized linear models (GLMs)

    • 線形回帰やロジスティック回帰はGLMの一つの例(McCullagh and Nelder 1989)
    • これらは出力密度がexponential familyであり,その平均パラメータがロジスティック関数のような非線形関数を通して,入力の線形結合で表されるモデル
  • Basics
    • GLM理解のために次のモデルを考える
    • : dispersion parameter
    • : natural parameter
    • : partition function
    • : normalized constant
    • たとえばロジスティック回帰でははlog-odd ratio
    • mean parameterからnatural parameterに変換するために関数を用いる.つまり,
    • この関数は指数型分布族の分布の形状から1つに決まる
    • これは逆写像であり,
    • Sec 9.2.3でやったように,平均はpartition functionの微分で与えられるので
    • まず,inputの線形関数を定義する
    • 分布の平均はこの線形結合の可逆単調関数
    • この関数はmean functionとして知られており
    • mean functionの逆関数g()はlink functionと呼ばれる
    • たとえばロジスティック回帰では
    • link functionの特にシンプルなものはをもちいるものでこれはcanonical link functionと呼ばれる
    • モデルは
    • Sec 9.2.3の結果を用いると,response variabkeの平均,分散は
      • 線形回帰
      • binomial regression
      • poisson regression
    • リンク関数
Name Formula
Logistic
Probit
Log-log
Complementary log-log
  • ML and MAP estimation
    • GLMの良い性質の一つとしてロジスティック回帰と同じ方法で推定が行える
    • 特にlog likelihoodが次の形をしているとき
    • チェインルールを用いて勾配ベクトルを計算可能
    • もしcanonical linkを用いると
    • non-canonical linkであっても実際のHessianの代わりにHessianの期待値(フィッシャー情報行列)を用いることができる
    • これをFisher scoring methodという

Probit regression

    • ロジスティック回帰の代わりにとなる標準正規分布を用いる
    • ロジスティック回帰と似ているが柔軟なモデルがつくれるなど,いくつかの利点がある
  • ML/MAP estimation using gradient-based optimization
  • Latent variable interpretation
    • Random utility model (McFadden 1974, Train 2009)が引用されており,研究分野の地続き感が感じられ感慨深い
  • Ordinal probit regression
  • Multinomial probit models

Multi-task learning

    • あるグループにはデータが大量にあるが,別のグループではそうではないときに,
    • それぞれモデルをつくってfitさせるのは難しいのでモデルパラメータをグループ間で共通にしてしまう考え方
    • ML分野では
      • multi-task learning (Caruana 1998)
      • transfer learnint (Raina et al. 2005)
      • learning to learn (Thrun and Pratt 1997)
    • 統計学では
      • hierarchical Bayesian models (Bakker and Heskes 2003)~
    • などと呼ばれる
  • Hierarchical Bayes for multi-task learning
  • Application to personalized email spam filtering
  • Application to domain adaptation

Generalized linear mixed models

  • Example: semi-parametric GLMMs for modical data
  • Comuputational issues

Learning to rank

  • The pointwise approach
  • The pairwise approach
  • The listwise approach
  • Loss functions for ranking

コメント

そろそろ詰みそう.今週はスケジュール的にきついー.