MLaPP アドベントカレンダー10日目:Ch.10 Directed graphical models

ということで10日目ですが,そろそろ力尽きそうな感じでDirected graphical modelです.この章のポイントがどこにあるのか,ざっと読んだだけでは理解しきれていません.当たり前のことが書いてあるような,重要なことが書いてあるような….細かい部分については2週目に持ち越しですかね….とりあえず11日目に繋ぐことだけを意識!(本末転倒とも言う)

Introduction

    • 同時確率分布をどうコンパクトに表現するか?
  • Chain rule
    • K個の状態があるときのテーブルで表現できる
    • このTをstochastic matrixという
    • 同様にの三次元テーブルをconditional probability tables (CPTS)という
    • 各CPTの代わりにもっと節約的な方法としてconditional probability distribution (CPS)がある
  • Conditional independence
    • 大きな同時確率分布を効率的に表現するためにCIを仮定する
    • これは(一次)マルコフ仮定といい,チェインルールを用いると
    • これをマルコフ連鎖といい,は状態推移行列という
  • Graphical models
    • CIを仮定することで同時確率分布を表現できる
    • グラフのノードが確率変数,エッジ(がない部分)がCIを表す
  • Graph terminology
    • グラフ表現時の用語説明
  • Directed graphical model
    • DGMはDAG(directed acyclic graph)で表現されるモデル
    • Bayesian networkという名で知られる(ただしここでのBayesianに本質的な意味はない)
    • これらはbelief networkとも呼ばれるし,causal networkとも呼ばれる
    • DAGの特徴はこの前に親が来るという順序でノードが並んでいること
    • これはトポロジカルオーダーと呼ばれる
    • この順序のもとではノードは直前の親にのみ依存するというordered Markov propertyが定義できる

Examples

  • Naive Bayes classifer
  • Markov and hidden Markov model
  • Medical diagnosis
  • Genetic linkage analysis
  • Directed Gaussian graphical model

Inference

    • 同時確率の主な利用法は確率的推論
    • 推論問題は既知としてがわかっていて
    • 観測変数x_v, 隠れ変数x_hとして

Learning

    • 学習はデータが与えられたときのパラメータのMAP推定
  • Plate notation
  • Learning from complete data
  • Learning with missing and/or latent variables

Conditional independence properties of DGMs

  • d-separation and the Bayes Ball algorithm (global Markov properties)
  • Other Markov properties of DGMs
  • Markov blanket and full conditionals

Influence (decision) diagrams

コメント

ただの目次の羅列やんけというのはやめましょう…凹みます.