双子ママ、今日も楽しい!

双子の2年生の女の子と4歳の男の子を育てています。

一般化線形モデルのキホン:“線形予測子”のお話

おはようございます!

ゆきちゃんママです!

 

前回の記事では、「リンク関数とは、平均(期待値)を線形予測子につなぐための変換のことだよ」という話を書きました。

yukichan-mama.com

 

その一つ前の記事では、一般化線形モデル(GLM)で分析するためには、リンク関数や線形予測子などが必要なんだよ〜というところまで紹介したのですが……

yukichan-mama.com

線形予測子とは何か? の説明をうっかり忘れていました(笑)

というわけで、今日はその「線形予測子」について書こうと思います。

 

 

 

線形予測子とは?

線形予測子(linear predictor)とは、

回帰モデルの “線形の部分だけ” を取り出したもの です。

 

式で書くとこうなります:

 

η = β0 + β1 x1 + β2 x2 + ...

 

この η(イータ)のことを

線形予測子(linear predictor) と呼びます。

 

 

 

もうちょっとわかりやすくいうと?

線形予測子とは、

  • 説明変数 × 係数 を

  • “足し合わせた部分”だけを取り出したもの。

 

つまり、

  • 予測の中心にある直線部分

  • GLM のエンジン部分

  • 観測データ y の分布にはまだ触っていない“中間ステップ”

 

 

というイメージです。

 

 

 

どうして「線形」なの?

どんなに複雑なモデルでも、

  • 説明変数

  • 係数

  • 足し算

という形は変わりません。

 

たとえば、

  • ロジスティック回帰でも

  • ポアソン回帰でも

  • ガンマ回帰でも

 

何を予測していても、この「線形結合」の部分は同じ形をしています。

 

η = Xβ

 

だからこそ “一般化線形モデル(Generalized Linear Model)” と呼ばれているわけですね。

 

 

 

線形予測子ってどう使うの?

GLM では、

 

g(μ) = η

 

という形で、

  • 線形予測子 η

  • 目的変数の平均(期待値) μ

  • リンク関数 g()

 

を結びつけます。

 

たとえば:

 

 

ロジスティック回帰(0/1など)

logit(p) = β0 + β1 x

 

ポアソン回帰(カウントデータ)

log(μ) = β0 + β1 x

 

どんな分布を使っていても、

β0 + β1x + … の線形結合の部分は共通なんです。

 

 

料理の比喩

  • 線形予測子(η) → 刻んで混ぜた“生地”

  • リンク関数 g() → 生地の形をどう整えるか(丸める/のばす)

  • 確率分布 → 焼く・蒸す・揚げるなど、どんな方法で仕上げるか

 

どんな料理でも、「生地 → 成形 → 加熱」の順番で進むように、

GLM も「線形予測子 → リンク関数 → 分布」の順に進むイメージです。

 

 

 

私の理解としては……?

一般化線形モデル(GLM)で分析をするには、

  • 確率分布(誤差分布)

  • 線形予測子

  • リンク関数

が必要になります。

 

以前の私は、

「全部きっちり理解していないと分析できないじゃーん!私にはまだ無理!(笑)」

と思っていたのですが……

 

実は、確率分布が決まると、だいたい“定番のリンク関数”も決まっているんです。

  • ポアソン分布 → logリンク

  • 二項分布 → logitリンク

  • ガンマ分布 → inverseリンク(よく使う)

  • 正規分布 → identityリンク

 

というように、

“標準的なセット”があるので意外と迷いません。

 

ただし、あくまで「定番」であって、

必要ならリンク関数を変える自由があるところが GLM の良いところであり、難しいところでもあります(笑)

 

典型的な組み合わせについては、

次回、実際に R で GLM を動かしながら詳しく解説しますね!

 

私もまだまだ勉強途中ですが、

手を動かして、記事を書いて、少しずつ理解していけばいいかなと思っています。

 

今日も最後まで読んでいただきありがとうございました!

 

PVアクセスランキング にほんブログ村