おはようございます!
ゆきちゃんママです!
前回の記事では、「リンク関数とは、平均(期待値)を線形予測子につなぐための変換のことだよ」という話を書きました。
その一つ前の記事では、一般化線形モデル(GLM)で分析するためには、リンク関数や線形予測子などが必要なんだよ〜というところまで紹介したのですが……
線形予測子とは何か? の説明をうっかり忘れていました(笑)
というわけで、今日はその「線形予測子」について書こうと思います。

線形予測子とは?
線形予測子(linear predictor)とは、
回帰モデルの “線形の部分だけ” を取り出したもの です。
式で書くとこうなります:
η = β0 + β1 x1 + β2 x2 + ...
この η(イータ)のことを
線形予測子(linear predictor) と呼びます。
もうちょっとわかりやすくいうと?
線形予測子とは、
-
説明変数 × 係数 を
-
“足し合わせた部分”だけを取り出したもの。
つまり、
-
予測の中心にある直線部分
-
GLM のエンジン部分
-
観測データ y の分布にはまだ触っていない“中間ステップ”
というイメージです。
どうして「線形」なの?
どんなに複雑なモデルでも、
-
説明変数
-
係数
-
足し算
という形は変わりません。
たとえば、
-
ロジスティック回帰でも
-
ポアソン回帰でも
-
ガンマ回帰でも
何を予測していても、この「線形結合」の部分は同じ形をしています。
η = Xβ
だからこそ “一般化線形モデル(Generalized Linear Model)” と呼ばれているわけですね。
線形予測子ってどう使うの?
GLM では、
g(μ) = η
という形で、
-
線形予測子 η
-
目的変数の平均(期待値) μ
-
リンク関数 g()
を結びつけます。
たとえば:
ロジスティック回帰(0/1など)
logit(p) = β0 + β1 x
ポアソン回帰(カウントデータ)
log(μ) = β0 + β1 x
どんな分布を使っていても、
β0 + β1x + … の線形結合の部分は共通なんです。
料理の比喩
-
線形予測子(η) → 刻んで混ぜた“生地”
-
リンク関数 g() → 生地の形をどう整えるか(丸める/のばす)
-
確率分布 → 焼く・蒸す・揚げるなど、どんな方法で仕上げるか
どんな料理でも、「生地 → 成形 → 加熱」の順番で進むように、
GLM も「線形予測子 → リンク関数 → 分布」の順に進むイメージです。
私の理解としては……?
一般化線形モデル(GLM)で分析をするには、
-
確率分布(誤差分布)
-
線形予測子
-
リンク関数
が必要になります。
以前の私は、
「全部きっちり理解していないと分析できないじゃーん!私にはまだ無理!(笑)」
と思っていたのですが……
実は、確率分布が決まると、だいたい“定番のリンク関数”も決まっているんです。
というように、
“標準的なセット”があるので意外と迷いません。
ただし、あくまで「定番」であって、
必要ならリンク関数を変える自由があるところが GLM の良いところであり、難しいところでもあります(笑)
典型的な組み合わせについては、
次回、実際に R で GLM を動かしながら詳しく解説しますね!
私もまだまだ勉強途中ですが、
手を動かして、記事を書いて、少しずつ理解していけばいいかなと思っています。
今日も最後まで読んでいただきありがとうございました!
