前回は、回帰分析について詳しく考えてみました。
今日は、いつもお世話になっている分散分析(ANOVA)と、前回まとめた回帰分析の違いについて整理してみたいと思います。
ざっくり言うと、
そもそもの目的が違います!
-
分散分析は「グループ間の違い(差)」を見たいときに使う
-
回帰分析は「予測や傾向」を知りたいときに使う
という違いがあります。
分散分析(ANOVA)でわかること
-
グループ間に差があるかどうか
例:Aクラス・Bクラス・Cクラスのテスト点に違いはある?
→ 平均の違いが「たまたま」か「本物」かを検定できる
-
どこに差があるか(多重比較)
→ もし全体で差があるとわかったら、
「AとB」「BとC」などどの組み合わせに差があるのかも調べられる(Tukeyなど)
-
差の大きさ(効果量)
→ 差が統計的に有意でも、どれくらい大きな差なのか?を**η²(イータ二乗)**などで確認できる
-
統計的に有意かどうか(p値)
→ グループの違いが偶然によるものではなさそうかどうかもp値でチェックできる
回帰分析でわかること
- 変数同士の関係(傾き・方向)
例:身長が1cm高くなると、体重はどのくらい増える?
→ 「身長=0.6 × 身長 + 20」などの回帰式が作れる
→ 傾き(0.6)が回帰係数(β)
-
全体の当てはまりの良さ
例:身長だけで体重をどのくらい予測できる?
→ 「R² = 0.85」なら、**85%くらい体重を身長で説明できる!**という意味
-
統計的に有意かどうか(p値)
→ 関係がたまたまじゃないかを調べる。
→ ここで使われる検定は、実はANOVAとつながっている!
まとめ
分散分析(ANOVA) |
回帰分析 |
|
---|---|---|
目的 |
グループの違いを見る |
数値の関係性や予測 |
使う場面 |
3群以上の平均を比較したいとき |
原因と結果のつながりを調べたいとき |
例 |
「AとBに差があった(p < .05)」 |
「Xが1増えると、Yが0.8増える」 |
出てくる指標 |
平均の差、p値、効果量(η²) |
回帰係数(β)、決定係数(R²)、p値 |
次回予告
来週からは、統計モデリングに向けて、
これまでの分析とモデリングの考え方の違いや、ステップアップのポイントについて書いていこうと思います。
お楽しみに!