回帰係数のt検定:「その傾き、偶然じゃない?」
グラフに直線を引いたとき、多くの人がこう思います。
「お!右肩上がりだ!関係があるぞ!」
しかし、統計学はこう疑います。
「たまたまデータがそう並んだだけの『偶然』じゃないの?」
今回は、その右上がりの線が「実力(有意)」なのか「まぐれ(誤差)」なのかを見極める審判、t検定のロジックを直感的に解説します。
1. なぜ「検定」が必要なのか?
データには必ず「ばらつき(ノイズ)」があります。
全く無関係なデータ同士でも、数個選んでグラフにすれば、偶然「右上がりに見える」ことがよくあるのです。
私たちが見たグラフ
「傾きがある!関係があるはずだ!」
統計的な疑い
「本当は傾き0なのに、誤差で傾いて見えているだけでは?」
2. あえて「無関係」だと仮定する
検定では、まず一番疑り深い仮説(帰無仮説)を立てて、それをデータで殴り倒します。
🔰 帰無仮説(きむかせつ)
「本当の傾きは 0 である」
(x と y には全く関係がない)
この仮説を否定(棄却)できれば、晴れて「関係がある(有意である)」と言えるようになります。
3. 「偶然」かどうかの判定式 (t値)
「偶然ではない」と証明するには、データの「シグナル」が「ノイズ」よりも十分に大きいことを示す必要があります。
ノイズ(ばらつき)に対して、傾きが急であればあるほど、
t値は大きくなり「偶然ではない」確率が高まります。
4. 最後の審判 (P値)
計算ソフトが出してくれる「P値(ピーち)」を見て判定します。
「傾きは偶然ではない!」
帰無仮説を棄却します。
データには統計的に意味のある関係があります。
「偶然かもしれない…」
帰無仮説を棄却できません。
データが少なすぎるか、本当に関係がないかのどちらかです。
まとめ
- 回帰分析で出た「傾き」が、本物かどうか疑うのがt検定。
- シグナル(傾き)÷ ノイズ(ばらつき) でスコア化する。
- P値が0.05より小さければ、「その傾きは本物(有意)」と胸を張れる。