回帰分析

回帰係数の検定(t検定)|「その傾きは偶然じゃないか?」を証明する

回帰係数のt検定:「その傾き、偶然じゃない?」

グラフに直線を引いたとき、多くの人がこう思います。
「お!右肩上がりだ!関係があるぞ!」
しかし、統計学はこう疑います。
「たまたまデータがそう並んだだけの『偶然』じゃないの?」

今回は、その右上がりの線が「実力(有意)」なのか「まぐれ(誤差)」なのかを見極める審判、t検定のロジックを直感的に解説します。


1. なぜ「検定」が必要なのか?

データには必ず「ばらつき(ノイズ)」があります。
全く無関係なデータ同士でも、数個選んでグラフにすれば、偶然「右上がりに見える」ことがよくあるのです。

📈

私たちが見たグラフ

「傾きがある!関係があるはずだ!」

🤔

統計的な疑い

「本当は傾き0なのに、誤差で傾いて見えているだけでは?」

2. あえて「無関係」だと仮定する

検定では、まず一番疑り深い仮説(帰無仮説)を立てて、それをデータで殴り倒します。

🔰 帰無仮説(きむかせつ)

「本当の傾きは 0 である」

(x と y には全く関係がない)

この仮説を否定(棄却)できれば、晴れて「関係がある(有意である)」と言えるようになります。

3. 「偶然」かどうかの判定式 (t値)

「偶然ではない」と証明するには、データの「シグナル」「ノイズ」よりも十分に大きいことを示す必要があります。

t値 (スコア) の正体
t =
傾きの大きさ (シグナル)
標準誤差 (ノイズ)

ノイズ(ばらつき)に対して、傾きが急であればあるほど、
t値は大きくなり「偶然ではない」確率が高まります。

4. 最後の審判 (P値)

計算ソフトが出してくれる「P値(ピーち)」を見て判定します。

P値 < 0.05 (5%未満)

「傾きは偶然ではない!」
帰無仮説を棄却します。
データには統計的に意味のある関係があります。

P値 ≧ 0.05

「偶然かもしれない…」
帰無仮説を棄却できません。
データが少なすぎるか、本当に関係がないかのどちらかです。

まとめ

  • 回帰分析で出た「傾き」が、本物かどうか疑うのがt検定
  • シグナル(傾き)÷ ノイズ(ばらつき) でスコア化する。
  • P値が0.05より小さければ、「その傾きは本物(有意)」と胸を張れる。

タグ

-回帰分析