回帰分析

【計算例あり】重回帰の平方和の分解|SR, Se, ST の意味と求め方を完全図解

😣 こんな悩みはありませんか?
  • 「平方和って何?SR、Se、STの違いがわからない…」
  • 「分散分析表の数字、どうやって計算するの?」
  • 「"バラつきを分解する"ってどういう意味?」
✅ この記事でわかること
  • 3つの平方和(SR, Se, ST)の意味をイメージで理解
  • ST = SR + Se」の関係を図解
  • 具体的な数値を使った計算手順
  • 分散分析表を作る準備が完了

前回の記事で、正規方程式を使って偏回帰係数を求める方法を学びました。

でも、係数が求まっただけでは不十分です。次に知りたいのは、

「この重回帰式、本当に役に立っているの?」

ということですよね。

それを判断するために、まず「平方和の分解」を理解する必要があります。

この記事では、「平方和」とは何か、なぜ分解するのか、どうやって計算するのかを、具体例を使って徹底解説します。

📘 正規方程式の計算をまだ見ていない方はこちら
【計算例あり】重回帰の正規方程式|偏回帰係数と切片を求める全手順 →

🎯 平方和とは?

まず、「平方和」という言葉の意味を押さえましょう。

📐 平方和とは?

「偏差(平均からのズレ)を2乗して、すべて足し合わせたもの」です。

データのバラつきの大きさを表す指標です。

「平方」は「2乗」、「和」は「合計」という意味ですね。

💡 なぜ2乗するの?
偏差をそのまま足すと、プラスとマイナスが打ち消し合ってゼロになってしまうからです。2乗することで、すべてプラスになり、バラつきの大きさを正しく測れます。

🧩 3つの平方和の意味

重回帰分析では、3つの平方和を計算します。

🟢 総平方和 ST(Total Sum of Squares)

📐 総平方和 ST
ST = Σ(yᵢ − ȳ)²

意味:目的変数yの全体のバラつき
「各データが平均からどれだけ離れているか」の合計

これは「説明する前の、yのバラつき全体」を表しています。

🔵 回帰平方和 SR(Regression Sum of Squares)

📐 回帰平方和 SR
SR = Σ(ŷᵢ − ȳ)²

意味:回帰式で説明できるバラつき
「予測値が平均からどれだけ離れているか」の合計

これは「重回帰式のおかげで説明できた部分」を表しています。SRが大きいほど、回帰式が役に立っています。

🟠 残差平方和 Se(Error Sum of Squares)

📐 残差平方和 Se
Se = Σ(yᵢ − ŷᵢ)²

意味:回帰式で説明できないバラつき(残差)
「実測値と予測値のズレ」の合計

これは「重回帰式では説明しきれなかった誤差」を表しています。Seが小さいほど、回帰式の当てはまりが良いです。

🍰 「バラつきの分解」をイメージで理解

3つの平方和の関係を、ケーキの分割でイメージしてみましょう。

🎂 ケーキの例え

【yのバラつき = 1つのホールケーキ】

🟢 ST
ホールケーキ全体
(全バラつき)
=
🔵 SR
食べた部分
(説明できた)
+
🟠 Se
残った部分
(説明できない)

つまり、yのバラつき全体(ST)を、「回帰で説明できた部分(SR)」と「説明できなかった部分(Se)」に分けるのです。

📐 平方和の分解公式
ST = SR + Se

全体のバラつき = 説明できた + 説明できなかった

📊 グラフでイメージする

1つのデータ点について、平方和の分解を視覚的に見てみましょう。

【1つのデータ点のバラつき分解】

実測値 yᵢ平均 ȳ=全体の偏差

これを分解すると...

予測値 ŷᵢ平均 ȳ=回帰で説明
実測値 yᵢ予測値 ŷᵢ=残差(誤差)
💡 ポイント
(yᵢ − ȳ)= (ŷᵢ − ȳ)+ (yᵢ − ŷᵢ)

これを2乗して全データで合計すると、ST = SR + Se になります。

🎯 なぜ平方和を分解するの?

平方和を分解する目的は、「回帰式がどれだけ役に立っているか」を数値で評価するためです。

状況SRとSeの関係意味
理想的 😊SR 大Se 小回帰式でほとんど説明できている
ダメ 😢SR 小Se 大回帰式が役に立っていない
📗 決定係数R²との関係
決定係数 R² = SR / ST です。つまり「全体のバラつきのうち、何%を回帰で説明できたか」を表します。

決定係数(R²)の正体|「あてはまりの良さ」を視覚的に理解する →

📊 具体例で計算してみよう

前回の記事で使った「製品の強度」のデータで、実際に平方和を計算してみましょう。

📋 使用するデータ

前回求めた重回帰式:y = 2.4 + 1.53x₁ + 1.33x₂

No.x₁x₂実測値 y予測値 ŷ
11155.27
22176.80
332109.67
4421111.20
5531414.07
平均ȳ = 9.4

yの平均は ȳ = (5+7+10+11+14)/5 = 9.4 です。

🟢 Step 1:総平方和 ST を計算

ST = Σ(yᵢ − ȳ)² を計算します。

No.yy − ȳ(y − ȳ)²
155 − 9.4 = −4.419.36
277 − 9.4 = −2.45.76
31010 − 9.4 = 0.60.36
41111 − 9.4 = 1.62.56
51414 − 9.4 = 4.621.16
合計ST = 49.20

🟠 Step 2:残差平方和 Se を計算

Se = Σ(yᵢ − ŷᵢ)² を計算します。

No.yŷy − ŷ(残差)(y − ŷ)²
155.27−0.270.07
276.800.200.04
3109.670.330.11
41111.20−0.200.04
51414.07−0.070.00
合計Se = 0.27

🔵 Step 3:回帰平方和 SR を計算

SR は「ST − Se」で求めるのが簡単です。

SR = ST − Se

SR = 49.20 − 0.27

SR = 48.93
💡 別の計算方法
SR = Σ(ŷᵢ − ȳ)² でも計算できますが、ST − Se の方が計算ミスが少なくおすすめです。
📘 一元配置実験の平方和計算を復習したい方はこちら
総平方和(St)の計算|データ全体のバラつきを数値化する →

🎉 結果のまとめと解釈

📊 計算結果

平方和割合意味
ST(総)49.20100%yの全バラつき
SR(回帰)48.9399.5%回帰で説明できた
Se(残差)0.270.5%説明できなかった
💡 解釈
全バラつき(ST = 49.20)のうち、99.5%(SR = 48.93)が重回帰式で説明できていることがわかります。

これは非常に当てはまりの良いモデルです。決定係数 R² = 48.93/49.20 = 0.995 となります。

✅ 検算:ST = SR + Se になっているか?

SR + Se = 48.93 + 0.27 = 49.20 = ST ✓

ちゃんと一致しています!計算が正しいことが確認できました。

⚡ 簡便法:統計量から直接計算

実は、正規方程式で使った統計量から直接平方和を計算する公式もあります。

📐 簡便法の公式

📐 総平方和(簡便法)
ST = Σy² − (Σy)²/n
📐 回帰平方和(簡便法)
SR = β₁(Σx₁y − Σx₁·Σy/n) + β₂(Σx₂y − Σx₂·Σy/n)

この公式を使えば、予測値ŷを計算せずに平方和を求められます。データ数が多いときに便利です。

📙 修正項(CT)の考え方を詳しく知りたい方はこちら
修正項(CT)とは?T²/Nの計算式を図解で理解する →

📋 次のステップ:分散分析表へ

平方和が求まったら、次は分散分析表を作ります。

分散分析表では、以下のことがわかります。

  • 重回帰モデル全体が統計的に有意か(F検定)
  • 各説明変数がどれだけ貢献しているか

【分散分析表のプレビュー】

要因平方和 S自由度 φ平均平方 VF値
回帰 R48.93???
残差 e0.27??
計 T49.20?

次の記事で、この「?」の部分を埋めていきます!

📋 まとめ

この記事では、重回帰分析の「平方和の分解」を解説しました。

✅ この記事のポイント
  • 平方和は「バラつきの大きさ」を表す指標
  • ST = SR + Se(全体 = 説明できた + 説明できない)
  • ST:yの全バラつき(総平方和)
  • SR:回帰で説明できたバラつき(回帰平方和)
  • Se:説明できなかったバラつき(残差平方和)
  • SR/ST(=決定係数R²)が大きいほど良いモデル

平方和の分解は、「回帰式がどれだけ役に立っているか」を評価する第一歩です。

次は、この平方和を使って分散分析表を完成させ、F検定で回帰モデルの有意性を判定しましょう。

📖 重回帰分析の全体像を確認したい方へ

平方和の分解は、重回帰分析の評価ステップの1つです。

📊 重回帰分析とは?(超入門)→
📕 実験計画法の平方和を復習したい方はこちら
群間平方和と群内平方和|バラつきを「効果」と「誤差」に分解する →

タグ

-回帰分析
-