実験計画法やQC検定の勉強をしていて、突然現れる謎の概念「平均平方の期待値 E(V)」。
参考書を開けば、当たり前のように E(V) = σ² + nσa² なんて数式が出てきますが、正直こう思いませんか?
「え、急にこの n はどこから来たの? そもそもこれ、何のために計算してるの?」
安心してください。ここでつまずくのはあなただけではありません。
この記事では、数式の丸暗記は一切禁止。「どういう発想で作られているのか」をイラストのようにイメージしながら、脳に定着させていきましょう。
💡 30秒でわかる記事の結論
- ✅E(V)とは、データの「中身(成分)」を分解して見せるレントゲン写真である。
- ✅基本は「ノイズ(誤差)」+「シグナル(要因)」の足し算。
- ✅数式につく係数(nやr)は、「データの繰り返し回数」=シグナルの強さ。
※「そもそも期待値って何だっけ?」とモヤモヤする方は、身近な例で頭をほぐしてから進むと理解が早まります。
目次
1. そもそも「平均平方の期待値」とは?
教科書的な定義を言うと、こうなります。
「もし同じ実験を無限回繰り返して平均をとったとき、その分散(V)が理論的にどんな値に落ち着くか」
...これだとイメージしづらいですよね。
もっとざっくり、「データの成分表」だと思ってください。
🧪 実験データの構造モデル
データ(x) = 全体平均(μ) + 要因の効果(a) + 偶然の誤差(ε)
データは常に「意味のある効果」と「ただのノイズ」が混ざってできています。これを数式で分解して見せてくれるのが E(V) です。
2. 「1元配置」で見るメカニズム
まずは一番シンプルな「1元配置(要因Aが g 水準、各水準で n 回観測)」で考えてみましょう。
ポイントは、「誤差はそのまま、要因は増幅される」という点です。
① 誤差項 (VE) の期待値
誤差(E)は、実験を何度やっても必ずついて回る「基礎ノイズ」です。
分子も分母も純粋な「誤差」だけでできているので、期待値をとってもそのままです。
② 要因項 (VA) の期待値
ここが試験に出ます。要因Aの分散(VA)の中には、2つの成分が混ざり込みます。
- 🌫️ 基礎ノイズ(σ²)
→ どんなデータにも必ず含まれるので、ここにも顔を出します。 - 🔥 要因Aの効果(V(ai))
→ ここに「n(繰り返し回数)」という係数が掛かります!
なぜ n倍? → 「同じ条件で n回データを取ったから」です。
データが集まるほど、ノイズに対して「効果」の信号が n倍強く浮き上がってくるイメージです。
3. 複雑な「2元配置」も怖くない!魔法のルール
要因が増えて「2元配置(要因A、要因B、繰り返しr回)」になっても、基本は同じ。
「自分以外の数を全部掛ける」というルールさえ覚えれば一瞬で解けます。
| 要因 | 期待値 E(V) の中身 | イメージ |
|---|---|---|
| VA (要因A) | σ² + r×m×V(a) | A以外の回数(r)と水準数(m)が掛かる。 「自分以外全部乗せ」 |
| VB (要因B) | σ² + r×l×V(b) | B以外の回数(r)と水準数(l)が掛かる。 |
| VAB (交互作用) | σ² + r×V(ab) | AとB以外の回数(r)だけが掛かる。 |
| VE (誤差) | σ² | いつものノイズ。係数はなし。 |
4. これがわかると「F検定」の意味がわかる
最後に、分散分析表でやっている「F値の計算(割り算)」の意味を回収しましょう。
なぜ F = VA / VE という割り算をするのか?
もし「効果」がゼロなら、分子も分母も同じ σ² になるので、割り算の結果(F値)は 1 に近づきます。
逆に「効果」が大きければ大きいほど、分子だけが大きくなるので、F値は 1よりずっと大きく なります。
つまり、E(V) の式を知っていることは、「何を何で割れば正しい検定ができるか」を知っていることと同じなのです。
まとめ:もう数式に怯えない
- ✅ E(V)は「分解図」:データの中にあるノイズと効果を分けて見せてくれる。
- ✅ 係数は「繰り返し数」:データが多いほど、効果(シグナル)は増幅されて見えやすくなる。
- ✅ 2元配置は「自分以外」:自分以外の添字の数を掛け算すればOK。
このイメージさえあれば、もし試験中にド忘れしても、その場で式を組み立てることができます。自信を持って試験に臨んでくださいね!
📚 実験計画法の「挫折」を救う2冊
「数式を見た瞬間に本を閉じた」
そんな経験がある私だからこそ推せる、厳選のバイブルです。
