小学生の体力低下は長年の課題であり、都道府県間の体力格差も大きい。本研究は文部科学省の全国体力・運動能力調査(小学5年生)を用いて、生活習慣変数から体力得点を予測する重回帰モデルを構築した。特に男女別の分析により、体力規定要因の性差を明らかにした。
まず「小学生の運動能力についての要因分析」を統計的にとらえることが有効だと考えられる。
その理由は感覚や経験則だけでは、複雑な社会要因の中で「何が本当に効いているか」を見極めにくいからである。
本研究では公開データと統計手法を組み合わせ、この問いに定量的な答えを出すことを目指す。
研究の目的
- 運動習慣・生活習慣のどの変数が体力得点と最も強く関連するか
- 男子と女子で体力の規定要因が異なるか(性差の検討)
- 都道府県レベルのデータで見た時の「地域差」の要因
分析の流れ
全国体力調査
小5(47都道府県)
+ SSDSE-B
→
相関分析
候補変数
の絞り込み
→
VIF確認
多重共線性
の診断
→
重回帰分析
(男女別)
OLS
Pearson相関分析
VIF診断
重回帰(OLS)
男女別サブグループ分析
各説明変数と体力得点(男女)の Pearson相関係数を算出し、有意な相関が認められた変数を回帰分析の候補とする。
📌 この回帰係数プロットの読み方
- このグラフは
- 重回帰分析の各説明変数の係数(影響の強さと向き)をバーや点で表したグラフ。
- 読み方
- 右(プラス方向)に伸びるバーは「この変数が増えると目的変数も増える」正の影響。左(マイナス方向)は逆。
- なぜそう解釈できるか
- エラーバー(誤差棒)が0をまたいでいない変数が統計的に有意(p < 0.05)。バーが長いほど影響が大きい。
相関分析の結果
- 運動時間(正):男子で特に強い相関(r≈0.33)
- 朝食欠食率(負):女子で特に強い相関(生活習慣の性差)
- スポーツ少年団所属率(正):男女ともに有意
- スクリーンタイム(負):男女ともに負の相関
DS LEARNING POINT 1
Pearson相関係数と無相関検定
相関係数の検定(帰無仮説:ρ=0)は scipy.stats.pearsonr で実施。N=47 の場合、|r|≥0.29 で有意(p<0.05)になることが多い。ただし統計的有意≠実質的意義のため、効果量の確認が必要。
from scipy import stats
import numpy as np
# Pearson相関係数 + p値
r, p = stats.pearsonr(exercise_time, score_male)
print(f"r = {r:.3f}, p = {p:.4f}")
# 相関係数ヒートマップ(全変数)
corr_matrix = df.corr()
import matplotlib.pyplot as plt
fig, ax = plt.subplots(figsize=(9, 8))
im = ax.imshow(corr_matrix, cmap='RdBu_r', vmin=-1, vmax=1)
plt.colorbar(im, label='Pearson r')
# セルに数値を表示
for i in range(len(corr_matrix)):
for j in range(len(corr_matrix)):
ax.text(j, i, f'{corr_matrix.iloc[i,j]:.2f}',
ha='center', va='center', fontsize=8)
複数の説明変数間に高い相関があると(多重共線性)、回帰係数の推定が不安定になる。VIF(分散拡大係数)で多重共線性を診断する。
VIF_j = 1 / (1 - R²_j)
R²_j:変数jを他の説明変数で回帰した際の決定係数
VIF < 5:問題なし,VIF ≥ 10:深刻な多重共線性
📌 この回帰係数プロットの読み方
- このグラフは
- 重回帰分析の各説明変数の係数(影響の強さと向き)をバーや点で表したグラフ。
- 読み方
- 右(プラス方向)に伸びるバーは「この変数が増えると目的変数も増える」正の影響。左(マイナス方向)は逆。
- なぜそう解釈できるか
- エラーバー(誤差棒)が0をまたいでいない変数が統計的に有意(p < 0.05)。バーが長いほど影響が大きい。
VIF診断の結果
全変数のVIFが5以下であり、多重共線性は問題のないレベルと判断。
全変数を投入したモデルで重回帰分析を実施できる。
DS LEARNING POINT 2
VIFの計算方法
statsmodels の variance_inflation_factor を使うのが最も簡単。VIFが高い変数が2つある場合は、どちらか一方を除外するか、主成分分析で次元削減することを検討する。
from statsmodels.stats.outliers_influence import variance_inflation_factor
import statsmodels.api as sm
# 定数項を追加(VIF計算の標準的な手順)
X_const = sm.add_constant(X)
# 各変数のVIF計算
vif_values = []
for i in range(X.shape[1]):
vif = variance_inflation_factor(X_const, i+1) # i+1(定数項を除く)
vif_values.append(vif)
print(f"{VAR_NAMES[i]}: VIF = {vif:.2f}")
# 判断基準
# VIF < 5: 問題なし(よく使われる基準)
# VIF < 10: 許容範囲(緩い基準)
# VIF >= 10: 深刻な多重共線性 → 対処が必要
OLS重回帰分析を男女別に実施し、体力得点に有意な影響を与える変数を特定する。係数の符号(正/負)と有意性(p値)に注目する。
📌 この回帰係数プロットの読み方
- このグラフは
- 重回帰分析の各説明変数の係数(影響の強さと向き)をバーや点で表したグラフ。
- 読み方
- 右(プラス方向)に伸びるバーは「この変数が増えると目的変数も増える」正の影響。左(マイナス方向)は逆。
- なぜそう解釈できるか
- エラーバー(誤差棒)が0をまたいでいない変数が統計的に有意(p < 0.05)。バーが長いほど影響が大きい。
📌 この散布図の読み方
- このグラフは
- 横軸(x)と縦軸(y)に2変数を取り、各都道府県(または自治体)を点で描いたグラフ。
- 読み方
- 点の並びに右上がりの傾向があれば正の相関、右下がりなら負の相関。点が直線に近いほど相関が強い。
- なぜそう解釈できるか
- 回帰直線(赤線など)の傾きが回帰係数に対応する。直線から大きく外れた点が外れ値で、特異な地域を示す。
| 変数 | 男子係数 | 男子p値 | 女子係数 | 女子p値 |
| 運動時間 | +(有意) | <0.05 | +(弱) | ≥0.05 |
| 睡眠時間 | +(弱) | ≥0.05 | +(弱) | ≥0.05 |
| 朝食欠食率 | −(弱) | ≥0.05 | −(有意) | <0.05 |
| スクリーンタイム | −(弱) | ≥0.05 | −(弱) | ≥0.05 |
| スポーツ少年団所属率 | +(弱) | ≥0.05 | +(弱) | ≥0.05 |
| 肥満傾向児割合 | −(弱) | ≥0.05 | −(弱) | ≥0.05 |
男女差の知見
- 男子:運動時間が最も有意な変数。運動強度・量が体力に直結する。
- 女子:朝食欠食率が最も有意な変数。生活習慣(食事・睡眠)が体力に影響。
- N=47 の小サンプルのため、統計的有意性の境界は慎重に解釈する必要がある。
DS LEARNING POINT 3
サブグループ分析の実施方法
男女別・学年別などサブグループ分析は、全体モデルでは見えない「異質性」を明らかにする。ただし各グループのNが小さくなるため、検出力が下がることに注意。
import statsmodels.api as sm
import numpy as np
# 男女別に重回帰を実施
for gender, score in [('男子', score_male), ('女子', score_female)]:
X_reg = sm.add_constant(X_vars)
model = sm.OLS(score, X_reg).fit()
print(f"\n=== {gender} ===")
print(f"R² = {model.rsquared:.3f}")
print(f"AdjR² = {model.rsquared_adj:.3f}")
# 有意な変数の確認
sig_vars = [VAR_NAMES[i] for i, p in enumerate(model.pvalues[1:])
if p < 0.05]
print(f"有意変数(p<0.05): {sig_vars}")
# 男女の係数の差を検定(Chow検定のアイデア)
# 交互作用項(gender × X)を含むモデルで検定
⚠️ よくある誤解と注意点
統計分析の解釈で初心者がやりがちな勘違いをまとめます。特に「相関と因果の混同」「p値の過信」は研究現場でもよく起きる落とし穴です。本文を読む前にも、読んだ後にも、目を通してみてください。
❌ 「相関がある=因果関係がある」ではない
疑似相関(spurious correlation)とは、見かけ上は関係があるように見えるが、実際は無関係、または第三の変数(交絡変数)が両方に影響しているだけの現象です。
古典例: アイスクリームの売上 と 水難事故件数 は強く相関するが、片方が他方を引き起こしているわけではない。両者とも「夏の暑さ」という第三の変数に引きずられているだけ。
論文を読むときの心構え: 「○○と△△に強い相関が見られた」だけで終わっている主張は、本当に因果関係があるのか、それとも第三の変数(人口・所得・地理など)が共通要因として効いているだけではないかを必ず疑ってください。
❌ 「p値が小さい=重要な発見」ではない
p値が小さい(例えば p < 0.001)ことは「統計的に偶然とは考えにくい」という意味であって、「実用的に大きな効果がある」という意味ではありません。
例: 巨大なサンプルサイズ(n=100,000)では、相関係数 r=0.02 でも p < 0.001 になります。しかし r=0.02 は実用上ほぼ無視できる関係です。
正しい読み方: p値と効果量(係数の大きさ、相関係数の値)の両方をセットで判断してください。p値だけで「重要な発見」と結論づけるのは誤りです。
❌ 「回帰係数が大きい=重要な変数」ではない
回帰係数の絶対値は、説明変数の単位に強く依存します。「年収(万円)」と「失業率(%)」の係数を直接比較しても意味がありません。
正しい比較方法: (1) 標準化係数(各変数を平均0・分散1に変換した上での係数)を使う、(2) 限界効果(変数を1標準偏差動かしたときのyの変化)で比較する。
また、係数の大きさが「因果関係の強さ」を意味するわけでもありません。あくまで「相関的な関連の強さ」です。
❌ 「外れ値を除外すれば正しい結果」ではない
外れ値(極端な値)を「目障りだから」「結果が綺麗にならないから」という理由で除外するのは分析の改ざんに近い行為です。
外れ値が示すもの: 本当に重要な情報(東京の超高密度、北海道の超低密度など)であることが多い。外れ値を取り除くと「日本全体の傾向」を見誤る原因になります。
正しい対処: (1) 外れ値の出現要因を調査する(なぜ東京だけ突出するのか)、(2) ノンパラメトリック手法(Spearman相関・Kruskal-Wallis)を使う、(3) 外れ値を含む結果と除外した結果の両方を提示し、解釈を読者に委ねる。
❌ 「サンプルサイズが大きい=信頼できる」ではない
サンプルサイズ(n)が大きいと統計的検定の検出力は上がりますが、それは「偶然による誤差を減らす効果」にすぎません。
nが大きくても解消されない問題:
・選択バイアス(標本が偏っている)
・測定誤差(変数の定義が曖昧)
・欠損値のパターン(欠損がランダムでない)
・交絡変数の見落とし
例: 1万人にWeb調査して「ネット利用と幸福度は強く相関」と言っても、そもそも回答者がネットユーザー寄りに偏っているため、母集団全体の結論にはなりません。
❌ 「複雑なモデル=より良い分析」ではない
ランダムフォレスト・ニューラルネット・複雑な階層モデルなど、高度な手法を使えば「良い分析」と感じがちですが、必ずしもそうではありません。
過学習(overfitting)の罠: モデルが複雑すぎると、訓練データの偶然のパターンまで学習してしまい、新しいデータでは予測精度が落ちます。
シンプルさの価値: 重回帰分析や相関分析は「結果が解釈しやすい」「再現性が高い」という大きな利点があります。複雑な手法はシンプルな手法で答えが出ない時の最後の手段です。
❌ 「多重共線性は気にしなくていい」ではない
多重共線性とは、説明変数同士の相関が極めて強い状態のこと。これを放置すると、回帰係数の符号や大きさが入れ替わる異常事態が起こります。
典型例: 「総人口」と「労働力人口」を同時に投入すると、両者の相関が r=0.99 になり、係数推定が極端に不安定になります。「総人口は正だが、労働力人口は負」のような解釈不能な結果になりがちです。
診断と対処:
・VIF(分散拡大係数)を計算し、VIF > 10 の変数を確認
・相関行列で |r| > 0.8 のペアをチェック
・対処法:一方を除外、合成変数(PCA)に変換、Ridge回帰で安定化
❌ 「R²が高い=良いモデル」ではない
決定係数 R² はモデルの「当てはまりの良さ」を示しますが、R² が高くてもモデルが正しいとは限りません。
R² が高くなる罠:
・説明変数を増やせば R² は自動的に上がる(無関係な変数を追加してもR²は下がらない)
・時系列データでは、共通のトレンド(時間とともに増加)があるだけで R² が 0.9 を超える
・サンプルサイズが小さいとR²が過大評価される
代替指標: 調整済み R²(変数の数でペナルティ)、AIC・BIC(モデル選択基準)を併用してください。予測力の真の評価には交差検証(cross-validation)でテストデータの R² を見ること。
❌ 「ステップワイズで選んだ変数は重要」ではない
ステップワイズ法(バックワード・フォワード選択)は便利ですが、p値ベースの変数選択は再現性に問題があると批判されています。
問題点:
・同じデータでも実行順序によって最終モデルが変わる
・p値を繰り返し見ることで「偶然に有意な変数」を拾ってしまう(p-hacking)
・係数の標準誤差が過小評価され、信頼区間が嘘っぽくなる
より良い方法:
・事前に変数を理論で絞る(先行研究から候補を選ぶ)
・LASSO回帰(自動かつ統計的に正当化された変数選択)を使う
・交差検証で AIC/BIC 最小モデルを選ぶ
❌ 「線形回帰なら線形関係を前提にすべき」
重回帰分析は線形関係を前提とします。実際の関係が非線形なのに線形モデルで分析すると、本当の関係を見逃します。
非線形の例:
・U字型関係: 失業率と物価上昇率(フィリップス曲線)
・逓減効果: 所得と幸福度(年収 800万円までは強い正の効果、それ以上は飽和)
・閾値効果: 高齢化率と医療費(ある水準を超えると急激に上がる)
診断と対処:
・残差プロットで残差が0周辺に均等に分布しているか確認
・変数の対数変換・二乗項追加で非線形性を取り込む
・どうしても線形では捉えられないなら、機械学習(RF・GBM)を併用する
❌ 「データに当てはまった=予測に使える」ではない
「過去のデータでフィットしたから将来も予測できる」と思うのは危険です。
過学習(overfitting)の例: 47都道府県のデータに10個の説明変数を投入すれば、ほぼ完璧にフィットします(自由度がほぼゼロ)。でもそのモデルを新しい年度に適用すると、予測精度はほぼランダム並みに落ちることがあります。
正しい予測力の評価:
・データを訓練用 70%とテスト用 30%に分割し、テスト用での予測精度を見る
・k分割交差検証(k-fold CV)で予測の安定性を確認
・「説明変数の数 ≪ サンプルサイズ」のバランスを意識(目安:n > 10 × 変数数)
🎯 自分でやってみよう(5つのチャレンジ)
学んだだけでは身につきません。実際に手を動かすのが最強の学習方法です。本論文のスクリプトをベースに、以下のチャレンジに挑戦してみてください。難易度別に5つ用意しました。
★☆☆☆☆ 入門
CH1. 同じデータで分析を再現する
まずは付属の Python スクリプトをそのまま実行し、論文と同じ図を再現してみてください。
ポイント: 各図がどのコード行から生成されているか辿る。エラーが出たら原因を考える。
★★☆☆☆ 初級
CH2. 説明変数を1つ追加・除外して結果を比較
本論文の分析モデルから説明変数を1つ抜いて再実行、あるいは1つ追加して再実行してください。
ポイント: 係数・p値・R² がどう変わったか観察する。多重共線性が原因で結果が変わる例を見つけられたら理想的。
★★★☆☆ 中級
CH3. 別の年度・別の都道府県で同じ分析を試す
SSDSE の別の年度(例:2015年度・2020年度)または特定都道府県のみのデータで同じ分析を実行してください。
ポイント: 時代や地域によって結論が変わるか? 変わるならその理由を考察する。
★★★★☆ 上級
CH4. 別の手法を組み合わせる
本論文の手法 + 1つの追加手法(例:重回帰 + LASSO、相関分析 + 主成分分析)で結果を比較してください。
ポイント: 手法の違いで結論が変わるか? どちらが妥当かを「なぜ」とともに説明できるように。
★★★★★ 発展
CH5. オリジナルの問いを立てて分析する
本論文の手法を借りて、あなた自身の問いを立てて分析してください。
例:「カフェの数と幸福度に関連はあるか」「教育費の高い県は出生率も高いか」など。
ポイント: 問い・データ・手法・結論を1ページのレポートにまとめる。これがデータサイエンスの「実践」。
💡 ヒント: 詰まったら本サイトの他の論文(同じ手法を使っている)のスクリプトをコピーして組み合わせるのが効率的です。手法ガイド・用語集も参考に。
🤔 よくある質問(読者からの想定Q&A)
この論文を読んで初心者が抱きやすい疑問に、教育的観点から答えます。
Q1. この分析、自分でもできますか?
はい、できます。SSDSE データは無料で公開されており、Python の pandas, scikit-learn, statsmodels を使えば全く同じ手順で再現可能です。本ページ下部のスクリプトを実行するだけで結果が得られます。
Q2. 使われている手法は他の分野にも応用できますか?
十分応用可能です。本論文の[手法]は、医療・教育・経済・環境など他のドメインでも標準的に使われる手法です。データの中身(変数)を入れ替えるだけで、別の問いにも適用できます。
Q3. 結論は本当に「因果関係」を示していますか?
本論文は「観察データ」を使った分析であり、厳密な意味での「因果関係」を完全に証明したわけではありません。あくまで「強い関連が見られた」という事実を提示しているにとどまります。真の因果を示すには、無作為化比較試験(RCT)か、自然実験を活用したIV・DiD 等の手法が必要です。
Q4. データの最新版を使うとどうなりますか?
SSDSE は毎年更新されているため、最新版を使えば近年のトレンド(特にコロナ禍以降の変化)も含めて分析できます。ただし、結論が変わる可能性もあります。それ自体が新しい発見につながります。
Q5. もっと深く学ぶには何を読めばいいですか?
「計量経済学」「データサイエンス入門」「統計的因果推論」などのテキストが入門に向いています。Python の場合は『Python ではじめる機械学習』(オライリー)、R の場合は『R で学ぶ統計学』が定番です。本サイトの他の論文も読み比べてみてください。