論文一覧に戻る 統計データ分析コンペ 教育用再現集
🏆 2018年度 総務大臣賞 [大学生・一般の部]

地方創生政策が都道府県間人口移動に与えた影響

⏱️ 推定読了時間: 約40分
―差分の差分法(DiD)によるパネルデータ政策評価―
📅 2018年度 🔬 パネルデータ分析(固定効果モデル)|差分の差分法(DiD)|Hausman検定 📊 SSDSE-B(都道府県別統計)
📝 3行で分かる要約

目 次

  1. 研究の背景と目的
  2. 地方創生政策の概要とDiD設計
  3. データと変数
  4. 分析手法:差分の差分法と固定効果モデル
  5. 分析結果
  6. 地域別パターンの比較
  7. 結論と政策的含意
  8. Pythonコードのダウンロード
  9. 📥 データの準備
  10. 💼 実社会での応用
  11. ⚠️ よくある誤解
  12. 📖 用語集
  13. 📐 手法ガイド
  14. 🚀 発展の可能性
  15. 🎯 自分でやってみよう
  16. 🤔 Q&A

🎯 この記事を読むと何ができるようになるか

📥 データの準備(再現コードを動かす前に)

このページの分析を自分で再現するには、以下の手順でデータを準備してください。コードの編集は不要です。

1
データをダウンロードする 統計センターの SSDSE 配布ページから、以下のファイルをダウンロードします。
SSDSE-B-2026.csv ← SSDSE-B(都道府県データ)📥 直接DL
⬇ SSDSEダウンロードページを開く
2
ファイルを所定のフォルダに配置する ダウンロードしたCSVを、プロジェクトの data/raw/ フォルダに入れます。
2026 統計・データ解析コンペ/ ├── code/ │ └── 2018_U1_daijin.py ← 実行するスクリプト └── data/ └── raw/ SSDSE-B-2026.csv ← ここに置く
3
スクリプトをそのまま実行する ターミナルでプロジェクトルートに移動し、以下を実行します。
python3 code/2018_U1_daijin.py
図は html/figures/ に自動保存されます。

1. 研究の背景と目的

日本では長年にわたり、人口が東京圏を中心とした大都市部へ集中し、地方圏では深刻な人口流出が続いている。 2014年9月、政府は「まち・ひと・しごと創生法」を制定し、地方創生政策を本格的に始動させた。 2015年度からは「地方版総合戦略」の策定が各都道府県・市区町村で求められ、 移住促進・雇用創出・子育て支援など多面的な施策が展開されてきた。

まず「地方創生政策が都道府県間人口移動に与えた影響」を統計的にとらえることが有効だと考えられる。 その理由は感覚や経験則だけでは、複雑な社会要因の中で「何が本当に効いているか」を見極めにくいからである。 本研究では公開データと統計手法を組み合わせ、この問いに定量的な答えを出すことを目指す。

しかし、こうした政策が実際に都道府県間の人口移動パターンを変化させたかについては、 科学的な政策評価が必要である。単純な前後比較では、同時期の経済変動(アベノミクス・オリンピック特需など) の影響と政策効果を分離できない。本研究は差分の差分法(Difference-in-Differences: DiD)を用いて、 地方創生政策の「純粋な効果」を推定することを目的とする。

📌 研究の問い
2015年以降の地方創生政策は、人口過疎県(治療群)における転入超過率を改善させたか?
過疎地と大都市圏の差(差分)の変化を、政策前後で比較することで政策効果を識別する。
⚠️ 政策評価の難しさ
「地方創生政策後に人口流出が減った」としても、それが政策の効果なのか、 景気回復や自然トレンドによるものかを区別することは容易ではない。 DiDは「対照群(大都市圏)と比較して、過疎地でより大きな変化があったか」を検証することで、 この問題を克服する。
転入超過率の時系列推移(治療群 vs 対照群)
図1:転入超過率(千人あたり)の推移(2012〜2018年)。 赤線が治療群(小規模・過疎県16県)、青線が対照群(大規模・大都市圏16県)。 2015年の政策開始(緑の破線)前後のトレンドに注目。
📌 この散布図の読み方
このグラフは
横軸(x)と縦軸(y)に2変数を取り、各都道府県(または自治体)を点で描いたグラフ。
読み方
点の並びに右上がりの傾向があれば正の相関、右下がりなら負の相関。
なぜそう解釈できるか
回帰直線の傾きが回帰係数に対応する。直線から大きく外れた点が外れ値で特異な地域を示す。
データサイエンス学習ポイント①:政策評価における選択バイアス

政策評価における最大の難題が選択バイアス(Selection Bias)だ。
「地方創生政策は人口流出が深刻な県に適用された」—すなわち、 政策を受ける群(治療群)と受けない群(対照群)は、そもそも異なる特性を持っている。

もし政策前から過疎地の人口流出が悪化し続けていたなら、 「政策後も悪化」は「政策が無効」なのではなく「政策がなければもっと悪化していた」可能性がある。
DiDは「大都市圏と比べてどれだけ変わったか」を見ることで、このバイアスを排除する。

2. 地方創生政策の概要とDiD設計

2-1. 地方創生政策の経緯

時期出来事分析上の意味
2014年9月「まち・ひと・しごと創生法」制定政策の法的根拠
2014年12月「まち・ひと・しごと創生長期ビジョン」策定2060年目標の設定
2015年度〜各都道府県・市区町村で「地方版総合戦略」策定義務政策開始年(post = 1)
2015-2019年地方創生交付金の配布・移住促進・雇用創出施策継続的な介入

2-2. 治療群・対照群の定義

DiD の4セル設計
政策前(2012-2014) 政策後(2015-2018) 差(after - before)
治療群(過疎地)
16県
A B B − A
対照群(大都市圏)
16都道府県
C D D − C
DiD推定量 差分の差分 (B−A) − (D−C)
治療群:総人口下位1/3の過疎16県(岩手・秋田・山形・富山・石川・福井・山梨・和歌山・鳥取・島根・徳島・香川・高知・佐賀・大分・宮崎)
対照群:総人口上位1/3の大都市16都道府県(埼玉・千葉・東京・神奈川・愛知・大阪・兵庫・福岡ほか)

2-3. 平行トレンド仮定の確認

DiDが成立するための重要な前提が「平行トレンド仮定(Parallel Trends Assumption)」だ。 これは「政策がなければ、治療群と対照群は同じようなトレンドをたどっていたはず」という仮定である。 直接検証はできないが、政策前(2012-2014)のトレンドが平行であることを確認するのが慣例。

平行トレンド確認とDiDの概念図
図2(A):2012-2014年の政策前トレンド。治療群・対照群ともにほぼ平行なトレンド(点線)を示し、 平行トレンド仮定が支持される。(B):DiDの直感的理解。反事実(政策がなかった場合の推定値)との差がDiD効果。
📌 このDiD(差分の差分)図の読み方
このグラフは
処置群と対照群の時系列を並べ、政策介入前後の差を可視化した図。
読み方
政策後に処置群だけが上昇(下降)すれば、それが政策効果の証拠。
なぜそう解釈できるか
平行トレンド仮定(政策前は両群が同じトレンド)が満たされているかが解釈の鍵。
データサイエンス学習ポイント②:DiDの仕組みと平行トレンド仮定

差分の差分法(DiD)は、2つの「差分」を取ることで共通の時間トレンドを除去する。

ステップ1(第1の差分):各グループの政策前後の変化を計算
・治療群の変化 = 政策後平均 − 政策前平均
・対照群の変化 = 政策後平均 − 政策前平均

ステップ2(第2の差分):治療群の変化 − 対照群の変化 = DiD推定量

対照群の変化は「政策がなくても起きたであろう変化」(景気回復など)を表す。 その変化を差し引くことで、純粋な政策効果が得られる。

# DiDの回帰モデルによる推定 import statsmodels.api as sm # 変数定義 df['treat'] = (df['都道府県'].isin(過疎県リスト)).astype(int) df['post'] = (df['年度'] >= 2015).astype(int) df['DiD'] = df['treat'] * df['post'] # 交差項(DiD推定量) # DiD回帰(固定効果付き) X = sm.add_constant(df[['DiD', 'treat', 'post', '高齢化率', '求人率']]) res = sm.OLS(df['転入超過率'], X).fit(cov_type='HC3') # DiD係数 = treat×post の係数 = 政策の純粋効果 print(f"DiD推定量: {res.params['DiD']:.4f} (p={res.pvalues['DiD']:.4f})")

3. データと変数

データの概要

変数一覧

変数の役割 変数名 計算式・定義 SSDSE-B列名
目的変数 転入超過率(‰) (転入者数 − 転出者数)/ 総人口 × 1000 転入者数(日本人移動者)、転出者数(日本人移動者)、総人口
DiD変数 treat(治療群ダミー) 総人口下位1/3の県 = 1、上位1/3 = 0 総人口(2014年基準)
post(政策後ダミー) 2015年以降 = 1、2014年以前 = 0 年度
DiD推定量 DiD(交差項) treat × post (計算変数)
コントロール変数 高齢化率 65歳以上人口 / 総人口 65歳以上人口、総人口
求人率(万人あたり) 月間有効求人数 / 総人口 × 10000 月間有効求人数(一般)、総人口
📊 SSDSE-Bの特徴
SSDSE-B(統計センター「社会・人口統計体系データセット」都道府県版)は、 人口移動・労働・教育・医療など多様な都道府県統計を1ファイルに集約した公開データセット。 2012年から最新年まで連続したパネルデータとして利用可能。 統計センター公式サイトからダウンロード可能。

4. 分析手法:差分の差分法と固定効果モデル

4-1. 分析の流れ

SSDSE-B
読み込み
転入超過率
計算
治療群/
対照群定義
平行トレンド
確認
DiD回帰
(FEモデル)
Hausman
検定

4-2. 3つのアプローチの比較

🔵 単純前後比較

  • 政策前後の平均値を比較
  • 実装が最もシンプル
  • ⚠️ 経済トレンドの影響を除去できない
  • ⚠️ 選択バイアスが残る

🟢 差分の差分法(DiD)

  • 治療群・対照群の「差分の差分」
  • 共通トレンドを除去
  • 政策の純効果を推定
  • ⚠️ 平行トレンド仮定が必要

🟠 固定効果モデル(FE)

  • 都道府県固有の「切片」を推定
  • 時間不変の地域差を吸収
  • DiDと組み合わせて使用
  • ⚠️ Hausman検定で選択

4-3. DiD回帰モデルの数式

Yit = α + β₁·treati + β₂·postt + β₃·(treati×postt) + γ·Xit + μi + εit ここで: Yit = 都道府県 i の年度 t における転入超過率(‰) treati = 過疎地ダミー(治療群 = 1、対照群 = 0) postt = 政策後ダミー(2015年〜 = 1、2014年以前 = 0) treat×post = DiD交差項(β₃がDiD推定量 = 政策の純効果) Xit = コントロール変数(高齢化率・求人率) μi = 都道府県固定効果(時間不変の地域特性) εit = 誤差項(ロバスト推定使用)

4-4. Hausman検定:固定効果 vs 変量効果

パネルデータ分析では、都道府県の個別効果を「固定効果(FE)」として扱うか 「変量効果(RE)」として扱うかをHausman検定で決定する。

Hausman検定の原理
  • H₀(帰無仮説):個別効果と説明変数は無相関 → 変量効果(RE)が効率的
  • H₁(対立仮説):個別効果と説明変数は有相関 → 固定効果(FE)が一致推定量
  • 検定統計量:H = (β̂FE − β̂RE)' [Var(β̂FE) − Var(β̂RE)]⁻¹ (β̂FE − β̂RE) ~ χ²(k)
  • p < 0.05 → H₀棄却 → 固定効果モデル(FE)を採用
データサイエンス学習ポイント③:固定効果モデルとDiDの関係

固定効果モデルとDiDは実は密接に関係している。

固定効果モデルは、都道府県ごとに「切片」を持たせることで、 観察されない時間不変の地域特性(文化・歴史・地理)を統制する。

DiDと固定効果の組み合わせは最も強力な準実験的手法の一つ: DiDが「政策×時期」の交差効果を識別し、 固定効果が「地域固有の不観測要因」を吸収するため、 推定された β₃ は純粋な政策効果により近い。

ただし、都道府県ダミーを加えると treat 変数(時間不変の地域ダミー)は 多重共線性のため固定効果に吸収される点に注意。

# linearmodels を使ったパネル固定効果モデル from linearmodels.panel import PanelOLS, RandomEffects df_panel = df.set_index(['都道府県', '年度']) # 固定効果モデル(DiD交差項を含む) mod_fe = PanelOLS(df_panel['転入超過率'], df_panel[['DiD', 'post', '高齢化率', '求人率']], entity_effects=True) res_fe = mod_fe.fit(cov_type='clustered', cluster_entity=True) # 変量効果モデル mod_re = RandomEffects(df_panel['転入超過率'], df_panel[['DiD', 'treat', 'post', '高齢化率', '求人率']]) res_re = mod_re.fit()

5. 分析結果

5-1. 記述統計(DiD 2×2表)

政策前(2012-2014)
転入超過率(‰)
政策後(2015-2018)
転入超過率(‰)
変化(Δ)
治療群(過疎地16県) −2.13 −2.67 −0.54
対照群(大都市16都道府県) +0.13 +0.12 −0.01
DiD推定量(差分の差分) (−0.54)−(−0.01)= −0.53
⚠️ 粗のDiD推定の解釈
粗のDiD推定量(コントロール変数なし)は約 −0.53‰。 すなわち、地方創生政策後、過疎地は大都市圏と比べて転入超過率がさらに 0.53‰ 低下(転出超過が拡大)した可能性が示唆される。 ただし回帰モデルの結果と合わせて解釈する必要がある。

5-2. 固定効果(DiD)回帰の結果

固定効果モデルの係数プロット
図3:固定効果モデルの係数と95%信頼区間。 青色は有意な正効果、赤色は有意な負効果、灰色は非有意。 金色の枠で強調されているのがDiD係数(政策効果の推定量)。
📌 この回帰係数プロットの読み方
このグラフは
重回帰分析の各説明変数の係数(影響の強さと向き)をバーや点で表したグラフ。
読み方
右(プラス方向)に伸びるバーは正の影響、左は負の影響。
なぜそう解釈できるか
エラーバーが0をまたいでいない変数が統計的に有意(p < 0.05)。バーが長いほど影響が大きい。
変数 係数 標準誤差 p値 解釈
DiD(treat × post) −0.515 0.151 0.001 *** 政策効果の推定量(有意に負)
treat(治療群ダミー) −0.923 0.237 <0.001 *** 過疎地の構造的な転入超過率の低さ
post(政策後ダミー) +0.425 0.118 <0.001 *** 政策後の全体的な改善(景気回復など)
高齢化率 −26.83 10.808 0.013 * 高齢化が進むほど転入超過率が低下
求人率(万人あたり有効求人数) +0.001 0.001 0.137 n.s. 非有意
主要な発見:DiD係数 = −0.515‰(p = 0.001)
地方創生政策後、治療群(過疎地)は対照群(大都市圏)と比べて転入超過率が 0.515‰ 追加的に低下した。すなわち、政策は人口流出の緩和には 寄与せず、むしろ過疎地の相対的な人口流出拡大と関連している可能性がある。 これは政策の限界または時間ラグ(効果発現の遅れ)を示唆する。
解釈上の注意
DiDが「負」=「政策が有害」とは断言できない。考えられる理由:
(1) 政策効果の発現には数年のタイムラグがある
(2) 同時期の景気回復で大都市圏への人口集中が加速(相対比較で過疎地が不利に)
(3) 政策の対象が最も過疎化の進んだ県に集中しているため、 経済的逆風も最も強い(選択バイアスの残余)

6. 地域別パターンの比較

地域別転入超過率と総人口の箱ひげ図
図4(A):地域別の転入超過率(最新年)の箱ひげ図。関東(赤)が突出して高く、 北海道・東北(青)は転出超過が著しい。(B):地域別総人口の分布。 地域間の人口規模の差異が、転入超過率の差異に対応している。
📌 この散布図の読み方
このグラフは
横軸(x)と縦軸(y)に2変数を取り、各都道府県(または自治体)を点で描いたグラフ。
読み方
点の並びに右上がりの傾向があれば正の相関、右下がりなら負の相関。
なぜそう解釈できるか
回帰直線の傾きが回帰係数に対応する。直線から大きく外れた点が外れ値で特異な地域を示す。
地域 転入超過率の傾向 DiD治療群分類 特徴
関東 高(転入超過) 対照群 東京・神奈川・埼玉・千葉が人口吸引の中心
近畿 やや高〜中 対照群(大阪・兵庫・京都) 大阪圏が一定の吸引力を持つ
九州・沖縄 中〜低 治療群(佐賀・大分・宮崎)含む 福岡が域内で人口を集約
北海道・東北 低(転出超過) 治療群(岩手・秋田・山形)含む 全国で最も深刻な人口流出地域
中国・四国 低(転出超過) 治療群(鳥取・島根・高知・徳島)含む 過疎化が進む「消滅可能性県」が多い
データサイエンス学習ポイント④:Hausman検定によるモデル選択

Hausman検定は、固定効果モデル(FE)と変量効果モデル(RE)のどちらが適切かを判断する統計的手続き。

直感的な理解:
・FEは「各都道府県が固有の平均転入率を持つ」と仮定し、その固有効果を推定
・REは「固有効果はランダムな誤差」として扱い、より効率的な推定を行う
・ただし、「過疎地かどうか」自体が固有効果と相関するなら(つまり、もとから人口流出しやすい県が治療群になるなら)、 REは一致推定量にならない → FEが必要

この研究では地域の構造的差異が固有効果と強く相関するため、FEが適切と予想される。

# Hausman検定の実装 import numpy as np from scipy import stats # FE・RE の係数差と分散の差 b_fe = res_fe.params.values b_re = res_re.params[res_fe.params.index].values V_diff = res_fe.cov.values - res_re.cov.loc[res_fe.params.index, res_fe.params.index].values # Hausman統計量 diff = b_fe - b_re H = diff @ np.linalg.inv(V_diff) @ diff df_h = len(b_fe) p_val = 1 - stats.chi2.cdf(H, df_h) print(f"H統計量 = {H:.4f}, df = {df_h}, p = {p_val:.4f}") if p_val < 0.05: print("→ FE を採用(個別効果と説明変数が相関)") else: print("→ RE を採用(個別効果は説明変数と無相関)")

7. 結論と政策的含意

7-1. 主要な発見のまとめ

DiD推定量(β₃ = −0.515‰, p = 0.001):
地方創生政策(2015年〜)の開始後、過疎地(治療群)の転入超過率は 大都市圏(対照群)と比べて統計的に有意に0.515‰追加的に低下した。 これは政策が短期的には人口流出の緩和効果を持たなかった可能性を示す。
  1. 構造的な人口移動パターン(treat係数): 過疎地は大都市圏に比べて転入超過率が構造的に約0.92‰低い。 地方創生以前から深刻な人口流出が続いていたことを確認。
  2. 全体的な政策後改善(post係数): 2015年以降は全国的に転入超過率が約0.43‰ 上昇。 これはアベノミクスによる景気回復や観光業拡大など、政策以外の要因の影響と考えられる。
  3. 高齢化率の影響: 高齢化率が1ポイント上昇すると転入超過率が約0.27‰ 低下(有意)。 過疎地の高齢化が人口流出をさらに加速させる悪循環が統計的に示された。
  4. 地域間格差: 関東圏への人口集中は依然として続いており、 地方創生政策後も地域間の格差縮小は限定的であった。

7-2. 政策的含意と今後の課題

政策への示唆
  • 短期的な転入促進よりも、長期的な定住環境の整備(教育・医療・雇用)が重要
  • 高齢化対策と一体となった地方創生が必要(高齢化が人口流出を加速)
  • 政策効果の発現には複数年のタイムラグがある可能性があり、 より長期のデータを用いた追跡評価が必要
  • 都市部への人口集中を「抑制」するアプローチと並行して、 地方の生産性向上(一人あたりGDPの改善)を目指す戦略も検討が必要
本研究の限界
  • 分析期間(2015-2018年)が短く、長期効果の評価には不十分
  • 治療群の定義(総人口基準)は政策の実際の対象(地方版総合戦略の内容・予算規模)と異なる可能性
  • 同時期の外生的ショック(2016年熊本地震・2018年西日本豪雨等)の影響が混入している可能性
  • 都道府県レベルの分析では、市区町村レベルの政策効果の不均質性を捉えられない
教育的価値(この分析から学べること)
  • DiD(差分の差分法)の発想:「政策を受けたグループの変化」から「受けなかったグループの変化」を引くことで、政策以外の時代的な要因(景気・流行など)を相殺して、政策の純粋な効果を取り出せる。
  • 「効果なし」も重要な発見:DiD係数がマイナスや非有意になることは、「政策が期待通りでなかった可能性」を示す貴重な情報。統計分析は「意図と違う結果」も誠実に報告するためにある。
  • 平行トレンド仮定:DiDの妥当性は「政策がなければ両群は同じトレンドだったはず」という前提に依存する。前提のチェックがどれほど大事かを実例で学べる。

データ・コードをダウンロード

以下のPythonスクリプトを code/ フォルダに、 SSDSE-B-2026.csv を data/raw/ フォルダに置いて実行すると、 全4図と分析結果を再現できます。

⬇ 分析スクリプト(2018_U1_daijin.py)

使用データ: SSDSE-B-2026.csv(統計センター「社会・人口統計体系データセット」都道府県版)
https://www.nstac.go.jp/use/literacy/ssdse/

必要ライブラリ:pandas numpy matplotlib scipy statsmodels(linearmodels は任意)
実行方法:python3 code/2018_U1_daijin.py

⚠️ よくある誤解と注意点

統計分析の解釈で初心者がやりがちな勘違いをまとめます。特に「相関と因果の混同」「p値の過信」は研究現場でもよく起きる落とし穴です。本文を読む前にも、読んだ後にも、目を通してみてください。

❌ 「相関がある=因果関係がある」ではない
疑似相関(spurious correlation)とは、見かけ上は関係があるように見えるが、実際は無関係、または第三の変数(交絡変数)が両方に影響しているだけの現象です。

古典例: アイスクリームの売上 と 水難事故件数 は強く相関するが、片方が他方を引き起こしているわけではない。両者とも「夏の暑さ」という第三の変数に引きずられているだけ。

論文を読むときの心構え: 「○○と△△に強い相関が見られた」だけで終わっている主張は、本当に因果関係があるのか、それとも第三の変数(人口・所得・地理など)が共通要因として効いているだけではないかを必ず疑ってください。
❌ 「p値が小さい=重要な発見」ではない
p値が小さい(例えば p < 0.001)ことは「統計的に偶然とは考えにくい」という意味であって、「実用的に大きな効果がある」という意味ではありません。

例: 巨大なサンプルサイズ(n=100,000)では、相関係数 r=0.02 でも p < 0.001 になります。しかし r=0.02 は実用上ほぼ無視できる関係です。

正しい読み方: p値と効果量(係数の大きさ、相関係数の値)の両方をセットで判断してください。p値だけで「重要な発見」と結論づけるのは誤りです。
❌ 「回帰係数が大きい=重要な変数」ではない
回帰係数の絶対値は、説明変数の単位に強く依存します。「年収(万円)」と「失業率(%)」の係数を直接比較しても意味がありません。

正しい比較方法: (1) 標準化係数(各変数を平均0・分散1に変換した上での係数)を使う、(2) 限界効果(変数を1標準偏差動かしたときのyの変化)で比較する。

また、係数の大きさが「因果関係の強さ」を意味するわけでもありません。あくまで「相関的な関連の強さ」です。
❌ 「外れ値を除外すれば正しい結果」ではない
外れ値(極端な値)を「目障りだから」「結果が綺麗にならないから」という理由で除外するのは分析の改ざんに近い行為です。

外れ値が示すもの: 本当に重要な情報(東京の超高密度、北海道の超低密度など)であることが多い。外れ値を取り除くと「日本全体の傾向」を見誤る原因になります。

正しい対処: (1) 外れ値の出現要因を調査する(なぜ東京だけ突出するのか)、(2) ノンパラメトリック手法(Spearman相関・Kruskal-Wallis)を使う、(3) 外れ値を含む結果と除外した結果の両方を提示し、解釈を読者に委ねる。
❌ 「サンプルサイズが大きい=信頼できる」ではない
サンプルサイズ(n)が大きいと統計的検定の検出力は上がりますが、それは「偶然による誤差を減らす効果」にすぎません。

nが大きくても解消されない問題:
選択バイアス(標本が偏っている)
測定誤差(変数の定義が曖昧)
欠損値のパターン(欠損がランダムでない)
交絡変数の見落とし

例: 1万人にWeb調査して「ネット利用と幸福度は強く相関」と言っても、そもそも回答者がネットユーザー寄りに偏っているため、母集団全体の結論にはなりません。
❌ 「複雑なモデル=より良い分析」ではない
ランダムフォレスト・ニューラルネット・複雑な階層モデルなど、高度な手法を使えば「良い分析」と感じがちですが、必ずしもそうではありません。

過学習(overfitting)の罠: モデルが複雑すぎると、訓練データの偶然のパターンまで学習してしまい、新しいデータでは予測精度が落ちます。

シンプルさの価値: 重回帰分析や相関分析は「結果が解釈しやすい」「再現性が高い」という大きな利点があります。複雑な手法はシンプルな手法で答えが出ない時の最後の手段です。
❌ 「多重共線性は気にしなくていい」ではない
多重共線性とは、説明変数同士の相関が極めて強い状態のこと。これを放置すると、回帰係数の符号や大きさが入れ替わる異常事態が起こります。

典型例: 「総人口」と「労働力人口」を同時に投入すると、両者の相関が r=0.99 になり、係数推定が極端に不安定になります。「総人口は正だが、労働力人口は負」のような解釈不能な結果になりがちです。

診断と対処:
VIF(分散拡大係数)を計算し、VIF > 10 の変数を確認
・相関行列で |r| > 0.8 のペアをチェック
・対処法:一方を除外、合成変数(PCA)に変換、Ridge回帰で安定化
❌ 「R²が高い=良いモデル」ではない
決定係数 R² はモデルの「当てはまりの良さ」を示しますが、R² が高くてもモデルが正しいとは限りません

R² が高くなる罠:
説明変数を増やせば R² は自動的に上がる(無関係な変数を追加してもR²は下がらない)
・時系列データでは、共通のトレンド(時間とともに増加)があるだけで R² が 0.9 を超える
・サンプルサイズが小さいとR²が過大評価される

代替指標: 調整済み R²(変数の数でペナルティ)AIC・BIC(モデル選択基準)を併用してください。予測力の真の評価には交差検証(cross-validation)でテストデータの R² を見ること。
❌ 「ステップワイズで選んだ変数は重要」ではない
ステップワイズ法(バックワード・フォワード選択)は便利ですが、p値ベースの変数選択は再現性に問題があると批判されています。

問題点:
同じデータでも実行順序によって最終モデルが変わる
・p値を繰り返し見ることで「偶然に有意な変数」を拾ってしまう(p-hacking
・係数の標準誤差が過小評価され、信頼区間が嘘っぽくなる

より良い方法:
事前に変数を理論で絞る(先行研究から候補を選ぶ)
LASSO回帰(自動かつ統計的に正当化された変数選択)を使う
交差検証で AIC/BIC 最小モデルを選ぶ
❌ 「線形回帰なら線形関係を前提にすべき」
重回帰分析は線形関係を前提とします。実際の関係が非線形なのに線形モデルで分析すると、本当の関係を見逃します

非線形の例:
U字型関係: 失業率と物価上昇率(フィリップス曲線)
逓減効果: 所得と幸福度(年収 800万円までは強い正の効果、それ以上は飽和)
閾値効果: 高齢化率と医療費(ある水準を超えると急激に上がる)

診断と対処:
残差プロットで残差が0周辺に均等に分布しているか確認
変数の対数変換・二乗項追加で非線形性を取り込む
・どうしても線形では捉えられないなら、機械学習(RF・GBM)を併用する
❌ 「データに当てはまった=予測に使える」ではない
「過去のデータでフィットしたから将来も予測できる」と思うのは危険です。

過学習(overfitting)の例: 47都道府県のデータに10個の説明変数を投入すれば、ほぼ完璧にフィットします(自由度がほぼゼロ)。でもそのモデルを新しい年度に適用すると、予測精度はほぼランダム並みに落ちることがあります。

正しい予測力の評価:
・データを訓練用 70%テスト用 30%に分割し、テスト用での予測精度を見る
k分割交差検証(k-fold CV)で予測の安定性を確認
・「説明変数の数 ≪ サンプルサイズ」のバランスを意識(目安:n > 10 × 変数数)

📖 用語集(この記事に出てくる統計用語)

統計の基本用語を初心者向けに解説します。本文中で見慣れない言葉が出てきたら、ここに戻って確認してください。

p値
「効果がない」と仮定したときに、観察されたデータ(またはより極端なデータ)が得られる確率。0〜1の値で、慣例的に 0.05(5%)未満を「有意」と判断する。
有意水準
「偶然」と「意味のある違い」を分ける基準。通常 α=0.05(5%)を使う。p値 < α なら「有意」と判定。
信頼区間
「真の値はこの範囲にあるだろう」という幅。95%信頼区間 = 同じ実験を100回繰り返したら95回はこの範囲に真の値が入る。
サンプルサイズ
分析に使ったデータ点の数(n)。一般にnが大きいほど推定が安定し、わずかな差も検出できるようになる。
標準誤差
推定値(係数など)のばらつきの目安。標準誤差が小さいほど推定値が安定している。
正規分布
釣鐘型の左右対称な分布。多くのパラメトリック検定(t検定・F検定など)は「データが正規分布に従う」ことを仮定する。
因果と相関
「相関がある」と「原因と結果の関係(因果)」は別物。アイスクリームの売上と水難事故は相関するが、原因は両者とも「夏の暑さ」。
外れ値
他のデータから極端に離れた値。分析結果を歪める原因になるため、検出して除外するか別途扱う必要がある。
欠損値
データが取得できなかった部分(NaN・空白)。除外するか補完(平均代入・回帰代入など)するかが分析上の重要な判断点。
VIF
Variance Inflation Factor(分散拡大係数)。多重共線性の強さを示す指標。VIF > 10 で「強い多重共線性あり」と判断。
交絡変数
「真の原因」と「結果」の両方に影響する第三の変数。これを統制しないと、見かけ上の関係を真の因果と誤認する。
係数(回帰係数)
「説明変数 x が1単位増えたとき、目的変数 y が平均でどれだけ変化するか」を示す数値。正の値は正の影響、負の値は負の影響。
内生性
説明変数と誤差項が相関している状態。逆因果や交絡変数の存在で発生する。これを放置すると係数推定にバイアスが生じる。
多重共線性
説明変数同士の相関が強すぎる状態。係数推定が不安定になり、解釈を誤る原因になる。VIF > 10 が警告サイン。
標準化係数
変数の単位の影響を取り除いた係数。複数の変数の影響の大きさを単位に依存せず比較するために使う。
決定係数 R²
回帰モデルが目的変数のばらつきの何%を説明できるかを示す指標。0〜1の値で、1に近いほどモデルの説明力が高い。

📐 使っている手法をわかりやすく解説

統計手法について「何のためか」「結果をどう読むか」を初心者向けに解説します。

◆ 統計の基本概念(どの論文にも共通)

🔍 p値(有意確率)とは
何?
「もし本当に効果がなかったとしたら、今回の結果(またはもっと極端な結果)が偶然起きる確率」のこと。
なぜ必要?
帰無仮説(「効果なし」の仮定)のもとで検定統計量の分布から計算する。
何がわかる?
「この関係は偶然ではなく、統計的に意味がある」と主張するための客観的な根拠になる。
読み方
p < 0.05(5%未満)を「統計的に有意」と判断するのが慣例。ただし「p値が小さい=効果が大きい」ではない。効果量(係数の大きさ)とセットで判断する。
🗂️ ノンパラメトリック検定とは(なぜ使うのか)
何?
「データが正規分布に従う」という仮定を置かない検定手法の総称。Kruskal-Wallis検定・Mann-Whitney U検定などが代表例。
なぜ必要?
データの値ではなく「順位」に変換して検定統計量を計算する。外れ値や偏った分布に対しても安定して機能する。
何がわかる?
サンプルサイズが小さい・データが歪んでいる・外れ値がある場合でも、グループ差の有無を検定できる。
読み方
「なぜノンパラメトリックを選ぶのか」の理由を示すには、正規性検定(Shapiro-Wilk)の結果を添えるのが望ましい。結果の解釈は対応するパラメトリック検定と同様(p < 0.05 で有意差あり)。

◆ この論文で使われている手法

📈 重回帰分析
何?
複数の説明変数(原因候補)が1つの目的変数(結果)にどれだけ影響するかを同時に推定する手法。
どう使う?
目的変数 y を複数の説明変数 x₁, x₂, … で予測する式(y = a₁x₁ + a₂x₂ + … + b)を最小二乗法でフィットさせる。
何がわかる?
複数の要因が混在するなかで「どれが一番効いているか」を一度に検証できる。交絡変数を統制できる。
結果の読み方
係数(a₁, a₂…)のプラスは正の影響、マイナスは負の影響。p < 0.05 で統計的に有意。R²が1に近いほどモデルの説明力が高い。
⚠️ 注意点
(1) 多重共線性を必ずVIFで確認(VIF>10で警告)。(2) 線形性の仮定—関係が曲線なら対数変換や二乗項を追加。(3) 残差プロットで正規性・等分散性を確認。(4) サンプル数は最低でも「説明変数数×10」が目安。(5) 外れ値1つで係数が大きく変わるのでCook距離で確認。
🏛️ パネルデータ固定効果モデル(FE)
何?
複数の個体(都道府県など)を複数時点で観測したパネルデータから、個体固有の見えない差を取り除いて時間変化の効果を推定する手法。
どう使う?
各個体の平均を引く「within 変換」で、観察できない固有特性(北海道は寒いなど)を自動的に統制する。
何がわかる?
「東京だから人口が多い」ではなく「この政策が人口を増やした」という効果を分離して推定できる。
結果の読み方
係数の解釈は通常の回帰と同じ。Hausman 検定で固定効果モデルの妥当性を確認する。
⚠️ 注意点
(1) 多重共線性を必ずVIFで確認(VIF>10で警告)。(2) 線形性の仮定—関係が曲線なら対数変換や二乗項を追加。(3) 残差プロットで正規性・等分散性を確認。(4) サンプル数は最低でも「説明変数数×10」が目安。(5) 外れ値1つで係数が大きく変わるのでCook距離で確認。
⚖️ Hausman検定
何?
パネルデータ分析で「固定効果(FE)」と「変量効果(RE)」のどちらを使うべきかを統計的に判断する検定。
どう使う?
両モデルの係数が大きく異なれば RE に不整合あり → FE を採用。
何がわかる?
パネル分析のモデル選択を客観的な基準で決定できる。
結果の読み方
p < 0.05 → 固定効果モデルを採用。p ≥ 0.05 → 変量効果モデルも選択肢。
⚠️ 注意点
(1) 多重共線性を必ずVIFで確認(VIF>10で警告)。(2) 線形性の仮定—関係が曲線なら対数変換や二乗項を追加。(3) 残差プロットで正規性・等分散性を確認。(4) サンプル数は最低でも「説明変数数×10」が目安。(5) 外れ値1つで係数が大きく変わるのでCook距離で確認。
🌿 Ward法クラスタリング
何?
データをグループ(クラスター)に自動分類する手法。グループ内のばらつきが最小になるよう統合していく。
どう使う?
統合後の「ばらつき増加」が最小になるペアを繰り返し合体させ、デンドログラム(樹形図)で可視化する。
何がわかる?
都道府県を「都市型」「農村型」などのグループに自動分類し、グループ間の特徴比較ができる。
結果の読み方
デンドログラムの切り位置でクラスター数を決める。各クラスターの変数平均を見てグループを命名・解釈する。
⚠️ 注意点
(1) 多重共線性を必ずVIFで確認(VIF>10で警告)。(2) 線形性の仮定—関係が曲線なら対数変換や二乗項を追加。(3) 残差プロットで正規性・等分散性を確認。(4) サンプル数は最低でも「説明変数数×10」が目安。(5) 外れ値1つで係数が大きく変わるのでCook距離で確認。
📅 時系列分析
何?
時間順に並んだデータのトレンドや周期性、変化点を分析する手法群の総称。
どう使う?
折れ線グラフでトレンドを視覚化し、移動平均・指数平滑・AR/MA モデルを適用する。
何がわかる?
「出生率がいつから下がり始めたか」「コロナ前後で変化したか」などの変化を客観的に捉えられる。
結果の読み方
傾きが正なら上昇トレンド、負なら下降トレンド。変化点の前後で傾きが変わる場合は構造変化として解釈する。
⚠️ 注意点
(1) 多重共線性を必ずVIFで確認(VIF>10で警告)。(2) 線形性の仮定—関係が曲線なら対数変換や二乗項を追加。(3) 残差プロットで正規性・等分散性を確認。(4) サンプル数は最低でも「説明変数数×10」が目安。(5) 外れ値1つで係数が大きく変わるのでCook距離で確認。
🔄 差分の差分法(DiD)
何?
政策効果の「因果的推定」手法。処置群と対照群、政策前後の2種類の差を組み合わせる。
どう使う?
(処置群の変化)−(対照群の変化)で、政策なしでも起きていた変化を差し引く。
何がわかる?
「地方創生政策がなければどうなっていたか」を推測し、政策の純粋な効果を数値化できる。
結果の読み方
DiD推定値がプラスで有意なら政策は目的変数を増加させた。「平行トレンド仮定」(政策前は両群が同トレンド)の確認が重要。
⚠️ 注意点
(1) 多重共線性を必ずVIFで確認(VIF>10で警告)。(2) 線形性の仮定—関係が曲線なら対数変換や二乗項を追加。(3) 残差プロットで正規性・等分散性を確認。(4) サンプル数は最低でも「説明変数数×10」が目安。(5) 外れ値1つで係数が大きく変わるのでCook距離で確認。
↔️ VAR(ベクトル自己回帰)/ Granger因果検定
何?
複数の時系列変数が互いに影響し合う関係を分析する手法(VAR)と、「AがBの予測に役立つか」を検定する手法(Granger因果)。
どう使う?
VARは全変数を互いに説明変数として同時回帰。Granger因果はF検定でAのラグ変数がBの予測精度を向上させるかを確認する。
何がわかる?
「女性就業率と出生率はどちらが先に動くか」「リード・ラグ関係」を特定できる。
結果の読み方
Granger因果 p < 0.05 → 「Aの過去値はBの予測に役立つ」(ただし真の因果とは限らない)。
⚠️ 注意点
(1) 多重共線性を必ずVIFで確認(VIF>10で警告)。(2) 線形性の仮定—関係が曲線なら対数変換や二乗項を追加。(3) 残差プロットで正規性・等分散性を確認。(4) サンプル数は最低でも「説明変数数×10」が目安。(5) 外れ値1つで係数が大きく変わるのでCook距離で確認。

🚀 発展の可能性(結果 X → 新仮説 Y → 課題 Z)

この研究をさらに発展させるための3つの方向性を示します。「今回わかったこと(X)」から「次に検証すべき仮説(Y)」を立て、「具体的に何をするか(Z)」まで考えてみましょう。

① データ・時間的拡張
結果 X
本論文は特定の年度・地域の断面データ(または限られた時系列)で分析を行った。
新仮説 Y
より新しい年度のデータや市区町村レベルの細粒度データを使えば、知見の時間的頑健性や地域内格差を検証できる。
課題 Z
(1)統計センターから最新の SSDSE をダウンロードし、同じ分析を再実行する。(2)結果が変わった場合、その要因(コロナ・政策変化など)を考察する。(3)市区町村データ(SSDSE-A/C/F)で分析単位を細かくした場合の結果と比較する。
② 手法の発展:重回帰分析 の次のステップ
結果 X
本論文は 重回帰分析 を用いた推定を行った。
新仮説 Y
パネルデータ固定効果モデル(FE)による都道府県固有の差の統制 により、本分析では統制できていない問題を解消できる可能性がある。
課題 Z
(1)パネルデータ固定効果モデル(FE)による都道府県固有の差の統制 を実装し、本論文の係数推定と比較する。(2)操作変数法(IV)による内生性の解消 も試し、結果の頑健性を確認する。(3)推定結果の変化から、元の分析の仮定のどれが重要だったかを考察する。
③ 政策提言・実践への応用
結果 X
本論文は分析結果から特定の変数が目的変数に影響することを示した。
新仮説 Y
分析対象を日本全国から特定地域に絞ること、または逆に国際比較に拡張することで、政策の移転可能性と文脈依存性を検証できる。
課題 Z
(1)有意な変数を「政策で変えられるもの」と「変えにくいもの」に分類する。(2)政策で変えられる変数について、係数の大きさから「どれだけ変えればどれだけ効果があるか」を試算する。(3)自治体・政策立案者への提言として、実現可能なアクションプランを1枚にまとめる。

🎯 自分でやってみよう(5つのチャレンジ)

学んだだけでは身につきません。実際に手を動かすのが最強の学習方法です。本論文のスクリプトをベースに、以下のチャレンジに挑戦してみてください。難易度別に5つ用意しました。

★☆☆☆☆ 入門
CH1. 同じデータで分析を再現する
まずは付属の Python スクリプトをそのまま実行し、論文と同じ図を再現してみてください。
ポイント: 各図がどのコード行から生成されているか辿る。エラーが出たら原因を考える。
★★☆☆☆ 初級
CH2. 説明変数を1つ追加・除外して結果を比較
本論文の分析モデルから説明変数を1つ抜いて再実行、あるいは1つ追加して再実行してください。
ポイント: 係数・p値・R² がどう変わったか観察する。多重共線性が原因で結果が変わる例を見つけられたら理想的。
★★★☆☆ 中級
CH3. 別の年度・別の都道府県で同じ分析を試す
SSDSE の別の年度(例:2015年度・2020年度)または特定都道府県のみのデータで同じ分析を実行してください。
ポイント: 時代や地域によって結論が変わるか? 変わるならその理由を考察する。
★★★★☆ 上級
CH4. 別の手法を組み合わせる
本論文の手法 + 1つの追加手法(例:重回帰 + LASSO、相関分析 + 主成分分析)で結果を比較してください。
ポイント: 手法の違いで結論が変わるか? どちらが妥当かを「なぜ」とともに説明できるように。
★★★★★ 発展
CH5. オリジナルの問いを立てて分析する
本論文の手法を借りて、あなた自身の問いを立てて分析してください。 例:「カフェの数と幸福度に関連はあるか」「教育費の高い県は出生率も高いか」など。
ポイント: 問い・データ・手法・結論を1ページのレポートにまとめる。これがデータサイエンスの「実践」。
💡 ヒント: 詰まったら本サイトの他の論文(同じ手法を使っている)のスクリプトをコピーして組み合わせるのが効率的です。手法ガイド・用語集も参考に。

💼 この手法は実社会でこう使われている

本論文で学んだ手法は、研究の世界だけでなく、行政・企業・NPO の現場でも様々に活用されています。具体的なシーンを紹介します。

🏛️
行政の政策立案
都道府県・市区町村の政策担当者は、本論文と同様のデータ分析を用いて「どこに予算を投じれば効果が出るか」を検討します。 例えば医療費削減策、移住促進策、子育て支援策などの効果予測・効果検証に直結します。
🏢
企業のマーケティング・出店戦略
小売チェーン・サービス業の出店戦略では、地域特性(人口構成、所得、ライフスタイル)と売上の関係を本論文と同じ手法で分析します。 ECサイトでも顧客セグメント分析・購買要因分析に類似手法が使われます。
🏥
医療・公衆衛生
感染症の流行予測、医療資源配分の最適化、健康格差の地域要因分析などで、本論文の統計手法は標準的に使われています。 WHO・厚労省レベルの政策評価でも同じ手法が活躍しています。
📊
メディア・ジャーナリズム
新聞・テレビの社会調査記事、選挙予測、世論調査の分析でも、本論文と同じ手法(回帰分析・クラスタリングなど)が使われています。 データジャーナリズムの記事はこの種の分析が中核です。
🎓
学術研究(隣接分野)
経済学・社会学・公衆衛生学・教育学・地理学などの実証研究では、本論文と同じ手法が日常的に使われます。 専門誌に掲載される論文の8割以上が、こうした統計手法に基づいて結論を出しています。
💰
金融・保険業界
与信判断(融資審査)、保険料の地域別設定、不動産価格予測などで、本論文と同様のモデリング手法が広く活用されています。 統計分析の能力は金融業界の必須スキルになっています。

🤔 よくある質問(読者からの想定Q&A)

この論文を読んで初心者が抱きやすい疑問に、教育的観点から答えます。

Q1. この分析、自分でもできますか?
はい、できます。SSDSE データは無料で公開されており、Python の pandas, scikit-learn, statsmodels を使えば全く同じ手順で再現可能です。本ページ下部のスクリプトを実行するだけで結果が得られます。
Q2. 使われている手法は他の分野にも応用できますか?
十分応用可能です。本論文の[手法]は、医療・教育・経済・環境など他のドメインでも標準的に使われる手法です。データの中身(変数)を入れ替えるだけで、別の問いにも適用できます。
Q3. 結論は本当に「因果関係」を示していますか?
本論文は「観察データ」を使った分析であり、厳密な意味での「因果関係」を完全に証明したわけではありません。あくまで「強い関連が見られた」という事実を提示しているにとどまります。真の因果を示すには、無作為化比較試験(RCT)か、自然実験を活用したIV・DiD 等の手法が必要です。
Q4. データの最新版を使うとどうなりますか?
SSDSE は毎年更新されているため、最新版を使えば近年のトレンド(特にコロナ禍以降の変化)も含めて分析できます。ただし、結論が変わる可能性もあります。それ自体が新しい発見につながります。
Q5. もっと深く学ぶには何を読めばいいですか?
「計量経済学」「データサイエンス入門」「統計的因果推論」などのテキストが入門に向いています。Python の場合は『Python ではじめる機械学習』(オライリー)、R の場合は『R で学ぶ統計学』が定番です。本サイトの他の論文も読み比べてみてください。