統計とは、「データから現実のパターンを読み取り、意思決定に活かす技術」です。しかし、統計は最初から今のような客観的な「科学」だったわけではありません。統計学(Statistics)の語源は、ラテン語の「status(国家・状態)」に由来する「国家を運営するための数字」にあります。その出発点は、領土内の人口・税収・兵力を正確に把握し、統治に役立てるための実用的な記録でした。そこから統計は、数学や確率論と結びつくことで、単なる「記録」から未知の事象を予測する「科学」へと変容を遂げることになります。本稿では、統計学がどのような歴史をたどり、現代の意思決定に不可欠な道具となったのかを振り返ります。
このシリーズは、歴史・しくみ・フィールドの三層構造をできるだけ意識して構成しています。「なぜそうなったか」「どんな仕組みか」「フィールドで何が見えるか」——この3つの視点をそろえることで、歴史や社会に興味がある人も自然に引き込まれ、断片的な知識ではなく「線や面」としてつながった知識が、はじめて判断の源泉になると考えています。
国家のための数字――統計の黎明期
統計学の原点は「社会を現実の数字として克明に記録すること」にありました。古今東西、国家を建設しようとする指導者たちは、社会を管理するため、まず「民が何人いて、どれだけの食糧や税収があるか」を把握しようと試みました。
日本においても、記録の作成は国家形成の根幹を支えてきました。飛鳥時代の690年に作成された「庚午年籍」をはじめとする全国的な戸籍作りは、バラバラだった民を国家の管理下に置くために必要なことでした。誰がどこに住んでいるかを正確に把握しなければ、税を徴収することも兵役を課すこともできず、中央集権国家としての体裁を保つことは不可能だったからです。
この「数字による統治」がさらに高度なレベルへと引き上げられたのが、戦国から安土桃山時代にかけての「太閤検地」です。豊臣秀吉が行ったこの事業は、統計史上、極めて重要な「データの規格化」という革命をもたらしました。彼はそれまで地域ごとにバラバラだった「升」や「歩」といった単位を全国で統一し、土地の生産力を「石高」という単一の指標で数値化しました。基準を揃えることで、どの大名がどれだけの軍事力や経済力を持っているかを客観的に比較可能にしたのです。
江戸時代に入ると、日本の記録文化は世界でも類を見ない精度へと進化を遂げます。キリシタン禁制から始まった「宗門人別改帳」は、実質的には全住民を網羅する継続的な人口動態調査となりました。これにより幕府は数百年間にわたって全国の人口増減を把握し、飢饉に備えた食糧計画や都市の治安維持に役立てていました。
こうした動きは西洋でも同様に見られました。古代ローマでは5年に一度、市民の財産を申告させて納税額や軍の階級を決定する「ケンスス」が行われていました。これが現代の国勢調査の起源です。また、11世紀のイングランドでは、ウィリアム1世が家畜の一頭に至るまでを記録させた「ドゥームズデイ・ブック」を作成し、国家の課税能力を徹底的に可視化しました。
転換点が訪れたのは17世紀のイギリスです。ここで初めて、記録された数字に「科学」の光を当て、社会の裏側にある法則を見出そうとする人物が現れました。ジョン・グラントは、ロンドンの膨大な死亡記録を集計・分析する中で、個別の死という偶発的な出来事の背後に、驚くべき規則性があることを発見しました。死因の割合や季節ごとの変動が一定のパターンを示すことを突き止めたのです。また、ウィリアム・ペティは、国家の富や人口を数値化し、客観的な政策判断の基礎に据える「政治算術」を提唱しました。
「個人はバラバラであっても、集団として俯瞰すれば安定したパターンが現れる」。この洞察こそが、統計を単なる「統治の道具」から、真実を解き明かす「科学」へと脱皮させたのです。
「事実」を「改善」に変えた時代
19世紀、統計は「国家が国民を把握するための道具」から、「社会の課題を可視化し、解決するための武器」へと進化しました。数字の中に人間の法則を見出し、データで世界を動かそうとした先駆者たちの歩みを辿ります。
「平均的人間」という発見
1830年代、ベルギーの天文学者ケトレーは、それまでバラバラだと思われていた人間のデータに「法則」を見出しました。
彼は大量の身体測定値を集計し、「平均的人間」という概念を提唱しました。個々の人間は多様でも、集団として捉えると身長や体重は一定の分布に収まり、さらに犯罪率や結婚率までもが社会的な状況によって一定の傾向を示すことを突き止めたのです。これは、「社会は測定・分析・予測ができる対象である」ことを示した画期的な瞬間でした。
データで命を救う説得の技術
統計を「単なる記録」から「社会を変える力」へと引き上げたのが、ナイチンゲールです。1850年代、クリミア戦争の前線病院に赴いた彼女は、兵士たちが戦闘よりも、不衛生な院内での感染症によって次々と命を落とす惨状を目撃します。
- ローズチャートによる可視化 1858年に発表された報告書の中で、彼女は死亡記録を「ローズチャート」として可視化しました。これは月ごとの死因を扇形の面積で表現したもので、一目で「予防可能な感染症」が死因の圧倒的多数であることを示しました。
- 意思決定者を動かす力 彼女はこのグラフを用いて英国議会を説得し、病院の衛生改革を実現させました。「データは可視化されることで初めて意思決定を変える力を持つ」ことを示した、データサイエンスの原点とも言える功績です。
リスクを金額に変える保険数理
産業革命によって経済活動が加速した19世紀半ば、船の遭難や工場の火災といった「未来の不確実性」にどう備えるかが切実な課題となりました。ここで本格的に普及したのが、保険数理という職業です。
彼らは過去の膨大な事故データから「リスクの確率」を計算し、それを「保険料」という具体的な金額へと変換しました。「なんとなく危険そう」という主観的な不安を、客観的な数字に置き換えたのです。これにより、社会は個人の悲劇を「集団のコスト」として分担し、制度として管理することが可能になりました。
統計と確率の融合:偶然を「予測」に変えるエンジン
ナイチンゲールがデータを武器に社会を動かし、アクチュアリーがリスクを金額に換算できたのは、その背後に「偶然の中にある法則を導き出す数学」が確立されていたからです。
「未来の可能性」を計算する仕組み
1654年、数学者パスカルとフェルマーの書簡から始まった確率論は、「まだ起きていない未来」を数字で扱う手法を生み出しました。
そのきっかけは、「賭けを途中でやめたとき、勝ち金をどう分けるのが公平か」という相談でした。パスカルは、勝負を最後まで続けた場合に起こりうる全てのパターンを想定し、それぞれの勝率を計算しました。「運」という曖昧なものを、未来のパターンの比率によって「計算可能な数値」へと変換したのです。この仕組みこそが、不確実な未来に備える保険制度などの土台となりました。
データが増えるほど真実が見える「大数の法則」
一回一回の偶然を計算できるようになった次に、統計学を「科学」へと押し上げたのが、1713年に発表された「大数の法則」です。
これは、一回一回はデタラメに見える偶然も、数千、数万回と繰り返せば、必ず一定の割合(理論上の正解)に近づいていくという原理です。
- コイン投げの例: 数回投げただけでは表ばかり出る「偏り」が起きますが、数万回投げれば、表が出る割合は限りなく50%に近づきます。
「データが少ないうちは偶然に振り回されるが、データが増えるほど真実があぶり出される」というこの仕組みは、現代のビッグデータ解析や世論調査の精度の根幹を支えています。
「新しい証拠」で予測を更新する
さらに1763年、没後の論文として公表されたベイズの定理は、統計学に「学習」の概念をもたらしました。
一度決めたら動かない正解を探すのではなく、「新しいデータが得られるたびに、手持ちの予測をアップデートしていく」という仕組みです。この「経験によって予測の精度を上げる」という手法は、現代のAI(機械学習)が自ら賢くなっていくプロセスの原点となっています。
相関と因果の混同:統計の「落とし穴」と計算科学への進化
20世紀、統計はあらゆる学問の基盤となりましたが、同時に「数字の客観性」ゆえの危うさも浮き彫りになりました。そしてコンピュータの登場が、統計を「手計算の学問」から「予測の科学」へと変貌させていくことになります。
相関関係と数字の悪用
20世紀初頭、ピアソンは2つの変数の関係を数値で表す「相関係数」を考案し、科学研究に不可欠なツールを確立しました。しかし彼は、統計を差別的な社会政策の根拠とする「優生学」の強固な支持者でもありました。ここで生じたのが、「相関関係(関連がある)」と「因果関係(一方が原因である)」の混同です。単なる数字上の関連を「科学的な正解」として信じ込むことは、時として深刻な誤解や差別を生むという、統計学が抱える宿命的な陥穽(わな)が顕在化した歴史でもあります。
偶然か意味があるかを見極める
この混乱に理論的な一線を引いたのが、フィッシャーです。彼は「この差は偶然起きたものか、それとも意味がある差なのか」を判断する「仮説検定」や、正しくデータを取るための「実験計画法」を体系化しました。「たまたま起きた偏り」に騙されないための厳密なルールを数学的に作ったことで、統計は現代科学における「証明」の標準言語となりました。
コンピュータによる「計算科学」への転換
20世紀後半、コンピュータの登場が統計の限界を突破しました。それまで統計学者が数週間かけて行っていた計算が数秒で終わるようになり、統計は複雑なシミュレーションの道具へと進化しました。人口統計や経済指標といった膨大な実データを扱えるようになっただけでなく、乱数を用いて複雑な確率問題を解く「モンテカルロ法」のような技法も生まれました。これにより、核物理から金融工学まで、現実には実験不可能な問題を数値シミュレーションで解決することが可能になったのです。
「説明」から「予測」へ:AIとビッグデータの時代
インターネットの普及によって生み出された「ビッグデータ」は、統計学を「機械学習」へと繋げました。ここで、統計のあり方に大きな発想の転換が起きます。従来の統計が「なぜそうなるのか」という因果の解明(説明)を重視したのに対し、機械学習は「次に何が起きるか」という精度の最大化(予測)を重視します。
「なぜ顧客はこの商品を買ったのか?」という理由が完全に分からなくても、「この顧客は次に何を買うか」を正確に当てることができれば十分とする。この「理由より精度」を優先するパラダイムシフトが、2010年代以降の深層学習(ディープラーニング)の台頭を支え、翻訳や画像診断といった現代のAI技術を爆発的に進化させる原動力となりました。
まとめ――歴史から見えてくる3つの真実
400年の歴史が教えてくれるのは、統計は数字を使って「見えない仕組み」を可視化する知恵です。個人の動きはバラバラで予測不能ですが、集団として俯瞰すれば、そこには「パターン」が現れます。この規則性を見つけ出すことが、科学的に捉える第一歩となります。「なんとなく怖い」という主観的な不安も、客観的な「確率」という数値に置き換えることによって、人類は未来のリスクを比較し、制度として管理する手段を手にしました。データは単なる記録ではなく、使い方次第で「意思決定」を促す強力な道具になります。どの数字を使い、どう見せるか。その選択こそが、世界を動かす力となります。

