最近、統計学は他人を説得するための手段になった。少なくとも私が学生だった時代には、一部の学術研究以外にこんなに統計学が利用されることはなかった。そうなったのはコンピュータの普及による。
それまではデータの統計学的な解析には電卓を用いていたから、膨大な手間が必要だった。それが、コンピュータの低価格化(またはソフトの開発)によって、一瞬でできるようになった。
電卓を用いた手計算ではとても不可能だった多変量解析という方法が手軽に実施できるようになったので、一時、多変量解析がブームになった。しかし、多変量解析は思ったほどの情報を与えてくれないことが分かり、すぐに下火になった。
それで、ごく一般的なT-検定やカイ2乗検定がコンピュータで頻繁に行われるようになった。ここで、「有意水準」という概念が出てくる。ごく一般的には「有意水準」には5%という数字が使用される。
「有意水準」5%で「有意差あり」とは、同じような統計的な研究が100個あったとして、うち95個くらいの研究結果は正しいだろうという意味である。
私の学生時代には「有意水準」に1%が用いられることがあった。1%で「有意差あり」なら、これは研究結果100個のうち99個くらいが正しいだろうと予想でき、かなり確からしいことが言える。ところが今度は、1%では研究結果そのものが発表しにくいという弊害が出てきた。(1%ではなかなか「有意差」が出ないのだ。)
それで最近では「有意水準」というと決まったように5%が採られるようになった。統計学という数理科学の一分野に、便利かどうか実用に耐えるかどうかという人間の勝手な価値観が混ざっていて、どこまで精度を犠牲にできるかを恣意的に決めているので面白い。
(統計というと、マスコミの世論調査を思い出されるかもしれないが、世論調査は統計学を一切利用していない。)
(金融工学といって、金融商品に統計学を応用して、もっともリスクが低くなるように計算された商品が開発された。それらは多種類大量に販売された。だが、リスクの分散が裏目に出て、先のリーマンショックを招いた。)
それまではデータの統計学的な解析には電卓を用いていたから、膨大な手間が必要だった。それが、コンピュータの低価格化(またはソフトの開発)によって、一瞬でできるようになった。
電卓を用いた手計算ではとても不可能だった多変量解析という方法が手軽に実施できるようになったので、一時、多変量解析がブームになった。しかし、多変量解析は思ったほどの情報を与えてくれないことが分かり、すぐに下火になった。
それで、ごく一般的なT-検定やカイ2乗検定がコンピュータで頻繁に行われるようになった。ここで、「有意水準」という概念が出てくる。ごく一般的には「有意水準」には5%という数字が使用される。
「有意水準」5%で「有意差あり」とは、同じような統計的な研究が100個あったとして、うち95個くらいの研究結果は正しいだろうという意味である。
私の学生時代には「有意水準」に1%が用いられることがあった。1%で「有意差あり」なら、これは研究結果100個のうち99個くらいが正しいだろうと予想でき、かなり確からしいことが言える。ところが今度は、1%では研究結果そのものが発表しにくいという弊害が出てきた。(1%ではなかなか「有意差」が出ないのだ。)
それで最近では「有意水準」というと決まったように5%が採られるようになった。統計学という数理科学の一分野に、便利かどうか実用に耐えるかどうかという人間の勝手な価値観が混ざっていて、どこまで精度を犠牲にできるかを恣意的に決めているので面白い。
(統計というと、マスコミの世論調査を思い出されるかもしれないが、世論調査は統計学を一切利用していない。)
(金融工学といって、金融商品に統計学を応用して、もっともリスクが低くなるように計算された商品が開発された。それらは多種類大量に販売された。だが、リスクの分散が裏目に出て、先のリーマンショックを招いた。)