因子分析:データから共通因子を見つけ、原因を探る理論とやり方統計学 多くの因子によって結果を生じているとき、何が原因であるのか突き止めると将来の結果を予測できるようになります。 どの要因が結果に影響しているのか解析する手法はたくさんあり、その一つが因子分析です。因子分析によって共通点を見 […] 続きを読む
重回帰分析:重相関係数と重回帰の式を用いて分析する概念とやり方統計学 複数の要素が関係しているとき、どの要素に大きく影響を受けるのか解析する手法が多変量解析です。多変量解析の中でも、最も重要な分野の一つが重回帰分析です。 重回帰分析をすることによって、将来の結果を予測することができます。多 […] 続きを読む
二項検定とZ検定:確率(p値)を計算し、有意水準と比べて判定するやり方統計学 統計学で重要な検定法に二項検定とZ検定があります。両者は異なる検定法です。 二項検定では、起こる確率(p値)を直接計算することによって判定します。そのため、サンプル数が少ない場合に向いている検定法です。 一方でサンプル数 […] 続きを読む
ケンドールの一致係数:多群での相関を判定するノンパラメトリック法統計学 相関関係を確認するとき、最も有名な方法がピアソンの相関係数です。2つの要素について、相関関係があるかどうか確認することができます。 一方、複数の要素を含む場合はケンドールの一致係数を利用します。標本に複数の群が含まれてい […] 続きを読む
スピアマンの順位相関係数:公式を用いた計算方法や検定の概念統計学 相関関係を確認するとき、ピアソンの相関係数が最も一般的です。ただスピアマンの順位相関係数を利用することによって、相関関係を確認することもあります。 スピアマンの順位相関係数では、名前の通り順位を利用することで相関があるか […] 続きを読む
回帰直線:最小二乗法による単回帰分析と回帰の有意性の検定統計学 統計学で学ぶ分野の一つが回帰直線です。データを集めて散布図に表した後、一つの直線を引くのです。これにより、図が何を意味しているのか理解しやすくなります。 ただ回帰直線を引くとき、ルールがあります。最小二乗法を利用すること […] 続きを読む
コホート研究と症例対照研究(ケースコントロール)の違いと統計法統計学 医療統計で頻繁に利用される方法にコホート研究と症例対照研究(ケースコントロール研究)があります。コホート研究は前向き研究と呼ばれており、症例対照研究は後ろ向き研究と呼ばれます。要は将来に向かって研究をするのか、過去に向か […] 続きを読む
統計で重要なバイアスの内容と無作為化・盲検化の種類統計学 統計では先入観をできるだけ排除することが重要になります。実験をするとき、都合の良いデータが出てしまうことがあります。これは、実験データに先入観が含まれているからです。これをバイアスといいます。 そのためバイアスを排除する […] 続きを読む
フリードマン検定:二つの因子をもつ多群のノンパラメトリック検定統計学 3群以上を含む標本を検定するとき、分散分析(ANOVA)が利用されます。分散分析には一元配置分散分析や二元配置分散分析があります。ただ母集団が正規分布していない場合、その他の方法を利用しなければいけません。 このとき、母 […] 続きを読む
二元配置分散分析:2因子の分析と繰り返しあり(交互作用)の検定法統計学 分散分析を学ぶとき、必ず理解しなければいけないのが二元配置分散分析(Two-way ANOVA)です。因子が二つであり、3群以上をもつ標本であれば、二元配置分散分析を利用して検定をしましょう。 一元配置分散分析と原理は同 […] 続きを読む