9 単回帰分析

Author
Affiliation

佐久間 智広

神戸大学大学院経営学研究科

Published

2024/06/10

Modified

2024/06/24

0.1 準備

Code
if (!require("pacman")) install.packages("pacman")
pacman::p_load(tidyverse, magrittr, estimatr,
               car, modelsummary, ggrepel, patchwork,
               psych)
1
複数のパッケージを一度に読み込めるpacmanパッケージが入っていない場合は,インストールする
2
パッケージの読み込み
pacman

複数のパッケージを読み込めるパッケージ。そのパッケージの中のp_loadコマンドを使うと,()内に指示したパッケージを読み込める。さらにそのパッケージがそもそもインストールされていない場合にはインストールした後に読み込んでくれる

tidyverse

Rのコードを楽にするたくさんのパッケージをパッケージにしたもの

magrittr

tidyverseに含まれる%>%などのコードをさらに拡張するもの。これがあると%$%とか%<>%が使える

1 前回の課題

1.1 背景

(ハンバーガー統計学より引用)

平均値の検定の例では,不特定の16名にわくわくバーガーともぐもぐバーガーの「どちらか1つ」を食べてもらって,その味を評価してもらいました。もう少し精度よく味の違いを比べるには,同じ人に両方食べてもらう方が良いのでは?以上の背景から,8人を集めて2種類のハンバーガーを食べて比較してもらい,それぞれのハンバーガーに点数をつけてもらいました。ただし,どちらのハンバーガーを先に食べるかによって評価に偏りがでるといけないので,半分の人にはワクワクを先に,残りの半分にはモグモグを先に食べてもらいました。

集計したデータが8_ham2.csvです。

Code
ham2 <- read_csv('data/8_ham2.csv')
Code
ham2

1.2 実習課題

以下の内容をmanabaの第8回課題に記入してください。

  1. わくわくバーガー,もぐもぐバーガーそれぞれの平均と標準偏差,最大値,最小値をそれぞれ算出してください。コードと結果両方を記載してください。
  2. 授業でやった方法と同じ方法でわくわくバーガーともぐもぐバーガーの平均値の差の検定(t検定)をしてください。実行コードとp値,検定結果から読み取れることを記入してください。
  3. 今回は同じ人が評価した得点,つまりwakとmogはそれぞれペアデータです。それを反映したt検定を行うためには,t.test()コマンドの中に paired = TRUEを記載します(対応ありのt検定と言います)。対応ありのt検定を行い,それを課題2のt検定と比較してください。
  4. ハンバーガーの評価に人による傾向があるかを知りたいと思っています(例えば全体的に高い,低い得点をつける傾向があるか)。そこで相関係数の検定をしてください。コードと相関係数,検定結果を記載し,検定結果から読み取れることを記入してください。

対応ありのt検定は,対応なしのt検定の分析上の仮定を変えて,「同じ人が評価した」ということを反映させた形の検定をしています。


  1. わくわくバーガー,もぐもぐバーガーそれぞれの平均と標準偏差,最大値,最小値をそれぞれ算出してください。コードと結果両方を記載してください。
Code
ham2 |> 
  describe()

  1. 授業でやった方法と同じ方法でわくわくバーガーともぐもぐバーガーの平均値の差の検定(t検定)をしてください。実行コードとp値,検定結果から読み取れることを記入してください。
Code
ham2 %$%
  t.test(wak, mog)

    Welch Two Sample t-test

data:  wak and mog
t = -1.2999, df = 13.878, p-value = 0.2148
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
 -11.599706   2.849706
sample estimates:
mean of x mean of y 
   76.875    81.250 

p値は,約21%。これは,帰無仮説(差がない)が正しいときに,今回の評価差もしくはそれより極端な値が得られる確率を意味しているが,5%よりも大きいので,帰無仮説を採択し,差がないと結論づける。


  1. 今回は同じ人が評価した得点,つまりwakとmogはそれぞれペアデータです。それを反映したt検定を行うためには,t.test()コマンドの中に paired = TRUEを記載します(対応ありのt検定と言います)。対応ありのt検定を行い,それを課題2のt検定と比較してください。
Code
ham2 %$%
  t.test(wak, mog, paired = TRUE)

    Paired t-test

data:  wak and mog
t = -2.9656, df = 7, p-value = 0.02094
alternative hypothesis: true mean difference is not equal to 0
95 percent confidence interval:
 -7.8633933 -0.8866067
sample estimates:
mean difference 
         -4.375 

p値は0.02,つまり2%。帰無仮説(差がない)が正しいとして今回の評価差もしくはそれより極端な値が得られる確率は2%ということを意味していて,5%よりも小さいので対立仮説を選択し,差があると結論づける。


  1. ハンバーガーの評価に人による傾向があるかを知りたいと思っています(例えば全体的に高い,低い得点をつける傾向があるか)。そこで相関係数の検定をしてください。コードと相関係数,検定結果を記載し,検定結果から読み取れることを記入してください。
Code
ham2 %$%
  cor.test(wak, mog)

    Pearson's product-moment correlation

data:  wak and mog
t = 3.401, df = 6, p-value = 0.01448
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
 0.2493496 0.9645720
sample estimates:
      cor 
0.8114438 

p値は0.01,つまり1%。帰無仮説(相関がない)が正しいとして今回の相関もしくはそれより極端な値が得られる確率は1%ということを意味していて,5%よりも小さいので対立仮説を選択し,相関はあると結論づける。

2 二つの変数間の関係を表す(復習+α)

2.1 準備

使うデータは,アイスクリーム屋さんの気温と客数のデータです(アイスクリーム統計学より)。

Code
ice4 <- read_csv("data/9_ice4.csv")
ice4

気温はkion,客数はkyakuという名前になっていることを確認します。


その上でまず,データの散布図と,それにフィットする直線を書いてみます。

Code
g <- ggplot(data = ice4, #<1>使うデータを指定
            aes(x = kion, y = kyaku)) +  #<2>x軸とy軸を指定
  geom_point() + #<3>散布図
  geom_smooth(method = "lm",se = FALSE) #<4>散布図にフィットする直線を書く。方法は,線形モデル(lm)
plot(g)


ただ相関係数を求めるだけでも二つの変数の関係の強さはわかりますが,こうして関係を要約するような直線を引くことで,別のサンプルに対する予測値を出すことができます。

\[ y_i = \beta_0 + \beta_1x_i+u_i \]

\(\beta_0\)は切片,\(\beta_1\)は傾き。\(u_i\)は誤差。個々の点と直線の乖離

アイスクリーム屋さんの客数(y,単位は人)とその日の最高気温(x,単位は℃)には以下の関係があると推定できたとします。

\[ y = 100+10x \]

このような式が推定できると,例えば最高気温20度の日には300人,30度の日には400人の来客があると予測できます。この予測を元にアルバイトの人数や時間数,仕入・仕込みの量を調整することができます。

この直線は,以下で紹介する最小二乗法を使って推定するが,限られたデータ(サンプル)を使って推定されたもの。

  • このデータで偶然生じた関係なのか,それとも母集団でもこの関係はあると見做せるのか?
  • 前回やった統計的仮設検定の枠組みを使って検定

先ほどのスライドの図表では自動で線が引かれていますが,例えばこんな線もあり得そうでもあります。

Code
g1 <- ggplot(data = ice4, #使うデータを指定
             aes(x = kion, y = kyaku)) + 
  geom_point() + #散布図を作成
  geom_smooth(method = "lm", se = FALSE) + 
  geom_hline(aes(yintercept = 320),
               color = "salmon") + #<1>高さ320の水平線
  geom_abline(intercept = 150, slope = 5,
                color = "yellowgreen")#<2>傾き5,切片150の直線

#散布図にフィットする直線を書く。方法は,線形モデル(lm)
plot(g1)

じゃあ,どんな線が最も良い線なのか,それを決めて線を引く,というか線の式を求めるのが回帰分析です。

3 回帰分析

3.1 最小二乗法の考え方

回帰分析では,最小二乗法という方法で計算します。この方法の考え方は

直線と各データの誤差を最小にする線が最も良い線であろう

というものです。

これは,他の図で矢印になっている誤差を全部足したらしたらゼロになる点を探すことを意味します。±打ち消し合うので \(E(u)=0\) が理想です。


アイス屋さんにおける気温を\(x\),客数を\(y\)とします。気温とアイスの客数にある一定の傾向があるとは予想できますが,一直線上にビタッと並ぶことはなさそうです。

  • 近隣で夏祭りがあったら売り上げは伸びるかもしれません
  • 雨予報が出てたら売り上げは減るかもしれません

このような,気温以外の要因で販売量が増減する部分を誤差\(u\)とします。すると

\[ y_i = \beta_0 + \beta_1x_i+u_i \tag{1}\]

という直線をイメージしていることになります。ただし添え字の\(i\)はサンプル(散布図の個々の点)です。

このような式では,暗黙的にxを用いてyを予測する,つまりxが原因でyが結果ということを想定します1

  • yを従属変数(被説明変数)
  • xを独立変数(説明変数)

と呼びます。(どちらの言い方も同程度によく聞きます)


Equation 1 において,誤差が最小になるような線を引きたいので, Equation 1 を変形して

\[ u_i = y_i - \beta_0 - \beta_1x_i \tag{2}\]

が最小となる切片\(\beta_0\)と傾き\(\beta_1\)を探すと良いということです。ということは,絶対としての\(u\)が一番小さくなる,つまり\(|u|=0\)が理想的。ただ,絶対値の計算は少し大変なので,それぞれの残差を2乗したものをすべて足しあわせて,それを最小化すれば良い。

  • だから最小二乗法という

3.2 最小二乗法を解く

数式で表すと

\[ \sum_{i=1}^n \hat{u}_i^2= \sum_{i=1}^n (y_i -\hat{\beta_0}-\hat{\beta_1}x_1)^2 \tag{3}\]

が最も小さくなる\(\beta_0\)\(\beta_1\)を求めれば良い。2次関数の最小値問題。微分して0,とすると計算しやすいので,\(\beta_0\)\(\beta_1\)をそれそれ微分して

\[ \begin{equation}\left\{ \, \begin{aligned}&\frac{\partial \Sigma}{\partial \hat{\beta_0}} = \sum_{i=1}^n (y_i -\hat{\beta_0}-\hat{\beta_1}x_1) = 0 \\&\frac{\partial \Sigma}{\partial \hat{\beta_1}} = \sum_{i=1}^n x_i(y_i -\hat{\beta_0}-\hat{\beta_1}x_1) = 0 \end{aligned}\right.\end{equation} \tag{4}\]

という連立方程式を解けば良い。

ヒント

\(\bar{x}=\dfrac{1}{n}\sum_{i=1}^nx_i\)とする

  1. \(\Sigma^n_{i=1}x_i(x_i-\bar x) = \Sigma^n_{i=1}(x_i-\bar x)(x_i-\bar x)\)
  2. \(\Sigma^n_{i=1}y_i(x_i-\bar x) = \Sigma^n_{i=1}x_i(y_i-\bar y) = \Sigma^n_{i=1}(x_i-\bar x)(y_i-\bar y)\)

\[ \begin{equation} \left\{ \, \begin{split} &\sum_{i=1}^n (y_i -\hat{\beta_0}-\hat{\beta_1}x_1) = 0 \\ &\sum_{i=1}^n x_i(y_i -\hat{\beta_0}-\hat{\beta_1}x_1) = 0 \end{split} \right. \end{equation} \tag{5}\]

上の式から

\(\begin{split}&\Sigma y_i - n \hat{\beta_0} - \hat{\beta_1}\Sigma x_i = 0 \\\hat{\beta_0} &= \frac{1}{n} (\Sigma y_i - \hat{\beta_1}\Sigma x_i) \\&= \bar{y} - \hat{\beta_1} \bar{x}\end{split}\)

下の式に代入

\(\begin{split}\Sigma x_i \{y_i - (\bar{y} - \hat{\beta_1}\bar{x}) - \hat{\beta_1}x_i\} &= 0 \\ \Sigma x_i \{(y_i - \bar{y}) - \hat{\beta_1}(x_i - \bar{x})\} &= 0 \\\Sigma x_i (y_i - \bar{y}) - \hat{\beta_1}\Sigma x_i (x_i - \bar{x}) &= 0 \\\end{split}\)

ヒントから

\(\Sigma (x_i - \bar{x})(y_i - \bar{y}) - \hat{\beta_1}\Sigma (x_i - \bar{x}) (x_i - \bar{x}) = 0\)

以上より

\[ \hat{\beta_1} = \dfrac{\Sigma (x_i - \bar{x})(y_i - \bar{y})}{ \Sigma (x_i - \bar{x})^2} = \dfrac{ x \mbox{と}y\mbox{の共分散}}{ x\mbox{の分散}} \tag{6}\]

\[ \hat{\beta_0} = \bar{y} - \dfrac{\Sigma (x_i - \bar{x})(y_i - \bar{y})}{ \Sigma (x_i - \bar{x})^2} \bar{x} \tag{7}\]


参考にあるような仮定が満たされている時,最小二乗法によって推定された係数は,不偏で,最も効率性が高い推定量(BLUE; Best liner unbiased estimater)となることが知られています。

  • 歪みなく,精度高く推定できる

この特性からか,最小二乗法はほとんどの統計的分析の基礎となっています。

4 分析方法

4.1 Rでの分析方法

次に,Rで回帰分析をします。回帰分析は,lm()でやります。()の中には,(従属変数 ~ 独立変数, data = データ名)という内容を書きます。結果は,summary(分析結果)で出ます。

Code
kekka4_1 <- lm(kyaku ~ kion, data = ice4)
summary(kekka4_1)

Call:
lm(formula = kyaku ~ kion, data = ice4)

Residuals:
    Min      1Q  Median      3Q     Max 
-47.969 -17.709  -1.218  17.413  51.031 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  -229.98      73.79  -3.117  0.00596 ** 
kion           17.25       2.30   7.499 6.08e-07 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 29.54 on 18 degrees of freedom
Multiple R-squared:  0.7575,    Adjusted R-squared:  0.744 
F-statistic: 56.23 on 1 and 18 DF,  p-value: 6.082e-07

Code
summary(kekka4_1)

Call:
lm(formula = kyaku ~ kion, data = ice4)

Residuals:
    Min      1Q  Median      3Q     Max 
-47.969 -17.709  -1.218  17.413  51.031 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  -229.98      73.79  -3.117  0.00596 ** 
kion           17.25       2.30   7.499 6.08e-07 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 29.54 on 18 degrees of freedom
Multiple R-squared:  0.7575,    Adjusted R-squared:  0.744 
F-statistic: 56.23 on 1 and 18 DF,  p-value: 6.082e-07



  • Coefficients
    • Estimate: 推定された係数。(intercept)は切片
    • Std. Error: 標準誤差(推定量の標準偏差)
    • t value: 「係数が0」を帰無仮説とする検定のt値。Estimate / Std. Errorで算出される
    • Pr(>|t|) : 「係数が0」を帰無仮説とする検定のp値。有意確率はここで見る
  • Signif. codes: 有意確率に応じて星がつく。
  • R-squaredAdjusted R-squared: 推定された直線のデータとの当てはまりの良さ
  • F-statistic: 全ての係数が0,という仮説のF検定の結果。単回帰分析では,p値は独立変数のp値とほぼ一致
Note

p値に出てくる”6.08e-07“は,\(6.08 \times 10^{-7}\)を意味しています。なのでp値は0.001,つまり0.1%よりもかなり低いです。こんな書き方を浮動小数点表記法 floating point expression あるいは,科学的表記法 scientific notation と呼びます。


この推定結果から

\[ kyaku = 17.25kion - 229.98 \]

という式が推定されたことになる。例えば気温が30度の時,

\[ 17.25 \times 30 -229.98 = 287 \text{人} \]

ぐらいの来客があると予測できる。

Rでは,新しいデータ(tibble形式)で,予測したい気温が入ったデータを作り,predict関数を使って算出できる

Code
newdata <- tibble(kion = c(25, 28, 30, 35))
predict(kekka4_1, new = newdata)
1
気温が25,28,30,35度の時を想定するデータを作成
2
predict関数で,さっき推定した関数に当てはめる
       1        2        3        4 
201.2246 252.9694 287.4659 373.7072 

4.2 回帰分析における仮説検定

回帰分析は,未知の母集団における法則性を推定しています。

  • 例えば,アイス屋さんの気温と客数の関係を推定した前項の分析は,ある期間(例えば2023年8月)の関係を見ているとします。
  • しかし,この分析から知りたいのは,2023年の関係だけではなく,もっと一般的な基本と客数の関係です。
    • 例えば来年以降の8月はどうか,など
  • ここから,上の回帰分析は,ある月(データの取り方によっては特定の月ではなく一般に)アイスクリーム屋さんにとって気温と客数の関係はどんなものかを母集団としていると考えられます。

少ないデータによって未知の母集団を推定しているので,その推定値は必ずしも母集団と一致するわけではありません。

そこで,この母集団を推定するにあたっての性能を統計的に検定することが一般的です。

具体的には,係数が0(つまり関係ない)かどうかを平均値の差の検定と同じt検定で検定します。

  • \(kyaku = 17.25kion - 229.98\)と推定されたけど,もしkionの係数が0だとしたら\(kyaku = \text{切片}\)になる

Code
plot(g) 

たまたま斜めに線が引かれたけど,母集団では関係ない(傾きゼロ)なんじゃないか?


帰無仮説を0とおいたt検定の結果が,先ほどの回帰式でいうt valueとして表示されていて,有意確率が Pr(>|t|)として表示されています。

Code
lm(kyaku ~ kion, data = ice4) |>  
  summary()

Call:
lm(formula = kyaku ~ kion, data = ice4)

Residuals:
    Min      1Q  Median      3Q     Max 
-47.969 -17.709  -1.218  17.413  51.031 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  -229.98      73.79  -3.117  0.00596 ** 
kion           17.25       2.30   7.499 6.08e-07 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 29.54 on 18 degrees of freedom
Multiple R-squared:  0.7575,    Adjusted R-squared:  0.744 
F-statistic: 56.23 on 1 and 18 DF,  p-value: 6.082e-07

気温( kion)の係数は17.25,有意確率は限りなく0に近い(気温と客数に関係がないとする仮説は99.999%の確率で棄却される),つまり気温と客数に関係はありそうだという結論になる。このように,帰無仮説0が棄却されることを「有意」と言います。

4.3 決定係数

分析結果の当てはまり度合いを表す指標(のひとつ)が決定係数 (\(R^2\))

  • データのばらつきのうち,推定された回帰式で説明できる割合を表す。
    • 回帰分析がどれぐらいデータを予測できているか?
  • 0から1まで,1に近いほど当てはまりが良い
  • R-squaredAdjusted R-squaredという2つの種類が表示されているが,とりあえず今日の分析(単回帰分析)では大差ない

5 まとめ


回帰分析は独立変数(x)を使って従属変数(y)を予測するような数式を推定する分析

\[ y_i = \beta_0 + \beta_1x_i+u_i \]

  • あるxがyと関係あるかどうか(係数が0かどうか)を検証できる
  • 推定された数式に予測したい数値(x)を入れることで予測値を算出できる

回帰分析はlm(従属変数 ~ 独立変数 ,data = データ名)で実行可能

  • 係数はEstimate,xがyと関係あるかの検定(t検定)結果の有意確率はPr(>|t|)で確認できる
  • 数式全体といての当てはまりの良さは,R-squaredで確認できる
  • predict関数を使って,予測値を算出できる。

6 課題


9_kadai.csvには,ある大学の授業における学生19名の入学試験結果 (exam,700点満点),入学から現在までのGPA (gpa),高校の時の評定平均 (hschool, 10段階)が含まれています。ここから,GPAが入学時点で得られる情報とどのような関係にあるかを検証したいと考えています。以下の問の答えを,2024/06/17課題に記入してください

  1. describe関数を使って,gpaexamの平均・標準偏差・中央値・最大値・最小値等を確認してください。(コードのみでいいです)
  2. gpaexamの相関係数,およびその検定をしてください。(コードと結果)
  3. gpaを従属変数,examを独立変数として回帰分析をしてください。その上で,係数とその統計的仮説検定の結果から,何が言えるかを説明してください(コードと説明のみ,結果は書く必要ないです)
  4. 回帰分析の結果から,predict関数を使って入試の点数がそれぞれ400,500,600,700点の時のgpaの予測値を計算したいです。まず,3で行った回帰分析の結果をkekka <- で保存しておいてください。次に以下のコードを実行して,入試の点数が400,500,600,700の時のデータを作り,newdataという名前で保存します。
    newdata <- tibble(exam = c(400,500,600,700))
    その後,predict(kekka,new = newdata)を使ってそれぞれの予測値を算出してください。(コードと結果)
Caution

describe()関数は,psychパッケージの関数です。関数が見つからないというエラーが出た場合は,パッケージのインストール,読み込みがされているか確認してください。この授業の最初の 準備 のところで読み込んでいます。

7 参考

7.1 回帰分析の仮定と特性

  • 回帰分析を行う際には通常いくつかの仮定が置かれています。その仮定が満たされた時,回帰分析の結果(最小二乗推定量)は,母集団を推定する上で望ましい性質を持ちます。
  • 若干込み入った話になりますので,詳しくは割愛しますが,回帰分析を正しく行うためには,「いくつかの仮定が暗黙的に想定されていること」,そして「その仮定は必ずしも常に満たされるわけではないこと」を理解しておくことが必要です。

7.1.1 仮定1:線形回帰の仮定

  • 回帰分析を行う際には,独立変数(\(x\))と従属変数(\(y\))の間に1次式の関係を仮定しています。つまり

\[ y = \beta_0 + \beta_1x \]

  • のような関係を仮定していることになります。このような仮定を置くことで,変数間の関係をわかりやすく表現できます。
  • 一方で,この仮定が常にもっともらしいとは限りません。

7.1.2 仮定2:ガウス・マルコフの仮定

  • Equation 1 にある誤差 \(u\)について,以下のような仮定が置かれます
    • 誤差項の期待値は0: \(E(u)=0\)
    • 誤差項の等分散・無相関性: \(Cov(u)=\sigma^2I\)2
  • この時,回帰分析の結果(最小二乗推定量)は最良線形不偏推定量(BLUE: best linear unbiased estimator),つまり全ての推定量の中で最も偏りのない推定量となります。
  • データの特性や分析の際の手続きによっては,この仮定が満たされなくなります。そうすると偏りのない推定量は得られない,逆にいうと分析結果がズレてくる可能性があるということです。

7.1.3 仮定が満たされなさそうな時どうする?

  • 計量経済学をはじめとする実証研究の教科書に書かれていることの大半は,これらの仮定が何らかの理由で満たされない時にどう工夫すれば良いか,という問題です。
  • 次の授業からは,このような理想的な推定とならないときの対処法について(ごく一部を)紹介します。

7.2 参考2:証明

回帰分析の計算方法の部分で,ヒントとした\(\Sigma^n_{i=1}x_i(x_i-\bar x) = \Sigma^n_{i=1}(x_i-\bar x)(x_i-\bar x)\)となるのは,左辺から

\[ \begin{split} \Sigma^n_{i=1}&x_i(x_i-\bar x) \\ & = \Sigma^n_{i=1} x_i^2 - \bar x \Sigma^n_{i=1} x_i \\ & = \Sigma^n_{i=1}x_i^2 - n(\bar x)^2 \end{split} \]

一方で右辺から

\[ \begin{split} \Sigma^n_{i=1}&(x_i-\bar x)(x_i-\bar x) \\ & = \Sigma^n_{i=1} (x_i^2 - 2 x_i \bar x +(\bar x)^2) \\ & = \Sigma^n_{i=1}x_i^2 -2 \bar x \Sigma^n_{i=1}x_i + (\bar x)^2\\ & = \Sigma^n_{i=1}x_i^2 - n(\bar x)^2 \\ \end{split} \]

7.3 参考3 回帰分析の表による表示

論文に書くような結果の表は,modelsummaryパッケージのmsummaryを使うと出力できます。

Code
msummary(kekka4_1,
         gof_omit = "Log.Lik.|AIC|BIC|RMSE",
         stars = TRUE)
1
とりあえず表示させなくて良い情報を非表示にする
2
統計的に有意な(つまり0ではないと検定される)係数に星をつける
tinytable_70gwdu6j6osladb2brx2
(1)
+ p < 0.1, * p < 0.05, ** p < 0.01, *** p < 0.001
(Intercept) -229.982**
(73.787)
kion 17.248***
(2.300)
Num.Obs. 20
R2 0.758
R2 Adj. 0.744
F 56.231

Footnotes

  1. 実際に分析上原因,結果の因果関係は担保されません。あくまで想定しているだけです。↩︎

  2. \(I\) は単位行列↩︎