- きぬいと(@0_u0)
- 特徴①: 報告する人間の中で一番TwitterIDが短い
 - 特徴②: 人間のデータが好物
 - 特徴③: 最近
Juliaを始める 
 - リサーチ企業のアナリスト
- 悩み: TB規模のデータで機械学習するためのアーキテクチャ構築
 
 - 趣味
- 簡単なことを難しく考える
 
 
2020/1/25
Juliaを始める受験「そっか、じゃあ卒業したら、別々だね……」
UseData <- data.frame(IKIGAI          =  y, #生きがいスコア
                      R_usage         = X1, # Rを使う喜び
                      MANGA_count     = X2, # マンガの冊数
                      Museum_emotion  = X3, # 美術館に通う
                      Python_usage    = X4, # Pythonを使う喜び
                      Julia_usage     = X5) # Juliaを使う喜び 
lm()関数。
lm_model1: R_usage、MANGA_count、Museum_emotionのみをつかうlm_model2: Python_usage、Julia_usageをくわえてみる。lm_model1 <- lm(IKIGAI ~   R_usage       + 
                           MANGA_count   +
                           Museum_emotion,
                           data = UseData)
lm_model2 <- lm(IKIGAI ~ ., data = UseData) #全部使うときは`.`
lm_model1の結果EstimateとPr(>|t|)を確認するsummary(lm_model1)$coefficients
## Estimate Std. Error t value Pr(>|t|) ## (Intercept) -0.04771901 0.063815589 -0.7477642 4.547789e-01 ## R_usage 1.23184029 0.031383497 39.2512124 2.096241e-204 ## MANGA_count 0.60711331 0.021224977 28.6037199 7.696141e-132 ## Museum_emotion 0.29876870 0.006250491 47.7992354 4.555039e-260
Std.Error)範囲内。lm_model2の結果EstimateとPr(>|t|)を確認するsummary(lm_model2)$coefficients
## Estimate Std. Error t value Pr(>|t|) ## (Intercept) -0.08471934 0.083405958 -1.0157469 3.099971e-01 ## R_usage 5.16707707 3.093504186 1.6702990 9.517504e-02 ## MANGA_count 0.60710044 0.021224029 28.6043925 8.841532e-132 ## Museum_emotion 0.29869484 0.006250579 47.7867438 8.972799e-260 ## Python_usage -4.00617089 3.091913944 -1.2956929 1.953821e-01 ## Julia_usage 0.07361794 0.108349088 0.6794514 4.970101e-01
lm_model2の結果R_usageは正、Python_usageは大きく負!?
cor(UseData$R_usage, UseData$Python_usage) # 伏線回収
## [1] 0.9999486
cor(UseData$R_usage, UseData$Julia_usage)
## [1] 0.9601607