- きぬいと(@0_u0)
- 特徴①: 報告する人間の中で一番TwitterIDが短い
- 特徴②: 人間のデータが好物
- 特徴③: 最近
Julia
を始める
- リサーチ企業のアナリスト
- 悩み: TB規模のデータで機械学習するためのアーキテクチャ構築
- 趣味
- 簡単なことを難しく考える
2020/1/25
Julia
を始める受験「そっか、じゃあ卒業したら、別々だね……」
UseData <- data.frame(IKIGAI = y, #生きがいスコア R_usage = X1, # Rを使う喜び MANGA_count = X2, # マンガの冊数 Museum_emotion = X3, # 美術館に通う Python_usage = X4, # Pythonを使う喜び Julia_usage = X5) # Juliaを使う喜び
lm()
関数。
lm_model1
: R_usage
、MANGA_count
、Museum_emotion
のみをつかうlm_model2
: Python_usage
、Julia_usage
をくわえてみる。lm_model1 <- lm(IKIGAI ~ R_usage + MANGA_count + Museum_emotion, data = UseData) lm_model2 <- lm(IKIGAI ~ ., data = UseData) #全部使うときは`.`
lm_model1
の結果Estimate
とPr(>|t|)
を確認するsummary(lm_model1)$coefficients
## Estimate Std. Error t value Pr(>|t|) ## (Intercept) -0.04771901 0.063815589 -0.7477642 4.547789e-01 ## R_usage 1.23184029 0.031383497 39.2512124 2.096241e-204 ## MANGA_count 0.60711331 0.021224977 28.6037199 7.696141e-132 ## Museum_emotion 0.29876870 0.006250491 47.7992354 4.555039e-260
Std.Error
)範囲内。lm_model2
の結果Estimate
とPr(>|t|)
を確認するsummary(lm_model2)$coefficients
## Estimate Std. Error t value Pr(>|t|) ## (Intercept) -0.08471934 0.083405958 -1.0157469 3.099971e-01 ## R_usage 5.16707707 3.093504186 1.6702990 9.517504e-02 ## MANGA_count 0.60710044 0.021224029 28.6043925 8.841532e-132 ## Museum_emotion 0.29869484 0.006250579 47.7867438 8.972799e-260 ## Python_usage -4.00617089 3.091913944 -1.2956929 1.953821e-01 ## Julia_usage 0.07361794 0.108349088 0.6794514 4.970101e-01
lm_model2
の結果R_usage
は正、Python_usage
は大きく負!?
cor(UseData$R_usage, UseData$Python_usage) # 伏線回収
## [1] 0.9999486
cor(UseData$R_usage, UseData$Julia_usage)
## [1] 0.9601607