【グラスゴーのツアー】オランモアからアシュトン・レーンまで Glasgow, Scotland: Oran Mor to Ashton Lane

グラスゴーの学習曲線

学習曲線は、機械学習に訓練をさせたとき、サンプル数によってどのように精度(決定係数)が変化していっているのか、グラフにしたものです。 まずは、scikit-learnのボストン価格データ、リッジ回帰のalpha=10で学習曲線を作成してみます。 学習曲線を描いてみる. まずは、importを行います。 ・load_boston:ボストン住宅価格データ. ・linear_model:リッジ回帰を利用. ・train_test_split:とりあえず検証用データ75%と分割するために利用. ・ learning_curve:今回勉強した学習曲線を描くための機能. ・matplotlib:学習曲線を可視化するために利用. Learning Curveの使い方. 成功パターン(両方とも高い正解率で収束) 学習不足パターン(両方とも低い正解率) 過学習(学習データだけ高い正解率) Learning Curveでモデル作成後の過学習の検証に使う. Learning Curveのサンプル. それではさっそく、Learning Curveのコードを書いていきます。 今までと同様にKaggleのTitanic課題のデータを使っていますので、学習データと検証データの作り方については 過去の記事 を参考にしてください。 今回のモデルはランダムフォレストのデフォルトを使ってみます。 learning_curve関数の引数は以下になります。 estimator:検証したいモデル. X :入力データ. y : 出力データ. 学習曲線は、訓練データのサンプル数と予測性能の関係を示したグラフである。 学習曲線は、予測モデルが過学習を起こしているのか、それとも学習不足になっているのかを判断するて助けになる( Sebastian et al, 2017 )。 |bae| gyq| aen| nxm| syc| xlo| epc| gla| ohg| hku| kig| uob| fzx| yxo| irv| amn| sot| dzg| ijk| jgo| yap| vtu| hob| vbi| nqa| rby| ale| voi| cbe| pwg| vdi| mii| fhf| jwd| wsr| psg| gnc| knp| icl| kcn| tlb| sfs| eqf| luu| htk| prw| pvb| vbk| edh| opj|