KNeighborsClassifierの解析
最近傍点数を増やすと精度(訓練、テスト)がどう変わるか。
増やしすぎても減らしすぎても良くない。問題によって最適点数があるもよう
20まで増やした結果、10を超えたあたりから変化がなくなる
2.3.2.3 k-近傍回帰
make_waveのデータを使って回帰学習をする。
40点データをプロットする。
これに教師データを重ねてプロットする。
これらのデータを使って訓練する
結果
テストのデータもプロットする。
訓練させたモデルにx_testを入力して予測させたデータを重ねてプロット
最近傍点を3から30に増やして予測結果をプロットする。
反対に3から1に減らしてみる
プロットしたものだけ見てみるとn_neighbors=1
のほうがフィットしているように
みえるがscoreは0.83から0.35と悪くなっている。これが過剰適用というものか
2.3.2.4 KNeighborsRegressorの解析
結果