2019-08-01から1ヶ月間の記事一覧

Pythonではじめる機械学習

2.3.7.5 SVMのためのデータの前処理 結果 2.3.8 ニューラルネットワーク(ディープラーニング) ニューラルネットワークのチューニング 隠れ層 100個 結果 隠れ層を減らして10個にしたパターン 結果なめらかさはなくなったようです。 10個ユニットの隠れ層を…

Pythonではじめる機械学習

2.3.7.5 SVMのためのデータの前処理 結果 要素数が30個になっているのは特徴量が30なので cancer.data.shape = (569,30)

Pythonではじめる機械学習

2.3.7.4 SVMパラメータの調整 結果

Pythonではじめる機械学習

2.3.7.3 SVMを理解する 結果

Pythonではじめる機械学習

2.3.7.1 線形モデルと非線形特徴量 結果 feature1 ** 2を特徴量として追加する。3次元となる。 結果 線形決定境界を描く 結果

Pythonではじめる機械学習

2.3.6.2 勾配ブースティング回帰木 データはmake_moonsのままで 結果

Pythonではじめる機械学習

2.3.6 決定木のアンサンブル法 結果 n_estimatorsパラメータ(作る決定木の数)を2倍の10にしてみる n_estimatorsパラメータ(作る決定木の数)をさらに10倍の100にしてみる 境界線が細かくなった。あと目に見えて時間がかかった。

Pythonではじめる機械学習

2.3.5.3 決定木の解析 dotファイルが作成される。dotファイルを表示させるアプリがないのでdotファイルをエディタで表示させてみる 2.3.5.4 決定木の特徴量の重要性 結果、0が多く使われていない特徴量もあるようだ。特徴量の係数の合計も約1.0である。

Pythonではじめる機械学習

2.3.3.6 線形モデルによる多クラス分類 結果 その配列の中身 その結果をプロット 2.3.5 決定木 結果、過剰適合 探索深さを制限(max_depth=4) デフォルトはNone、Noneの場合、すべてのリーフが純粋になるまで、ノードが展開されます。 テストの精度があがった…

Pythonではじめる機械学習

2.3.3.5 クラス分類のための線形モデル 結果 2.3.3.6 線形モデルによる多クラス分類 結果

Pythonではじめる機械学習

2.3.3 線形モデル 2.3.3.2 線形回帰(通常最小二乗法) 結果 ボストンの住宅価格データセットにも適用 切片は1つだけだが、傾きは特徴量104と同じだけ生成される 2.3.3.3 リッジ回帰 同じ線形回帰であるが過剰適合を防ぐためL2正規化をかけてある。 データ…

Pythonではじめる機械学習

KNeighborsClassifierの解析 最近傍点数を増やすと精度(訓練、テスト)がどう変わるか。 増やしすぎても減らしすぎても良くない。問題によって最適点数があるもよう 20まで増やした結果、10を超えたあたりから変化がなくなる 2.3.2.3 k-近傍回帰 make_wave…

Pythonではじめる機械学習

1.7.4 最初のモデル:k-最近傍法 結果 logger処理を追加 結果 精度を測定 結果 2章 教師あり学習 2.3.2 k-最近傍法 2.3.2.1 k-最近傍法によるクラス分類 結果 2.3.2.2 KNeighborsClassifierの解析 結果

Pythonではじめる機械学習

1章 はじめに 1.7 最初のアプリケーション 最初にpip でmglearnをinstallする必要がある。 version 0.1.7が入った。 githubのここで公開されている github.com いろいろと便利なメソッドが実装されている。 colabにinstallされているライブラリのバージョン…