2019-01-01から1年間の記事一覧

Iot開発スタートブック ESP32でクラウドにつなげる電子工作をはじめよう!

複数回の測定データをまとめて送信 回路は変わらず 黄色い部分は本とは変更した。 結果 0回目 1回目 2回目 3回目 4回目 5回目 送信回 グラフ

Iot開発スタートブック ESP32でクラウドにつなげる電子工作をはじめよう!

低消費電力な端末を開発する 単純な間欠動作の実装 結果

Iot開発スタートブック ESP32でクラウドにつなげる電子工作をはじめよう!

クラウドサービスへのデータ送信 Ambientへデータ送信ESP32とセンサーはそのまま 結果、ちょっとタイムラグがあるがほぼリアルタイム かなり簡単、一発でできた

Iot開発スタートブック ESP32でクラウドにつなげる電子工作をはじめよう!

3章 温度・湿度を可視化する デジタルセンサで温度と湿度を測る 結果 温度、湿度の変換式はメーカーのデータシートに書かれている(英語)

Pythonではじめる機械学習

3.5.1.1 k-meansがうまくいかない場合 結果 これはうまくいっているようですが 結果

Pythonではじめる機械学習

クラスタリング 結果 クラスタの数を2つと5に指定した場合 結果

Pythonではじめる機械学習

3.4.3 t-SNEを用いた多様体学習 結果 t-SNEを適用 結果、きれいに分かれている

Pythonではじめる機械学習

3.4.3 t-SNEを用いた多様体学習 結果

Iot開発スタートブック ESP32でクラウドにつなげる電子工作をはじめよう!

1章 IoTの登場人物 省略 2章 電子工作への第一歩 SWITCHSCIENCE社のESP32開発ボードを購入 ピンヘッダの半田付け完了 ARduinoをinstall version = 1.8.9 ESP32ボード情報設定完了 通常USBケーブルを接続するとUSBシリアルドライバが 自動installされるはずで…

Pythonではじめる機械学習

3.4.1.2 固有顔による特徴量抽出 結果 3.4.2 非負値行列因子分解(NMF) 3.4.2.1 NMFの合成データへの適用 結果

Pythonではじめる機械学習

3.4.1.2 固有顔による特徴量抽出 結果 23%の的中率 データをPCAにかけてから分類させてみる 結果 31%に向上

Pythonではじめる機械学習

3.4.1.2 固有顔による特徴量抽出 結果

Pythonではじめる機械学習

3.4.1.1 cancer データセットのPCAによる可視化 結果 3.4.1.2 固有顔による特徴量抽出 結果

Pythonではじめる機械学習

3.4.1.1 cancerデータセットのPCAによる可視化 結果 30次元から2次元に削減されている 描画した結果

Pythonではじめる機械学習

3.4 次元削減、特徴量抽出、多様体学習 3.4.1.1 cancerデータセットのPCAによる可視化 結果、よくわからない

Pythonではじめる機械学習

教師あり学習における前処理の効果 結果 ちゃんと前処理をすると 結果 正規分布で前処理 結果

Pythonではじめる機械学習

3章 教師なし学習と前処理 3.1 教師なし学習 結果 3.3.2 データ変換の適用 結果、75%と25%に分割 minmaxに変換 結果 変換した結果

Pythonではじめる機械学習

2.3.7.5 SVMのためのデータの前処理 結果 2.3.8 ニューラルネットワーク(ディープラーニング) ニューラルネットワークのチューニング 隠れ層 100個 結果 隠れ層を減らして10個にしたパターン 結果なめらかさはなくなったようです。 10個ユニットの隠れ層を…

Pythonではじめる機械学習

2.3.7.5 SVMのためのデータの前処理 結果 要素数が30個になっているのは特徴量が30なので cancer.data.shape = (569,30)

Pythonではじめる機械学習

2.3.7.4 SVMパラメータの調整 結果

Pythonではじめる機械学習

2.3.7.3 SVMを理解する 結果

Pythonではじめる機械学習

2.3.7.1 線形モデルと非線形特徴量 結果 feature1 ** 2を特徴量として追加する。3次元となる。 結果 線形決定境界を描く 結果

Pythonではじめる機械学習

2.3.6.2 勾配ブースティング回帰木 データはmake_moonsのままで 結果

Pythonではじめる機械学習

2.3.6 決定木のアンサンブル法 結果 n_estimatorsパラメータ(作る決定木の数)を2倍の10にしてみる n_estimatorsパラメータ(作る決定木の数)をさらに10倍の100にしてみる 境界線が細かくなった。あと目に見えて時間がかかった。

Pythonではじめる機械学習

2.3.5.3 決定木の解析 dotファイルが作成される。dotファイルを表示させるアプリがないのでdotファイルをエディタで表示させてみる 2.3.5.4 決定木の特徴量の重要性 結果、0が多く使われていない特徴量もあるようだ。特徴量の係数の合計も約1.0である。

Pythonではじめる機械学習

2.3.3.6 線形モデルによる多クラス分類 結果 その配列の中身 その結果をプロット 2.3.5 決定木 結果、過剰適合 探索深さを制限(max_depth=4) デフォルトはNone、Noneの場合、すべてのリーフが純粋になるまで、ノードが展開されます。 テストの精度があがった…

Pythonではじめる機械学習

2.3.3.5 クラス分類のための線形モデル 結果 2.3.3.6 線形モデルによる多クラス分類 結果

Pythonではじめる機械学習

2.3.3 線形モデル 2.3.3.2 線形回帰(通常最小二乗法) 結果 ボストンの住宅価格データセットにも適用 切片は1つだけだが、傾きは特徴量104と同じだけ生成される 2.3.3.3 リッジ回帰 同じ線形回帰であるが過剰適合を防ぐためL2正規化をかけてある。 データ…

Pythonではじめる機械学習

KNeighborsClassifierの解析 最近傍点数を増やすと精度(訓練、テスト)がどう変わるか。 増やしすぎても減らしすぎても良くない。問題によって最適点数があるもよう 20まで増やした結果、10を超えたあたりから変化がなくなる 2.3.2.3 k-近傍回帰 make_wave…

Pythonではじめる機械学習

1.7.4 最初のモデル:k-最近傍法 結果 logger処理を追加 結果 精度を測定 結果 2章 教師あり学習 2.3.2 k-最近傍法 2.3.2.1 k-最近傍法によるクラス分類 結果 2.3.2.2 KNeighborsClassifierの解析 結果