2021年2月27日
今日は一歩も外に出なかったなぁ。中央のは100均で買った植物たち。100均でもときどき好みの元気な植物が入荷していることがあって、ついつい買ってしまう。
朝、テレビをつける(だいたい最初にEテレを見る)と、デザインあが200回スペシャルでコーネリアスによる「デザインあLIVE」で、生演奏デザインあが流れておりすこぶる良かった。しかし、コーネリアス好きな人はいいけど、ふつうのデザインあを楽しみにしている子供は普段のほうがよいのではなかろうか。
夜、適当に番組を回していたら、BS4Kでやっていた8Kタイムラプス紀行が美しい。GoPro のような安価なカメラではなくちゃんとしたカメラとレンズでタイムラプスを撮っていて、これぞ4K(もちろん8Kが映る環境ならBS8Kで見れるのだろうけど)という画質。自然の空、海、山、川の移り変わる様の美しさよ。
富士山の回では、ご来光を観に行く人たちの灯りが真夜中にずらーっと富士山中腹から列をなしていて、それがタイムラプス編集されていてほぉーっと魅入ってしまった。
機械学習学習日記 - 26日目
scikit-learnとTensorFlowによる実践機械学習を引き続き。
6章決定木。普通の決定木の説明。最後の演習問題でただの決定木を使って、同じ学習セットだけどランダムに取り出した別々の小さなセットを1000回学習させて、一番多い回答を多数決で決めると普通に学習するよりわずかながら精度が高い、というのを演習で実装させている(バギングを自前実装)のが面白かった。これで次の章につながるのね。
7章はアンサンブル学習とランダムフォレスト。以前読んだ本、Pythonではじめる機械学習ではこのへんはサラッと書いてあるだけだったので、こちらは1章を使って書いてあるだけあって理解が深まった。まったく同じ学習機でパラメータが同じでも精度向上することがあったり、弱学習器を束ねての精度向上だったりと、なるほど。
8章次元削減。次元削減、響きがかっこよいよね。次元削減のメリットについて、超次元を低次元に下げることで、2,3次元なら可視化できるし、データは圧縮され、データ少なくなったことで処理速度が上がる。データによってはモデルの精度が上がることもあるが、それほどは期待できない。次元削減の方法として、PCA(主成分分析),カーネルPCA,LLEの3つを説明している。章の例のデータに3次元データとしてスイスロールのデータセットを使って2次元に落とすということをやっていてイメージしやすい。「有名な」スイスロールデータセットと書いてあるから、メジャーなデータなのだろうなぁ。
8章演習では、PCA(因子寄与率95)で次元削減しても、例えばランダムフォレストモデルは速度も下がり精度も下がる、別のモデルでは速度はだいぶ上がって精度はほとんど一緒、なのでとりあえずPCAかければよいというわけではまったくない、という例を試させている。
9章教師なし学習のテクニック。クラスタリングでは、主にK-meansでのクラスタリングとDBSCAN。後半の混合ガウスモデルは複数の混ぜ合わさったガウス分布に対するモデル、という雰囲気だけ理解できた(= ちゃんと理解できなかった)。