2021年2月16日
もうやんカレー、久しぶりに食べたのだけど美味しかった。福神漬けが燻製されてて面白い味わい。
フードパンダの500円引きオフクーポンで実質800円で注文。今はフードデリバリー、競争が加熱していてやたらクーポンを配っているけど、一段落した後の価格だと自分は注文するのか、どうなんだろうなぁ。日経によると大手フードデリバリー各社の手数料が35%らしく、だいぶとりすぎな気もするけど、配送料を考えると妥当な気もする。
最近、ゲームBotWで遊んでるため、いろんな時間がBotWへと振り分けられているんだけど、時間で消化できず目に見えるて溜まるのがInoreaderのフィード。毎日見ていた頃は基本全部消化できていたのだけど、一週間ぐらい見ないと、とりわけ趣味(主にカメラ)と業界ニュースがどんどん溜まっていって、未読(300)
みたいになると更に見る気を無くし…の悪循環。文字通り目に見えて溜まる。
ニュースアプリ、日経電子版もそうだしSmartNewsもだけど、これらの良いところはニュースという速報性が売りなので過去のニュースに気を使わないで良いところ。未読が数値化されないしね。
フィードも同じように2日ぐらい立ったら全部かってに既読になるとよいのだけど。手動ではできるのだけど、なんかもったいない精神で溜めてしまうので、機械が勝手にやってほしいのだ。
機械学習学習日記 - 15日目
3.5.2 凝集型クラスタリング (agglomerative clustering)。連結(linkage)度が高い順に既存クラスタ間を結んで合併していく。この連結度を測るものも、いくつかのアルゴリズムがある。この合併を指定したクラスタ数までまで行う。
凝集型クラスタリングはいわゆる階層化クラスタリングで、階層化の視覚化にはデンドログラムという方法を用いるとよいが、scikit-learnは現在デンドログラムの描画をサポートしていないので、SciPyからデンドログラムプロット関数 dendrogramと、連結度を測る関数 ward を使って描画する。デンドログラムではツリーの一番深い根ノードからどう統合されていったことが解りやすく表示されるが、それ以外にも連結距離が近いのか遠いのか視覚的に解りやすい、というメリットも有る。
3.5.3 DBSCANでは、k-meansや凝集型クラスタリングではクラスタ化出来なかったtwo_moonsのような集合でもうまく動く。これはDBSCANは明示的にクラスター数を与えず、高密度領域を見つけるアルゴリズムだからだ。高密度を見つけるため、データ間の距離設定オプションespや最低サンプル数のmin_samplesオプションを与える。これらのパラメータ、とりわけespの値をうまく設定することが必要になってくる。
またデータは前処理でStandardScaler/MinMaxScalerをつかい特徴量のスケールを揃えてから行うとespのパラメータ調節がしやすくなって良い。なおDBSCANは「どのクラスターに属さない」ようなノイズも省くことができる。