読者です 読者をやめる 読者になる 読者になる

日々を綴る。

主に日報。研究の話が多め。

6月1日 wed

学校滞在時間

9:15 - 21:00


やったこと

実験

  • 昨日帰り際にぶんまわしたものが出力されてた
  • 今日は、吐かれたものに対してさらにぶん回している

代数学入門Aの試験勉強

  • ちょっとやった

クラスタリングについての理解

  • エントロピー、ピュアリティについて知りたいんだけど、式はわかるし意味もわかるけど、これがどれくらいが普通なのかがわからん
  • 普通というか、0.1 減ることがどれだけ大きい変化なのかっていうのがピンとこない
  • けど、具体例やったらだいぶわかった↓

エントロピーのメモ

このpdfの9ページを例に計算してみたら

-1/(log 3) * (4/18 * (3/4 * log(3/4) + 1/4 * log(1/4)) + 8/18 * (2/8 * log(2/8) + 5/8 * log(5/8) +1/8 * log(1/8)) + 6/18 * (2/6 * log(2/6) + 4/6 * log(4/6))) = 0.67107255495

-1/(log 3) * (4/18 * (3/4 * log(3/4) + 1/4 * log(1/4)) + 8/18 * (2/8 * log(2/8) + 5/8 * log(5/8) +1/8 * log(1/8)) + 6/18 * (1/6 * log(1/6) + 1/6 * log(1/6) + 4/6 * log(4/6))) = 0.74117586091
  • 最後の要素をx2個 →x1個、o1個に変えたらエントロピーがかなり上がった
  • エントロピーは煩雑さが問題なので、クラスタ内の一番多い要素の数が変わらなくても、そのクラスタに何種類の要素が入っているかで全然話は変わる
  • できるかぎり同じ要素が多いほうがいいのは確かだけど、一番多い要素以外も、あまりバラけないほうが良いよね

http://nlp.dse.ibaraki.ac.jp/~shinnou/zemi2011/DocClustering/dc-sasaki-0510.pdf

見たサイト

神嶌先生のクラスタリングに関するpdf

  • 外的妥当性尺度:得られた分類結果と,望ましい分類結果の類似性を評価
  • Rand尺度 とか 相互情報量
  • 「得られたクラスタは絶対的・客観的なものではなく,あくまで一つのある視点から見た結果であることに留意」

クラスタリングの数学的お話

  • 階層的、非階層的がとてもわかり易かった

www.antecanis.com


そのた

所感

  • 6月に入った
  • あっとういまの2ヶ月だった

拾ったもの

engineer.crowdworks.jp

techlife.cookpad.com

www.webd-labo.com

speakerdeck.com