なぜ離散的な場合分けが有効な場合があるのか、そしてそれは学習の観点からみて何をやっていることになるのか

0
(change of )*state @TuvianNavy

クラスタリングの果てに有限個の樹形図への整理が見出されるのであって、

2017-07-20 08:27:36
(change of )*state @TuvianNavy

そういう場合に破れてることがわかっている連続な図形ではなくて樹形図のようなもので考えるとうまくいくのは何故か?

2017-07-20 08:16:33
(change of )*state @TuvianNavy

樹形図たちが見せているのは破れて使い物にならない多様体とは別の位相空間があるということ

2017-07-20 08:38:28
(change of )*state @TuvianNavy

そしてその樹系図たちを(スコット連続というだけではなく普通に)連続的な幾何で考えられるほどの精度ではまだ情報を得られてないということ

2017-07-20 08:41:09
(change of )*state @TuvianNavy

そもそもそのような情報が入手できるのかどうか?

2017-07-20 08:43:10
(change of )*state @TuvianNavy

樹形図たちに半順序があるなら、樹形図たちを包摂するランドスケープの分岐を見ているということ

2017-07-20 08:44:53
(change of )*state @TuvianNavy

そのランドスケープすらDLは見つけてこれる「ことがある」、というのが現状だと思う

2017-07-20 08:48:47
(change of )*state @TuvianNavy

もっと具体的には、たとえばカテゴリカル変数の下位分類に対応する差異を他の次元から見いだせるか?ということ

2017-07-20 09:17:50
(change of )*state @TuvianNavy

カテゴリカル変数の数値ラベルの整数としての大小関係がランドスケープの自然な位相を反映しているかどうかでランドスケープの分岐が変わってしまうならあらゆるラベルの貼り替えを試すべきな気がする、機械学習でとっくにやられてるとは思うけど

2017-07-20 09:49:19
(change of )*state @TuvianNavy

単なるラベルの貼り替えで移る先が表面的には全然違う、ということがありうる

2017-07-20 17:59:41
(change of )*state @TuvianNavy

もちろん真のランドスケープとか、ないから

2017-07-20 09:52:12