色空間は良い方法が思いつかなかった。主に使われている色をクラスタリングしてxgboostにかけたけど全然弱かった
2017-07-15 00:26:27色をあてるためだけにfine-tuningなんてオーバーキルなんだけど、女性物はオフホワイトが多いとかいう特徴があるから、そういうのを認識できる意味がある
2017-07-15 00:29:13RGB, XYZ, YCC, HSV, HLS, Lab, Luv, YUV, YPP, YIQ, HED, HDX, FGX, BEX, RBD, GDX, HAX, BRO, BPX, AHX, HPX, LCHab, LCHuv, xyY, sRGB, AdobeRGB
2017-07-15 00:31:07そもそも深いCNNはランダムラベルに対して変な学習をせず、汎化性能を失いにくいと報告されてるので、深いCNNと直接色を扱うシステムと混ぜると効果あったかも。
2017-07-15 00:32:43balanced accuracyは、もし仮に機械学習が正確な確率を出力出来ているのであればサンプルの逆数を確率にかけてargmaxを取れば自動的に期待値が最大化されるので、probability calibrationはめっちゃ大事だと思う
2017-07-15 00:36:39あー、やっぱりこれ有効だったんですね。学習画像のクラス数えたら2000個から40個までバラバラだったんで、何か工夫しないとと思いながら何もできてなかったっす。
2017-07-15 00:39:35特徴の数は色空間ヒストグラムの粗さを細かくすればするほど増える(256 ** 3 = 1670万とか行ける)けど、計算量的に8 ** 3ぐらいの粗さで止めた
2017-07-15 00:47:17色って3つの基底の関係性が最も大事なので、畳み込みみたいにheight, width方向に対して表現力の高い代わりにchannel方向に対して表現力がない非線形写像を作ってもあまり意味がない、というふうに思っていたのだけど、どうだったんだろう
2017-07-15 00:54:56あまりDeepのモデルに詳しくないからアレなんだけど、勝ってる人はchannel方向に関する表現力が高いモデルを使っていると信じたい
2017-07-15 00:56:521*1フィルタを重ねるのはそれなりに意味がある気がする。でもsingle model bestはresnet fine-tuning + augmentationでした
2017-07-15 00:58:09単に統計量取るだけだと、色空間を相当多くしないと無理っすね 後、1次元的な特徴量だけじゃなくて、各点のθ、φの分布を取ったりとか2次元, 3次元的な特徴量も入れると精度が上がった
2017-07-15 01:05:03色んな話が聞けて面白い。Torch使ってPyramidNetやResNeXtでファインチューニング勢も居たら話聞いてみたい。DGX-1級のマシン持ちor借りる勢はなかなか居ないと思うけど。
2017-07-15 01:08:35やったことは基本的にresnet50のfine tuningで,class_weightにw=most_freq/freqとして,24*w / sum(w)を設定すると7割ぐらいまでスコアが伸びて面白かった 最後の方はvalidとpublic LBのスコアの乖離が激しくて辛かった
2017-07-15 01:31:45あと,実験のlogファイルですが,日付/log連番のディレクトリを自動生成されるようにしてました github.com/odanado/uniqlo…
2017-07-15 01:33:01