Machine Learning Casual Talks #2まとめ #MLCT
2014/08/26 Yahoo! Japanで開催された Machine Learning Casual Talksのまとめです。
http://mlct.connpass.com/event/8036/
Aki Ariga
@chezou
A「低頻度なアイテムを足きりすることで、全体のF値やカテゴリ予測精度は上がったけどユーザの満足度が下がってしまった」 #MLCT
2014-08-26 19:36:01
Aki Ariga
@chezou
関「仮設なきモデル実装はやってはいけない。何故精度が上がるのか?その理由は?それはユーザの課題を解決するのか?仮説は数値にどう影響するのか?」 #MLCT
2014-08-26 19:40:32
Aki Ariga
@chezou
関「学術研究の利活用方法は、手法の優位性を知り応用する。WWW,KDD,WSDMの論文が参考になる。普段から実装したりkaggleで使ったりするのが良い」 #MLCT
2014-08-26 19:47:01
Aki Ariga
@chezou
Q「仮説検証の流れは?」A「課題を見つけて、それを解決する施策を考え、ルールやPythonでプロトタイピング。限定的に公開して範囲を広げていく」 #MLCT
2014-08-26 19:54:15
soonraah
@soonraah
モデルの解釈を大事にする場合、チューニングみたいなことはどういう位置づけになるのかな。KPI が改善しても理由が分からなかったら採用しない? #MLCT
2014-08-26 19:54:22
wolfin_ikeom
@wolf20xx
機械学習による結果がダイレクトに影響すればするほどリスクがあがる、、というトレードオフは実世界で一番つらいところ。#MLCT
2014-08-26 19:56:53