しましまのECMLPKDD2014まとめ

しましまのECMLPKDD2013の参加・聴講記録 http://www.ecmlpkdd2014.org/
1
前へ 1 ・・ 4 5 ・・ 9 次へ
しましま @shima__shima

そういえば,KDD と違って,ECMLPKDD は日本の企業から来てる人がいないな

2014-09-17 01:10:05
しましま @shima__shima

Students, Teachers, Exams and MOOCs: MOOCで学生と講師の能力,課題の難しさを要因に,学生が正答を知っていれば正答を,そうでなければランダムに答える確率モデル.隠れ変数の要因で学生の性質と成績の関係や,講師と学生の相性などの予測が可能になる.

2014-09-17 01:10:44
しましま @shima__shima

Approximating the Crowd クラウドソーシングで,ラベラー全員に聞かずに,限られた人にラベルを聞けば,全員に聞いたのと同じ結果が得られるようにする.εgreedy的な方法と,加えても結果に影響のない人は加えないという操作

2014-09-17 01:10:51
ガッキーのプライベートアカウント @azaazarashi

@oikomi_taro Beyond stochastic gradient descent for large-scale machine learning

2014-09-17 15:57:46
しましま @shima__shima

ECMLPKDD2014 第3日目 本会議第2日目

2014-09-17 16:03:21
ガッキーのプライベートアカウント @azaazarashi

@oikomi_taro googleじゃなくてbingがサーチエンジンとして出てきた

2014-09-17 16:09:33
ガッキーのプライベートアカウント @azaazarashi

@oikomi_taro ビグデータ、次元pもデータ数nも大きいから、O(pn)の学習アルゴリズム欲しいよね、と

2014-09-17 16:10:11
ガッキーのプライベートアカウント @azaazarashi

@oikomi_taro 経験損失での最適解の計算とその予測性能を同時に取り扱えるとは

2014-09-17 16:17:10
ガッキーのプライベートアカウント @azaazarashi

@oikomi_taro グラディエントディセント、普通の凸関数だとO(1/t)、きょうとつだとO(e^{-t})くらい

2014-09-17 16:21:40
ガッキーのプライベートアカウント @azaazarashi

@oikomi_taro 勾配のunbiasedな推定量で最適化する = stochastic approximation

2014-09-17 16:24:54
ガッキーのプライベートアカウント @azaazarashi

@oikomi_taro Polyak-Ruppert averaging = SGD の各ステップのパラメタの平均値

2014-09-17 16:27:08
ガッキーのプライベートアカウント @azaazarashi

@oikomi_taro なめらか凸関数の最適化で、収束レートがどんな場合もO(1/n)のアルゴリズム欲しい〜〜〜〜〜

2014-09-17 16:31:37
ガッキーのプライベートアカウント @azaazarashi

@oikomi_taro ステップサイズが一定でも平均化するとうまくいくと(2乗ロス以外も?)

2014-09-17 16:35:52
ガッキーのプライベートアカウント @azaazarashi

@oikomi_taro ロジスティックロスの時は、勾配がリニアじゃないので困っちゃうのか

2014-09-17 16:41:13
ガッキーのプライベートアカウント @azaazarashi

@oikomi_taro ロジスティックロスだと、コンスタントステップサイズ、平均化をしても変なところに収束すると

2014-09-17 16:42:24
ガッキーのプライベートアカウント @azaazarashi

@oikomi_taro ニュートン法、各ステップで関数を二次関数で近似するから、これを使ったらコンスタントステップサイズ&平均化でうまくいきそうだよね

2014-09-17 16:43:58
ガッキーのプライベートアカウント @azaazarashi

@oikomi_taro オンラインニュートン、収束レートはO(n^{-1})、complexity O(p) (?)

2014-09-17 16:45:12
前へ 1 ・・ 4 5 ・・ 9 次へ