Togetter/min.tを安心してお使い頂くためのガイドラインを公開しました。
2014年9月29日

しましまのNIPS2014まとめ

しましまのNIPS2014の参加・聴講記録 http://nips.cc/Conferences/2014/
0
しましま @shima__shima

会場のモントリオール・コンベンションセンター pic.twitter.com/WJx8Jh1lcG

2014-12-10 07:45:40
拡大
しましま @shima__shima

今日からNIPS2014に向けてカナダのモントリオールへ出発.国際会議 34回目,NIPS1回目,カナダ 2回目,モントリオール 1回目.

2014-12-07 04:51:48
栗原 聡 @skuri_san

バンクーバーに到着。モントリオール便までかなり時間ある (ーー;)

2014-12-08 02:58:06
しましま @shima__shima

.@skuri_san NIPS ですか? 私は,今,デトロイト

2014-12-08 04:41:58
栗原 聡 @skuri_san

@shima__shima NIPSです.今バンクーバーです.

2014-12-08 04:50:41
しましま @shima__shima

.@skuri_san 日本からも参加者多そうですね.私はNIPSは始めてですが,研究に関連するワークショップが開かれるので来てみました.では,現地にて

2014-12-08 04:51:53
栗原 聡 @skuri_san

@shima__shima 私も初めてです (^^ ymkw, mtoさんも参加です.

2014-12-08 04:53:07
しましま @shima__shima

.@skuri_san 深層学習の雄の一人のお膝元だからですか?

2014-12-08 04:55:11
しましま @shima__shima

モントリオールに着くのは8時前か… ホテルについたら寝てしまえるように,空港でご飯を食べてしまおう

2014-12-08 04:56:28
Taiji Suzuki @btreetaiji

Nesterovの加速法をその極限に対応する常微分方程式から理解しようという論文.Su, Boyd, Candes (NIPS2014): goo.gl/a8jX4A

2014-12-08 11:50:07
とっとこ豆乳さん @SoyMilkBayesian

モントリオールの朝の寒さハンパないわ…

2014-12-08 23:08:01
とっとこ豆乳さん @SoyMilkBayesian

ダウンについてるフード被らないで歩いたら普通にアタマ痛くなった

2014-12-08 23:15:45
しましま @shima__shima

.@k_ishiguro 因果推論? 反実仮想とか,私もわかったって感じになったことないです

2014-12-09 04:05:49
しましま @shima__shima

.@k_ishiguro 潜在的な出力だから異なる処置をしたときの同時事象 P( Y(X=0), Y(X=1) ) を考えるあたりが分からないです… 背反な事象に対する同時確率みたいな感じがしてどうにも分からない…

2014-12-09 04:37:30
しましま @shima__shima

NIPS2014 第1日:チュートリアルの日

2014-12-09 04:41:38
しましま @shima__shima

因果推論 nips.cc/Conferences/20… を聴講したが,潜在出力と実際の出力の違いが,本当のところで私には理解できていないようだ.基本的な確率の計算で詰まった…

2014-12-09 04:41:47
しましま @shima__shima

因果推論でベイジアンってあるのは初めて知った.ベイジアンのような信念が混在してる状況での独立性ってよく理解できない…

2014-12-09 04:41:58
しましま @shima__shima

Mac の Grapher を使って,各状況が生じる上限・下限の平面を示していたが,Grapherって隠れた便利なソフトだよな

2014-12-09 04:42:05
しましま @shima__shima

差分プライバシのチュートリアル nips.cc/Conferences/20… 講演者の人を知らないので,どんな話か聞きにきてみた

2014-12-09 06:58:24
しましま @shima__shima

ε-や(ε,δ)-差分プライバシの定義から,ラプラス,ガウス,指数メカニズムによるプライバシの達成の基本は,ふむふむとついていけた

2014-12-09 06:58:40
しましま @shima__shima

機械学習と差分プライバシの関連は知らない話だった.元データを真のデータ,メカニズムが加えたノイズは観測データのノイズと思えば学習理論と関連することが分かる.

2014-12-09 06:58:48
しましま @shima__shima

PACと関連した,SQ(統計的クエリ)学習可能性という概念の話をしていたが,学習の目標がよく理解できなかった (´・ω・`)

2014-12-09 06:58:56
残りを読む(129)

コメント

コメントがまだありません。感想を最初に伝えてみませんか?