- shima__shima
- 5749
- 0
- 6
- 1
差分プライバシは,あるデータがあるかどうかについて出力の差がないということなので,データの存在に関する頑健性とも関連するらしい.
2014-12-09 06:59:09集約クエリに対して,いくつかのブートストラップサンプル集合に集約演算をして,それらをまとめるという汎用のメカニズムもあるらしい
2014-12-09 06:59:17Opening Remarks:VC次元の C の Chervonenkis 先生が亡くなられたらしく,冒頭で追悼が行われる
2014-12-09 08:40:54#NIPS2014 In 2001, when NIPS moved to Vancouver, there were 600 participants. In 2014, Deep Learning Workshop has over 600 participants.
2014-12-09 08:41:29And the (first) result of the #nips2014 experiment is: correlation between 0.55 and 0.35
2014-12-09 09:08:35査読の質を調査するため,全査読者による査読と,自分のcondideceが高い二人による査読とを比較調査.査読期間中,スコアの相関は全体では定常的に 0.55,confidentでは0.45〜0.35の間で変化.
2014-12-09 09:11:1425.9 percent of accepted papers at #NIPS2014 were not accepted in a controlled experiment. This is near the theoretical maximum.
2014-12-09 09:16:21It's been confirmed: NIPS review process is very noisy. Acceptance disagreement=26%, where max=37. #NIPS2014 pic.twitter.com/de7BQA8zbv
2014-12-09 09:37:56Convention center staff switching the lights on/off to make people leave? Fine, just use your phone's light #nips2014 pic.twitter.com/i8c9OZoQ86
2014-12-09 15:10:20#NIPS2014. 1678 submissions. 92 area chairs. 1435 reviewers. 4 days.
2014-12-09 22:42:16参加者数が指数関数的に伸びている,たしかに参加日本人も多い.....海外におられるUEC/IS教員とも遭遇 (^^ at NIPS2014
2014-12-09 23:01:01Nesterov's classification of optimization problem scales at #NIPS2014 pic.twitter.com/8WpXJ1KAPm
2014-12-09 23:17:07Nesterov at #NIPS2014: fast updates possible for huge-scale optimisation using short-tree representable fns e.g., symmetric, logsumexp, max.
2014-12-09 23:38:20招待講演一つ目は大規模最適化だったが,最初の疎性を利用した高速化はついていけた気がしたが,さらに n^2 で小さくするのは方針さえ分からなかった…
2014-12-10 00:57:33招待講演二つ目の劣モジュラ.base polytope のconvex hull をまじめに計算するのではなく,affine hull というのを使うのがポイントっぽかったが,よくは分からなかった
2014-12-10 01:00:05