NeurIPS2018読み会 @ PFNツイートまとめ

PFNさんで開催されたNeurIPS2018読み会のまとめです https://connpass.com/event/115476/
1
前へ 1 ・・ 9 10 12 次へ
sino⚡️ @chaoticCats

Euler法で解いたらNNの中のなんかの保存量を保存できないとかないのかな(小並のツイット) #neurips18yomi

2019-01-26 17:09:06
hiro84 @udp_ip

解が一意に定まる話はLipschitz連続ではなく非凸関数のお話? #neurips18yomi

2019-01-26 17:10:10
iiou16 @iiou16_tech

なんか今日いろんな発表で「離散的なものを連続値に」って聞くけど、最近のトレンドなんかな。 #neurips18yomi

2019-01-26 17:10:12
keno @keno_ss

連続的に, と言われていたのは, backprop だとそのときにいた点の勾配しか使ってないけど, ルンゲクッタ法だと補完点が増やせるから収束しやすくなるよってことなのかな? その補完をするために forward を複数回回さないといけないから遅い, と. #neurips18yomi

2019-01-26 17:10:55
fof @fof_jisin

NODE の RNN の話をみると、RNN の構造自体を見直さないと、RNN が表現できるものがずいぶんと限定されるように見えるんですよね。数学詳しい人教えて。 #neurips18yomi

2019-01-26 17:12:48
kura @KuraOyo

今日の収穫 ある程度データが少ない時のカテゴリカルデータで性能が高い arxiv.org/abs/1706.09516 "CatBoost: unbiased boosting with categorical features" #neurips18yomi

2019-01-26 17:15:31
@tawatawara

僕の最近の悩みは、「時系列データの予測してます」って言ったときに「良く知らないんだけど NeurIPS の Best Paper のモデルが時系列データに強いらしいですね。比較しましたか?」って言われる未来が見えること #neurips18yomi

2019-01-26 17:20:33
かめ @cruelturtle

聞いていただいた皆様ありがとうございました。今日のGraph neural networkに関する発表資料はこちらになります。slideshare.net/emakryo/neural… #neurips18yomi

2019-01-26 17:29:01
Yasuhiro Morioka @morioka

一気にグラフ生成するMolGANを読んだところだったので、対照的な、順次エッジを生成するアプローチの論文紹介を見られてよかった。こちらはモード崩壊しやすくないのかな?(GANとRLの組み合わせだった?) #neurips18yomi

2019-01-26 17:33:00
Shohei Hido 比戸将平 @sla

#neurips18yomi ご本人の意思に反して、ややウケしてました。 twitter.com/crcrpar/status…

2019-01-26 17:33:20
masaki @crcrpar

しばらく登壇してないけれど次に登壇するときは自己紹介で「趣味: Spectral Normalizationの実装」と言ってスベりたい

2019-01-18 10:54:36
keno @keno_ss

上月正貴(crcrpar)さんによる "Sanity Checks for Saliency Maps" #neurips18yomi

2019-01-26 17:33:49
@tawatawara

そういえば原先生のお話でも出てきてたな。モデル破壊してもうまくいくやつはモデルの説明になってないんだっけ? #neurips18yomi

2019-01-26 17:34:09
あり @ta_to_co

パラメータをランダムにしてもまともにできていることは、NNのパラメーターはんでもうまくいくというのと違うの? #neurips18yomi

2019-01-26 17:41:07
fof @fof_jisin

層を乱数にした場合は流石に予測結果は変わっているのだろうか? #neurips18yomi

2019-01-26 17:45:52
Makoto Kawano @mkt_kwn

結論的には,判断根拠にはGradientを使えば良いということ? #neurips18yomi

2019-01-26 17:45:58
hei4 @hei4_1981

saliency mapの妥当性の話、とても面白いし勉強になる。論文読もう #neurips18yomi

2019-01-26 17:49:13
西村拓哉 @t_nishimura1989

「推定時の根拠部分の可視化」といえば最近はAttention系のモデルのAttention結果ばっかりの印象でGradientとかを使ってるのってあまり見ない印象なんだけど自分が読んでる論文が偏ってるのか…?あと,Attentionの結果に対して同様の評価をしてどうなるのかは見てみたい #neurips18yomi

2019-01-26 17:50:58
あり @ta_to_co

これみても、何を持って判断の根拠になると言ってるのかよくわわからない。saliency mapの値から、何がわかることをが何の判断の根拠足り得るんだろう。 #neurips18yomi

2019-01-26 17:51:11
せいしん | ACES, Inc. @seishin55

Sanity Checks for Saliency Maps 複雑なモデルの判断根拠を説明・可視化する研究が盛んだが、それを適切に評価するものがない。(「見た目」での検証は確証バイアスに影響される。) 特にSaliency map(判断根拠の可視化の図)の評価を行なう手法。 #neurips18yomi

2019-01-26 17:51:53
せいしん | ACES, Inc. @seishin55

(他の説明手法としてはLIME、SHAP等がある。) 直感的にはモデルがpurtubされたらSaiency Mapは変わるという考えのもと手法が設計されている。 #neurips18yomi

2019-01-26 17:52:32
せいしん | ACES, Inc. @seishin55

①学習させたモデルの重みをランダムに変えたときと比較して差があるかに着目。②学習させたモデルとランダムなデータで学習させたモデルとを比較して差があるかに着目。 議論->Saliency methodsはほとんどエッジ検出? #neurips18yomi

2019-01-26 17:52:48
keno @keno_ss

? ODE のやつ, ResBlock は input を output にベクトル場に沿って t=1 分輸送する写像である, という見方をするってことなのかな? サンプルデータから対象とすべきベクトル場が定まり, よって真の分布からベクトル場の分布が定まる. ResBlock が学習するのはそのベクトル場の分布. #neurips18yomi

2019-01-26 17:53:50
keno @keno_ss

白川達也(ABEJA)さんによる "Hyperbolic Neural Network" #neurips18yomi

2019-01-26 17:54:32
前へ 1 ・・ 9 10 12 次へ