Euler法で解いたらNNの中のなんかの保存量を保存できないとかないのかな(小並のツイット) #neurips18yomi
2019-01-26 17:09:06連続的に, と言われていたのは, backprop だとそのときにいた点の勾配しか使ってないけど, ルンゲクッタ法だと補完点が増やせるから収束しやすくなるよってことなのかな? その補完をするために forward を複数回回さないといけないから遅い, と. #neurips18yomi
2019-01-26 17:10:55NODE の RNN の話をみると、RNN の構造自体を見直さないと、RNN が表現できるものがずいぶんと限定されるように見えるんですよね。数学詳しい人教えて。 #neurips18yomi
2019-01-26 17:12:48今日の収穫 ある程度データが少ない時のカテゴリカルデータで性能が高い arxiv.org/abs/1706.09516 "CatBoost: unbiased boosting with categorical features" #neurips18yomi
2019-01-26 17:15:31僕の最近の悩みは、「時系列データの予測してます」って言ったときに「良く知らないんだけど NeurIPS の Best Paper のモデルが時系列データに強いらしいですね。比較しましたか?」って言われる未来が見えること #neurips18yomi
2019-01-26 17:20:33聞いていただいた皆様ありがとうございました。今日のGraph neural networkに関する発表資料はこちらになります。slideshare.net/emakryo/neural… #neurips18yomi
2019-01-26 17:29:01一気にグラフ生成するMolGANを読んだところだったので、対照的な、順次エッジを生成するアプローチの論文紹介を見られてよかった。こちらはモード崩壊しやすくないのかな?(GANとRLの組み合わせだった?) #neurips18yomi
2019-01-26 17:33:00#neurips18yomi ご本人の意思に反して、ややウケしてました。 twitter.com/crcrpar/status…
2019-01-26 17:33:20しばらく登壇してないけれど次に登壇するときは自己紹介で「趣味: Spectral Normalizationの実装」と言ってスベりたい
2019-01-18 10:54:36上月正貴(crcrpar)さんによる "Sanity Checks for Saliency Maps" #neurips18yomi
2019-01-26 17:33:49そういえば原先生のお話でも出てきてたな。モデル破壊してもうまくいくやつはモデルの説明になってないんだっけ? #neurips18yomi
2019-01-26 17:34:09パラメータをランダムにしてもまともにできていることは、NNのパラメーターはんでもうまくいくというのと違うの? #neurips18yomi
2019-01-26 17:41:07「推定時の根拠部分の可視化」といえば最近はAttention系のモデルのAttention結果ばっかりの印象でGradientとかを使ってるのってあまり見ない印象なんだけど自分が読んでる論文が偏ってるのか…?あと,Attentionの結果に対して同様の評価をしてどうなるのかは見てみたい #neurips18yomi
2019-01-26 17:50:58これみても、何を持って判断の根拠になると言ってるのかよくわわからない。saliency mapの値から、何がわかることをが何の判断の根拠足り得るんだろう。 #neurips18yomi
2019-01-26 17:51:11Sanity Checks for Saliency Maps 複雑なモデルの判断根拠を説明・可視化する研究が盛んだが、それを適切に評価するものがない。(「見た目」での検証は確証バイアスに影響される。) 特にSaliency map(判断根拠の可視化の図)の評価を行なう手法。 #neurips18yomi
2019-01-26 17:51:53(他の説明手法としてはLIME、SHAP等がある。) 直感的にはモデルがpurtubされたらSaiency Mapは変わるという考えのもと手法が設計されている。 #neurips18yomi
2019-01-26 17:52:32①学習させたモデルの重みをランダムに変えたときと比較して差があるかに着目。②学習させたモデルとランダムなデータで学習させたモデルとを比較して差があるかに着目。 議論->Saliency methodsはほとんどエッジ検出? #neurips18yomi
2019-01-26 17:52:48? ODE のやつ, ResBlock は input を output にベクトル場に沿って t=1 分輸送する写像である, という見方をするってことなのかな? サンプルデータから対象とすべきベクトル場が定まり, よって真の分布からベクトル場の分布が定まる. ResBlock が学習するのはそのベクトル場の分布. #neurips18yomi
2019-01-26 17:53:50