重みを共有しないで独立して学習するBilinear Ingegrationは、集合知(群衆の知恵)の議論を思い出した。 #iclr2017jp
2017-06-17 17:02:35階層的、というよりかは探索方向を事前学習してからそれを道具に探索するという、二段階で段階的に学習している感じか #iclr2017jp
2017-06-17 17:07:04#iclr2017jp まとめただけブログです。終わったら追記するかも。 yasuke.hatenablog.com/entry/2017/06/…
2017-06-17 17:30:43iclr読み会 / iclrjp2017vlae speakerdeck.com/crcrpar/iclrjp… #iclr2017jp 資料更新しました。
2017-06-17 17:42:54#iclr2017jp / “ICLR2017読み会に行ってきた - PlayGround” htn.to/pFmNqC
2017-06-17 18:00:50VAEのガウス分布パラメータにエンコードしているところをディリクレ分布にする。そのままだとBackpropできないのでラプラス近似する。結果的にロスが正規分布とのKLじゃなくてガウス分布とのKLの和になる。面白い #iclr2017jp
2017-06-17 18:06:10先ほどの話にあった色々な潜在変数の分布でのReparameterizationのまとめ(AppendixのTable3 #iclr2017jp twitter.com/nzw0301/status…
2017-06-17 18:19:16The latest The 牧野武文 Daily! paper.li/takemakino/131… Thanks to @tigheklory @katsuryoutarou @hmachang #vault7 #iclr2017jp
2017-06-17 18:43:03最近VAE好きになってきた。Deepだけど途中にパラメトリックな話があってDNNだけじゃないんやでって感じが好き(DNNもパラメトリックだけど、、、 #iclr2017jp
2017-06-17 18:44:50グラフConvolutionむず・・・ openreview.net/pdf?id=SJU4ayY… #iclr2017jp
2017-06-17 18:54:04Graph Convolution界隈をもうちょっと追わなければ。。このブログが基礎的な紹介だけど、Graph LaplacianとNeural Networkに近接情報を直接入力する手法が紹介されている。 #iclr2017jp tech-blog.abeja.asia/entry/2017/04/…
2017-06-17 19:03:33