#neurips18yomi "NeurIPS 2018では単に「GANの生成品質を向上する」というだけの論文は採択されなくなった" BigGANと戦えって言われると大変だもんね…。なので複雑な構造・コンテンツ表現における生成制御が大事。
2019-01-26 13:30:25Zero-centered gradient penaltyって結局BigGANに入ってるんだっけ、ISが落ちる云々とは言ってたけど入れてるかはわからないか #neurips18yomi
2019-01-26 13:30:39GANの生成画像を高品質にするための研究はNeurIPS2017では多かったが、NeurIPS2018ではほとんどなくなり、構造やコンテンツなど潜在的に独立な表現をできるようにする研究が増えた。(なので表現分離するためのDisentangleの研究が増えた) #neurips18yomi
2019-01-26 13:33:42arxiv.org/abs/1810.02936 youtubeが切れたままなのでハッシュタグ中で名前が出たFD-GANの論文をちょっと見ている。個人を特定する堅固な特徴量得よう、という話のようだ #neurips18yomi
2019-01-26 13:46:50GANの純粋な精度向上の研究は(NeurIPS) 2017年には見られたが2018年には0本。 ただし、GANは精度向上のためにスタンダードになっていて、関連する論文は60本以上。 #neurips18yomi
2019-01-26 13:48:18GANの精度向上に関する最近の研究としては、ProgressiveGAN、SA-GAN、BigGANで高解像度の画像の生成はできるようになってきている。 一方で、これからの課題としては、人の身体のような複雑な構造の生成をどのように行なうか、潜在表現をどのように学習するか。 (FD-GAN etc) #neurips18yomi
2019-01-26 13:48:25GANについて,複数の要素(styleとgeometryとか)に潜在表現を分割してそれぞれ学習するというのは正当進化感あるけど,そのための教師データについては当然要素ごとのラベルが必要なので,どういうデータで実験するかのアイデアが求められそうな印象 #neurips18yomi
2019-01-26 13:48:35濱田さんの紹介された論文 1. FD-GAN 2. Unsupervised Learning of Object Landmarks 3. A Unified Fearture Sidentangler 4. Image to Image translation 5. Unsupervised Adversarial Invariance #neurips18yomi
2019-01-26 13:50:46GANの論文、お気持ちはすごくわかるけど、そのアーキテクチャやパラメータチューニングとかをどうやったら見つけられるのかを知りたい。一体何種類くらい検証しているのだろう。#neurips18yomi
2019-01-26 13:51:27『disentangleの定義は?』との会場から質問。おそらく識別したい事象に起因する特徴量と、それ以外に起因する特徴量を陽に分解することだけど、数学的な定義は難しいなぁ。前者はタスクに有効で、後者ではタスクを解くのが難しいというのを数学的にどう定義するか。 #neurips18yomi
2019-01-26 13:51:30GANの学習安定性について。ある状態化では収束するというのを示す研究はあるが、任意のモデルで収束する保証を示したものはない。 よくあるのは、特定のモデルに収束テクニックを色々使ってみて、その元で実験的に収束することを示すことが多い。 #neurips18yomi
2019-01-26 13:53:44竹中誠(首都大) さんの "On the Dimensionality of Word Embedding" #neurips18yomi
2019-01-26 13:55:02