![](https://s.togetter.com/static/web/img/placeholder.gif)
#NVDLD NVIDIA Deep Learning Day 2016 Spring
![](https://s.togetter.com/static/web/img/placeholder.gif)
#NVDLD 自動車の特徴における認識率の向上。deep learningを適用することによって人間が認識できているように認識るようになってくる。。。
2016-04-27 17:10:09![](https://s.togetter.com/static/web/img/placeholder.gif)
#NVDLD DCGAN, LAPGAN, DCGANを使うことで、画像事態を作り出すことができる。荒い画像から高精細な画像を作り出したり、眼鏡をかけた女性とか、ベッドルームの画像とか。。。
2016-04-27 17:21:04![](https://s.togetter.com/static/web/img/placeholder.gif)
#NVDLD MIX programming API. MXNetは両方の実装が可能、imperative NDArray, Declarative symbolic executorの両方。
2016-04-27 17:22:36![](https://s.togetter.com/static/web/img/placeholder.gif)
#NVDLD 分散コンピューティング。データ並列が、簡単に扱えるようになる。4xGTX980で3.7倍の性能が出たので、高いlinearityをもっている。multinodeでもコードの変更は必要ない。
2016-04-27 17:25:06![](https://s.togetter.com/static/web/img/placeholder.gif)
#NVDLD MXNETの性能評価:AWS EC2 GPU instance, 4 GPU per machine → 10 machinesで、9.8倍の性能が出たので、非常に良いチューニングがされている。
2016-04-27 17:26:23![](https://s.togetter.com/static/web/img/placeholder.gif)
#NVDLD backendはC++で実装されており、多種多様な言語のbindがある。MinPyによりNumPy likeに扱える。importをNumPyの代わりにMinPyにするだけで、GPU最適化ができる。
2016-04-27 17:27:25![](https://s.togetter.com/static/web/img/placeholder.gif)
DLフレームワーク Caffe、TensorFlow、Theano、Torch、Chainer などあるが Python 直で書けるし、インストール簡単だし Chainer でいいやと軽く考えていたが ネットワークのモデルをどう組むか が重要な要素かな #NVDLD
2016-04-27 17:30:36![](https://s.togetter.com/static/web/img/placeholder.gif)
今日の講演の資料です. slideshare.net/Takayosi/deepl… #NVDLD
2016-04-27 17:31:23![](https://s.togetter.com/static/web/img/placeholder.gif)
#NVDLD 推論側に対する圧縮手法についての研究の話。deep compression. 35x-50x size compression. no loss less.
2016-04-27 17:31:42![](https://s.togetter.com/static/web/img/placeholder.gif)
出たー!現実からデータ集めるのが大変だからUnityで仮想世界作ってデータ取っちゃおうぜ作戦! #NVDLD pic.twitter.com/rzaDttpyWs
2016-04-27 17:32:32![](https://pbs.twimg.com/media/ChCTBmyVEAAh1Rx.jpg:medium)
![](https://s.togetter.com/static/web/img/placeholder.gif)
一部で話題のMXnetが出てきた…ちゃんとフォローしてなかったけど、ここまで作りこんでるとか、めちゃ凄いな( ¯−¯ )勉強しようかな(:3_ヽ)_ #NVDLD pic.twitter.com/g9SLWX2gg8
2016-04-27 17:32:53![](https://pbs.twimg.com/media/ChCTGmCUkAAK-UW.jpg:medium)
![](https://s.togetter.com/static/web/img/placeholder.gif)
#NVDLD Pruning:シナプスの削減を行って削減を行う。ニューラルネットワークも、人間と同じように数が減っても大丈夫なはずだから。取り除いて追加で学習を行うということを行っている。結果精度が下がらずに削減が可能になってきている。
2016-04-27 17:33:42![](https://s.togetter.com/static/web/img/placeholder.gif)
【資料公開】 #NVDLD 2016 Spring 午後の講演スライドはこちらです ▶『GTC 2016の基調講演から』nvda.ly/4nbjW7 ▶『GTC 2016 ディープラーニング最新情報』nvda.ly/4nbjGc #GTC16
2016-04-28 14:03:57![](https://s.togetter.com/static/web/img/placeholder.gif)
NVIDIA Deep Learning Day 2016 Spring の個人的まとめ by @it__ssei on @Qiita qiita.com/it__ssei/items… たぶんこれで書き留め終わったはず #NVDLD
2016-04-28 13:20:08![](https://s.togetter.com/static/web/img/placeholder.gif)
気付いたらいくつか拾われてたww > #NVDLD NVIDIA Deep Learning Day 2016 Spring - Togetterまとめ togetter.com/li/967942 @togetter_jpさんから
2016-04-28 10:20:47