#NVDLD NVIDIA Deep Learning Day 2016 Spring
しかし、イベントごとに会場広くなるな… #NVDLD
2016-04-27 10:02:13キーノートセッション資料 images.nvidia.com/content/APAC/e… か、slideshare.net/mobile/NVIDIAJ… #nvdld pic.twitter.com/AY1eJRbtPI
2016-04-27 10:07:44#NVDLD 開演しました。まずは『エヌビディアが加速するディープラーニング』と題し、ディープラーニングソリューションアーキテクト兼CUDAエンジニアの村上がお話します。資料→nvda.ly/4n89uy pic.twitter.com/D6SSDzNxRm
2016-04-27 10:08:28#nvdld imagenetで、人間を越えた画像認識率を達成した。マイクロソフトとGoogle。スーパーディープなニューラルネットワークを使っている。
2016-04-27 10:09:12#nvdld alphagoは、50GPUで3週間、3億4000万回のトレーニングステップで、DNNをトレーニング。valueラーニングで基盤の状況を予測。
2016-04-27 10:13:20オバマさんの顔に見えるポテトと地面 #NVDLD pic.twitter.com/soENyk4tgP
2016-04-27 10:17:24#nvdld DNNがまず良いモデル構築できるかがキー。次に入力させて学習させる為のビックデータも重要。最後に演算量がすごいので、GPU
2016-04-27 10:20:26#nvdld DNNの階層が深くなったなったときには、非常に演算量が多くなる。シンプルにいって、GPUを使うと10倍早くなる。行列演算が多く、GPUはそれが得意なので速くなる。
2016-04-27 10:22:46#nvdld フォワードプロパゲーションとバックワードプロパゲーションの反復を行うがこの処理が重い。この学習が重い。その後、推論が可能になる。
2016-04-27 10:24:52#nvdld 研究者がDNNを出してくる。それをベースにして、改善するのが、利用者の流れ。改善するときに、自分のデーターを食わせて学習させるが、その学習に膨大な処理が必要なので、GPUが有効
2016-04-27 10:29:03#nvdld 学習だけでなく、実際に活用するシーンでの推論処理も演算量がそれなりにあるので、GPUが有効である。 pic.twitter.com/qBYW3NNFtO
2016-04-27 10:31:00#nvdld deeplearning SDK cuFFT, cuSPARSE, cuFFT 疎行列、密行列、フーリエ変換のintrinsic
2016-04-27 10:32:33#nvdld cuDNNは、Caffe, CNTK, Tensorflowなどで活用されていて、高速な演算をサポート。cuDNN5では、時系列データを扱えるリカレントニューラルネットワークの高速化が可能に。
2016-04-27 10:34:42