#NVDLD NVIDIA Deep Learning Day 2016 Spring

2016年4月27日にベルサール高田馬場で開催されたNVIDIA主催のディープラーニングのイベントに関するつぶやきのまとめです。
5
前へ 1 ・・ 3 4 ・・ 12 次へ
ɯsı¯ɹǝʇsɐ (あすてりず無) @aster_ism

今後はTensorFlowやChainerも入門講座が公開されるらしい #NVDLD

2016-04-27 11:26:00
NVIDIA Japan @NVIDIAJapan

#NVDLD 次はシニアCUDAエンジニアの森野より『NVIDIA Deep Learning SDKを利用した画像認識』。SDKの役割と活用を、画像認識の事例を用い解説します。資料→nvda.ly/4n8p3V pic.twitter.com/ze8MACIKnE

2016-04-27 11:26:25
拡大
拡大
はろ @hidenorly

#nvdld 推論処理を高速に行うためのエンジンの話だそうです

2016-04-27 11:27:24
はろ @hidenorly

#nvdld トレーニングとはモデル、係数を決めるための作業で、ふぉわあとバックワードプロパゲーションの反復処理。推論はモデルや係数も決定済みで、フォワードプロパゲーションのみ。つまるところ、トレーニングが開発作業であって、推論は実行、トレーニング結果を動かす端末等側の話。

2016-04-27 11:31:47
はろ @hidenorly

#nvdld メモリー帯域がネックになるので、kernel fusionと呼ぶ方法で、一回のメモリーアクセスの中で演算をまとめる。pipe-filterのおまとめ演算みたいなことをする。演算パワーはあるが、メモリー帯域は、個々の処理をして、メモリーに読み書きの回数を削減する。

2016-04-27 11:39:13
おーた('A`) @43x2

ディープラーニング入門からいきなりハードウェアに深い話をし過ぎでしょww #NVDLD

2016-04-27 11:39:20
はろ @hidenorly

#nvdld また、依存がないものを同時に動かすことで、並列度を高める。

2016-04-27 11:40:00
はろ @hidenorly

#nvdld GEMM(行列積)の代わりに、GEMV(行列・ベクタ積)を使う。バッチサイズが小さくなってくると、B行列がせまくなる。こういうときに有効。

2016-04-27 11:42:51
おけなくと @okenakt

バッチサイズが小さいときは、GEMMで行列同士の掛け算するよりも、GEMVを並列で走らせた方がお得 #NVDLD

2016-04-27 11:43:01
Hideto Masuoka @hidetomasuoka

村上さんは、初心者向けなのに森野さんはガチの人向け、内容変わりすぎw #NVDLD

2016-04-27 11:44:48
はろ @hidenorly

#nvdld GPU Inference engineで、これらの最適化処理を実装してくれているので、楽に高速化できる。、

2016-04-27 11:46:03
NVIDIA Japan @NVIDIAJapan

入口側にて #GTC16 でも展示したポスターを展示中。LINEスタンプのリコメンデーションにディープラーニングを活用した事例など。マイクロソフトとのアンケート引換えにてお渡しするドリンク、ドーナツコーナーは奥です。 #NVDLD pic.twitter.com/NhJEA6xBYF

2016-04-27 11:50:11
拡大
拡大
拡大
拡大
おーた('A`) @43x2

ラフな格好のエンジニアばかりだと思ってたけど、意外と背広さんが多い。 #NVDLD

2016-04-27 11:57:25
adamrocker @adamrocker

森野さんの話、メチャ面白かった。駆け足すぎたので、もう少し丁寧に聞きたい。 #nvdld

2016-04-27 12:04:57
BoT^'' @abechanta

NVIDIA Deep Learning Day 2016 Spring に参加中。結構な盛況。午前のセッションを終えて、GTC2016 で発表されてた GIE というものが、少し分かった気になる。 #NVDLD

2016-04-27 12:12:09
kichi*2 @kich1x

参加者はエンジニアが多いのかと思っていたけど、そうでもなさそうだね スーツ姿が圧倒的に多いのね #nvdld

2016-04-27 12:35:46
botisle @hi86074659

NVIDIA Deep Learning Day 2016 Spring 来ています 【エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~】 の資料 slideshare.net/NVIDIAJapan/ss… #NVDLD

2016-04-27 12:39:37
issei*fam @it__ssei

写真は寧ろ撮ってという会場案内に草生える #NVDLD

2016-04-27 12:41:44
botisle @hi86074659

DIGITS  DL用のツール  通常は学習用の教師データを用意したら、それに対して  これは「猫」などのタグ付けた必要だけど、ここを半自動化してくれる  バックエンドはCaffe のみだったけど、Torch7にも対応 早く、Chainer 対応して欲しいなー #NVDLD

2016-04-27 12:44:25
botisle @hi86074659

Caffe での学習  「ネットワーク定義ファイル」と「ソルバー定義ファイル」の2つを定義  あとは、コマンドライン 1発で楽チン  記述はgoogle protocol buffers だって  こんなところでもGPB 出てきた! #NVDLD

2016-04-27 12:54:46
Stockton/Toshio Hori @stockton_jazz

そろそろ午後のセッション開始 #NVDLD

2016-04-27 12:59:14
Takayoshi Yamashita @takayosiy

GTCのオープニングトークと同じ始まり方だ #nvdld

2016-04-27 13:00:28
NVIDIA Japan @NVIDIAJapan

#NVDLD 午後最初のセッションは、エヌビディアの林より #GTC16 の基調講演のまとめ、またそこで発表されたTesla P100、DGX-1、NVIDIA Deep Learning SDK等をご紹介します。 pic.twitter.com/tTsjW4ZHHj

2016-04-27 13:03:13
拡大
前へ 1 ・・ 3 4 ・・ 12 次へ