prof_hrkさんとshtaxxxさんによるISCA 2015のFPGA関連つぶやきまとめ

計算機アーキテクチャの学会ISCAに参加されてるお二人のFPGAまわりのツイートが熱すぎるのでまとめました。
8
Shinya T-Y @shtaxxx

FPGA側もマルチタスク+非同期通信でレイテンシ隠蔽

2015-06-15 03:57:08
hrk先生 @Prof_hrk

Deep ParsingとNamed Entityがターゲット。Coherent Accelerator Processor Interface(CAPI)を使う。あとはふつう。

2015-06-15 04:07:16
hrk先生 @Prof_hrk

BusがPCIEでなくPower8の専用バス?なので良い点もあるが、普及では困難だろう。

2015-06-15 04:23:25
Shinya T-Y @shtaxxx

午後はMicrosoftのDeeep learning on Catapltの話

2015-06-15 05:38:32
hrk先生 @Prof_hrk

つぎはMicrosoftのDataCenter FPGA. Eric Chung. テーマはCatapultを使ったDeep Learning. Convolutional Neural Network, Deep Neural Networkがターゲット。

2015-06-15 05:38:33
hrk先生 @Prof_hrk

MLをクラウドのサービスにする。 Microsoft AzureML, Amazon ML as a Service, Google Prediction API. 問題・普通のCPUではTrainingがおそい。(Months)。GPUつかうと、16-32以上にスケールしない。

2015-06-15 05:42:07
hrk先生 @Prof_hrk

Data Centerの場合は設置してからの改造は困難。汎用で最後まで使えるもの、均一性が必要。MicrosoftはすでにBINGに導入した。Catapultは、汎用Datacenter用FPGAプラットフォーム。FPGA同士でも別ネットワークを持っている。

2015-06-15 05:48:53
Shinya T-Y @shtaxxx

Catapaltボードの実物登場!?→忘れた…

2015-06-15 05:50:55
hrk先生 @Prof_hrk

Stratix V D5, PCIE Gen3x8, 8GB DDR3-1333, Torus Network. 電力は25Wで全部のDSP, Logic, Memoryなどを動かしたときの最大値に設定(少し無駄)。LinkはReconfigurableだが、実際は殆どこわれない

2015-06-15 05:56:22
hrk先生 @Prof_hrk

BINGの次はCNNによるImage Classification.3層のConvolutionと2層のDense Layer.循環アーキテクチャで、次々と層の計算をするFPGA回路。精度、層の数、層のサイズ、StrideとPoolingが可変。プロトタイプを作っている。

2015-06-15 06:07:16
hrk先生 @Prof_hrk

FPGAで25Wくらいで、GPGPUで225W?速度はGPGPUのほうが4倍くらい良いので、2.5倍くらいの電力低下か。(Xeon onlyを質問する必要あり)。今MSで使っているBASEシステムより性能・電力で10倍くらい良くなると回答。ただし、これはBest Xeonではない

2015-06-15 06:16:42
Shinya T-Y @shtaxxx

FPGA vs. GPU for data centers

2015-06-15 06:56:36
Shinya T-Y @shtaxxx

誰もfor HPCとは言わないのがミソ

2015-06-15 06:57:42
hrk先生 @Prof_hrk

GPGPU v.s. FPGA for Datacenterのパネル。まずはBill Dallyの番。GPUはFLOPS高く、メモリバンド幅高い(TB/s)。FPGAはASICより遥かに効率がわるい。FLOPS, MemBW高ならGPUつかえ。低ければASICつかえ。FPGAは×

2015-06-15 06:59:40
Shinya T-Y @shtaxxx

ASICは良いけどFPGAはLUTでロジックを作るから効率駄目じゃん、というNVIDIAの主張

2015-06-15 06:59:56
hrk先生 @Prof_hrk

つぎはAlteraのDesh Singh。FPGAはSoftwareと同じ。GPUはハードウェアで固い。CPUと比べてもGPUとくらべても、必要なものしか動かない。 議論はFPGAのほうが理路整然としていると感じる。

2015-06-15 07:08:17
hrk先生 @Prof_hrk

うーん、話が常識的な範囲で空回り。AppがData CompressionとFPGA側が行ったら客席がわいた。BillはまだRay Tracingの効率にこだわっている。GPUでもアレイの整数計算しろという声が司会者からあり。Future GPUでは良い低精度と整数サポート

2015-06-15 07:21:17
Shinya T-Y @shtaxxx

IntelのMachine Learning Building Blocksの話

2015-06-15 08:06:36
Shinya T-Y @shtaxxx

サポートするデバイスの一覧にXeon FPGAと書いてあるのが味わい深い

2015-06-15 08:07:22
Shinya T-Y @shtaxxx

GPU vs. FPGA for data centersはgeneralな話ばっかりでうーんという感じ。

2015-06-15 08:08:53
Shinya T-Y @shtaxxx

もう誰もメニーコアとか言ってないのが感慨深い

2015-06-15 08:38:26
Shinya T-Y @shtaxxx

みんなメニーコアに夢を見過ぎたのだ

2015-06-15 08:39:05
Shinya T-Y @shtaxxx

プロトタイピングのワークショップに移動。3Dスタックチップを作ってたりしてすごい

2015-06-15 08:41:20
Shinya T-Y @shtaxxx

@makiko087 Xeon-FPGAに限らずお土産話を持っていけるように覚えておきます

2015-06-15 08:49:41
hrk先生 @Prof_hrk

2個目のパネルでは、量子計算を結構真面目に取り上げている。現在のSi素子の限界を超えるためという話だ。が、例がDWaveなど、多少詭弁の傾向があると感じる。誰もはっきりは言わないが、なんとなく会場の雰囲気が暗い。

2015-06-15 08:55:07