NVIDIAの奴らは100円のマイコンに深層学習をのせられるのか? という所でガッツリ稼ぎましょう。NVIDIAさんが考えていない所に青い海があります。 #yapf
2018-07-21 14:09:57Jetson TX1/TX2は標準のdistributionが巨大。LinuxでGUIまでのってる。メモリもいっぱい。こんなの組み込みでは萎える。こんなのパソコン。工場の検査装置とかにはいいのでは #yapf
2018-07-21 14:08:37Jetsonの環境だと、TensorRTはCaffeに比べて3.5倍速い。FP32をFP16に変えればさらに速くなる。これをやるだけでもホメられます。 #yapf
2018-07-21 14:07:19性能的な話 #yapf :【TensorRT やってみた】(4): GoogLeNet で性能を検証する proc-cpuinfo.fixstars.com/2018/04/tensor…
2018-07-21 14:07:15Jetsot TX/TX2はTensorRTが使えるのが便利。Tensorflowからデータのインポートができる。個人輸入がおとく。 #yapf
2018-07-21 14:04:04コンボリューションの最適化はim2col、Winograd。Winograd のツール github.com/andravin/wincnn #yapf
2018-07-21 14:00:52(参考) bfloat16の解説はこちら en.wikipedia.org/wiki/Bfloat16_… #yapf
2018-07-21 13:56:00FP16の仮数部は大きくて深層学習的にはもうちょっと小さくていい。むしろ指数部の分解能がもうちょっと欲しい、というところからbfloat16が、という話と理解した。 #yapf
2018-07-21 13:54:29組込エンジニアとしてはTensorflow LiteやTonsorRTなどが使えるところでは戦わない。もっとロースペックなところで戦う。自分が扱う製品で計算可能な計算量を知ることが大切。 #yapf
2018-07-21 13:49:55推論の環境はAndroid/LinuxならTensorflow LiteやTensorRTが使える。でもNVIDIAやGoogleと戦っても勝てる訳がないので、組み込みの人はもっと低レイヤーでがんばる。 #yapf
2018-07-21 13:48:13組み込み向けのおすすめ環境。学習はPCでやる。推論は組み込みで。PCはAMD RYZENシリーズがコスパおとく。コア数多いのが正義。メモリいっぱい必要。 #yapf
2018-07-21 13:43:59横浜Android and モバイルOSプラットフォーム部第41回勉強会 2018.7.21 #yapf togetter.com/li/1248926
2018-07-21 13:41:06深層学習は難しくない。せいぜい高校数学プラス簡単な偏微分しか使わないから、組み込みやってるような人ならわかるはず。でも「難しい」と言って文系の人を騙しておかないとお金を取れない #yapf
2018-07-21 13:29:23続編は今日発売 #yapf :O'Reilly Japan - ゼロから作るDeep Learning ❷ oreilly.co.jp//books/9784873… @oreilly_japanさんから
2018-07-21 13:26:26今日の発表の参考書。業務で深層学習で金引っ張りたい人は読んどくとといいらしい。 #yapf :O'Reilly Japan - ゼロから作るDeep Learning oreilly.co.jp//books/9784873… @oreilly_japanさんから
2018-07-21 13:24:44