2023/11/05第60回コンピュータビジョン勉強会@関東「ICCV2023論文読み会」ポストまとめ
ラスターとベクターきたー!! #cvsaisentan
2023-11-05 17:25:40言語モデルを使うというより自己回帰的なTransformerみたいな感じぽい、Teslaのレーン検出っぽいやつのtrajectory版みたい? #cvsaisentan
2023-11-05 17:25:54いろんなベクタをTransformer Encoderに突っ込む時にPositional Embeddingをどうするんだろう #cvsaisentan
2023-11-05 17:30:21Latencyの横の()つき数字は何だったんだ? #cvsaisentan
2023-11-05 17:40:11質問:既存の手法でDecoder側が一発でやるやつに比べると遅いのか?そのあたりどうか? #cvsaisentan
2023-11-05 17:41:54質問:どこらへんがLanguageModelなの?ただTransformer使ってるからだけ? #cvsaisentan
2023-11-05 17:43:27言語モデルみたいなのはTeslaのこれに倣っているのかも? #cvsaisentan blog.evsmart.net/tesla/tesla-ai… pic.twitter.com/1cSlVf4jtA
2023-11-05 17:44:18どれぐらいのVocabulary サイズ? 128です。 #cvsaisentan
2023-11-05 17:50:25本日の勉強会は以上となります。発表者の皆様、聴講者の皆様、場所提供のSansan株式会社様ありがとうございました。 #cvsaisentan
2023-11-05 17:51:31第60回コンピュータビジョン勉強会@関東「ICCV2023読み会」 - takminの書きっぱなし備忘録 @はてなブログ takmin.hatenablog.com/entry/2023/11/… #cvsaisentan
2023-11-05 23:21:232023/11/05第60回コンピュータビジョン勉強会@関東「ICCV2023論文読み会」ポストまとめ togetter.com/li/2253748 #Togetter @togetter_jpから #cvsaisentan
2023-11-05 20:23:23