NeurIPS2018読み会 @ PFNツイートまとめ

PFNさんで開催されたNeurIPS2018読み会のまとめです https://connpass.com/event/115476/
1
前へ 1 2 3 ・・ 12 次へ
yu4u @yu4u

分散表現の最適次元数を示した。マジか(めっちゃ仮定がありそうだけど #neurips18yomi

2019-01-26 13:55:30
keno @keno_ss

「単語の分散表現の次元選択の最適な値が存在することを示した」 #neurips18yomi

2019-01-26 13:55:46
keno @keno_ss

「分散表現はユニタリ不変. 古典的にはカウントベースの行列分解. (LSA など) NN ベースも暗黙的に行列分解(Skip-gram, GloVe)」 #neurips18yomi

2019-01-26 13:58:12
dhirooka @daigo_hirooka

来た。お昼を食べ損ねたのでとても空腹。#neurips18yomi

2019-01-26 13:59:31
西村拓哉 @t_nishimura1989

2発表目,単語分散表現の最適な次元数を理論的に求めましたよという論文.単語分散表現はユニタリ行列とか前提の時点でけっこうびびってる. 後で真面目に読もうかな #neurips18yomi

2019-01-26 13:59:32
Shohei Hido 比戸将平 @sla

すみませんYoutube配信のURLが変更になりました。 #neurips18yomi youtube.com/watch?v=DG80WS… ネットワークの不調に付き再接続した影響によります。ご迷惑おかけします。 twitter.com/sla/status/108…

2019-01-26 14:00:14
拡大
soneo @ATH_ray_

どの空間でも最適な次元数なんだろうか 🤔 #neurips18yomi

2019-01-26 14:01:25
keno @keno_ss

「PIP(E) = EE^t, つまり単語の内積. l2 で距離を入れる」 #neurips18yomi

2019-01-26 14:02:08
くぬー🐺🍎 @n_knuu6

「単語分散表現の次元数に最適値があることを示したいってAroraも言ってる」 #neurips18yomi

2019-01-26 14:02:23
keno @keno_ss

oracle embedding は真のターゲットとしたい埋め込みかな? #neurips18yomi

2019-01-26 14:02:54
keno @keno_ss

「PIP 損失の期待値を式で明示. バイアス項とバリアンス項に分かれる」 #neurips18yomi

2019-01-26 14:03:40
Takayuki Saruta @srt_taka

youtubeもまた不調がありましたらお知らせください。ご迷惑をおかけします。 #neurips18yomi

2019-01-26 14:04:35
keno @keno_ss

さっきの式は oracle embedding との差, ということかな? #neurips18yomi

2019-01-26 14:04:56
岡本大和 / Yamato.OKAMOTO / RoadRoller @RoadRoller_DESU

単語分散表現の最適次元を理論的に求めましたよという論文。最適次元があったんだー、というだけで感動。(理論的部分はすぐには、うん、わからん #neurips18yomi papers.nips.cc/paper/7368-on-… pic.twitter.com/J0m9NhMEpV

2019-01-26 14:08:18
拡大
拡大
keno @keno_ss

(k は多分埋め込み次元?) 特異値が小さい方(k+1, ..., d (最後)) はバイアス項, 大きい方(1, ..., k)はバリアンス項. #neurips18yomi

2019-01-26 14:08:23
keno @keno_ss

「この理論による予測と実験結果が consistent」 #neurips18yomi

2019-01-26 14:10:25
FF @fujifog

単語分散表演に最適な数があるということを示しててすごい. 目的行列と訓練行列間のフロベニウスノルムを最小化すると分散表現ベクトル数kが出てくるらしいのか?理論わからん... #neurips18yomi

2019-01-26 14:12:56
かめ @cruelturtle

実際kを求めるのに必要な仮定ってなんなんだろ #neurips18yomi

2019-01-26 14:14:44
西村拓哉 @t_nishimura1989

マジで全然理解できていないし本文を読めばいいんだけど,「単語の」分散表現の話としていたけど,他のもの(例えば検索時における文書の分散表現など)についても同じ理論が成り立ちそうなので応用範囲広そうな話だった #neurips18yomi

2019-01-26 14:14:55
せいしん | ACES, Inc. @seishin55

On the Dimensionality of Word Embedding 単語分散表現の次元数は重要->理論的ではなく経験的に次元数を決めていた(300次元付近)->最適なものがあるなら知りたい。 単語の埋め込みに最適な次元数を示す。単語行列の表現行列のi番目とj番目の内積をとったPIP行列に着目。 #neurips18yomi

2019-01-26 14:15:15
せいしん | ACES, Inc. @seishin55

これを使ってPIP損失を定義。 (分散表現はユニタリ不変。Skip-gramも暗黙的に行列分解。、、らしい) #neurips18yomi

2019-01-26 14:15:31
keno @keno_ss

木村優志(Convergence Lab.) さんによる "Dialog-to-Action: Conversational Question Answering Over a Large-Scale Knowledge Base" #neurips18yomi

2019-01-26 14:16:46
前へ 1 2 3 ・・ 12 次へ