AlphaFold2座談会
#Alphafold座談会 機械翻訳の核技術が転用されている。代表例は DeepL など 翻訳の分野では文が長くなると、個々の単語が「薄まって」しまい、文全体の中で訳文に「効く」のがどこかよく分らなくなる => 単語列全体を上手くコーディングする方法が模索され単語間の関係をコードしよう
2021-07-21 22:48:24オールユーニードイズトランスファー ai-scholar.tech/articles/trans… #Alphafold座談会
2021-07-21 22:50:04#Alphafold座談会 Self attention : 自己系列の中での単語間相関をとろう => 上手くいった => ほかの分野でも使えるのでは? Attention is All You Need. => 画像認識でも成功 Alphafold2 自体が開発された時点では今ほど transformer 無双だったわけではないことは注意(後追いというわけではない
2021-07-21 22:50:39構造生物学、すでにアテンションが一般的なのか 理論物理だと聞かないなぁ #AF2zadankai
2021-07-21 22:50:48有名人がいっぱい笑笑 #Alphafold座談会 pic.twitter.com/JjqAh1vYgu
2021-07-21 22:51:04Attention Is All You Need arxiv.org/abs/1706.03762 #AF2zadankai
2021-07-21 22:51:09NGS屋としてはタンパク質構造予測に機械学習が使われ、Variant Callingにも機械学習が使われ、 そのうちマッピングとかアセンブルとかにも使われるようになるのかなあと思ったり思わなかったり #AF2zadankai
2021-07-21 22:51:54#Alphafold座談会 Evoformer: 3用途 3-a. row-wise-gated-self-attention 一つのアミノ酸配列内の残基間の結びつきの強さを推定
2021-07-21 22:52:18配列を突っ込んでそれをみていい感じに予測する。その後にさらにアテンション。 #Alphafold座談会
2021-07-21 22:52:35#Alphafold座談会 3-b.column-wise-gated-self-attention: 複数の類縁配列間で、相同に見える残基を抽出しているように見える
2021-07-21 22:53:15Attentionってほんとに凄いんだな PRMLとか理情3Aの知能システム論で深層学習ある程度やった後に勉強する! #AF2zadankai
2021-07-21 22:53:26これattentionだけじゃなくてgateも付けたり2残基間の関係性を補強するためにペア表現からも重みを引っ張ってきたりいろいろ工夫されてて本当に熱いんすよ #AF2zadankai
2021-07-21 22:53:46#Alphafold座談会 3-c. triangle-update: 幾何学的制約条件を実現しているattention なのかな????
2021-07-21 22:54:18#Alphafold座談会 今更感すごいですが今回の資料です。 qiita.com/Ag_smith/items…
2021-07-21 22:54:25わかりやすい説明でAttention理解した気になった #AF2zadankai pic.twitter.com/LwCuDkGX8q
2021-07-21 22:54:49