2023/05/17 これならわかる深層学習入門 - Forkwell ML Startup #1 皆さんのツイートまとめ

非公式まとめです。YouTubeのアーカイブ https://www.youtube.com/live/-Vq0zUDnIGY?feature=share を見返すときにツイートも見たいな〜と思ってまとめました
1
フォークウェル@ITエンジニア転職 @Forkwell

本日19:30〜開催! 著者の瀧雅人さんにご登壇いただきます👏 出版から6年が経ち、今や日常会話の中で「Chat GPT」などの言葉を聞くようになりました。 出版当時の深層学習と、その後どのような発展を辿ったかについてお話いただきます! forkwell.connpass.com/event/282433/ #Forkwell_Event #Forkwell_MLS pic.twitter.com/nX3y9MKpZK

2023-05-17 12:47:07
拡大
リンク connpass これならわかる深層学習入門 - Forkwell ML Startup #1 (2023/05/17 19:30〜) # 📝 開催概要 ── 「機械学習を基礎から学ぶ」Forkwell ML Startupシリーズ第一弾。 これまでForkwellでは様々な勉強会を通してエンジニアの学びの場となる勉強会を開催してきました。 その中でも特に人気のあるシリーズイベントとして開催を続けてきた「Forkwell Liburary」シリーズ その姉妹勉強会シリーズとしてForkwell ML Startupシリーズを開催してまいります! 機械学習をもっと身近に、機械学習をもっとわかりやすく!」を合言葉にしている機械学習スタートアッ

基調講演

SK @st_ktu

作業しながら聴講します #Forkwell_MLS

2023-05-17 19:32:41
かわまた/狂気のDevRel @r_kawamata

OpenAIが凄過ぎてこの裏どうなってんの、とは思う。 #Forkwell_MLS

2023-05-17 19:34:22
ライナス @Linus_MK

#Forkwell_MLS 今日の昼メール見て知ったので、参加

2023-05-17 19:35:31
ライナス @Linus_MK

#Forkwell_MLS 2017年、ILSVRCが終了した年(ILSVRC2012でAlexNetが初登場したのね) 自然言語処理でDLが本格的に成功し始めたのもこの年。attention/transformer。

2023-05-17 19:44:56
SK @st_ktu

ニューラルネット、最先端の研究まで最短で辿り着くまでにキャッチアップしておく事項を考えておかないといけない。 #Forkwell_MLS

2023-05-17 19:52:39
ライナス @Linus_MK

#Forkwell_MLS GANは定式化すると非協力ゼロサムゲームになるらしい、そうなのか

2023-05-17 19:55:30
ライナス @Linus_MK

#Forkwell_MLS LSTM:Transformerに取って代わられた 小規模なデータ、波形などのデータでは有効で現在でも使われる DropOut:DL初期ではよく使われて、汎化性能を出すためには必須という扱いだった。最近は以前ほど必須の手法では無くなった。

2023-05-17 19:59:51
かわまた/狂気のDevRel @r_kawamata

過学習の向こう側には桃源郷があった #Forkwell_MLS

2023-05-17 20:01:43
ライナス @Linus_MK

#Forkwell_MLS パラメータ数が多すぎるDLでなんで過学習にならずに上手くいくのかは、長らく謎であった。 良性過学習によって汎化性能が達成できる説。

2023-05-17 20:02:45
ライナス @Linus_MK

#Forkwell_MLS arxiv.org/abs/2206.07682 これか。Emergent Abilities of Large Language Models

2023-05-17 20:13:00
リンク arXiv.org Emergent Abilities of Large Language Models Scaling up language models has been shown to predictably improve performance and sample efficiency on a wide range of downstream tasks. This paper instead discusses an unpredictable phenomenon that we refer to as emergent abilities of large language model 17

Q&A

リンク paperswithcode.com Papers with Code - The latest in Machine Learning Papers With Code highlights trending Machine Learning research and the code to implement it. 95 users 8189
TOMIOKA Hiroshi @tomioka

深層学習モデルがブラックボックスなのは入力データも中のパラメータも大きすぎるから。それらのパラメータや入力データの全部を説明するのは難しいが、特に重要度の高いパラメータや寄与度の大きい入力データを特定しその説明でモデル自体の説明性を向上させるのが通常の方法となる #Forkwell_MLS

2023-05-17 20:22:31