東ロボくんの生みの親《新井紀子》教授の間違いが明らかになった日。人間は人工知能に読解力でも負けつつある

いったい深層学習に何が起こってるんだ?!
192
sangmin.eth @ChoimiraiSchool @gijigae

アリババの人工知能チームが @Stanford 大学の読解力テストで人間に始めて勝ったのが、今年の1月。スコアは、 ・人:82.304 ・AI:82.44 グーグルの《BERT》でトレーニングさせた人工知能のスコアは何と、87.433!10カ月で5ポイントも上げている。人間とマシン、読解力の差は今後更に広がる🤖。 twitter.com/GoogleAI/statu…

2018-11-03 16:51:29
Google AI @GoogleAI

We have released @TensorFlow code+models for BERT, a brand new pre-training technique which is now state-of-the-art on a wide array of natural language tasks. It can also be used on many new tasks with minimal changes and quick training! goo.gl/AHnGzu

2018-11-03 02:36:20
小猫遊りょう(たかにゃし・りょう) @jaguring1

Google AI ブログ Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing ai.googleblog.com/2018/11/open-s… 今、ものすごい話題になっているBERTの話(たくさんの自然言語理解タスクで衝撃的な成果を叩き出した手法)。 質問応答タスクSQuAD v1.1では、人間越えの性能!!! pic.twitter.com/ocQlHC3qMa

2018-11-03 03:38:16
拡大
拡大
Ryobot @_Ryobot

GLUEベンチマークの全言語理解タスクでぶっちぎりのSOTA! 質疑応答タスクのSQuADでもSOTA! 話題の手法BERTってなにっ?(24層16注意ヘッドのTransformer!?) paper: arxiv.org/abs/1810.04805 pic.twitter.com/dAr3Lq9rPi

2018-10-13 10:47:10
拡大
拡大
拡大
拡大
Ryobot @_Ryobot

結局BERTの何が恐ろしいかって言語モデルを一回学習させとけばおそらく機械翻訳や対話生成とかも汎用的にブーストできる万能薬なのに副作用がないとこなんだよなぁ(だからpretrainモデルが公開されたらNLP全域でくそ流行ると思ってる) twitter.com/_Ryobot/status…

2018-10-14 16:31:30
Soneoka / ELYZA @sone_oak

大きなTransformerを双方向にして、大きなコーパスで事前学習し、転移学習したところ、NLPタスクの精度を不連続にあげたBERT。GNMT・GQNのような力業の側面も少しあるが、NLPが人間並の精度を出す可能性を示した。 twitter.com/DL_Hacks/statu…

2018-10-21 00:09:40
DLHacks @DL_Hacks

NLPにおけるImageNet Pretrainedモデルに相当するfine-tuningアプローチであるBERTモデルの紹介.NLPで話題のfeature-basedアプローチのELMoなども少し紹介. slideshare.net/DeepLearningJP…

2018-10-20 21:00:01
Soneoka / ELYZA @sone_oak

現時点で最強モデルBERTの本家コードと学習済みモデル。論文に書いていた通り、10月末の公開。さすがです! github.com/google-researc…

2018-11-01 09:17:38
小猫遊りょう(たかにゃし・りょう) @jaguring1

SWAGデータセット(常識推論タスク)において、BERTが早々に人間レベルに到達!? BERT(2018年10月11日!!!) arxiv.org/abs/1810.04805 SWAG(2018年8月16日!!!) arxiv.org/abs/1808.05326 pic.twitter.com/QwpQa697mz

2018-10-12 23:50:13
拡大
小猫遊りょう(たかにゃし・りょう) @jaguring1

Soneokaさん「NLP(自然言語処理)が人間並の精度を出す可能性を示した」 新井紀子さん、いまBERTの論文読んでるところかな?でも、OpenAIの論文(言語理解タスクで大幅に改善した研究)については、まったく触れてないよね?もう数か月も経ってるのに。どう思ってるのか、だれか聞いて()

2018-10-29 16:22:43
Kazunori Sato @kazunori_279

Google、事前学習済みの自然言語処理モデル、BERTを公開。NLPモデルがより手早く構成可能に。日本語対応は年末を予定。 ai.googleblog.com/2018/11/open-s…

2018-11-03 08:06:24
IT系セミナー「マジセミ」お知らせ【公式】 @Majisemi_it

【OSS】Google、言語表現事前トレーニング手法「BERT」をオープンソース公開---最新の質問応答システムを30分で訓練 Googleは、言語表現事前トレーニング手法 ossnews.jp/oss_info/artic…

2018-11-05 11:40:35
Kiyoshi SATOH @stealthinu

言語系で色々と驚異的に性能があがったBERTのコードと学習済みデータが公開。Fine-tuningは64G積んだTPUで可能とのこと。24-layer, 1024-hidden, 16-heads, 340M parameters… htn.to/A2JZZ2

2018-11-01 10:24:31
小猫遊りょう(たかにゃし・りょう) @jaguring1

[2018] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding github.com/yoheikikuta/pa… 「あとは実験結果。この論文は結構色々な実験をしている。まずはストレートに先行研究との比較ということで GLUE のテスト。なかなか驚きの上がりっぷりである」

2018-10-29 16:33:35
karino2@平民階級 @karino2012

BERTはNLPのtransfer learningの決定版になるんですかね。NLPの応用一気に進むか? twitter.com/yohei_kikuta/s…

2018-11-01 19:36:36
Yohei KIKUTA @yohei_kikuta

とりあえず BERT で GLUE MRPC タスクを fine-tuning して解いてみた。ちゃんと動いていそうということは分かった。 ***** Eval results ***** eval_accuracy = 0.8627451 eval_loss = 0.4509506 global_step = 343 loss = 0.4509506 真面目に読み込んで自分のタスクに使ってみるか〜。

2018-11-01 18:45:16
kibou @hikarinonakano7

東大の松尾豊氏は、日本のAIの第一人者で、ディープラーニングで将来的にAIが自然言語理解ができると断言している。新井紀子氏は、まず根本的に「知性とは何なのか」を誤解しているし、AIの専門家でもないのに、不可思議な論理で政府機関、教育現場を混乱させないで欲しい。

2018-08-09 08:09:38
小猫遊りょう(たかにゃし・りょう) @jaguring1

Improving Language Understanding with Unsupervised Learning blog.openai.com/language-unsup… 2018年6月、言語理解タスクでも大幅な性能向上が見られた。多くのNLPタスクで最高性能を更新した。2018年10月、そこからさらに大幅な改善を実現したBERTが登場した。

2018-11-01 12:09:00
Kei @kei_t__

BERT凄そうだなー、自然言語処理でも画像のようなdeeplearningのブレークスルー来るのかな。

2018-11-05 23:21:11
☔️ @nardtree

BERT調べなくては、と思いつつ、放置してる

2018-11-05 08:44:42
smj_qiita @takuya_qiita

汎用言語表現モデルBERTを日本語で動かす(PyTorch) qiita.com//Kosuke-Szk/it…

2018-11-05 16:30:27
小猫遊りょう(たかにゃし・りょう) @jaguring1

正直、東ロボくんプロジェクトを通して日本からBERTを発明してほしかったな。新井紀子さんが独断と偏見で勝手に言語理解タスクは無理だと決めつけて、方向性がめちゃくちゃになっちゃったと感じる。

2018-11-03 21:08:04
小猫遊りょう(たかにゃし・りょう) @jaguring1

それに、新井紀子さんは東ロボのプロジェクトを通して、「やっぱり言語理解タスクや常識推論タスクは無理だった。数十年先というレベルで無理だ」というような結論を出していたと記憶している。それに対する批判として、いま現在の最先端を取り上げるのは別に何も間違っていないと思う。

2018-11-04 19:15:53
みるくま🎩 @mirukuma__

新井紀子氏をみているとクラークの法則を思い出す。 「高名で年配の科学者が可能であると言った場合、その主張はほぼ間違いない。また不可能であると言った場合には、その主張はまず間違っている。」高名で年配の科学者かどうかには議論の余地があるが。

2018-11-04 18:21:36
kibou @hikarinonakano7

新井紀子氏は冷静に議論できる人だと思ってたけど、やはり感情的な人なんだな。自分に都合の悪い人間はブロックする。余裕がなくなっているのかな。自分の本が予想以上に売れすぎて、やべーって思ってそう。

2018-11-04 17:30:53
もな @MonaCatAI

BERTの登場で新井紀子氏へのヘイトが一気に高まってるのは面白い。結果として(?)東ロボのデータは公開されたし、影響はあったのかな。ぜひ一般層に向けて今の状況と心境について書いて欲しい。

2018-11-06 03:17:39
小猫遊りょう(たかにゃし・りょう) @jaguring1

東ロボのプロジェクトリーダーの新井紀子さん、まだ発言なし?肯定でも否定でもいいから、今月中にはBERT について発言してほしい。

2018-11-03 19:49:55
とさか2 @nanTosaka2

BERT特許取られたらNLP産業キツくない?と思ったけど"All code and models are released under the Apache 2.0 license."だった。ソースコードとpretrained modelsの利用がフリーで手法の利用がフリーじゃないということは流石に無いよね?

2018-11-03 16:54:19