- Uroak_Miku
- 1193
- 0
- 0
- 0
深層学習(deep learning)について今のうちにかじっておきたくてごそごそ文献に当たっていたら「ボルツマン・マシン」なる概念と遭遇。ぼるつまん?おお、ボルツマン分布に由来するそうです! pic.twitter.com/OCDbwHwCsu
2020-11-07 09:59:59機械翻訳の新しいパラダイム:ニューラル機械翻訳の原理 中澤 敏明 jstage.jst.go.jp/article/johoka…
2020-11-07 10:07:40>ニ ュ ー ラ ル 機 械 翻 訳(Neural Machine Translation: NMT) 2014年。
2020-11-07 10:10:31>2016年11月にGoogle翻訳がNMTを採用したときには大きな話題となった。 そうそうありましたありました。私もちょっと驚いた。
2020-11-07 10:11:22これが現行型。ニューラル機械翻訳(NMT)。 DeepL翻訳をこの半年いろいろ試してみて、どうも入力言語内、出力言語内でそれぞれ校閲機能が回っている感じがしていたのですが、この概念図によると、私の感覚はどうやら正解? pic.twitter.com/LaIlJ8AqVm
2020-11-07 10:16:51>NMTでは符号化された入力文とアテンションの情報からデコーダーが次に出力する単語を1つずつ決定し,<EOS>が出力された時点で翻訳が完了する。
2020-11-07 10:28:05>デコーダーが<EOS>を出力するまで翻訳は継続し,いつ<EOS>が出力されるかは今のところ知るすべがない。このため入力文のすべてが過不足なく訳出されるという保証がない。
2020-11-07 10:28:53>過去に訳出した箇所の情報をもっていないため,同じところを複数回訳出したり(重複訳:over translation),まだ訳出していない部分があるにもかかわらず,<EOS>にアテンションして翻訳を終了させてしまったり そう、これ!ときどき起きるんですよ。
2020-11-07 10:30:20>もちろんこの点に関してはさまざまな研究者が解決に向けて研究しているところだが,今のところ決定的な方法は考案されていない。 前から気になっていましたが、原理的困難ですか。
2020-11-07 10:31:22>日↔英に関しては評価の低い文の割合は減っているものの,評価5の割合も減っていることがわかる。これは現在のNMTの最大の問題である「訳抜け」によるものである。 これはGoogle翻訳での検証ですが、今の私が使っているDeepL翻訳だと日→英の精度はもっと高く感じます。 pic.twitter.com/47ARoC24VF
2020-11-07 10:35:35>ここで注意したいのは,NMTの翻訳は訳文だけを見るとどれも完璧な日本語の文として成立しているという点である。 そうそう、訳文じたいはすごく自然。
2020-11-07 10:36:55>原文と照らし合わせて初めて翻訳誤りが含まれていることが判断できるが,訳文だけを見ても気づくことはできない。 これはDeepLには当てはまらないかな。日→英だと、英文が露骨に構文エラーなことがごくまれにあります。
2020-11-07 10:38:03cresco.co.jp/blog/entry/130… DeepL上に日本語で論文を書き進めて英文出力したものを、英語の得意な同僚にチェックしてもらって英文校閲会社に出して完成、とあります。私と同じことをなさっていますが、英文の校正もネイティヴチェックも人任せなのが情けない。
2020-11-07 10:43:45しかしひとつたしかなのは、私にとっては潜在能力をフルに活かせるどころか、さらに進化を促してくれる機動戦士だってことですねっ。
2020-11-07 10:48:43♪デンッデンデーン、デーッデンデン、デンッデンデーン、デーッデンデン、デデッ、デデデデッ(チャカチャーン) pic.twitter.com/SI7fABOlp1
2020-11-07 10:50:14