Adiabatic Quantum Conputing Conference 2017まとめ(二日目、一部前日のツイート)

東北大学 大関先生の許可を取ってまとめました。 一日目のまとめは以下 https://togetter.com/li/1124005 三日目のまとめは以下 https://togetter.com/li/1124624 続きを読む
0
Masayuki Ohzeki@雑談方程式-それって人生変えちゃう授業かも?- @mohzeki222

様々な問題点がまだ残っていることを紹介。重要なことは隠れ変数がある場合についてデータ側の条件付き平均の期待値を古典コンピュータを併用しなければならないところか。他にも勾配を近似的に計算しているため、学習がうまくいくかどうかはやや不安である様子。

2017-06-27 17:11:01
Masayuki Ohzeki@雑談方程式-それって人生変えちゃう授業かも?- @mohzeki222

さて次は夏の学校の同級生(笑)やなぎんによる広告表示の最適化を量子アニーリングマシンで行なったもの。Real time biddingの話から紹介。SupplyサイドとDemandサイドの間で価格を提示してどの広告を出すかを選択している様子を紹介。

2017-06-27 17:24:17
Masayuki Ohzeki@雑談方程式-それって人生変えちゃう授業かも?- @mohzeki222

100msで実行しなければならない実際上の問題を紹介。そのために最適解を高速に求める必要がある。量子アニーリングマシンがその要求に応えてくれるのではないかと提案。広告主はクリックされた時に支払いを行うこと、性能評価としてClick through Rate(CTR)などがある。

2017-06-27 17:27:05
Masayuki Ohzeki@雑談方程式-それって人生変えちゃう授業かも?- @mohzeki222

CTR予言には機械学習がこれまでに利用されてきた。Budget pacingという量も重要で、とっとと広告を出して予算を使い切るのも良くない。様々な人に見せる必要があり、クリックしてもらうことと多くの人に見せる両方の競合的な関係がある。経済理論を利用した二部グラフ上の問題にする。

2017-06-27 17:31:31
Masayuki Ohzeki@雑談方程式-それって人生変えちゃう授業かも?- @mohzeki222

NHKに続きZDnet Japanでも記事にされました。 と思ったら西森さんと僕の写真が使われている(笑) 日本のアイデアを海外で実装する流れが顕著に--量子アニーリングの国際会議が開催 japan.zdnet.com/article/351033… @zdnet_japanさんから

2017-06-27 17:35:26
Masayuki Ohzeki@雑談方程式-それって人生変えちゃう授業かも?- @mohzeki222

Usersと広告をノードとして、エッジを二部グラフ上におく。そのエッジの重みをCTRとして、モデル化。この問題を最適化問題として定式化して量子アニーリングで解く。基本はCTRの平均を磁場に分散を結合にして制約もつけたコスト関数を用意する。

2017-06-27 17:36:05
Masayuki Ohzeki@雑談方程式-それって人生変えちゃう授業かも?- @mohzeki222

載せるためには結合についてPruningをする、Userに関してクラスター化するなどひと工夫があった様子。結果について既存手法としてgreedyな手法と比較している。Greedyな方法は高速に近似解をだす基本的な方法である。それに比べて分散が抑えられた良好な結果を出した。

2017-06-27 17:39:44
Masayuki Ohzeki@雑談方程式-それって人生変えちゃう授業かも?- @mohzeki222

次はDan D. PadilhaによるL0ノルム正則化を用いた量子アニーリングで線形回帰、識別の話。線形回帰の基本から紹介。Overfitを防ぐという目的の正則化として紹介。L1ノルム含め、ノルムの効果を図示して紹介。L0ノルムを用いた回帰はNP困難であることを指摘。

2017-06-27 17:51:15
Masayuki Ohzeki@雑談方程式-それって人生変えちゃう授業かも?- @mohzeki222

(うちらと同じように)連続値をスピンで表示して回帰問題に利用できるように準備。そのハミルトニアンを利用して量子アニーリングマシンで解く。ただその辺を自動的に用意するsolverがD-waveマシンに用意されているので、そのツールの紹介をしている。

2017-06-27 17:57:30
Masayuki Ohzeki@雑談方程式-それって人生変えちゃう授業かも?- @mohzeki222

OMPやLASSOなどのおなじみの結果と比較している。OMPとほぼ同等。( OMPは近似アルゴリズムなので、 OMPがうまくいっているところを見るととてつもなくスパースな特徴で済むデータセットであるような。) 非線形回帰についてもチャレンジしたがうまく特徴選択を行えなかった模様。

2017-06-27 18:01:52
Masayuki Ohzeki@雑談方程式-それって人生変えちゃう授業かも?- @mohzeki222

ラストは棚橋さんによる量子アニーリングマシンを用いた特徴量選択。Qboostの拡張について。最初に量子アニーリングによる結果が良好であることを示す。そのあとデータ圧縮としての特徴量選択について紹介。L1正則化ロジスティック回帰のL1LR、ランダムフォレストを用いたRFFSを紹介

2017-06-27 18:09:46
Masayuki Ohzeki@雑談方程式-それって人生変えちゃう授業かも?- @mohzeki222

アンサンブル学習法(三人寄れば文殊の知恵)のBoostingによる特徴量選択法を利用して量子アニーリングマシンにより他の手法よりも有効であることを示した。

2017-06-27 18:11:45
Masayuki Ohzeki@雑談方程式-それって人生変えちゃう授業かも?- @mohzeki222

ここで重みの部分が二値なのでイジングマシンに乗せることができるところが重要。(先ほどのQxBranchの重みをスピンを多重化して連続値にする方法を採用しても良いかも)

2017-06-27 18:14:19