輪講まとめ

僕の参加した研究に関する輪講Tweetをまとめています.
0
IGAKI Hiroshi @hirocell

#rinko A Virtual Agent for a Cooking Navigation System Using Augmented Reality

2010-06-21 13:28:10
IGAKI Hiroshi @hirocell

#rinko ユビキタス環境での生活サポートシステムの一つとして料理ガイドシステムにARを適用.

2010-06-21 13:29:17
IGAKI Hiroshi @hirocell

#rinko 料理の進み具合を認識し,状況に応じたコンテンツを提供するシステム.映像とテキストだけを利用するものが多い.

2010-06-21 13:30:10
IGAKI Hiroshi @hirocell

#rinko ユーザの行動を認識し,料理をスムースかつ楽しくできるようにすることを目的とし,仮想エージェントを実現する.

2010-06-21 13:31:25
IGAKI Hiroshi @hirocell

#rinko 既存研究1:音声合成を利用したエージェント.手順読み上げのみ.既存研究2:ロボットを使用した料理ガイドシステム.利用者の動作をシンプルながら予測する?ただ,非常にシンプルなもののみ.

2010-06-21 13:38:10
IGAKI Hiroshi @hirocell

#rinko 既存研究2.mixed realityを用いたクッキングサポートシステム.エージェントとシステムインタフェースの詳細の説明はない.

2010-06-21 13:39:26
IGAKI Hiroshi @hirocell

#rinko ユーザの振る舞いをセンサが取得し,Task Controllerが料理状態を検知,Interaction controllerが動画,テキスト(レシピ関係)および仮想エージェントをユーザに対して提示する.

2010-06-21 13:40:41
IGAKI Hiroshi @hirocell

#rinko Task Controllerは料理の状態遷移モデルとセンサを利用して認識する.センサ環境として,カメラを3台,皿につけられたARマーカ(皿の位置を検知するマーカーと皿の上にものが載っているかを検知するマーカ),ナイフの有無を検知するセンサを利用する.

2010-06-21 13:43:30
IGAKI Hiroshi @hirocell

#rinko レシピごとに料理の状態遷移モデルを構築する.例:卵をボウルに入れ,キッチンのワークトップにおく->ボウルに砂糖を加える->塩をボウルに加える->フライパンにオイルを加え,ヒーターの火をつける->...

2010-06-21 13:45:26
IGAKI Hiroshi @hirocell

#rinko 仮想エージェントは行う調理の内容に応じて振る舞いが変わる.例:カットのタイミングでは持っている人参を振り下ろす.微妙に萌絵なのがポイントかっw

2010-06-21 13:47:22
IGAKI Hiroshi @hirocell

#rinko その他の仮想エージェントの機能として,ユーザへの応援ややけどに気をつけて,といった注意喚起を行う.また,ユーザの動きの素早さにあわせてエージェントの動きも素早くなる.

2010-06-21 13:49:03
IGAKI Hiroshi @hirocell

#rinko ユーザは装着型カメラを胸部に付けている.キッチンのワークトップには各所にマーカがあり,その装着型カメラで撮影された箇所に仮想エージェントがDisplay上に表示される.ユーザの視界とDisplay上の視界をあわせることで,Displayを見ながら料理ができる

2010-06-21 13:50:36
IGAKI Hiroshi @hirocell

#rinko UIの説明:料理の動画およびテキスト説明が表示される.さらに,料理の材料を投入すると(持ち上げると)それを投入したことが画面に表示される.

2010-06-21 13:52:50
IGAKI Hiroshi @hirocell

#rinko 実際に白あえや玉子焼きといった3種類の料理を対象にデモンストレーションを実施.仮想エージェントがユーザ行動と連動することが確認できた.

2010-06-21 13:56:24
IGAKI Hiroshi @hirocell

#rinko 思ったよりよくできてるなぁ.

2010-06-21 13:56:55