CSUN Conference 2015 日本語ツイートまとめ.
- hariktriam
- 3826
- 0
- 1
- 21
続)ムービーへの字幕機能の他,Audio description的な機能もある.この詳細読み上げ機能では,動画が流れている時に,逐次セリフの無い所で,詳細な内容を読み上げるというもの.読み上げ追加はメタデータから取り出し. なお,どうやら拡大窓では,Altテキストも表示可能な模様
2015-03-05 04:35:52続)メタデータは,クラウドを通じたリクエストがあり次第,ボランティアや動画作成者,Disability serviceの人などに作ってもらう.authoring部分は現状では課題.何人かのボランティアに見てもらう.このメタデータは動画外に保存される.
2015-03-05 04:41:55続)SCORM,EPUB,PDF,Videoデータにこれらメタデータ閲覧機能・追加機能が入る.Moodle的なボランティア用のメタデータ作成ページもある模様.CSSの色調整(青背景,黄文字),拡大,音声なども動作チェックが出来たりする.
2015-03-05 04:45:04EMP-089 J.Nurthen, M.King, "Future plans for W3C WAI-ARIA authoring practices guide" APG: planned W3C WG (Consensus) Note, not a standard.
2015-03-05 06:23:25続)APGはWidgets, navigationなどのアクセシビリティ改善が現状の目的.2013/03にDraftが出されて,2014/10にタスクフォースmtgが毎週実施,2015/03にnew snapshotが出る予定.今回はHTML5の策定に伴うリッチコンテンツ対応狙い
2015-03-05 06:26:26続)WAI-ARIAの資料は多くの人が見れるようになってないのでこれから広げたい.物理の図のdynamic動画をアクセシブルにする方針なども盛り込みたい.ただし,ARIAに沿い過ぎると整然とbusyな感じになる.どこまで適用してもらう作りにするか.
2015-03-05 06:35:46続)現状の課題:ウェブデザインの急速な進展,デザインパタンの多様性への対応,実践データの不足,その他(人材開発など).コード例が分かりにくい,様々なATで読めるように対応すること,タッチスクリーン側がまれなジェスチャを求めるなどなど.
2015-03-05 06:46:28続)協力方法:Task forceに参加,file bugを報告(w3.org/Bugs/Public/),Editorial draftを確認(rawgit.com/w3c/aria/maste…),github上でのsample codeを書く,何が必要かの情報を共有.
2015-03-05 06:50:38続)Q.サーチエリアがあまりアクセシブルになってないが対応は? A.サーチボックス中で完結できるように作るのが良いのでは?ボタンを押さないと検索できない形式は避ける.
2015-03-05 06:54:41続)会場が広くて質問が一部聞き取れなかったが,サンプルコード対応に大分苦慮されている模様.jQueryとかは使いやすい一方で,jQuery UIは全くアクセシブルでないなど(スクリーンリーダで読めない系). jQuery UI無しでドロワーとかタブとか作るのは難儀しそうだしな….
2015-03-05 07:10:16IND-010 S.Alam et al., "O'Map: Assistive solution for identifying & localizing objects" スマートフォンベースの自身の持ち物用マップ.物の写真を撮って位置を記録,その物の方向にガイドしてくれる.
2015-03-05 07:31:46続)UX的には自身でアイテム登録し,探したいアイテムを指定しすると,大体の距離を測ってくれる.やり方は画像ベース.アイテムはRANSACで写真撮影とともに認識.事前にパノラマ画像を20度ごとに作って参照用画像とする.VoiceOverでも動く.距離計測はステレオカメラ法に基づく.
2015-03-05 07:45:34続)アイテムごとに認識時間がだいぶ異なる.物が小さいと時間かかる.システム評価は,30アイテムあるRGB-Dのデータ,パノラマ写真(RMSE 3.78)を撮って,マップ構成.Quad coreのXeon,メモリ6GBの64bit Winで60-84% CPU使用.処理重い.
2015-03-05 07:52:07続)結果を返すのに25-40秒.正確さは95%位. UXの所を補足.自身でアイテム登録⇒探したいアイテムを指定⇒カメラ起動(必要に応じてクルッと回る)⇒物品をマッチング⇒見つけたら使用者の動きに応じて方角を読み上げ⇒使用者の大体の距離を測ってくれるので読み上げ.という感じか.
2015-03-05 07:55:28TRN-01 A.Ganz et al. "PERCEPT: interactive way finding for visually impaired users in subways" スマートフォンで視覚障害者の地下鉄ナビ.Talkbackで音声読上げ.ロゴのCの所が目の形
2015-03-05 08:25:29続)評価に当たって,MBTA subwayのArlington駅に対応した実装.PERCEPTはSpaceとスマホアプリの2つで構成.前者はNFCタグ.これらを駅中に設置して駅マップ構成.設置に当たりADAガイドラインに沿ったらしい.NFCはスマホアプリはNFCを基に音声読み上げ
2015-03-05 08:35:13続)スマホアプリ側はAndroid版で,Google PlayからDL可能.iOSのVoiceOverと同じようなジェスチャで操作可能.NFCタグは数cm位で反応する形式の模様(Suica位の距離).その後Start a journeyを選択して,行き先を指定すると音声ナビ開始.
2015-03-05 08:44:43続)NFCタグがある地点ごとに,タグを読んでからNext instructionボタンを押して次を読み上げ.タグに接触させないといけないのが難点かな. 評価にあたっては,最初5人の視覚障害者(極端に地下鉄に乗るのを恐れる)+インストラクターで評価.その後アンケートでUI評価.
2015-03-05 08:52:50続)結果を基にアプリを改良.入口や行き先のリマインダなどを追加し,一部modify.その後で再度別の6人の視覚障害者で評価.8.29/10というスコア.大体10-30分位で目的地に着けたとの事. この他,事前行き先確認用のオプションもあるそうな(これならタグに触る必要はない).
2015-03-05 08:56:563/5(木)
IND-026 K. Okuno, et al. "Smartphone-based talking navigation system for walking training" スマホで動く全盲者向け歩行訓練システム.産総研の研究.PDR/BLE/GPS/QZSSでナビする.
2015-03-06 01:06:32