iStock_26418751_LARGE (1)
Articles in this issue reproduced from MIT Technology Review
Copyright ©2016, All Rights Reserved.
MIT Technology Review. www.technologyreview.com
Translation Copyright ©2016, NewsPicks, Inc.

視線をリアルタイムに判断

視線追跡機能をスマートフォンに組み込むには、正確性はもちろんのこと、低コストかつコンパクトであることが必要だ。

その実現のため、ある研究者グループがクラウドソーシングを活用して人の視線の画像情報を集め、どこを見ているのかをリアルタイムで判断する方法をモバイルソフトウェアに学習させている。

このプロジェクトに取り組んでいるのは、マサチューセッツ工科大学(MIT)やジョージア大学、マックス・プランク情報科学研究所の研究者たちだ。彼らによると、現時点でソフトウェアが学習できるのは「人がどこを見ているか」を特定することだ。

精度はスマートフォンで約1センチメートル、タブレットで1.7センチメートルだという。スマートフォンの画面の大きさを考慮すれば、この数字では正確さに乏しい。

「民生用アプリケーションに使うとしても十分な精度ではない」と説明するのは、MITの大学院生で2016年6月末開催のコンピュータービジョン学会で発表された論文の共著者アーディティア・コースラだ。

だが、多くのデータがあればこのシステムの正確性は改善できると同氏は考えている。もし改善できれば、視線追跡は大幅に普及し、使い易くなるだろう。

一般的に視線追跡機能は高価で特別なハードウェアを必要とするため、携帯電話やタブレットのようなデバイスに機能を簡単に追加することができなかった。このテクノロジーを使えば、タップやスワイプをすることなくスマートフォンでゲームを楽しむことができる。

医療診断への応用に期待

プロジェクトは「GazeCapture」(ゲイズ・キャプチャー)というiPhoneアプリの開発に取りかかった。研究室の外の異なる環境で人がどのように携帯画面を見ているかという情報を収集するアプリだ。

スマートフォンの画面に表れる点滅する丸い画像を見ていると、携帯電話のフロントカメラがユーザーの視線を記録する。ユーザーが集中して見ているかを確認するため「L」と「R」の文字が点の中に表示され、ユーザーは文字に応じて画面の左側か右側をタップする。

GazeCaptureの情報を使って「iTracker」(アイトラッカー)というソフトウェアに学習させる。このソフトウェアもiPhone上で動作するものだ。iPhoneのカメラが顔をとらえ、ソフトウェアが顔や目の位置や方向などを判断し、画面のどこに視線が集中するかを把握する仕組みだ。

コースラによると、これまでに約1,500名がGazeCaptureを使用したという。1万人のデータを集めることができれば、iTrackerの誤差を0.5センチメートルまで下げることができる。視線追跡アプリとしては十分だろう。

コースラはこの技術を特に医療診断に使えるのではないかと期待している。統合失調症や脳しんとうなどの症状を診断するために目の動きを使う研究がいくつか行われている。

モバイルデバイス上でうまく動作すれば、iTrackerは「非常に」有益だと考えるのは、クレムゾン大学で視線追跡を研究するアンドリュー・ドチョウスキー教授だ。だがその場合、処理速度が速く、電池を大きく消耗しないことが必要だと忠告している。

同氏はこのソフトウェアで画素レベルの精度が可能になるとは思っていないが、「それでも十分だ」と述べた。

原文はこちら(英語)。

(原文筆者:Rachel Metz、翻訳:山口桐子、写真:stgutiez/iStock)

This article was produced in conjuction with IBM.