タッチスクリーンの代替としての人体

自分の身体へのタッチはどこに触れているかを正確に感じ取れるが、これはどんな外部機器にも勝るフィードバックである。そのうえ、自分の身体を置き忘れることは決してない。

新しいユーザーインタフェースには、今のユーザーエクスペリエンスの中心となっているフラットなコンピュータ画面を超越しているものが多い。例えば、MicrosoftのKinectは部屋全体をインタラクションスペースに変えるが、そこではユーザーの身体の動きがシステムのコマンドになる。拡張現実システム(いくつかのGoogle Glassアプリケーションのような)ではそのアウトプットを現実の物体の上に投影するが、例としては、整備士が見やすくするための温度表示を利用した飛行機のエンジン部品の色分けが挙げられる。

先般、パリで開かれたCHI 2013研究会議で、特に感銘を受けたのは、人間の身体自体をユーザーインタフェースの組み込みコンポーネントとして利用する2つのアイデアである。ユーザー自身の身体というのは、ある重要な側面に関して、他のすべての機器にはない特徴がある。それは、身体はタッチされたことを感じ取ることができる、ということである。

このタッチされている(あるいはタッチされていない)という感覚は、今、何が起こっているかという情報をユーザーに継続的に伝える重要なフィードバックとなる。フィードバックは最も古くからある最重要のユーザビリティのヒューリスティックスの1つであるため、フィードバックの向上は、たいていの場合は好ましいと言える。

入力機器としての手

ドイツのHasso Plattner InstituteのSean GustafsonとBernhard Rabe、Patrick Baudischがデザインしたのは、ユーザーの手のひらの中に配置される、いわゆる架空インタフェースである。このUIを「架空」と言うのは、現実には裸の手以外にそこには何もないからである。下の写真は、どのように架空の「携帯電話」をユーザーの左手に当てはめるかを示している。各ポイントにタッチすると、特定のモバイル機能が起動し、コンピュータの音声によるアナウンスが流れることになる。

自分自身の手の特定の場所にタッチして、コマンドを入力する。

このシステムを実際に機能させるには、イヤホンを利用する等、ユーザーがコンピュータの音声を聞き取るための何らかの手段が必要である。また、さらに重要なこととして、ユーザーが手のどの部分にタッチしているかをコンピュータが知るための手段も必要になる。Gustafsonの研究用プロトタイプでは、現実のアプリケーションとしてはかなり不格好と思われる光学式モーショントラッカーを使って、これを行っていた。しかし、その点については問題ないだろう。ジェスチャー認識がもっと持ち運びやすく、邪魔にならないように進化するであろうことは容易に想像できるからである。

当分の間、手による電話を買うのは無理だろうが、ユーザーが画面の代わりに自分にタッチするインタフェースの可能性について考えてみるのが興味深いことであるのは間違いない。

Gustafsonと同僚らは、彼らのセルフタッチ式UIを人々がどれだけうまく利用できるかを判断するための面白い実験をいくつか行っている。通常の利用条件では、普通のタッチスクリーン型携帯と手のひらベースのシステムにおいて、人々は各機能の選択をほぼ同じくらいの速さで行った。しかしながら、目隠しをされたユーザーの自分にタッチするときの速さは、携帯電話のガラス面にタッチするときのほぼ2倍だった。

ユーザーに目隠しをしたいと思っているわけでないが、視力のない状態での利用についての情報というのは、アクセシビリティ上の観点や電話を見ることができない状況のことを考えると興味深い。

目隠しをしての利用についての調査結果でもっとも興味深いのは、電話ではなく、手にタッチするというのは何か特別だということだ。ユーザーはそこでは視覚にあまり頼らなくなるのである。その理由を探り出すため、研究者らは以下のいくつかの条件について追加でテストを行っている:

  • 堅い1枚ガラスではなく、タッチすると触覚フィードバックのある携帯電話。触覚で感知できる携帯電話を使うと、ユーザーの速さは17%向上した。しかし、調査のサンプルサイズを考えると、この差は統計的には有意ではない。
  • ユーザーに指カバーを装着させ、指の触覚を奪った。この条件では目立つほどの差は出なかった。
  • ユーザーを自分の手ではなく、模造した手にタッチさせることで、手のひらの触覚を奪った。この条件ではユーザーの速さは30%低下した。

この調査結果をまとめると、手を「タッチスクリーン」として利用することの重要なメリットが、いつどこにタッチされたかを感じ取ることができることにあるとわかる。実際のところ、それこそが自分の身体を入力機器として利用することの他にはないメリットであって、そのメリットを外部機器が真似ることは不可能である。

入力機器としての耳

通常、我々は耳を聴くために利用する。ヒューマンコンピュータインタラクションの用語で言うと、耳はコンピュータからの出力を実行するために利用される、ということになる。

しかし、耳の表面に出ている部分はユーザーからコンピュータへのコマンドを伝える入力にも利用可能である

(こちらもドイツにある)Technical University of DarmstadtのRoman LissermannとJochen Huber、Aristotelis Hadjakos、Max Mühlhäuserが発表したのは、「EarPut」と名付けられたそれを行うための研究用プロトタイプである。ここでとりわけメリットになるのは、耳は常に同じ場所にあるということだ。その結果、耳は手に比べれば多少さりげなくタッチすることが可能である。

ここで考えられるインタラクションには以下のようなものがある:

  • シングルタッチかマルチタッチで、耳の外側部分をタッチすること。
  • 耳たぶを引っ張ること。このインタラクションが特に向いているのは音楽プレイヤーをミュートにするといったオンオフコマンドである。
  • 耳の外周に沿って、指を上下にスライドさせること。これはボリュームの大小の調節に役立つだろう。
  • 耳を覆うこと。これが「ミュート」のための自然なジェスチャーであることは間違いない。

シングルタッチによるシンプルなインタラクションにおいて、どのくらい正確に自分の耳にタッチできるかを測定するため、Lissermannと同僚らは器具を27人のユーザーの耳に取りつけた。彼らが耳の外周エリアを2つだけに分割したときには、参加者の正確さは99%に達した。しかしながら、分割したエリアが3つに増えると、正確さは大幅に下降した。耳の上部か下部をタッチするというのは正確にできても、その中間をタッチする場合の正確さは63%に過ぎなかったのである。

63%の正確さと聞くと悪くないようだが、結局のところ、半分よりはまし、というだけであって、ほとんどのユーザーインタフェースのコマンドにとっては受け入れがたい数字である。Eメールの最も一般的な3個のコマンド、差出人へ返信、全員へ返信、転送を、耳を使って起動したらどうなるかを考えてみてほしい。3分の1の確率で宛先を間違うメッセージを送りたくはないだろう。

この調査が示すように、耳駆動型の入力が最適なのは、コマンドの数がごく限られている状況である。また、間違って隣のコマンドを実行してしまっても、大して問題にならないようなアプリケーションには有益だろう。耳の外周を6分割したときでさえ、ユーザーの正確さはまずまずではあった。

Technical University of DarmstadtによるEarPutのプロトタイプ。

上の画像が示すように、この初期段階の研究でのハードウェアのプロトタイプは、スタートレックのボーグ(訳注:スタートレックに出てくる架空の機械生命体)をいくぶん連想させるものであり、謝礼付きの調査参加者でもなければ、付けたがる人はほとんどいないだろう。とはいえ、将来、ハードウェアがもっと小さく軽く洗練されたものになるであろうことは想像に難くない。

ユビキタスなユーザーインタフェース

ほとんど失敗のないフィードバックを提供する以外にも、身体の部位を入力機器として利用するには、明確なメリットがある。それは、機器としてのそれが、文字通り、常にあなたと共にあることである。あなたの身体はあなたそのものだからである。

そう、人は携帯電話を持ち歩くことも多いが、彼らも自分の手や耳を置いてくることは絶対にない。その結果、手や耳に割り当てられているシステム機能を置いてくることも絶対にないということになる。

もちろん、この記述が当てはまるのは、ユーザーの位置が、所定の身体部位にタッチしているタイミングをコンピュータに知らせるセンサーの範囲内である場合に限られる。そのため、耳に付ける小型の機器を必ず持ち歩く必要があるかもしれない。あるいは、最終的には、いつの日か、飲み込んだナノボット(訳注:超小型ロボット)を介して、身体ベースのインタラクションが可能になる可能性もある。周囲を監視カメラで埋め尽くすという選択肢もあるが。(少なくとも現時点では)プライバシー上の理由で多くの人がこれには反対するだろう。

こうした技術的障害が今後の課題としてあるとは言え、あと20年か30年したら、ユーザーインタフェースの少なくとも一部は身体ベースのものになっているのではないかと期待するのは理にかなっているだろう。

さらに学ぶ

関連記事