物理的環境のインタラクティブ化

微小なモーターとセンサーを利用すれば、物理的オブジェクトをインタラクティブなものにできる。これはジェスチャーによるユーザインタフェース(UI)の復興にもつながるだろう。インタフェースデザインが、画面から物質界へとその舞台を移行させるにつれて、シンプルで使いやすいデザインへのニーズはさらに高まるばかりだ。

1990年代にMicrosoftが生んだもっとも革新的な製品は、Interactive Barney だった。フラシ天でできたオモチャだが、これには、子供とインタラクションができるようなコンピュータが内蔵されていた。たとえば、Barney のつま先を握り締めると歌を歌い出すし、目を隠すと「いないいないばあ」を始めるといった具合だ。

遠からぬうちに、もっとたくさんの物理的オブジェクトがインタラクティブになるだろう。そこで採用されるユーザインターフェイスは、先駆けとなる Interactive Barney に見られたようなつま先を握るという原始的な形ではなく、もっと許容幅の広い、微妙なものになるだろう。

Barney を継ぐもの

NanoMuscle という企業では、非常に微細なモーターを製造している。従来の電気式モーターよりはるかに強力かつ小型でありながら、消費電力はごくわずかで、価格もずっと安い。こういったモーターのひとつの応用として、リアルな動きと顔の表情を備えたオモチャのキャラクターが考えられる。例えば Brian Aldiss の創作したスーパートイ Teddy を思い起こしていただきたい。これは Steven Spielberg の手により、映画 『A.I.』 で視覚化されている。

最近 NanoMuscle の CEO 、Rod MacGregor と夕食をともにしたが、その席上で、彼は他にもいくつか応用の可能性を示してくれた。その一例が、形状が変化するモバイル機器だ。異なった用途のある物理的製品なら、何も単一の形状にしばられている必要はない。例えば、電話をかける時には細長い形状が望ましいが、同じ機器でデータを閲覧する際には、四角い形状の方が便利だろう。

特に興奮させられたのは、小さなモーターを使えば、ジョイスティックやマウスといった入力機器に対して(ユーザのタッチ強度に応じた形での)力のフィードバックを返せるという点だ。コンピュータに限らず、もっと新しい、小型のコントロール手段についても同様だ。このような進歩が実現すれば、クリックしているオブジェクトの感じや、それをドラッグした場合に、ある境界線を越えたことなどを感触として伝えることができるだろう。もちろん、自動的に等間隔に整列する設定にしている場合には、ドラッグする時の感触がまったく違ったものになるだろう。

インターフェイスデザインの解放

30年近くの間、ユーザインターフェイスデザインは、グラフィカルユーザインターフェイスのデザインと定義されてきた。ユーザの選択肢に関する視覚的外観が重視されたのである。これらの選択肢を必要とするユーザは、マウスボタンでそれを叩くわけだ。ジェスチャーによるインターフェイスは、大幅に姿を消してしまった。世間では知る人も少ないヴァーチャルリアリティの調査とか、Apple Newton や Go タブレットなど、絶えて久しいペンベースのシステムに散見されるくらいだ。

物理的オブジェクトが、力やスピードに加えて、動きや握力といったもっと幅広いジェスチャーを理解してくれるようになれば、ユーザインターフェイスを画面から解放することができるだろう。さらに、当然ながら、コンピュータ側からのダイアログも、物理的に表現できるようになるだろう。動く人形が顔の表情で何かを表現できるようになれば、Boo や Ananova のプロジェクトで行われたように、単にGUIに表情を貼り付けただけのものより、ユーザインターフェイスとしてはずっと有望なものになるだろう。

ジェスチャーインターフェイスはまた、ビデオ会議にも新たな可能性をもたらしてくれる。物理的近傍現実(physically proximate reality = PPR)と同等の大きさ、鮮明さで遠隔地の参加者を再現するには、高解像度かつ等身大のコンピュータ画面が必要で、それなくしてビデオ会議の成功はありえないとこれまでは考えられてきた。小さな画面に出てきたのでは、会議での立場まで弱まってしまう。現在のビデオ会議は人形芝居のようだ。あなたが遠隔参加者なら、あなたが人形なのである。

ジェスチャーによるインターフェイスなら、遠隔地の参加者にも PPR による本当の実体を持たせることができる。ぬいぐるみのクマに話させる必要はないが、アニマトロニクス(訳注:動物や人間の動きをロボット工学によって再現する技法)で参加すればいいのだ。海外での講演が多い私のような人間なら、自分の物理的身代わりとして等身大のアバター(化身)に投資してもくれるだろう。これなら、実際の話は遠隔地からでも行える。

現状では、これまでに述べたことすべては、あまりにも SF じみた話だ。だが、インタラクションデザインを画面から解放するという傾向の一環として、ジェスチャーによるインターフェイスが復興する可能性は充分ある。

新たなるユーザビリティ課題

物理的インタラクションには、視覚的インタラクションと同じくらい優れたユーザビリティが求められるはずだ。単に、語法の形式がより自由度の高いものに変わっただけなのだから。インタラクションデザインの選択肢が増えれば、それだけユーザにとって使いにくくなる可能性も高くなるということだ。

Microsoft の Barney で考えてみよう。つま先を握り締めるなんて、どう考えてもいいデザインとはいえない。歌を歌うということとは、ほとんど何の関連性もないからだ。目隠しをして「いないいないばあ」というのは、ぐっとよい印象だ。このインタラクションコマンドは、Berney の全機能の中でもっともやさしい。その理由は? おそらくこれが非コマンド型ユーザインターフェイスの一例になっているせいだろう。コンピュータに「やれ」というのではなく、したいこと(「いないいないばあ」)をやってみせながらコンピュータを操作するわけだ。命令的なインタラクションスタイルは、従来のタスクの多くに適しているが、非コマンド型デザインの方がいいことも多い。うまくできれば、の話だが。

「うまく」やるというのが、当然ながら、ここでのキーフレーズとなる。非コマンド型ユーザインターフェイスをうまく作るには、ユーザのタスクと行動に関して、今以上に、より深い理解が必要になる。今のデザインは、かえってユーザのニーズの妨げになっていることも多い。

物理的インターフェイスには、グラフィカルユーザインタフェイス以上のシンプルさとユーザビリティが求められる。問題を抱えた GUI は確かに不愉快だ。だが、コンピュータ化した環境が劣悪で操作もしにくければ、当然ながら、結果は壊滅的となる。

2002年8月5日

公開: 2002年8月5日 (原文:2002年8月5日)
著者: Jakob Nielsen
原文:Making the Physical Environment Interactive

分類キーワード