ウェアラブルテクノロジー(Google GlassなどのヘッドアップディスプレイやPebbleなどのスマートウォッチが大部分を占める)の性質を考慮した幅広い質問ですが、そのようなテクノロジーのユーザーエクスペリエンスガイダンスはどのようなものですか?
私は彼らが次のようなものに沿って形を取り始めると思います...
- デバイスが "fits"着用者(ユーザー)であることを確認し、その逆ではないことを確認します。確立されたユーザータスクの動作を変更する必要はありません(たとえば、時計をちらりと見たりGlassを確認する方法を知っています)。
- nobtrusiveのエクスペリエンスをデザインして、身につけて使用する(つまり、ネイティブを怖がらない!)。
- タスクの完了(スマートフォン、ウェアラブル、デスクトップ)の複数デバイスの統合を想定します。つまり、この使用状況に最適化されたUIは、タスクフローの他の場所にある他のUIによって補完される可能性があります。
- 操作にはnaturalジェスチャーとアクションを使用します(Glassで下にスワイプすると「戻るボタン」、または時計をタップすると思います)。
- 統合オブジェクトのキャプチャ、コンテキスト、および共有のためのテクノロジー(QRコード、画像またはビデオ用のカメラ、Voice-to-Text、拡張現実、GPS)。
- visualizationsおよび図像simplyを一貫して使用します(LEDライトアップ、ダッシュボード、情報カード、ドリルダウンなど)。
- 重要な情報表示のみ、最低限を提供します。
- 有効パーソナライゼーション(時計の通知とアラートを選択してください)。
- さまざまなモダリティの使用を許可(Glassでの音声またはジェスチャー、画像をキャプチャするためのウィンク、およびキャプチャするための「OK、Glass ...」音声コマンドアプローチ)。