Image Credit:Apple Vision Pro Supports Virtual Typing, Navigation Through Hand Gestures and Eye Movements

Appleの新製品、Vision Proヘッドセットのナビゲーション方法について、手のジェスチャーや目での動き、音声でのコマンドなどを使います。例えば、目で画面を見て、指をタップして選択することができます。また、フリックすることでスクロールができ、小さな動きで操作できます。音声での入力もでき、Siriボイスコマンドを使ってアプリを開いたり、曲を再生したりすることができます。操作方法は、従来のヘッドセットと異なるため、慣れるまでに時間がかかるかもしれません。また、タイピングにはiPhoneまたはBluetoothキーボードが使えます。ホーム画面に似たHome Viewにより、既存のiPhoneやiPadを使ったことのある人には馴染みやすいインターフェースになっています。


Pexelsによる写真提供

何年にもわたって、AppleのVision Proヘッドセットに関する噂が広まってきましたが、どのように制御されるのかははっきりしませんでした。初期の噂では制御装置があるとされましたが、その後、手のジェスチャーの話に移り、結局Appleはそのような方法を選択しました。Apple Vision Proでは、手のジェスチャー、目の動き、口頭コマンドでナビゲーションすることができます。例えば、ディスプレイ上のものを見てそれを選択することもでき、指をタップして選択できます。スクロールは簡単なフリックで行い、小さな動きしか必要ありません。検索欄のマイクボタンを見て、話すことで文章を入力することができ、Siriの音声コマンドを使用してアプリを開いたり、曲を再生したりすることができます。レビューアーは、Vision Proのナビゲーション体験には慣れるまで時間がかかると述べています。マーケットにあるほとんどの他のヘッドセットは、何らかの手持ちの制御機構を使用していますので、ジェスチャーに基づく制御システムはほとんどの人にとって不慣れなものになるでしょう。入力は、接続されたiPhoneまたはBluetoothキーボードで行うことができますが、仮想キーボードを使ってタイピングすることもでき、代替として音声入力を使用することもできます。インターフェースは多くの人にとって慣れるのが難しいかもしれませんが、iPhoneまたはiPadを使ったことがある人にとっては、アプリのレイアウトやナビゲーションはすぐに認識できるでしょう。アプリは「ホームビュー」に配置され、ホームスクリーンに似たレイアウトになっているため、すべてが不慣れというわけではありません。

引用元記事はこちら
Apple Vision Pro Supports Virtual Typing, Navigation Through Hand Gestures and Eye Movements

error: Content is protected !!