• One Life. FunLife.

現在、ARを体験したり、操作したりするためにはいくつかの手法が主に使われています。

 

それが

コントローラ
身振り手振り
音声

 

です。

 

でも、ARっていう技術自体が新しいものなのに、それを操作する方法が変わらず今まで通りの古い方法で良いのでしょうか。

 

もっと人間に合った、ユーザーに楽な形の操作方法があるのではないでしょうか。

 

まずは、現状ある操作方法とそれをARデバイスで使った際のデメリットを見ていきます。

 

 

デメリット

コントローラ

これは入力方式としてはテレビ、ゲーム、エアコン、電気まで、「リモコンを押す」という行為が現代では定着していりますよね。

 

でもARを体験しているときは…

 

わざわざディスプレイをHMDという形で頭に/目の前に持って来ているのに、コントローラで手を塞いでしまってはARの意味、フルポテンシャルを体験できないように思います。

 

やはりAR体験はハンズフリーが絶対なのではないでしょうか!

 

身振り手振り

Video GIF - Find & Share on GIPHY

 

これはスマホの操作に似ていますね。

何かを拡大したい場合は指を離す動作をして拡大、つまむ様な動きで縮小、など、体/もしくは手、指のアクションに意味を持たせて、HMDに指示をだす言語を作り上げるイメージです。

 

Hololensでは指先を全て合わせて、そこから花開く様に指をパーの形にすることで「ブルーム」という操作、メニュー画面が開いたりします。

 

動き、アクション自体が機械側の反応簡単に結びつくアクションであれば覚えやすいかもしれません。

 

でも他人から見たら…

 

     間違いなく変人

 

 

 

ARは現実世界に追加情報を映し出す技術、部屋の中にこもってゲームをするとはわけが違います!

やはり、外出先で変な動きをずっとしているのは避けたいですよね!

 

 

音声

 

これは、身振り手振りと一緒で、外でモゴモゴ独り言…ってのも格好悪いですね~

しかも賑やかな場所では、機械側が中々聞き取ってくれないなどの問題が目に見えております。

 

花火大会中に「メニュー!」 「アルバム!」なんて叫んでいられません。周りの人にも迷惑かもですね…

 

 

うーん

 

じゃあどーするの?

 

 

 

 

未来の入力方式、インプットはズバリ!

 

です!

(きっと、多分)

 

 

眼入力

実は、創業前のブログにもこの入力方式については触れていました!

 

コレヤバイ!:目力。。。アイフルエンス!

 

Eyefluenceは目のトラッキングに特化した会社で、投資家から2,160万ドル(約22億円)を集めていました。しかも昨年10月にGoogleに買収されている様です。

買収金額は非公開となっております。

Googleもこの眼入力を本気で検討しているという事になりますよね!

 

現在の技術でも眼だけでメニュー画面やアプリの起動、映像や写真のパン、ズーム、スクロールなどができます。

更に!ユーザーの感情も読み取れると言います。

この技術がHMDなどに搭載されると、腕を振り回したり、独り言の様に機械に話しかけたり、コントローラを持ち歩き、手を塞ぐこともないですよね!

一番実現して欲しい技術です!

 

他にも研究されている入力方法があります。

耳入力

耳?たまに前後にピクピク動かせる人いますよねw
でもその必要はないのです。

表情を読み取って、操作できるイヤホン

なので、耳入力というより表情入力になるのでしょうか。

イヤホンを耳に入れているだけで

笑顔
ウィンク
口をすぼめる
口を開ける
首を横に振る

5つの動きを90%の正確さで読み取れるそうです!

これができれば表情だけで電話に出たり、チャット画面開いたり、音楽の再生、停止などができますよね!

 

でも…私生活の普通の表情と入力したい時の表情って見分けつくのかな…

 

 

 

いかがでしょうか。

未来の入力方法について少しイメージが湧きませんか?

 

 

 

どんな入力でもできるのなら、どの手法がいいですか?
脳波?眼?表情?ヒザ?w
こんな形の入力ができたら楽しそう!ってアイディアあったら是非

 

参考:

アイフルエンス-google 買収
https://techcrunch.com/2016/10/24/google-buys-eyefluence-eye-tracking-startup/
表情でコントロールするイヤホン
http://www.theverge.com/circuitbreaker/2017/4/7/15217118/earbuds-detect-facial-expression-denys-matthies-earfieldsensing?__prclt=JdghPLTj



コメント一覧

返信2017-04-12 9:34 PM

匿名18/

目入力の場合、義眼や目の不自由な方でも対応できるのか?気になります。 個人的には脳波。話すスピードで念じればいいだけだから早そう

    返信2017-04-13 8:28 AM

    Jimmy18/

    確かに!義眼の方や、目の不自由なかた向けには違う入力方法が必要ですね! やっぱりそういう場合は対応できるまでは音声入力になるのか… 脳波入力も研究されてるみたいですよ! https://next.reality.news/news/neurable-planning-bring-brainwave-controls-ar-headsets-later-year-0176944/ この記事では今年中に実用化を目指しているそうです! ドンドン進歩していきますね!

コメントを残す

メールアドレスが公開されることはありません。

CAPTCHA