アカウント名:
パスワード:
いちいちスマホや携帯を取り出すという手間が減るくらいにしか思えない。恐らくキラーコンテンツなりアプリが出てくるんだろうけど。
でもこのワンクッションが減るのは、なれたら戻れないかもしれない。フリック入力に慣れたら、従来のポチポチ入力には戻れないのと似てるかもしれない。
こういうのってどうやって画面のリンク押したりするんですかね。結局、スマホの画面さわて操作することになるのかなー、という気がします。音声?
Googleが公開してるデモビデオだとポインタは出てこないですね。音声と、こめかみのボタン、トラックパッドのスワイプジェスチャのみです。これ用のAPIを作ってクラウドでどうこうとかなんとか。インターネットにどうやって繋ぐのかが謎。
カメラついてるから、手でジェスチャーとか。余分な反応しない様に、指輪とかブレスレットみたいなデバイスを装着した手のみ反応とか。後は音声も補助的に使うとか。オペレーターズサイドを思いだしました
まあ、頭を振ってキャンセルでいいかな。端から見たらきもい動きをして、なんだかぶつぶつ言ってる危ない人ですね、これじゃ
例えば、舌や眼球の動きでポインタを操作できるとよいですね。操作したい場合⇔操作したくない場合を切り替えるときやクリックするときにどういう挙動にするかは考えないといけませんが。眼球より舌のほうが複雑な操作ができそうですけど、その場合は舌に何か埋め込まないといけないですかね。あるいは、いっそのこと脳波を読み取って操作とか。
眼球の動きと瞬きで充分できそうだな。おそらく時間プロファイルで意識的な瞬きの識別くらい可能だろうから、視点をキーに置いて「1瞬きで1入力」は慣れると高速に出来そう。
逆に、そういう操作が必要な使い方には向かないのじゃないかな。AR的にオーバーラップでの情報の付加みたいなのに使う方が良さげ。
現実的には、複雑なことをするときの補助としてスマホが用意されると思う。CPUとGPUとメモリと各種センサーと無線チップとバッテリーを積んだから結局のところ嫌でもスマホ並の大きさになるし・・・つまり、少なくとも当初は、Glass は「カメラ+モニター+一部入力デバイス」くらいの位置づけ。って考えておくのが現実的かと思う。音声もあると思うが、ぶっちゃけ Siri 程度が関の山。
それ自身に Android は入るにせよ、シームレスなARデバイスくらいじゃない?それでも画期的だと思うがね。まだまだそれを超えないとは思う。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
Stay hungry, Stay foolish. -- Steven Paul Jobs
ワンクッション減るくらいにしか思ってないが (スコア:4, すばらしい洞察)
いちいちスマホや携帯を取り出す
という手間が減るくらいにしか思えない。
恐らくキラーコンテンツなりアプリが出てくるんだろうけど。
でもこのワンクッションが減るのは、なれたら戻れないかもしれない。
フリック入力に慣れたら、従来のポチポチ入力には戻れないのと似てるかもしれない。
Re:ワンクッション減るくらいにしか思ってないが (スコア:0)
こういうのってどうやって画面のリンク押したりするんですかね。
結局、スマホの画面さわて操作することになるのかなー、という気がします。
音声?
Re:ワンクッション減るくらいにしか思ってないが (スコア:3)
Googleが公開してるデモビデオだとポインタは出てこないですね。音声と、こめかみのボタン、トラックパッドのスワイプジェスチャのみです。これ用のAPIを作ってクラウドでどうこうとかなんとか。インターネットにどうやって繋ぐのかが謎。
Re:ワンクッション減るくらいにしか思ってないが (スコア:2)
こめかみのボタンを押すと,アクション待機になって,
AR上のアイコンを触るような動作をするとアイコンがクリックされるとか。
これなら,AR上にバーチャルキーボードを表示することも可能だし,
ちょっと近未来っぽいね。
ただ,何らかの手段で距離を認識する必要はあるけど。
そこいらは,たぶん現行のgoogle grassにはたぶんないよね。
Re:ワンクッション減るくらいにしか思ってないが (スコア:2)
カメラついてるから、手でジェスチャーとか。
余分な反応しない様に、指輪とかブレスレットみたいなデバイスを装着した手のみ反応とか。
後は音声も補助的に使うとか。
オペレーターズサイドを思いだしました
まあ、頭を振ってキャンセルでいいかな。
端から見たらきもい動きをして、なんだかぶつぶつ言ってる危ない人ですね、これじゃ
Re:ワンクッション減るくらいにしか思ってないが (スコア:2)
例えば、舌や眼球の動きでポインタを操作できるとよいですね。操作したい場合⇔操作したくない場合を切り替えるときやクリックするときにどういう挙動にするかは考えないといけませんが。眼球より舌のほうが複雑な操作ができそうですけど、その場合は舌に何か埋め込まないといけないですかね。あるいは、いっそのこと脳波を読み取って操作とか。
Re:ワンクッション減るくらいにしか思ってないが (スコア:1)
眼球の動きと瞬きで充分できそうだな。
おそらく時間プロファイルで意識的な瞬きの識別くらい可能だろうから、視点をキーに置いて「1瞬きで1入力」は慣れると高速に出来そう。
the.ACount
Re:ワンクッション減るくらいにしか思ってないが (スコア:1)
https://www.leapmotion.com
(ほんとに出るのかな?)
Re: (スコア:0)
逆に、そういう操作が必要な使い方には向かないのじゃないかな。
AR的にオーバーラップでの情報の付加みたいなのに使う方が良さげ。
Re: (スコア:0)
現実的には、複雑なことをするときの補助としてスマホが用意されると思う。CPUとGPUとメモリと各種センサーと無線チップとバッテリーを積んだから結局のところ嫌でもスマホ並の大きさになるし・・・つまり、少なくとも当初は、Glass は「カメラ+モニター+一部入力デバイス」くらいの位置づけ。って考えておくのが現実的かと思う。音声もあると思うが、ぶっちゃけ Siri 程度が関の山。
それ自身に Android は入るにせよ、シームレスなARデバイスくらいじゃない?
それでも画期的だと思うがね。
まだまだそれを超えないとは思う。