アカウント名:
パスワード:
USB機器って、USBで標準化されてクラスドライバーで動くようにならないとLinux系OSで使えないようなことが、少数派ながら、ありますよね。
USBの普及に対して、USB-UVCの整備はちょっと遅れたけど今はクラスドライバーで使えるのが普通になっている。
実装はWindowsより遅れるんだろうけどそのうちクラスドライバーで使えるようになるとしたらまたラズパイの可能性が広がる!
Windowsって随分とUSB Audio Class 2の実装に手間取っていた。BluetoothもWindows8までまともなスタックが無かった。
Windowsの実装が早いという気はしない。
遅いのはたしかですが、手間取ってたのが原因でしょうかね?極端に難易度が高かったわけでもなさそうですけど...# 個人的には旧来のオーディオのドライバ(3rdパーティ)との整合性の問題なのかな、と# でも、それをもって「手間取った」ならたしかにそうかも
今回のこれはほぼ新規なのか旧来との整合性が必要かHIDは固有って多くないから、まあまあで出てくるかな
ただ、クラスドライバなら仕様は公開だし、べつにLinuxが遅いとはかぎらんのでそっちが先かもしれんけど、べつに競うわけじゃないし、いいか。
身体の状態の計測やゲーム用途などでは使えるかもしれないが、一般的なコントローラーとして普及することはないだろう。視線は無意識に動かしてしまうことが多すぎて、コントロールに使うにはそういったノイズ成分のフィルタリングが難しいのよ。
試しに、意識的にしばらく視点をある場所に固定しようとしてみ?結構精神的に疲れるでしょ。
使い方次第だと思いますけどね。ディスプレイ側に標準搭載されるようになれば色々なところで使われるようになるのでは。
tobiiはマウスをちょっと動かすと視線の先にワープする機能があるので、これなら横着できるかも精度はsmartnavがいいらしいが
だから、使い方次第。用途をゲームなどのごく狭い使い方に絞ったところでは使われるだろう。
視線認識なんて技術的にはとうに完成していて、最近何かのブレークスルーがあったとかいうわけではない。今回標準ドライバ作ろうという話になっただけ。
で、視線認識をコンピューター操作のUIとして利用しようというのは、だれでも一度は夢見てみる話で、結構いろんなところが「出す出す詐欺」をやったりしたものだが、いままで結局出てきてないのは上に描いたような理由で実用的ではなかったからよ。
つまり、視線をとるのは難しくない。だけと取得してみたら、視線は意外といろいろぶれていて、あちらこちらとひっきりなしにさまようものだった、という話。
既存のUIでも万能かつ身体的・精神的に疲れないというものは存在しないのでそんなに否定的になることはないと思います。
そして人間の適応能力は馬鹿にできません。
じゃあまあ、人間の適応能力とやらに期待して、永遠に待ってらっしゃいw
一番いいのは自分で開発してみることだよ。そうすれば人が作るのを延々と待っていることもない。
ぐぐれば、視線追跡システムの開発環境は、そこらのUSB接続の赤外線カメラと、オープンソースのソフトで揃えられるのが分かるだろう。そこまで誰でも試せて開発できるようにハードルが低くなってるのに、なぜいつまでたっても君のご希望に沿うようなものが出てこないのかというのは、自分でやってみればすぐ実感としてわかるはずw
視線追跡はPCをコントロールするためのポインティングデバイスとしては「筋が悪い」のよ。
無理じゃね。LinuxのBTはBlueZプロジェクトでやってるけど決して動きが早いわけでもなく。そして、Bluetooth関連はdbusから使うことになってるんだけど、RPi弄ってる人間でまともにdbus使えるのどれだけいる?
まあ気長に待て。
https://youtu.be/VHXx7XTPULE [youtu.be]まぁ見るかがり扱いはマウスレベルにしか過ぎないもので厳密にはHUDではないですね。視線をXY座標で返してくれるデバイスだと思いますけどヘッドトラッキングとは別で単純にゴーグルないに映像を表示させ、ゴーグルをないの映像上座標を返すだけの単純な仕組みなのかもしれませんね。
となるとボタンクリックのないマウスレベルとして認識されるのでしょうかね?まぶたでクリックがあるのかな?
いまデバイスそのものの話はしてないのでは?ただ、インタフェース規格としてみるなら、将来を見据えてXYだけじゃなく、フォーカス位置も扱えるようにしておいてほしいですね。デバイスが読み取れるようになるかどうかはともかく。
ディスプレイの下とか上にカメラ置いて、前に座ってる人の目線を検出するのが一般的な製品ですよ。既存製品の中では HUD とかは、かなり特殊な部類だと思います。
入力の補助として日常的に使ってます。細かい精度はないので、マウスのかわりにはなりません。いまは、視線の先のウインドウをフォアグランドに持ってくるのと、マウス移動と視線移動のタイミングが重なったら、視線の先の中央にマウスを移動するってだけにしか使っていないのですが、それが無い環境では不快になるくらいには便利です。
ハードウェアが2万近いので、そのためだけでは、おすすめできませんけどね。
例えば、何かグラフィックを描画するときに視線の向いている箇所だけ高精細に描画して周辺視野は手を抜いてGPUの負荷を軽くするとかできませんかね?レスポンスが十分早ければできそうな気がします。
HIDに入るとなればCV2にも載せやすくなりますね。遂に実現するのかな?
インターフェイスの規格なのでどう実装してどう使うかはある程度自由なんじゃないでしょうか。
Windowsでの標準化じゃなくてHID規格の標準化だよ。
それに従ってMicrosoftがWindowsでUSBドライバを作るが、コンシューマーもAppleもAndroidも規格に従ってドライバを作ればいい。
コンシューマーは何も悩ましくない。
規格化はユーザーを囲い込みたいハードウェアデバイスメーカー側にとって悩ましいんですよ。
そう思うなら、標準ドライバで動作しないハードウェアを作ればよいだけの話ではなくて?
コンシューマが何を悩むのかよく分からないんですが。
VRの話じゃないからwたまにはバイザー外して現実世界を歩いてこい。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
あと、僕は馬鹿なことをするのは嫌いですよ (わざとやるとき以外は)。-- Larry Wall
Raspberry Piで捗るのかな? (スコア:0)
USB機器って、USBで標準化されて
クラスドライバーで動くようにならないと
Linux系OSで使えないようなことが、少数派ながら、ありますよね。
USBの普及に対して、USB-UVCの整備はちょっと遅れたけど
今はクラスドライバーで使えるのが普通になっている。
実装はWindowsより遅れるんだろうけど
そのうちクラスドライバーで使えるようになるとしたら
またラズパイの可能性が広がる!
Re:Raspberry Piで捗るのかな? (スコア:1)
Windowsって随分とUSB Audio Class 2の実装に手間取っていた。
BluetoothもWindows8までまともなスタックが無かった。
Windowsの実装が早いという気はしない。
Re:Raspberry Piで捗るのかな? (スコア:1)
遅いのはたしかですが、手間取ってたのが原因でしょうかね?
極端に難易度が高かったわけでもなさそうですけど...
# 個人的には旧来のオーディオのドライバ(3rdパーティ)との整合性の問題なのかな、と
# でも、それをもって「手間取った」ならたしかにそうかも
今回のこれはほぼ新規なのか旧来との整合性が必要か
HIDは固有って多くないから、まあまあで出てくるかな
ただ、クラスドライバなら仕様は公開だし、べつにLinuxが遅いとはかぎらんのでそっちが先かもしれんけど、べつに競うわけじゃないし、いいか。
M-FalconSky (暑いか寒い)
Re: (スコア:0)
仕事でTobiiの視線測定グラスを使いましたが、デザインと測定性能も良かった記憶があります。
目線で操作するデバイスも、そう遠くないと思いました。
Re: (スコア:0)
身体の状態の計測やゲーム用途などでは使えるかもしれないが、一般的なコントローラーとして普及することはないだろう。
視線は無意識に動かしてしまうことが多すぎて、コントロールに使うにはそういったノイズ成分のフィルタリングが
難しいのよ。
試しに、意識的にしばらく視点をある場所に固定しようとしてみ?結構精神的に疲れるでしょ。
Re: (スコア:0)
使い方次第だと思いますけどね。
ディスプレイ側に標準搭載されるようになれば色々なところで使われるようになるのでは。
Re:Raspberry Piで捗るのかな? (スコア:1)
tobiiはマウスをちょっと動かすと視線の先にワープする機能があるので、これなら横着できるかも
精度はsmartnavがいいらしいが
Re: (スコア:0)
だから、使い方次第。用途をゲームなどのごく狭い使い方に絞ったところでは使われるだろう。
視線認識なんて技術的にはとうに完成していて、最近何かのブレークスルーがあったとかいうわけではない。
今回標準ドライバ作ろうという話になっただけ。
で、視線認識をコンピューター操作のUIとして利用しようというのは、だれでも一度は夢見てみる話で、
結構いろんなところが「出す出す詐欺」をやったりしたものだが、いままで結局出てきてないのは
上に描いたような理由で実用的ではなかったからよ。
つまり、視線をとるのは難しくない。
だけと取得してみたら、視線は意外といろいろぶれていて、あちらこちらとひっきりなしにさまようものだった、という話。
Re: (スコア:0)
既存のUIでも万能かつ身体的・精神的に疲れないというものは存在しないので
そんなに否定的になることはないと思います。
そして人間の適応能力は馬鹿にできません。
Re: (スコア:0)
じゃあまあ、人間の適応能力とやらに期待して、永遠に待ってらっしゃいw
一番いいのは自分で開発してみることだよ。そうすれば人が作るのを延々と待っていることもない。
ぐぐれば、視線追跡システムの開発環境は、そこらのUSB接続の赤外線カメラと、オープンソースのソフトで揃えられる
のが分かるだろう。そこまで誰でも試せて開発できるようにハードルが低くなってるのに、なぜいつまでたっても
君のご希望に沿うようなものが出てこないのかというのは、自分でやってみればすぐ実感としてわかるはずw
視線追跡はPCをコントロールするためのポインティングデバイスとしては「筋が悪い」のよ。
Re: (スコア:0)
無理じゃね。
LinuxのBTはBlueZプロジェクトでやってるけど決して動きが早いわけでもなく。
そして、Bluetooth関連はdbusから使うことになってるんだけど、
RPi弄ってる人間でまともにdbus使えるのどれだけいる?
まあ気長に待て。
どういう仕組みなんだろ? (スコア:0)
https://youtu.be/VHXx7XTPULE [youtu.be]
まぁ見るかがり扱いはマウスレベルにしか過ぎないもので
厳密にはHUDではないですね。
視線をXY座標で返してくれるデバイスだと思いますけど
ヘッドトラッキングとは別で
単純にゴーグルないに映像を表示させ、ゴーグルをないの映像上
座標を返すだけの単純な仕組みなのかもしれませんね。
となるとボタンクリックのないマウスレベルとして認識されるのでしょうかね?
まぶたでクリックがあるのかな?
Re:どういう仕組みなんだろ? (スコア:1)
いまデバイスそのものの話はしてないのでは?
ただ、インタフェース規格としてみるなら、
将来を見据えてXYだけじゃなく、フォーカス位置も
扱えるようにしておいてほしいですね。
デバイスが読み取れるようになるかどうかはともかく。
Re:どういう仕組みなんだろ? (スコア:1)
ディスプレイの下とか上にカメラ置いて、前に座ってる人の目線を検出するのが一般的な製品ですよ。
既存製品の中では HUD とかは、かなり特殊な部類だと思います。
入力の補助として日常的に使ってます。細かい精度はないので、マウスのかわりにはなりません。
いまは、視線の先のウインドウをフォアグランドに持ってくるのと、マウス移動と視線移動のタイミングが重なったら、視線の先の中央にマウスを移動するってだけにしか使っていないのですが、それが無い環境では不快になるくらいには便利です。
ハードウェアが2万近いので、そのためだけでは、おすすめできませんけどね。
Re: (スコア:0)
例えば、何かグラフィックを描画するときに視線の向いている箇所だけ高精細に描画して周辺視野は手を抜いてGPUの負荷を軽くするとかできませんかね?
レスポンスが十分早ければできそうな気がします。
Re:どういう仕組みなんだろ? (スコア:2, 興味深い)
Re:どういう仕組みなんだろ? (スコア:2)
HIDに入るとなればCV2にも載せやすくなりますね。遂に実現するのかな?
Re: (スコア:0)
インターフェイスの規格なので
どう実装してどう使うかはある程度自由なんじゃないでしょうか。
Re:うーむ (スコア:1)
Windowsでの標準化じゃなくてHID規格の標準化だよ。
それに従ってMicrosoftがWindowsでUSBドライバを作るが、
コンシューマーもAppleもAndroidも規格に従ってドライバを作ればいい。
コンシューマーは何も悩ましくない。
Re: (スコア:0)
規格化はユーザーを囲い込みたいハードウェアデバイスメーカー側にとって悩ましいんですよ。
Re: (スコア:0)
そう思うなら、標準ドライバで動作しないハードウェアを作ればよいだけの話ではなくて?
Re: (スコア:0)
コンシューマが何を悩むのかよく分からないんですが。
Re: (スコア:0)
VRの話じゃないからw
たまにはバイザー外して現実世界を歩いてこい。