撮影後にピントを変えられるライトフィールドカメラ「Lytro ILLIUM」、国内で12月上旬に発売 45
ストーリー by headless
焦点 部門より
焦点 部門より
あるAnonymous Coward 曰く、
撮影後にフォーカス位置を変更できるライトフィールドカメラ「Lytro ILLIUM」を、加賀ハイテックが12月上旬に国内発売する(プレスリリース: PDF、 Engadget日本版の記事、 AV Watchの記事)。
ライトフィールドカメラではイメージセンサーの前にマイクロレンズアレイを配置することで、マイクロレンズごとに異なる画像を記録。これらをレンダリングすることでフォーカス位置の異なる複数の画像を作成できる。Engadgetの記事では画像の焦点距離を自在に変更できるデモが設置されている。
Lytro ILLIUMのCMOSイメージセンサーは1/1.2インチ、Light Fieldセンサー数は4,000万光線。ISO感度は80~3200まで設定可能で、出力画素数は400万画素。光学8倍ズームレンズやマルチタッチ対応4インチ液晶ディスプレイ(WVGA)、Wi-Fiなどを搭載し、OSはAndroidベースだという。店頭予想価格は20万円前後で、11月中旬から予約を受け付けるとのことだ。
次は (スコア:4, おもしろおかしい)
ピントのズレた発言を後から修正出来る装置を・・・
# と、自らピントをズラしてみるテスト
ヘッドアップディスプレーにして (スコア:2)
最近、近視のメガネだと近くの本が読めないお年頃なんで^^;
そんなの使うと、さらに目が悪くなるんだろうな......
------------
惑星ケイロンまであと何マイル?
モニタ側が未着手 (スコア:2)
オフトピの方のスレッドが伸びてしまったが、現状では、「光線記録型カメラ」は存在しても、「光線再現モニタ」は全く未着手の状態。
一応研究はしてるみたいだが、実験レベルでもマトモなのは無かったかと。
記録は出来てても再生出来ないんじゃ、HUDでくっきり画像は遥かな夢物語なんだよね。
-- Buy It When You Found It --
Re: (スコア:0)
#2708411 [srad.jp]が考えているのは、目は定位置にある普通の液晶ディスプレイに焦点をあわせているだけで、
機器の方が視線を認識して、視線の先にある対象物にフォーカスの合った画像を液晶に映し出してほしい、という話だと思う。
で#2708498 [srad.jp]にあるように、リアルタイムでそういうことをするのに
Lytroのような撮像システムは必要ない。オートフォーカスカメラで済む話。
Re:モニタ側が未着手 (スコア:4, 興味深い)
んと、人間の視覚は、単焦点で機能している訳じゃないです。
視線を感知して、その部位に焦点を合わせる所までは良いけど、視差の分の補正(これは今の視差式3Dと同様)と、注視していない部分の焦点の外し(焦点が合ってない部分がぼやけて見えるのが普通の視覚)が必要です。
中~遠距離の立体視には隠蔽効果も重要ですが、これは視差式3Dで一応実現出来てるので、「見ていない部分を敢えてボカす」機能が必要ですね。
自然なボケを再現するには、複数焦点が必要かと。
あと、機械式オートフォーカスだと、視線移動速度に全然追随出来ません。
常時、焦点の合っている画像とボケた画像とを記録し、適宜再生する機能が必須です。
この部分は、今回のカメラで実現出来る訳ですが、見る方の視線追従式視差感応3Dディスプレイは、まだ存在しないかと。
ひょっとしたら、既存の視差式3D表示器に支援適応ボケを追加するだけでも済むかも知れませんが。
-- Buy It When You Found It --
Re: (スコア:0)
老眼で近くが見づらくなっているという元ACの要求が理解できていないと思われる。
見ようと思った対象に勝手に焦点が合ってくれるメガネが欲しいというだけで、3Dとかボケは全く関係ない。
極端な話、被写界深度が異様に深い、全距離に同時にピントが合うメガネが出来れば済む。
視力のいい人が老眼になったときも大変だが、強度の近視の人が老眼になったときも大変。
メガネを掛けると1m以上先が良く見えるように矯正してある場合、手に持った30cm先の本にはピントが合わない。
(若ければ問題ないが、老眼になると遠→近のピント移動ができなくなる)
メガネを外すと10cmくらいまでは良く見えるが、本全体が見えるように30cmくらい離すとやっぱり見えない。
結局、遠近両用メガネか、度の弱い、近くしか見えないメガネが別に必要になる。
Re: (スコア:0)
最近だとピンホールを埋め込んじゃう、みたいな方法もあるようですね。
自分の身に降りかかって初めて調べてみる。。。
Re: (スコア:0)
> ピンホールを埋め込んじゃう
それって攻殻機動隊のおっさんみたいな見た目になるんですか?
Re: (スコア:0)
注視していない部分の焦点の外し(焦点が合ってない部分がぼやけて見えるのが普通の視覚)が必要です。
別に必要ってわけじゃないよね。TVを見ているとき、人は定位置の画面を見続けていて、それで不具合は起きない。
言いだしっぺの人は、任意の対象物にフォーカスが合った画面を得られるTVのような視聴感覚を考えてると思うんだけど。
あと、機械式オートフォーカスだと、視線移動速度に全然追随出来ません。
最近の位相差オートフォーカスは、試行錯誤しないので速いよ。
Re:モニタ側が未着手 (スコア:1)
遅レスになったが、
>別に必要ってわけじゃないよね。TVを見ているとき、人は定位置の画面を見続けていて、それで不具合は起きない。
これは、既存のカメラだと撮影側でボケるのと、絵作りの一環としてボケを制御しているから不具合がないだけです。
常時全部に焦点が合った映像だと、下手な3DGCの様なのっぺりとした画面になり、遠近感を失うので日常での常用は危険だと思われます。
>最近の位相差オートフォーカスは、試行錯誤しないので速いよ。
人間の視覚は、視線移動と平行してピント調整を行うので、視線を検知してからのピント合わせじゃ間に合いません。
視線の移動先を見た時点で既にピントが合っている必要が在るのです。
-- Buy It When You Found It --
Re: (スコア:0)
銀塩時代に、じつはあった。
http://web.canon.jp/Camera-muse/camera/film/data/1991-1995/1992_eos5_qd.html [canon.jp]
Re: (スコア:0)
こっちも。
http://web.canon.jp/Camera-muse/camera/film/data/1996-2000/1998_eos-3.... [canon.jp]
Re: (スコア:0)
オフトピだが、遠近両用眼鏡の試用をお勧め。
私は裸眼なら本が読めるので使ってないが、使うなら、なるベル早い時期から慣れる方が好ましいらしい(眼科医談)。
但し、OA作業用の遠近両用眼鏡は、事実上存在しない。
広い画面全体に焦点にピントを合わせる必要があるので、他の焦点距離を設定する場所が空かない為。
(一応、フルカスタムで上方極一部と遠距離用に、下方少量を近距離用にするオプションも在るらしいが)
-- Buy It When You Found It --
複式眼鏡もお勧めです (スコア:2, 参考になる)
歪みの無い遠近対応なら、「複式眼鏡」という選択肢もあります。
…というか、ここ何年も使ってます。めっちゃ便利で、もう無しでは過ごせません(ステマじゃ無いです。まじ)。
複式眼鏡は、レンズが前後の2重(つまり4枚)入っていて、前の2枚は使わない時には蝶番で跳ね上げます。
#なので、「跳ね上げ眼鏡」とも言われます(跳ね上げ眼鏡には、レンズ2枚の「単式」もあります)。
通常、工作用の跳ね上げ眼鏡は、「手元を見る時に前(凸レンズ=老眼鏡相当)を下ろす」ような
使い方をすることが多いのですが、
これだと、普段の生活時間のほとんどを、跳ね上げた状態で過ごすことになり、はっきり言って見かけがアレです。
そこで逆に、「手元を見るときに前を上げる」ように調整(近視+老眼の場合、前後とも凹レンズになることが多い)すれば、
通常の生活(下ろした状態)では、ちょっと見には普通の眼鏡と変わりません。
メリット:
・遠近両用レンズのような歪みやスジが無い
・眼鏡を架け替える手間が無い(使ってない方を探すことも無くすことも無い)
デメリット:
・フレーム2枚、レンズ4枚なので、ちょっと重い
・跳ね上げた状態がちょっとアレ
ちなみに、乱視矯正成分は(常時使われる)後側のレンズに入っていますので、
近くでも遠くでも乱視矯正が行われます(前側のレンズは焦点距離調整のみ)。
応用編:
一部の眼鏡屋では、遠方の焦点距離を、左右の眼でわざと変える処方をしてくれます。
私の場合、
・右眼:遠方5m、近方50cm
・左眼:遠方1m、近方50cm
にしています。
これだと
・日常生活:右眼
・PC:左眼
・手元:跳ね上げて両眼
に対応可能です(左右の眼の使い分けは、(私の場合は)意識せずにできています)。
※但し、車を運転される方にはお勧めできません。あと、人によっては気持ち悪くなるらしいのでご注意。
特に近視+老眼の人(ここには多そう?)にはお勧めです。
おまけ:
距離センサ(or マニュアルスイッチ)で、跳ね上げ制御したいんですが、
アクチュエータと電池をフレーム内に収めるのがかなり難しそう。
二焦点じゃ足りない (スコア:2)
老眼が進行すると、二焦点じゃ不足します。
実際、私は、読書時には裸眼(遠点20cm)、PC作業用(遠点40cm)、運転用(近点1m)の3種類を使い分けてます。
歪むのに慣れれば、連続可変型の方が便利そうに思えます。
それから、今時のハードウェア作業だと、部品が小さ過ぎて、虫眼鏡無しじゃ作業出来ませんよね?
あと、一時期、左右の度数が不一致になっていた時期がありました。
この状態だと、遠点が単眼視になるので、視力と距離感の両方が低下します。
両眼の度数を合わせた眼鏡に換えた当初は、ハッキリ見え過ぎて違和感を生じました。
ちなみに、焦点距離不一致での単眼視状態だと、片目を閉じる事でモードの切り替えが出来ます。
眠い時に片目を閉じると、脳が半分休んだ状態になった事を記憶してます。
両眼視が普通になると、この「片目でモード切替」が出来なくなりました。
しかし、眼鏡等での矯正は近点ほどシビアなのに、近点視力に付いて気を払う人が少ないのは、困った物ですね。
-- Buy It When You Found It --
Re: (スコア:0)
視線のところでピントが合うメガネ作れないですかね
こういうの [glafas.com]?
やっぱ無駄に大きいよね?と思ったが、フレームの上(下?)の部分は充電用のクレイドルのようだ。
Re: (スコア:0)
カブキグラスが出てくるのかと思った
Re: (スコア:0)
撮影してしまった後の静止画を見るんじゃなく、キャプチャーしているのをリアルタイムで見るなら、
カメラに対してどこにフォーカスをあわせればいいかその場でフィードバックできるのだから、
こんな仕組みなど使う必要はなく、オートフォーカスカメラ付きのHMDで済むだろう。
ブレードランナーの写真 (スコア:1)
CCDの手前に3種類の焦点距離が異なる小さなレンズをおいたのがみそですね。
イメージデータをどうやって保存しているのか興味深い。
これで、ブレードランナーに出てくるような後でから画像の隅っこを探せるような技術が実現した?
Re: (スコア:0)
「画素」側からすると、入ってきた光を記録するしかないわけですから、普通のビットマップと変わりないでしょうけど。つまり、焦点距離の違う2枚の写真があれば、その中間に焦点があっている写真が計算で求められる、というだけの話であって。
ピントが合っていない被写体からの光は本来あるべき場所を中心とした一定距離の円上に並びます。従って、2枚のピンぼけ写真から「同じ色がある場所」を判断することによって被写体までの距離情報が得られ、こんどはその距離から円環の大きさを逆算することによって「元の正確な色」が得られるわけです。
知識のピントが合いません (スコア:0)
カメラっ子でないので識者の方プリーズ
入ってくる光を複数に分岐して
焦点が異なる画像を複数保存して
表示する際に複数の画像から合成
ってことであっています?
これってDirectXなどにおける3Dモデリングの
被写界深度を設定したレンダリングに近いのかな?
この場合はオブジェクト単位になるので
件とは本質的には異なるでしょうけれど
ソフトウェアレベルで件に該当する知識がないもので
どうにもヒントがないとピンときませんです
Re:知識のピントが合いません (スコア:1)
理工系向けに説明すると、レンズの結像作用ががフーリエ変換の性質を持っていることが理解できるとアナロジーで容易に理解することができます。
レンズでのフーリエ変換というのは、例えば凸レンズで、太陽光を集めて焦点を結ぶようなケースを思い浮かべてもらうと、レンズに一様に入射した光が一点に集中するわけですが、これは時間軸上で一定の値を持つ信号は周波数軸上で周波数=0の一点に値を持つ信号(電気信号で言えば直流)に相当します。逆に焦点にある点光源から出た光はレンズによって平行な光に変換されます。これはインパルス関数の周波数成分が広い周波数分布を持つことに相当します。ただし、一般的なフーリエ変換、フーリエ逆変換は時間軸と周波数軸の間の橋渡しをしますが、レンズではともに物理的な変位間の対応関係になります。
ここでf(t)とf(t-T)のフーリエ変換を考えると時間軸上のシフトは周波数軸上での位相回転に、F(ω),F(ω-Ω)の逆フーリエ変換を考えると周波数軸上でのシフトは波面をスライスする軸の(波の進行方向との)角度変化に相当します。レンズの結像作用はフーリエ変換だとしてこれを解釈すると、レンズに入射する光と焦点面での対応関係として、レンズへの入射角の違いは、(焦点面上での)焦点の位置の違いに変換され、レンズの入射位置の違いは、焦点への光の入射角度の違いに変換される、ということが示唆されます。
これを具体的な例で確かめてみます。もう一度、太陽光を凸レンズで集めるモデルを思い出してもらって、レンズの位置・向きは一定のまま、太陽が少し西に移動したとき焦点はどうなるでしょうか? 依然として光を一点にあつめたまま、少し位置がずれるはずです。つまりレンズへの入射角のずれが、焦点の位置のずれに変換されます。ということで、たしかに合ってるようです。
勘のいい人ならここで気づくと思いますが、つまりレンズに入射する光が焦点に集められる際に、レンズの中心を通る光はまっすぐ焦点に届き、レンズの端に入手した光はある角度を持って焦点に届きます。従来の普通のカメラは焦点面にある撮像素子の受光面に届く光を入射角にかかわらずすべて合算したスカラ量でとらえます。そしてライトフィールドカメラというのは、入射する角度に対応する光の強さ分布・ベクトルをとらえるカメラなのです。
なので、前ピンの画像は、焦点面の手前で一旦焦点を結んでふたたび発散していく角度を持つ光を選べば合成できますし、後ピンの画像は、撮像面より後ろにある焦点に向かって収束していく角度を持つ光を選べば合成できるという仕組みです。
実際は、撮像素子の受光素子自体にそういった角度分別能力があるわけではないので、マイクロレンズアレイを使い、もう一度入射角度の違いを焦点位置の違いに変換して、別々の受光素子によって電気信号に変換します。撮像素子の画素数は増えたとはいえ限りがありますので、一つの画素(一つのマイクロレンズ)に割り当てられる角度ベクトル(画素数)は離散化されていて、しかも数が限られています。例えば遠中近の3つだったりの制約はマイクロレンズに割り当てられる画素数の制約からくるものです。
ライトフィールドカメラの特性は、このような角度分解能の離散性の課題以外にも上に描いたようなフーリエ変換の知識をうまく使えば比較的簡単に理解できると思います。
Re:知識のピントが合いません (スコア:1)
空間中を飛んでる光線を2次元の平面上で観測・記録するのが従来のカメラ
飛んでる光線を立体的に3次元のまま観測・記録するのがライトフィールドカメラ(ライト=光線,フィールド=場・空間っていう意味)
ライトフィールドカメラは,光線を記録しただけ
記録データを見たい場合は,仮想的に従来カメラを用意して,
記録した光線を好きなレンズで仮想的に撮影しなおすことで写真を合成する必要がある
この際,ピントを自在に調整できるので,楽しい
細かい計算はフーリエ変換とか幾何計算とかデジタル信号処理とか色々使います
って感じかな?
Re: (スコア:0)
原理 [argocorp.com]
×撮影後にピントを変えられる (スコア:0)
○撮影時に複数のピントで保存する
Re:×撮影後にピントを変えられる (スコア:1)
…という勘違いをしている人が世間には多いですが,正しくは
×撮影時に複数のピントで保存しておいて選択する(あるいは画像を統合する)
○撮影後に計算機処理を要するが,その際に自由にピントを変えられる
ですね.綺麗なボケをレンダリングすることもできますし,全焦点画像を作ることもできます.
上記の「撮影後の計算機処理」というのは,通常のカメラ光学系における光の振る舞いをシミュレートするような処理で,そうやってシミュレート処理するのに必要な特殊なデータを撮影するためにマイクロレンズが利用されています.
なお,LYTRO創立者のDr. Ren Ngは,以下のプロジェクトの出身で,そのあたりの技術についての専門家です.
http://graphics.stanford.edu/projects/lightfield/ [stanford.edu]
Re:×撮影後にピントを変えられる (スコア:1)
「複数のピント」を可変情報と捉えるか、一枚の写真を複数枚取っておくと捉えるかの(勘)違いですね。
Re:×撮影後にピントを変えられる (スコア:1)
「空間情報をそのまま保存しておいて、二次元画像に
落とし込む時にチューニングする技術」の10歩手前
みたいな感じ?
Re: (スコア:0)
#2708420です
はじめはご指摘の認識だったのですが
この表現だと3枚保存して表示時に1枚を選ぶ
という意味になるかと思います
記事にはレンダリングとありましたので
3枚の情報から任意のピントで1枚を合成して表示
ということになるので
無い知識で仮定して識者のご意見を募ってみました
Re: (スコア:0)
タレコミ子ですが、そのURLを一番最後にのっけたつもりが、どういうわけか編集段階で消されてしまったようです。
なぜ消したし……。
Re:知識のピントが合いません (スコア:1)
妖怪headlessの仕業ですな。
Re: (スコア:0)
レンズ上の色んなの地点から見える景色はそれぞれ違う。
分かりにくければ、極端に大きなレンズを考えればいい。
左右の目の間の距離よりも直径が大きいレンズの左右の端から見える景色は、ステレオ3D写真の視差並みの違いになる。
普通のカメラのレンズは、その色んな見え方の景色を、上手く1枚に合成している。
1点からだけでは光量が足りなくて暗い=ノイズのでかい画像になるから。副作用としてのボケが綺麗だというのも理由。
物理的なレンズの仕組みを使って、それらの地点毎に違う見た目を、拡大縮小をして合成すると、
どこか1カ所、レンズ表面上のどこから見ても同じ見え方をす
Re: (スコア:0)
他所でも同じ説明をしたことがあるので、また長くなるし面倒だ思ってたところ、この説明をしてくれた人が現れた。しかもかなり丁寧に。ありがとう。
ピントの複数枚じゃなくて、位置の複数枚なんだよね。勘違いしやすいけど。
というかこの理解をしてる人初めて見たよ。
直感と連想能力に挑戦 (スコア:0)
分割とテクニカル、どちらで行きますか?
ローカル編集 (スコア:0)
確かLytroって、専用サーバに撮影画像をアップロードしないと一部しか機能が使えないんじゃなかったですかね?
サーバがなくなるとカメラ自体が使えなくなるのは嫌だなぁ……。
(初代のときの話なので今は違うのかも)
トンボの複眼って (スコア:0)
こんな感じですか?複眼で見ると、全方位ピントばっちりなのかな?
Re: (スコア:0)
ピントの調節機構がなくてやたら奥行き方向に長い眼を並べているというのは確かに光線のベクトルを採るのに適しているように思います。獲物までの距離と方向の両方を含んだような三次元的な視覚なのかも知れません。
Re: (スコア:0)
単眼を集めているので、ピントという概念はありません。
視野をモザイク上に区切ったような視界だと考えられています。
温故知新 (スコア:0)
昔のハーフサイズの銀塩フィルム・コンパクトカメラにあったようなパンフォーカスのレンズでええやん
今のコンパクトカメラのやたら高性能のズームをかえってうっとうしく感じることがある
別方式? (スコア:0)
スマートフォンの LG isai FL(LG G3) とかに,
「後からピント調整」可能な静止画撮影機能ってのが
ついていますが,これはLytroとは全然別,なんですよね?
Re:別方式? (スコア:1)
HTC J butterfly HTL23(http://www.au.kddi.com/mobile/product/smartphone/htl23/feature/)はカメラを2個搭載している.
別方式かもしれんが、たくさんカメラがあれば似たようなことはできるんじゃなかろうかと.
Re: (スコア:0)
似たようなトピックに関する記事発見
http://www.gizmodo.jp/2014/04/lytro_1.html [gizmodo.jp]
撮った画像データの「フォ
Re: (スコア:0)
上のスレッドでも話題になってますが、
スマホのは複数枚をピント違いで撮影しておき、それらを画像処理することで実現してます。
一方、Lytroは撮影原理(光学系)が通常のカメラと違います。
#時系列的には、初代Lytroが出て、後追いでスマホメーカーがソフトウェア実装したという流れだったような。
細かい部分が惜しいんだよなぁ (スコア:0)
個人的には「ピントのあわせ辛い動くモノ」を撮るのに使いたいなー、と考えるんだけど
それにしては、何と言うか、その。
1/8000欲しいなぁ、とか思ったりするし、
っていうのも、写真1枚のデータが大きくなるカメラである以上、「大丈夫なんか?」という気がしてしまう。
ハイアマチュアやプロ向けを標榜するならCFも対応してくれていいんじゃね?とかね。
どう足掻いてもSDよりCFのほうが速いんだからさぁ……(モノによるけど2倍ぐらい差がつくのも普通にある)
コストとかの問題もあるんだろうけど、もうちょっと何とかならないかなぁ。
よし、まだ誰も言ってないな (スコア:0)