アカウント名:
パスワード:
Xeon phi の次のやつを早く普通に買えるようにしてくれ.今度は OS を載せられるんだろ?
あと、半精度浮動小数SIMDもよろしく。
半… 16bit級?
こんな話があるんだってさ。
32bit以下のサイズのshort float型の追加の提案。 [blogspot.jp] > 16bit浮動小数点数は機械学習や画像処理の分野で広く使われるようになっている。>IEEE 754-2008では2進数16bitのフォーマットが定義されている。今のARMはネイティブにサポートしている。>IntelのCPUでもサポートする計画がある。GPUでは、OpenGLが16bit浮動小数点数を規定している。>OpenEXRではfloatの半分のサイズの浮動小数点数を組込型同様に扱えるライブラリがある。>nVidiaのC
面白い。昔、単精度しか対応してなくて「使い物になるか!」って言われたGPGPUとかあったよね。今は逆に半精度寄越せって話になってるんだ。
NVIDIAでは、現行世代のMaxwellで既にFP16をサポートしてます。明確にDeep Learning向けをうたってます。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
「毎々お世話になっております。仕様書を頂きたく。」「拝承」 -- ある会社の日常
それより (スコア:0)
Xeon phi の次のやつを早く普通に買えるようにしてくれ.今度は OS を載せられるんだろ?
Re: (スコア:0)
あと、半精度浮動小数SIMDもよろしく。
Re: (スコア:0)
半…
16bit級?
Re: (スコア:2, 興味深い)
こんな話があるんだってさ。
32bit以下のサイズのshort float型の追加の提案。 [blogspot.jp]
> 16bit浮動小数点数は機械学習や画像処理の分野で広く使われるようになっている。
>IEEE 754-2008では2進数16bitのフォーマットが定義されている。今のARMはネイティブにサポートしている。
>IntelのCPUでもサポートする計画がある。GPUでは、OpenGLが16bit浮動小数点数を規定している。
>OpenEXRではfloatの半分のサイズの浮動小数点数を組込型同様に扱えるライブラリがある。
>nVidiaのC
Re:それより (スコア:1)
面白い。
昔、単精度しか対応してなくて「使い物になるか!」って言われたGPGPUとかあったよね。今は逆に半精度寄越せって話になってるんだ。
Re: (スコア:0)
NVIDIAでは、現行世代のMaxwellで既にFP16をサポートしてます。
明確にDeep Learning向けをうたってます。