Googleは機械学習アルゴリズム専用の高速チップを内製、なんと、8ビット機だ 1
タレコミ by Anonymous Coward
あるAnonymous Coward 曰く、
GoogleのデベロッパーカンファレンスI/Oにおける発表によると、同社は機械学習のアルゴリズムの高速化に特化した独自のチップの構築を最近開始した。
tpu-1
その特製のチップはTensor Processing Units(TPU)と呼ばれ、同社のテクニカルインフラストラクチャ担当SVP Urs Holzleによれば、すでに同社のデータセンターで1年あまり使われている。またGoogleによれば、それは“性能が大幅に最適化されているので、1電力単位(ワット)あたりの機械学習実行効率がきわめて高く”、しかも、“通常なら7年はかかる技術進歩を1年で達成している”そうだ。
そもそもニューラルネットワークは演算精度を必要としない (スコア:1)
だからGPUでの処理は牛刀で兎を裂くようなもの。トランジスタ数を最小限にして低消費電力と高クロック数を追求したチップのほうが安上がりというわけだろう。