Intel社、新AIチップのリリース発表 – Facebook社と技術連携

Nervana Neural Network Processerの狙いは、データセンターにおけるディープラーニングの作業にあり:

インテル社は、人工知能学習システムに関わるプロセッサ“Nervana Neural Network Processer (Nervana NNP)”製品群を新たにリリースしました。製品は今年中には販売開始されることが予想されています。
製品名の通り、このチップは2016年にインテル社が4億$で買収した ディープラーニング スタートアップ企業”Nervana System社”からきており、Nervana社のCEOだったNaveen Rao氏が人工知能製品の開発指揮を執りました。

インテル社の隆盛

Rao氏によると、Nervana NNPはディープラーニング専用のアーキテクチャとなっており、この新アーキテクチャの狙いは、初期のディープラーニングに求められている柔軟性を達成しつつ、コアとなるハードウェアの構成要素をなるべく効率的にすることにあります。Reo氏のチームはこのNervana NNPを、人工知能向けには設計されていない既存のハードウェア制約にとらわれず自由になることができるよう設計したと述べました。これは、ビデオゲームに依存しながら性能向上してきた GPU に対する皮肉とも取れます。
Rao氏はチップの詳細については語ろうとしませんでしたが、Intel社のNervana NNPは従来のような標準キャッシュ階層を無くし、 オンチップメモリー をソフトウェアから直接管理するとのことです。また、オンチップにせよオフチップにせよ、高速でインターコネクトできるように設計してあるため、双方向への大規模なデータ輸送も可能となっていることと語りました。
Rao氏は続けて、より高いメモリのイノベーション達成に加えて、ニューラルネットワークの作業量に関わるスループットをより高い次元に引き上げるために、”Flexpoint”と呼ばれる新しいニューメリックフォーマットを活用したことを明かした。
Flexpointは従来の浮動小数点とは異なり、巨大なダイナミックレンジに共通の指数を適用しながら、 スカラー計算 における乗算と加算が不動点で実行されることで多数の並列処理を可能とするものです。また、いずれの回路も小さいため、ダイにおける莫大な 並列コンピューティング 増加と、一つ当たりの計算パワーを減らすことにつながっています。

インテル社のCEOであるBrian Krzanich氏は“インテル社のNervana技術を使うことで、企業はデータ処理の量を最大化することができます。全く新しい段階にある人工知能のアプリケーションを開発することや、彼ら自身のビジネスを変革するようなよりすばらしい見通しを見出すことが可能になるでしょう。”と述べています。
さらに、チップ製造にあたり、Facebook社と技術的な洞察を共有するような近い距離で協働していることも、Krzanich氏は明らかにしました。

NNPはここ3年間Nervana社のもと、”Lake Crest”というコードネームで開発がすすめられてきました。インテル社がもし今年初めに発表したロードマップに沿うのであれば、次にリリースされるのはインテルのXeonプロセッサー技術とNervanaの設計が合わさった”Knights Crest”となるでしょう。

– Data Center Dynamics
原文はこちら

関連記事一覧

  • コメント ( 0 )

  • トラックバックは利用できません。

  1. この記事へのコメントはありません。