米フェイスブックは「ニューラルネットワークシステム向け」というハードウエアアーキテクチャ「Big Sur」をオープンソースで公開した。
米フェイスブックは、「ニューラルネットワークシステム向け」(米フェイスブックのブログによる)のハードウエアアーキテクチャ「Big Sur」を、Open Compute Projectに提供、設計図をオープンソースで公開した。
公開されたBig Surの設計図は、米Open Rack Projectが定めるデータセンター向けラック規格「Open Rack」に準拠したもので、米NVIDIAのGPU(Graphics Processing Unit)「Tesla M40」を最大8個搭載できる。Big Surは、NVIDIAの「Tesla Accelerated Computing Platform」を採用し、フェイスブックとNVIDIAが協力して設計を進め、最適化を施してある。その結果、前世代システムに比べ、2倍の性能向上を実現したという。
Tesla M40は、2015年11月に発表されたばかりのGPU。NVIDIA Maxwellアーキテクチャを採用し、3072個のCUDA(Compute Unified Device Architecture)コアを備える。単精度浮動小数点演算性能は、最大7TFLOPS(テラフロップス)。「機械学習向けのアクセラレーターとして採用されたのはBig Surが初めて」(NVIDIAのプレスリリース)だという。ニューラルネットワークとは、おおまかに言えば“脳神経を模した計算アルゴリズム”のことで、多層的な機械学習を行うもの。
フェイスブック社内では「Facebook AI Research」(FAIR)でAI(人工知能)研究が行われている。画像はその成果の一つである「Memory Networks」と呼ばれる技術。質問に高度な回答ができるもので、サンプルとして「ロードオブザリング(指輪物語)」の概要を答える動画が公開されている(出典:米フェイスブック)NVIDIAによると、2.5GHz動作の12コア・プロセッサー(Xeon E5-2680 v3)を2個備える汎用サーバー機で5.9日間かかる処理が、4個のTesla M40を備えるGPUサーバーだと0.4日間で完了するという。
人工知能開発成果の公開で悪用を抑制:イーロン・マスク氏、Y-Combinatorのサム・アルトマン氏らが設立したOpenAIとは
人工知能の歴史と、グーグルの自動運転車が事故を起こさないためにしていること
ニューラルネットワーク、Deep Learning、Convolutional Neural Netの基礎知識と活用例、主なDeep Learningフレームワーク6選
米AlpacaDBがDeep-Learningを使った金融プラットフォームを開発へ
IBM研究所、動的なパターンを学習できる人工ニューラルネットワークモデルを開発――自動車事故の予測や、作曲、文章校正にも応用できる可能性
IT用語解説系マンガ:食べ超(74):はらぺこニューラルネットワークCopyright © ITmedia, Inc. All Rights Reserved.