INFORMATION

信息资讯

巨量資料重塑新晶片架構

2017-06-07
由亞馬遜(Amazon)、Google和Facebook等網路巨擘所收集的大量資料集,正推動處理這些巨量資料的新晶片復興。預計在六月底的年度電腦架構大會上將亮相其中兩項最新成果。
史丹佛大學(Stanford University)的研究人員將介紹一種可重配置處理器——Plasticine,它可支援比FPGA更高近100倍的每瓦特性能,同時也更易於編程。此外,Nvidia的兩名資深設計人員定義了一款推理處理器,可提供較現有元件更高2倍性能與能源效率。
這些晶片象徵著這項任務的冰山一角。過去一年來,英特爾(Intel)收購了三家機器學習創業公司。而其競爭對手——三星(Samsung)則聯手Dell EMC投資英國公司Graphcore,這是該領域的六家獨立新創公司之一。
Nvidia正致力於推動其GPU作為神經網路訓練引擎的銷售。同時,該公司也正調整其晶片架構,使其得以更有效地處理這些任務。
Google則聲稱其龐大的x86 CPU叢集以及Nvidia的GPU均不足以勝任這項處理任務。因此,Google推出了自家的兩款加速器版本——Tensor處理器(TPU)。
Graphcore執行長Nigel Toon說:「如今正是『運算2.0』(Compute 2.0)的時代,它象徵著一個全新的運算世界。Google最終將使用以TPU為基礎的機架結構,幾乎不使用任何CPU,因為它有98%的營收都來自搜尋——這正是機器學習的理想應用。」
最終,機器學習晶片將出現在廣泛的嵌入式系統中。以汽車每年賣出1,800萬輛和伺服器約1,000萬套的年銷售量來看,Toon說:「自動駕駛車應用可望為這項技術帶來一個比雲端更大的市場,而且是一個以往從未存在過的市場。」
如今業界共同的願景是開發一款人工智慧(AI)處理器,它可為神經網路處理訓練與推理等任務,甚至可能出現一些新的自我學習技術。這種AI處理器還必須能透過大規模的平行化方式提供強大的性能,同時具有高功效且易於編程。
即使是這項開發任務的基本數學也引發熱烈討論。Toon認為,16位元浮點乘法與32位元累加運算的組合,能夠帶來最佳化精確度以及最小誤差。
這正是Nvidia Volta架構導入的Tensor核心所使用的途徑,同時也是Graphcore將在今年10月出樣給早期合作夥伴的高階晶片。該新創公司正專注於開發一款採用新記憶體與互連的大型晶片,該晶片並可外接至各種單元與叢集。