AI芯片領(lǐng)域的角逐才剛剛開始
新型架構(gòu)能夠挖掘深度學(xué)習(xí)的巨大潛力。然而,到目前為止,只有一款A(yù)I芯片是完全符合描述和基準(zhǔn)測試的,它就是谷歌的TPU。即便如此,這一領(lǐng)域仍然正在蓬勃發(fā)展,相關(guān)的技術(shù)也開始逐漸明朗,比如模擬計(jì)算、新興內(nèi)存和封裝技術(shù)、以及一系列專門用于處理神經(jīng)網(wǎng)絡(luò)的技術(shù)等等。
對(duì)此,比利時(shí)魯汶大學(xué)Marian Verhelst教授表示:“這個(gè)領(lǐng)域涉及范圍很廣,包括每個(gè)層面的研究?!盫erhelst教授專門研究探索二元精密格式的芯片。她說,模擬計(jì)算很有用,特別是3到8位格式的模擬計(jì)算。
NVIDIA首席科學(xué)家、資深處理器研究員Bill Dally表示:“NVIDIA有多個(gè)和深度學(xué)習(xí)模擬計(jì)算相關(guān)的研究項(xiàng)目,但是到目前為止,還沒有一個(gè)項(xiàng)目可以轉(zhuǎn)化為產(chǎn)品。”他補(bǔ)充說,有一些項(xiàng)目是需要數(shù)學(xué)神經(jīng)網(wǎng)絡(luò)的,生成的結(jié)果并不適合用于進(jìn)行模擬。
“過去那些被否定了的CPU新想法都被重新拿出來進(jìn)行探索,例如模擬計(jì)算、內(nèi)存處理器、晶圓級(jí)集成,”資深計(jì)算機(jī)研究員David Patterson這樣表示,他現(xiàn)在在谷歌工作?!拔移炔患按叵肟纯催@些激進(jìn)的想法是否奏效?!?/p>
“兩三年前,每個(gè)優(yōu)秀的計(jì)算機(jī)架構(gòu)師都會(huì)說——'我可以做到100倍速’。正因如此,我們看到大量解決方案已經(jīng)出現(xiàn),并且提供了各種功能上的改進(jìn),不斷逼近當(dāng)前技術(shù)的極限。” Chris Rowen表示,他曾經(jīng)是MIPS和Tensilica公司的聯(lián)合創(chuàng)始人,現(xiàn)在又創(chuàng)建了一家人工智能軟件公司BabbleLabs。
AI基準(zhǔn)測試遭遇初創(chuàng)公司冷落
處理器設(shè)計(jì)的復(fù)興給人們帶來的一大挫折就是漫長的等待。
去年5月,百度和谷歌公布了MLPerf基準(zhǔn),以一種公平的方式來衡量“幾十家”初創(chuàng)公司開發(fā)的芯片。該項(xiàng)目負(fù)責(zé)人Patterson表示:“結(jié)果有點(diǎn)令人失望,沒有一家初創(chuàng)公司提交第一個(gè)迭代的結(jié)果。”
“也許他們有戰(zhàn)略方面的考慮。但又不禁讓人懷疑,他們是不是在開發(fā)芯片的過程中遇到了問題,還是芯片性能沒有達(dá)到他們的預(yù)期,又或者是他們的軟件不夠成熟,無法很好地運(yùn)行這些基準(zhǔn)測試?”
這個(gè)訓(xùn)練基準(zhǔn)測試采用了ResNet-50,第一個(gè)測試結(jié)果顯示,谷歌TPUv3在從8個(gè)芯片擴(kuò)展到256個(gè)芯片的過程中,性能擴(kuò)展幾乎可以達(dá)到100%,相比之下,NVIDIA Volta在從8個(gè)芯片擴(kuò)展到640個(gè)芯片的過程中,性能擴(kuò)展了大約27%。
Patterson解釋說,TPU之所以占據(jù)優(yōu)勢,是因?yàn)樗梢宰鳛槎嗵幚砥髟谧约旱木W(wǎng)絡(luò)上運(yùn)行。相比之下,NVIDIA Volta則是運(yùn)行在x86集群上的。
Patterson希望未來MLPerf之于AI加速器就像Spec之于CPU。第二批訓(xùn)練結(jié)果預(yù)計(jì)將在今年晚些時(shí)候公布。針對(duì)數(shù)據(jù)中心和邊緣推理工作的MLPerf基準(zhǔn)測試也將在今年首次亮相。
與此同時(shí),也有研究人員警告稱,AI芯片行業(yè)過于關(guān)注峰值性能?!拔覀冋J(rèn)為峰值性能沒有什么用,因?yàn)榉逯敌阅軟]有考慮到效率上的差異,”帝國理工學(xué)院Erwei Wang博士這樣表示,最近他和同事共同撰寫了一份關(guān)于人工智能加速器的研究報(bào)告。他指出,“人們應(yīng)該公布的是標(biāo)準(zhǔn)數(shù)據(jù)集和基準(zhǔn)測試的持續(xù)性能結(jié)果,以便更好地對(duì)比不同的架構(gòu)。”下圖為MLPerf在12月發(fā)布的初步結(jié)果采樣。
分析師:格局尚不明朗
有分析師抱怨說,包括Graphcore和Wave Computing等在內(nèi)的知名初創(chuàng)公司到目前為止都沒能提供性能數(shù)據(jù)。唯一的例外是Habana Labs。
The Linley Group分析師Linley Gwennap表示,該初創(chuàng)公司“似乎有一些真實(shí)的數(shù)據(jù),在白皮書中詳細(xì)說明其性能是NVIDIA GPU的3到5倍......但他們最初關(guān)注的是推理任務(wù),而非訓(xùn)練?!?/p>
對(duì)此,Moor Insights&Strategy分析師Karl Freund也指出,目前來自初創(chuàng)公司的性能數(shù)據(jù)確實(shí)“少得可憐”。
其中,Habana只是在采樣階段,Wave宣稱已有客戶采用,Graphcore表示會(huì)在4月之前出貨芯片產(chǎn)品,Groq可能會(huì)在4月北京舉行的一個(gè)活動(dòng)上第一次亮相,其他初創(chuàng)公司則可能會(huì)于9月在舊金山舉行的一次活動(dòng)上發(fā)布產(chǎn)品。
有幾家中國初創(chuàng)公司——例如Cambricon和Horizon Robotics,讓我們看到了一些希望,這些公司先于美國的同類企業(yè)進(jìn)入市場,專注于人工智能推理領(lǐng)域。
Freund表示:“由于目前在推理領(lǐng)域還沒有巨頭出現(xiàn),所以會(huì)掀起一股淘金熱,但我不知道是否有初創(chuàng)公司能夠在訓(xùn)練領(lǐng)域向NVIDIA GPU發(fā)起挑戰(zhàn),因?yàn)橹皇窃谝粋€(gè)產(chǎn)品周期內(nèi)你無法扭轉(zhuǎn)競爭形勢,企業(yè)需要可持續(xù)的領(lǐng)先地位。”
他說:“唯一一個(gè)真正在訓(xùn)練領(lǐng)域站穩(wěn)腳跟的是英特爾,英特爾已經(jīng)推出了Nervana芯片,他們正在等待合適的時(shí)機(jī),因?yàn)槿绻皇怯幸欢袽AC和降低了的精度,立刻會(huì)被NVIDIA秒殺。他們需要解決內(nèi)存帶寬和擴(kuò)展問題。”
在這場競賽中,英特爾可以說是多管齊下。英特爾的一位AI軟件經(jīng)理表示,與他工作關(guān)系最緊密的,就是至強(qiáng)處理器和前蘋果及AMD GPU大師Raja Koduri設(shè)計(jì)的新GPU。
英特爾最新的Cascade Lake至強(qiáng)處理器中增添了很多新功能,用以加速人工智能。我們預(yù)計(jì),英特爾將不再需要GPU或加速器,但也不會(huì)放棄與GPU和加速器在性能或效率方面的競爭。
而對(duì)于NVIDIA來說,他們正在將最新的12納米處理器封裝到各種工作站、服務(wù)器和機(jī)架系統(tǒng)中。有人說,NVIDIA在AI訓(xùn)練方面遙遙領(lǐng)先,甚至可以把7納米產(chǎn)品保留到2020年之后再推出。
除了,NVIDIA之外,許多大廠商也都在基于專有的互連技術(shù)、封裝技術(shù)、編程工具和其他技術(shù)構(gòu)建競爭生態(tài)系統(tǒng)。其中,英特爾涉及的技術(shù)領(lǐng)域最廣泛,包括專有的處理器互連、針對(duì)Optane DIMM的內(nèi)存協(xié)議、網(wǎng)絡(luò)框架、以及新興的EMIB和Foveros芯片封裝。
AMD、Arm、IBM和Xilinx則圍繞CCIX(用于極速器的一種緩存一致性互連技術(shù))和GenZ(一種內(nèi)存鏈接技術(shù))進(jìn)行聯(lián)手。最近,英特爾還發(fā)布了一種針對(duì)加速器和內(nèi)存的更開放的處理器互連技術(shù)——CXL,但到目前為止,CXL仍然缺少對(duì)CCIX和GenZ的第三方支持。下圖為AI芯片初創(chuàng)公司列表。
數(shù)據(jù)中心試水DIY芯片
當(dāng)初創(chuàng)公司爭相在服務(wù)器系統(tǒng)中為自己的芯片占據(jù)一席之地的時(shí)候,一些企業(yè)卻在部署他們自己研發(fā)的加速器。
比如:谷歌已經(jīng)在使用第三代TPU,該版本采用了液體冷卻技術(shù),運(yùn)行平穩(wěn);百度去年也宣布推出了自己的首款芯片;亞馬遜表示將在今年晚些時(shí)候推出首款芯片;Facebook正在組建一支半導(dǎo)體團(tuán)隊(duì);阿里巴巴則在去年收購了一家處理器專業(yè)公司。
大多數(shù)廠商對(duì)其芯片的架構(gòu)和性能都非??量獭0俣缺硎?,將發(fā)布針對(duì)訓(xùn)練和推理任務(wù)的不同版本14納米“昆侖”芯片,可以提供260 TOPS性能,功耗為100 W,其中封裝了數(shù)千個(gè)核心,總內(nèi)存帶寬為512 GB/s。亞馬遜方面表示,Inferentia將實(shí)現(xiàn)數(shù)百TOPS的推理吞吐量,多個(gè)芯片聚合在一起可以實(shí)現(xiàn)數(shù)千TOPS性能。
“很多初創(chuàng)公司都是以面向超大規(guī)模數(shù)據(jù)中心售賣芯片為目標(biāo)開展業(yè)務(wù)的,而現(xiàn)在,這可能行不通了,”二級(jí)公有云服務(wù)商Packet公司首席執(zhí)行官Zac Smith這樣表示。
我們可能永遠(yuǎn)也看不到云計(jì)算巨頭設(shè)計(jì)芯片的拆解細(xì)節(jié),但是有一些公開信息描述了很多嵌入塊的情況。Linley Group分析師Mike Demler表示,這些嵌入塊展現(xiàn)了從改進(jìn)后的DSP和GPU模塊,到使用乘法累加數(shù)組,再到數(shù)據(jù)流體系結(jié)構(gòu)的演變,這種架構(gòu)將生成的信息從神經(jīng)網(wǎng)絡(luò)的一個(gè)層面?zhèn)鬟f到另一個(gè)層面。
和三星最新公布的Samsung Exynos中的AI模塊一樣,很多芯片都轉(zhuǎn)向重度使用網(wǎng)絡(luò)修剪和量化技術(shù),運(yùn)行8位和16位操作以優(yōu)化效率和網(wǎng)絡(luò)稀疏性。
對(duì)網(wǎng)絡(luò)進(jìn)行修剪將變得越來越重要。卷積神經(jīng)網(wǎng)絡(luò)(CNN)之父Yann LeCun表示,神經(jīng)網(wǎng)絡(luò)模型只會(huì)越變越大,這就要求性能越來越高。不過他指出,神經(jīng)網(wǎng)絡(luò)模型可以被極大程度上進(jìn)行修剪,特別是考慮到人類大腦最大限度上只被激活了2%。
他在最近一篇針對(duì)芯片設(shè)計(jì)人員的論文中,呼吁開發(fā)能夠處理極其稀疏網(wǎng)絡(luò)的芯片。“在大多數(shù)情況下,芯片單元都是處于關(guān)閉狀態(tài)的,事件驅(qū)動(dòng)型的硬件具有一定的優(yōu)勢,如此一來,只有激活的單元才會(huì)消耗資源。”他這樣寫道。
“遞歸神經(jīng)網(wǎng)絡(luò)是最稀疏的,因此,使用細(xì)粒度修剪也是最有效的。有50%-90%的修剪都是針對(duì)CNN的,但是芯片設(shè)計(jì)人員要面對(duì)支持細(xì)粒度修剪不規(guī)則性和靈活性方面的挑戰(zhàn)?!钡蹏砉W(xué)院研究員Erwei Wang這樣表示。
減少權(quán)重?cái)?shù)量和降低精度有助于減少內(nèi)存需求。Wang說,英特爾的至強(qiáng)芯片和其他很多芯片已經(jīng)在使用8位整數(shù)數(shù)據(jù)執(zhí)行推理任務(wù),而FPGA和嵌入式芯片正在向4位甚至二進(jìn)制精度發(fā)展。
這么做是為了讓處理操作盡可能靠近內(nèi)存所在位置,避免片外訪問。理想情況下,這意味著能夠在寄存器內(nèi)部或者至少是在緩存內(nèi)部進(jìn)行計(jì)算。
LeCun甚至在他的論文中設(shè)想了一種將內(nèi)存和處理單元結(jié)合起來的可編程寄存器。
“為了讓深度學(xué)習(xí)系統(tǒng)具備推理能力,深度學(xué)習(xí)系統(tǒng)需要一種短期內(nèi)存作為情景內(nèi)存......這樣的內(nèi)存會(huì)變得非常普及,而且非常龐大,亟需硬件方面的支持。”他這樣寫道。下圖為根據(jù)研究員Erwei Wang及其同事最近對(duì)可編程架構(gòu)的研究調(diào)查現(xiàn)實(shí),性能差異是很大的。
MAC單元之外所需的靈活性
如果必須遠(yuǎn)離芯片,那就把大量請(qǐng)求批量處理成幾個(gè)較大的請(qǐng)求,這已經(jīng)是一種很流行的技術(shù)。Patterson注意到谷歌最近發(fā)表了一篇論文,對(duì)于批量操作最理想大小的討論帶來了一些啟發(fā)。
Patterson表示:“如果你小心操作的話,會(huì)在某個(gè)區(qū)域內(nèi)得到最理想的加速,然后當(dāng)你增加批量處理規(guī)模的時(shí)候,就會(huì)發(fā)現(xiàn)收益出現(xiàn)遞減,然后在很多模型中都表現(xiàn)平平。”
LeCun在論文中警告說:“我們需要新的硬件架構(gòu),這些架構(gòu)在批量處理大小為1的時(shí)候可以高效運(yùn)行。這意味著我們完全不需要依賴于矩陣產(chǎn)品作為最低層級(jí)的操作工具。”這一理論無疑是對(duì)目前芯片核心的多架構(gòu)單元的某種終結(jié)。
鑒于現(xiàn)在還是深度學(xué)習(xí)的早期發(fā)展階段,最重要的指導(dǎo)方針是保持靈活性,以及在可編程性和性能之間尋求平衡。
“我們吸取到的教訓(xùn)是,神經(jīng)網(wǎng)絡(luò)是持續(xù)演化的,你無法對(duì)神經(jīng)網(wǎng)絡(luò)的維度做出假設(shè),但又希望在各個(gè)方面都能保持高效。”負(fù)責(zé)開發(fā)Eyeriss芯片的Vivienne Sze這樣表示。
Wang說,在深度學(xué)習(xí)發(fā)展演化的過程中,F(xiàn)PGA將發(fā)揮重要的作用,這就要求硬件具備靈活性。他看好Xilinx的Versal ACAP,這是一種FPGA與硬件的混合體。
Wang提出的LUTNet研究探索了如何在無需維護(hù)索引的前提下定制查找表,以作為處理細(xì)粒度修剪的推理核心。他表示,這將讓推理任務(wù)所需的芯片減少一半。
這可以說是一個(gè)新穎的想法,很多企業(yè)已經(jīng)在這方面進(jìn)行實(shí)踐。例如,東芝最近推出了一種ADAS加速器,其94.5平方毫米的芯片中封裝了4個(gè)Cortex-A53核心,2個(gè)Cortex-R4、4個(gè)DSP、8個(gè)專用加速器模塊。
總的來說,對(duì)于AI芯片領(lǐng)域,我們還有非常大的想象空間,可以說,好戲才剛剛開始。