出處:雷鋒網(wǎng) 作者:包永剛
Hot Chips 31本周在美國(guó)硅谷舉辦,兩款最大的芯片發(fā)布引人注意,分別是Cerebras最大的深度學(xué)習(xí)芯片WSE,還有賽靈思發(fā)布全球最大的FPGA。Intel發(fā)布的兩款A(yù)I芯片Nervana NNP-T/NNP-I同樣備受關(guān)注。
不過(guò),AMD在Hot Chips期間并沒(méi)有獲得巨大的關(guān)注,這或許是因?yàn)樵诋?dāng)今AI大熱的情況下,他們采用“觀望式”的AI策略。
Intel、AMD和NVIDIA如何預(yù)估AI市場(chǎng)?
NVIDIA預(yù)計(jì),其數(shù)據(jù)中心和人工智能潛在市場(chǎng)(TAM)到2023年將達(dá)到500億美元。這包括HPC(高性能計(jì)算),DLT(深度學(xué)習(xí)訓(xùn)練)和DLI(深度學(xué)習(xí)推理)。
Intel估計(jì),其DLT和DLI 潛在市場(chǎng)在2020年將達(dá)到460億美元。
AMD尚未發(fā)布任何關(guān)于深度學(xué)習(xí)潛在市場(chǎng)的預(yù)測(cè),因?yàn)樗鼘W⒂趶腎ntel和NVIDIA獲得市場(chǎng)份額。因此,也沒(méi)有看到AMD有專注于人工智能的芯片。
不過(guò),AMD首席執(zhí)行官蘇姿豐(蘇姿豐)表示,AMD正在努力成為人工智能領(lǐng)域更重要的參與者。
蘇姿豐:CPU的局限性
任何計(jì)算性能的討論都始于摩爾定律,但摩爾定律正在放緩。摩爾定律指出,隨著芯片尺寸縮小和晶體管密度增加,計(jì)算性能將每?jī)赡攴环?/p>
在AnandTech Hot Chips 31的報(bào)道指出,蘇姿豐在主題演講中解釋說(shuō),AMD通過(guò)各種方式改善了CPU的性能,包括工藝制程、芯片面積、TDP(熱設(shè)計(jì)功耗)、電源管理、微體系結(jié)構(gòu)和編譯器。
先進(jìn)工藝制程的貢獻(xiàn)最大,這使得CPU的性能提升了40%。增加芯片尺寸也可以帶來(lái)兩位數(shù)性能的提升,但這不符合成本效益。
AMD通過(guò)微體系架構(gòu)將EPYC Rome服務(wù)器CPU IPC(每個(gè)周期的指令)在單線程和多線程工作負(fù)載中分別提升了23%和15%。高于行業(yè)平均5%-8%的水平。上述所有方法在兩年半內(nèi)都會(huì)使性能翻倍。
蘇姿豐:人工智能所需的加速計(jì)算
蘇姿豐表示,一方面,摩爾定律正在放緩。另一方面,世界上最快的超級(jí)計(jì)算機(jī)的性能每1.2年翻一番。這意味著過(guò)去十年的解決方案將失效。
該行業(yè)目前的需求是優(yōu)化系統(tǒng)的各個(gè)部分,使其成為人工智能工作負(fù)載的理想選擇。她解釋說(shuō),ASIC和FPGA的每瓦特性能最高,CPU最低,通用GPU在每瓦性能方面介于CPU和FPGA之間。
蘇姿豐指出,每個(gè)人工智能工作負(fù)載都有不同的計(jì)算要求?;ミB技術(shù)是解決方案,因?yàn)樗鼘⒉煌牟糠只ミB到同一個(gè)系統(tǒng)。她用以下例子解釋了這一點(diǎn):
- NAMD(納米級(jí)分子動(dòng)力學(xué))工作負(fù)載取決于GPU
- NLP(自然語(yǔ)言處理)工作負(fù)載在CPU、GPU、內(nèi)存帶寬和連接性之間保持平衡
業(yè)界使用傳統(tǒng)方法提高了CPU和GPU的性能。蘇姿豐強(qiáng)調(diào),業(yè)界應(yīng)該通過(guò)關(guān)注互連,I/O、內(nèi)存帶寬、軟件效率和軟硬件協(xié)同優(yōu)化來(lái)提高性能。
AMD的AI策略
蘇姿豐表示,AMD已采用CPU / GPU /互連策略來(lái)挖掘人工智能和HPC的機(jī)會(huì)。
她說(shuō),AMD將在Frontier超級(jí)計(jì)算機(jī)中使用其所有技術(shù)。該公司計(jì)劃為實(shí)現(xiàn)超級(jí)計(jì)算機(jī)全面優(yōu)化其EYPC CPU和Radeon Instinct GPU。它將通過(guò)其Infinity Fabric總線技術(shù)進(jìn)一步增強(qiáng)系統(tǒng)性能,并通過(guò)其ROCM(Radeon Open Compute)軟件工具解鎖性能。
與Intel和NVIDIA不同,AMD沒(méi)有專用的人工智能芯片或?qū)S玫募铀倨?。盡管如此,蘇還指出,“我們絕對(duì)會(huì)看到AMD在人工智能方面是一個(gè)很重要的參與者。”
AMD正在考慮是否要建立一個(gè)專用的AI芯片,這一決定將取決于人工智能如何發(fā)展。
蘇姿豐補(bǔ)充說(shuō),許多公司正在開(kāi)發(fā)不同的人工智能加速器,如ASIC、FPGA和張量(Tensor)加速器。這些芯片將縮小到最可持續(xù)的狀態(tài),然后AMD將決定是否構(gòu)建可以廣泛應(yīng)用的加速器。
與此同時(shí),AMD將與第三方加速器制造商合作,并通過(guò)其Infinity Fabric互連將其芯片與自己的CPU / GPU連接。這個(gè)策略類似于其光線跟蹤策略,NVIDIA去年推出了實(shí)時(shí)光線跟蹤,但AMD并沒(méi)有急于推出這項(xiàng)技術(shù)。
不過(guò),蘇姿豐表示AMD將在生態(tài)系統(tǒng)完善并且該技術(shù)被廣泛采用的情況下引入光線跟蹤技術(shù)。
鑒于AMD是一個(gè)相對(duì)較小的玩家,與擁有充足資源的大型玩家競(jìng)爭(zhēng),上述策略具有經(jīng)濟(jì)意義。
在已經(jīng)建立的市場(chǎng)中分享份額可以減少因采用率低而導(dǎo)致產(chǎn)品失敗的風(fēng)險(xiǎn),并保證最低的回報(bào)。
AMD AI戰(zhàn)略與Intel和NVIDIA戰(zhàn)略的不同
AMD在開(kāi)發(fā)AI芯片之前采用了觀望態(tài)度。他們現(xiàn)在做的,是利用其現(xiàn)有技術(shù)來(lái)滿足AI工作負(fù)載。
Intel開(kāi)發(fā)了全面的技術(shù),包括Xeon CPU、Optane內(nèi)存、Altera FPGA和互連技術(shù)。也在開(kāi)發(fā)獨(dú)立GPU Xe。
在Hot Chip 31中,Intel推出了專用于深度學(xué)習(xí)訓(xùn)練和深度學(xué)習(xí)推理的Nervana AI芯片。Intel的芯片由自己生產(chǎn),雖然這使Intel能夠更好地控制其技術(shù),但需要大量的時(shí)間和資源。
NVIDIA的AI策略是提供通用GPU以及可用于任何AI應(yīng)用程序的CUDA軟件支持。它還具有NVLink互連技術(shù)。英偉達(dá)正與合作伙伴共同探索人工智能新市場(chǎng)。雖然這種策略需要大量研究并且有很高的失敗風(fēng)險(xiǎn),但這些高風(fēng)險(xiǎn)也會(huì)帶來(lái)高回報(bào)。