作為吃瓜群眾,簡單看看這個事兒的幾個影響:
1,影響跨國企業(yè)的商業(yè)信譽。
企業(yè)級市場、數據中心市場穩(wěn)定的供給非常重要,像這種說禁運就馬上就斷貨的操作,實在其實有損企業(yè)的商業(yè)信譽。
有此先例,不免讓很多用戶擔心朝不保夕,修改技術路線。所幸,后來有了延期的操作,不然會有更深遠影響。
2,禁運對數據中心技術架構影響。
英偉達的顯卡大概兩三年更新一代,每一代的性能提升都非常大,性能大致上可以參考CUDA個數,比如從P100到V100,CUDA增長了42%,從V100到A100提升了35%。
而且,伴隨著工藝和架構的進化,帶來的性能提升非常大。如果不用新卡,同等性能之下,運營成本負擔也會大大提升,特別是電費,在雙碳背景下,此舉會帶來很大額外壓力。
3,禁運對技術發(fā)展的影響。
目前主要是對HPC高性能計算和機器學習的影響。
HPC高性能關系到前沿基礎科學研究領域的發(fā)展步伐,這些領域包括分子動力學模擬、生物制藥、材料電子結構計算、材料模擬、生命科學等,人們越重視基礎科學,就越應該關注顯卡。
此前超算領域已經有過一些關于CPU禁運的先例,所以大家對禁運應該不陌生。
機器學習領域,如今常用的各種人工智能服務,包括刷臉,語音識別,背后多少都靠高性能顯卡來訓練模型,禁運會增加這些服務提供商的成本,但更重要的是,可能影響一個國家在機器學習方面的探索。
眼看著如今機器學習模型越來越大,有些模型參數多的都達到了Trillion(萬億)級別,比如GPT-3和Switch Transformer這種語言模型頂流,這些模型能做一些非常不可思議的事情,發(fā)展前景令人向往。
機器學習的核心思想就是大力出奇跡,非常依賴高性能加速器來訓練模型,沒有顯卡就少了很多可能。
比如,最新的H100顯卡,搭配上NVLink Switch System能連接256塊H100構建集群,能將大型語言模型提升30倍。如果沒有這些,機器學習的發(fā)展步伐無異于中了減速Buff。
4,對技術服務商的影響。
英偉達發(fā)布H100的新聞稿里提到,AWS、Google Cloud、微軟Azure、Oracle Cloud、阿里云、百度AI云和騰訊云,都會提供基于H100的實例。此外,戴爾、HPE、思科、Atos、聯(lián)想等OEM廠商還將提供一系列采用H100的服務器產品。
一直以來,美國都是限制一些國家將高端技術用于特定領域,如果按照這一原則,一些國內的公有云服務商應該還是能拿到H100,除非全面禁止向960萬平方公里的土地上使用這些產品技術。
技術服務商,特別是國內公有云服務商可以考慮借鑒AWS的做法,自己研發(fā)類似AWS Trainium的專用的機器學習訓練芯片,因為只有云服務商具備將芯片做起來、并用起來的規(guī)模和技術優(yōu)勢。
而且,對云服務商來說,此舉既可以豐富產品類型,也能收獲更強的供應,提高技術路線的把握能力。對用戶來說,云能屏蔽下層硬件差異,降低使用中的障礙。如果云廠商要做替代,建議盡可能拉上國產GPU廠商。
5,國產利好。
理論上肯定是利好國產GPU市場的,但國產GPU挑戰(zhàn)特別多,盡量拉上云廠商路才好走。
第一個,是技術本身的差距,硬件積累和軟件生態(tài)的積累首當其沖,其難度大致上可以參考國產CPU市場,但好在技術上的難度會低很多。
第二個,如何保證穩(wěn)定的供給?即使將來具備了英偉達同等硬件性能和軟件生態(tài),這種先進技術還能否不受約束地隨便用,至少可見的未來,芯片領域還需要臺積電的供應,同樣可能受制約。