英偉達(NVIDIA)作為全球領先的半導體公司,以其在人工智能和圖形處理領域的創新技術而聞名。然而,近年來,英偉達面臨著來自競爭對手和市場變化的巨大壓力。本文將探討英偉達在軟件基礎設施、市場競爭和估值等方面所面臨的挑戰,并分析其應對之策。同時,我們將審視英偉達在這個充滿變數和機遇的領域中的角色和前景。讓我們一起深入了解英偉達所面臨的挑戰與機遇,以及其如何保持領先地位。
一、英偉達乘著AI浪潮成為贏家
英偉達(NVIDIA)是一家主要生產圖形處理單元(GPU)的公司,而如今,GPU在巨大工作量的浮點數學運算方面表現出色。雖然早期主要用于支持計算機上配備高幀率和高分辨率顯示器的圖形處理,但英偉達在2005年左右意識到GPU在其他實際應用場景中的潛力。從那時起,他們開始致力于研發,將GPU應用于圖形處理以外的工作負載。
2012年,英偉達的努力開始見到回報。全球首個高質量圖像識別人工智能(AI)模型——AlexNet,就是建立在英偉達的GPU加軟件之上,并在ImageNet比賽中一舉擊敗其他競爭對手。從那時起,除了谷歌之外,英偉達的軟硬件組合就成為所有從事AI研究的公司的默認選擇。
之后,英偉達將GPU的研發分為兩個方向:一是PC端和加密貨幣work設備,二是數據中心GPU。PC端的GPU產品相對昂貴,最高售價可達1600美元左右;而數據中心GPU的價格更加夸張,高達1萬到1.5萬美元,甚至有旗艦單卡售價4萬美元的情況出現。英偉達的數據中心GPU擁有約75%的毛利率,在硬件領域幾乎是前所未有的。
然而,這種實質性壟斷地位是該公司在AI軟硬件領域取得成功后的自然結果。自2012年以來,英偉達的GPU和軟件使得AI模型的體量呈指數級增長。
在2012年之前的幾年里,模型的體量大致按照摩爾定律每兩年增加一倍。但從2012年開始,每個技術公司都開始使用英偉達的GPU進行機器學習研究,模型的體量增長速度也開始加快,每3到4個月就翻一番。這樣的增長速度一直持續到ChatGPT模型的出現。其中最著名的模型之一是AlphaGo,它在圍棋比賽中表現出色,幾乎碾壓人類選手。直到2021年,當時最大的AI模型也只能玩一些游戲而已。
模型的大小很重要,因為在生產環境中構建和運行這些模型的成本隨著模型體量的增加呈指數級增長。例如,GPT-4的體量是其前身GPT-3.5的3到6倍。然而,OpenAI為GPT-4 API提出的訂閱費卻高出15到60倍。此外,需要強調的是,OpenAI開放的并不是GPT-4的最佳版本。托管OpenAI大語言模型的微軟Azure無法提供足夠的GPU來支持這項業務,因此大部分有限資金的客戶暫時無法使用最強大的語言模型。此外,GPU供應短缺也阻礙了其他各種服務的實施。
舉個簡單的例子,讓ChatGPT為即將召開的美聯儲會議寫一首詩,輸入3個提示詞,讓它輸出一首28行的詩。看看在OpenAI API上執行這樣一個簡單任務需要花費多少錢。
價格之所以大幅上漲,原因在于英偉達數據中心GPU的供應緊缺。由于資源有限,目前GPT-4 32k服務仍無法全面推出。
雖然在研究階段,大語言模型已經確立了體量越大成本越高的趨勢,但在生產層面上,大規模推理帶來了更加夸張的資源需求和設施開銷。突然之間,AI技術的經濟邏輯發生了變化。過去十年間,每個人都在使用英偉達的軟硬件進行模型研究,所以現在大部分收入都被英偉達賺走了。
多年來,隨著收入迅速增長,微軟在智能云領域建立了強大的市場影響力。然而,當被迫大量采購GPU來支持ChatGPT的生產應用時,好日子終于宣告結束。微軟的云運營利潤率連續四個季度下降,這主要是因為英偉達數據中心GPU高達75%的毛利率。
面對英偉達DGX H100這樣的AI服務器,我們會發現其中的利潤分配極其不均衡。
作為AI服務器領域的主要力量,英偉達DGX H100總銷售額的約90%都進入了芯片巨頭的口袋。這還沒有算上英偉達認證授權設備的費用。
如果有人想構建自己的高性能服務器,可以選擇避免使用英偉達認證,采用廉價CPU,或者減少內存/存儲空間來降低成本。當然,也可以避免使用英偉達的網絡DPU,轉而選擇更便宜的硬件,如博通或Mellanox(這些與英偉達有一定關聯)。然而,這可能會導致性能瓶頸。無論如何節約成本,無法回避的是需要使用8個H100 GPU和負責GPU互連的4個NVSwitch,這些硬件本身就要花費近18萬美元。
的確,英偉達賺取了大部分的利潤。他們花了近20年的時間為2023年的AI大爆發積蓄力量。盡管巨額利潤使英偉達成為市場上眾矢之的,但他們捍衛著AI硬件主導地位的護城河在于他們擁有唯一完整的軟硬件組合,而且這套組合自2012年以來一直是研究人員們依賴的默認選項。隨著我們將這些超大體量模型投入生產,每家參與的廠商都陷入了困境。
那么,業界有哪些應對措施呢?目前主要有以下三點:
1.硬件:采用"AI加速器"等替代性硬件,以較低的成本執行相同的工作。
2.模型體量:在最近的研究中,研究人們還在努力在更小的模型上實現更好的效果,從而顯著降低對GPU算力的需求。通過優化算法和模型結構,研究人員致力于在減少參數數量的同時提高模型的性能和效果。這種方法被廣泛應用于輕量級模型和移動設備上,以滿足資源受限的環境需求。
3.軟件:將訓練和推理負載從硬件上剝離出來,以減少對英偉達的依賴。通過使用分布式計算和云計算等技術,可以將工作負載分配到多個計算資源上,從而提高整體的計算效率和資源利用率。此外,也有一些開源軟件框架和庫,如TensorFlow和PyTorch,提供了跨不同硬件平臺的通用接口,使開發者能夠更靈活地選擇硬件設備。
二、AI 加速器:顛覆游戲規則的暗渡陳倉之策
AI 加速器是一種由多種不同硬件組成的松散結合體。這項技術起源于2015年,當時谷歌的AI訓練需求已經超過了英偉達GPU的供應能力。為此,谷歌在同年首次公布了供內部使用的張量處理單元(TPU)。目前,TPU 2、3和4版已經在Google Cloud上開放租用,相較于云GPU,在執行相同工作負載時能夠節約40%到50%的成本。
這些加速器采用了多種設計方式,但其底層技術邏輯是相同的——通過使用計算成本較低的整數運算來模擬成本極高的浮點運算。盡管這可能會導致數學精度的降低,但大量研究表明,除了科學應用之外,大多數AI模型并不需要英偉達GPU所提供的極高精度。
這就像是在偷偷作弊,但效果似乎相當不錯。現在,我們已經看到了AMD/Xilinx、高通和英特爾等廠商推出了自己的AI加速器,再加上Google Cloud的原生TPU。另據報道,微軟也計劃為Azure開發加速器,可能會與AMD合作來分擔OpenAI的工作負載。
然而,在邁出這一步時需要小心謹慎。一方面,各廠商希望逐漸從英偉達手中奪回業務利潤;另一方面,在可預見的未來,這些廠商仍然需要大量采購英偉達GPU。只有那些能夠巧妙應對這種微妙局面的人才能始終保持主動地位。
三、小型化的趨勢:AI模型的新轉變
近年來,AI模型的體量呈現快速膨脹的趨勢,每3到4個月就翻一番。這個趨勢并非秘密,人們早已感受到了這一新的發展方向。然而,在商業環境中,追求模型越大越好已經失去了意義,相反,“小即是美”成為了AI時代的新主題。
這個轉變的起點可以追溯到ChatGPT模型的發布。在此之前,許多公司都在進行自然語言處理的研究,但ChatGPT的問世如同一記耳光,向全世界展示了什么是更大更好,什么是引領時代。這也引發了一股恐慌情緒的蔓延。
去年,Stability AI開源了穩定擴散圖像生成模型,受到了廣泛關注。許多廠商紛紛決定開源自家的模型,希望在社區的支持下取得更大的進步。Facebook就是其中之一,他們開源了自家的LLaMA語言模型,其參數規模高達650億,約為GPT-3的三分之一,比GPT-4小9到18倍。此后,斯坦福大學的研究人員開發出了Alpaca版本,可以在幾乎所有硬件上運行。
擁有關注和熱度,社區開源開發的速度往往驚人。如今,已經有大量應用程序構建在Alpaca和其他開源模型之上。人們在努力提升模型性能的同時,也在尋求控制模型參數體量的方法。
最重要的是,這些模型開始在消費級硬件上運行,包括個人電腦甚至智能手機。而且它們完全免費。因此,基礎模型的分界線不再是企業,而是商業與開源兩個陣營。
谷歌也意識到了這個趨勢。在最新的I/O大會上,他們公布了一套比前代更小但性能更強的語言模型。
·LaMDA(2021年):參數多達1370億
·PaLM(2022年):參數多達5400億
·PaLM 2(2023年):根據未經證實的內部消息,參數多達3400億,基本符合谷歌所說的“明顯更小”的說法。這是我所知的AI模型首次向小型化轉變,其中最小的PaLM 2模型甚至可以在個人電腦或智能手機上運行。
盡管GPT-4仍然是目前最優秀和最強大的語言模型,但它也是體量最大、運行成本最高的選擇。這對英偉達公司來說是有利的,但同時也激發了業界對于構建高性能小型模型的熱情。谷歌已經邁出了第一步,開源貢獻者也在不斷微調自己的領域模型,主要以LLaMA/Alpaca為基礎。
隨著越來越多的工作負載在消費級硬件上運行,英偉達也必須接受市場對GPU算力依賴度日益降低的現實。這意味著AI模型不再需要依賴巨大的GPU資源,而是更加注重在小型設備上的高效運行。這一趨勢對于推動AI技術的普及和應用帶來了巨大的潛力,同時也促使廠商們加快創新步伐,開發出性能強大且適應各種設備的小型化模型。
四、軟件:構建穩固的護城河
軟件護城河:英偉達的核心優勢與挑戰
英偉達作為AI軟件領域的領導者,其真正的核心優勢不僅僅在于硬件,而是在于經過近20年研究的軟件技術。然而,軟件基礎設施的碎片化和缺乏完善性一直是非英偉達陣營面臨的問題。現在,一家名為Modular的公司正在挑戰英偉達的技術護城河。他們采用了類似于LLVM的模塊化設計,旨在構建一個統一、穩定的軟件生產環境,為AI應用提供強大的推理引擎。這一舉措對英偉達而言堪稱釜底抽薪,因為軟件的穩定性和完備性是構建護城河的關鍵要素。
五、英偉達的反擊之戰
英偉達的戰略反擊:面對普通硬件的挑戰
英偉達正面臨來自全球各方的競爭壓力,不僅來自其直接客戶,還來自客戶的客戶。然而,英偉達堅持一種不斷進取的態度,始終保持居安思危的信念。然而,真正的競爭對手往往并非巨大而明顯的,而是那些無處不在、價格更低、性能較差的普通硬件。回顧IBM與英特爾的競爭,我們可以看到即使市場領導者也可能因為忽視這些細小挑戰而失去優勢。英偉達需要采取行動,拿出自己的AI加速器來保護自己的市場地位,即使這可能會削弱利潤和增長空間。否則,其他競爭對手將填補這個空白。
六、英偉達的估值與風險
英偉達的估值與未來挑戰:縱覽技術市場的不確定性
英偉達的市場估值一直備受關注。盡管最樂觀的情況下,英偉達的市值可能相當于50年的經營收益,但這種理想情況只存在于理論模型中。英偉達與1999年至2000年的思科有著相似之處,都是成為新一波技術的領先供應商。然而,思科在當時面臨著激烈競爭,并在2000年達到了高市盈率。現在,英偉達面臨著類似的挑戰,盡管其市盈率已經達到了204倍。過去十年,英偉達是回報率最高的科技股之一,但歷史上的案例表明,市場形勢可能在短時間內發生劇變。因此,英偉達需要應對以下五個風險來支持其市場估值的持續增長:
加密貨幣work收入無法恢復:這一點尚未在估值中得到體現,但可能發生的可能性較高,應該考慮在估值結果中。
1.AI投資泡沫:雖然可能性較低,但將其作為一個風險因素計入估值是必要的。
2.英偉達在AI硬件領域的主導地位受到顛覆:這可能迫使英偉達壓縮現有的毛利率,從長遠來看,這種風險可能在2025年、2030年或者2035年發生。
3.經濟衰退的可能性:年底或明年初可能出現經濟衰退的幾率較高,估計約為50%。
4.摩爾定律的瓶頸:摩爾定律可能再次遭遇瓶頸,進一步提升性能的成本會更高。在過去,英偉達表現出強大的增長勢頭,但目前高達50倍的市盈率仍令人難以理解。
盡管英偉達面臨著諸多挑戰和風險,但其在人工智能和硬件領域的強大實力和技術護城河仍使其在市場上處于領先地位。無論未來會帶來什么變化,英偉達都將繼續努力應對挑戰,保持創新和競爭力。作為觀察者和參與者,我們將持續關注這個引人注目的商業競爭,并期待著看到未來的發展和結果。在技術的推動下,世界將繼續迎來新的變革和機遇。