ChatGPT巨額每日運行費用引關注
大型AI模型如ChatGPT的需求持續攀升,每天都有數百萬用戶使用。這導致了運行成本居高不下。據研究公司SemiAnalysis首席分析師Dylan Patel透露,ChatGPT的運行成本可能高達每天70萬美元,每次查詢需3.6美分。成本主要來自AI模型所依賴的昂貴服務器。
ChatGPT的活躍用戶數量在短短兩個月內飆升至1億。而根據專家分析,大語言模型的訓練、運營和推理成本可能已達數千萬元。事實上,ChatGPT的每周推理成本已經超過了當初的訓練成本。
為應對高訪問量問題,ChatGPT引入了每月20美元的付費ChatGPT Plus服務,但并未吸引大量用戶。同時,使用OpenAI語言模型的企業也在支付高昂的服務費。如AI地牢游戲初創公司Latitude,其2021年每月的運行模型和租用亞馬遜云科技服務器費用高達20萬美元。
為降低成本,Latitude轉向Al21 Labs支持的語言軟件服務商,將AI成本削減至每月10萬美元。目前,OpenAI依賴英偉達GPU來維持運行,預計2023年可能需要額外3萬個英偉達GPU以維持商業性能。
微軟自研AI芯片助力降成本
面對高昂運行成本,微軟正在開發自家AI芯片,協助維護OpenAI的ChatGPT運行并降低成本。據The Information報道,微軟自研AI芯片名為Athena“雅典娜”,項目始于2019年,當時微軟與OpenAI達成10億美元交易。
如今,300多名微軟員工正在研發Athena芯片,以期性能超越現有供應商芯片。其他科技巨頭如亞馬遜和谷歌也已推出自研AI芯片。Patel表示,與英偉達產品相比,Athena具有競爭力的話,每個芯片成本可能降低三分之一。
微軟自研AI芯片的原因有二:
一是意識到在自主研發芯片方面落后于谷歌和亞馬遜;
二是尋找英偉達替代方案,降低依賴。
微軟計劃在Azure云服務中部署Athena芯片,為OpenAI提供強大的計算支持。據了解,微軟的Athena芯片將在2023年發布,屆時將大幅降低ChatGPT運行成本。
微軟與其他巨頭競爭加劇
在AI芯片市場,微軟、谷歌和亞馬遜展開了激烈競爭。谷歌已經研發了Tensor Processing Unit (TPU),專門用于AI和機器學習任務。而亞馬遜則推出了Inferentia,一款高性能、低成本的AI芯片。微軟迎頭趕上,力求在AI市場站穩腳跟。
同時,隨著市場需求的快速增長,尤其是云計算和AI領域的需求,芯片產業的競爭日益激烈。微軟也在積極尋求與其他公司的合作,以確保在AI芯片市場占據有利地位。
微軟為降低ChatGPT運行成本,秘密自研AI芯片Athena四年,預計將在2023年發布。成功研發將有望降低每個芯片成本三分之一,大幅減輕用戶和企業的負擔。在與谷歌和亞馬遜等科技巨頭的競爭中,微軟通過自研AI芯片謀求市場份額,期待在AI市場站穩腳跟。