(資料圖片)
4月18日,字節(jié)跳動旗下云服務平臺火山引擎舉辦“原動力大會”。
大模型時代,市場最為關注的話題無疑是字節(jié)跳動在這方面的布局進展。對此火山引擎總裁譚待在會上強調(diào):“火山引擎自己是不做大模型的,我在別的場合也說過,火山引擎本身先是服務好做大模型的公司。”他透露:“國內(nèi)有數(shù)十家做大模型的企業(yè),大多已經(jīng)在火山引擎云上。”
而對于集團自研的大模型,字節(jié)跳動副總裁楊震原稱:目前這部分公司是在做一些學習和做一些研究,現(xiàn)在還沒有什么結(jié)果,所以等未來這方面有了進展再同步。”
對于火山引擎與大模型廠商的具體合作方式,譚待介紹稱:“現(xiàn)階段肯定還是技術層面的合作,就是他利用我們的算力平臺和機器學習平臺去搭建,當然也會用存儲,也會用網(wǎng)絡,各種各樣云上的產(chǎn)品都會用,因為要把負載在這上面能跑起來,包括他未來的推理。所以就是這些合作。”
針對未來大模型的算力調(diào)度與訓練兩大需求,火山引擎分別發(fā)布了自研DPU(數(shù)據(jù)處理單元)等系列云產(chǎn)品,并推出新版機器學習平臺。
相較于負責通用計算的CPU、負責AI計算的GPU,DPU負責資源卸載、加速和隔離,能夠提升資源效率。譚待預測,未來3年內(nèi),大規(guī)模的算力中心,都將形成“CPU+GPU+DPU”的混合算力結(jié)構(gòu)。
此外,算力方面,火山引擎機器學習平臺經(jīng)過抖音等海量用戶業(yè)務長期打磨,支持單任務萬卡級別的超大規(guī)模分布式并行訓練場景。GPU彈性計算實例可靈活調(diào)度資源,隨用隨取,最高可以為客戶節(jié)省70%的算力成本。
會上,火山引擎還宣布與字節(jié)跳動國內(nèi)業(yè)務并池。基于內(nèi)外統(tǒng)一的云原生基礎架構(gòu),抖音等業(yè)務的空閑計算資源可極速調(diào)度給火山引擎客戶使用,離線業(yè)務資源分鐘級調(diào)度10萬核CPU,在線業(yè)務資源也可潮汐復用,彈性計算搶占式實例的價格最高可優(yōu)惠80%以上。
新發(fā)布的機器學習平臺則針對大模型訓練需求,據(jù)稱支持萬卡級大模型訓練、微秒級延遲網(wǎng)絡,能讓大模型訓練更穩(wěn)更快。(撰文 | 董溫淑 編輯 | 董雨晴)


