男人网站,国产精品对白刺激久久久,性XXXX欧美老妇506070,哦┅┅快┅┅用力啊┅┅在线观看

大模型敘事下的百度智能云:比創(chuàng)新更重要的,是創(chuàng)新的擴散

創(chuàng)投圈
2025
03/12
21:59
分享
評論

 

決定產(chǎn)業(yè)未來的關鍵因素并非只是技術創(chuàng)新本身,更在于誰能夠以更低成本、更高效率實現(xiàn)創(chuàng)新擴散,真正將 AI 的潛力轉化為企業(yè)和社會發(fā)展的實際生產(chǎn)力。

DeepSeek 點燃了 " 引線 " 后,大模型再一次進入到了 " 爆發(fā)期 "。

短短一個多月里,大模型的能力上限不斷被刷新," 落地 " 已然成為產(chǎn)業(yè)上下游的普遍共識。

在這樣的局面下,一家企業(yè)最佳的生態(tài)位是什么呢?

上世紀 90 年代,杰弗里 · 摩爾在深入研究了埃弗雷特 · 羅杰斯的 " 創(chuàng)新擴散理論 " 后,在《跨越鴻溝》將 " 技術采用生命周期 " 的客戶群體分成了五類,分別是創(chuàng)新者、早期采用者、早期大眾、后期大眾和落后者。

對號入座的話,大模型正處于從早期采用者向早期多數(shù)過渡的階段,也就是 " 鴻溝 " 所在的階段。

由此來審視這輪大模型浪潮,相較于模型層的你追我趕,一場更重要的博弈在于怎么將創(chuàng)新迅速 " 擴散 " 到產(chǎn)業(yè)中,支撐創(chuàng)新應用的落地。

01.

跨越算力鴻溝:一場 " 雙螺旋 " 競賽

DeepSeek 意外 " 出圈 " 后,在流量洪峰的沖擊下一度陷入了 " 崩潰循環(huán) ",直到半個多月后才走出 " 服務器繁忙 "。

一些想要接住 DeepSeek 流量的第三方 MaaS 平臺,則在月虧 4 億的壓力下,無奈關閉了相關推理服務。

這些現(xiàn)象指向了同一個原因——算力瓶頸。

算力供應的不穩(wěn)定,即便是 DeepSeek 這樣的團隊,也無法在短時間里填補缺口;而算力價格的居高不下,不單單束縛了千萬使用者的手腳,MaaS 平臺也深感壓力山大。

大模型想要落地到千行萬業(yè),讓 " 智力 " 轉化為實實在在的生產(chǎn)力,首先要打破算力瓶頸。大模型創(chuàng)新擴散的鴻溝,很大程度上屬于算力鴻溝,只有打破了算力瓶頸,才能創(chuàng)新的擴散鋪平道路。

就在 DeepSeek 走紅的同一時間,百度智能云對外宣布——在百舸 4.0 的能力加持下,成功點亮昆侖芯三代萬卡集群。

如果說 DeepSeek 給出了模型訓練的新思路,百舸 4.0 給出了跨越算力鴻溝的新解法:通過覆蓋大模型落地全流程的算力平臺,讓用戶能夠高效率、低成本使用算力。

訓練大模型的第一步是創(chuàng)建集群。許多人不知道的是,GPU 集群需要大量復雜、瑣碎的配置和調試,通常需要幾周時間。但基于百舸 4.0 創(chuàng)建集群,只需要 1 小時就可以跑起來。

完成創(chuàng)建集群后,真正的考驗才剛開始,因為集群的規(guī)模越大,出故障的概率就越高,運維的復雜性急劇增加。例如 Meta 訓練 Llama3 時用了 1.6 萬張 GPU 的集群,平均每 3 小時就會出一次故障。同樣是萬卡任務,百舸 4.0 可以保障有效訓練時長占比達到 99.5%,遠高于行業(yè)內公布的相關指標。

大模型訓練既要穩(wěn)定,也要效率。訓練千億、萬億參數(shù)的模型,動輒需要幾周到幾個月的時間。百舸 4.0 在集群設計、任務調度、并行策略、顯存優(yōu)化等方面進行了大量優(yōu)化,最終讓端到端的性能提升了 30%。

同時不應該忽略的,還有百舸 4.0 的多芯混訓、多芯適配能力。能夠把同一廠商不同代際芯片、不同廠商的芯片統(tǒng)一管理,混布成一個集群高效完成模型的訓練和推理任務。

按照百度智能云官方公布的數(shù)據(jù):在萬卡規(guī)模上,百舸 4.0 將兩種芯片混合訓練的效率折損控制在了 5% 以內;某金融機構在百舸的支持下,完成了不同型號 GPU 資源的部署、上線,有力保障了 6000 多次訓練任務。

古代打仗講求 " 兵馬未動糧草先行 ",放到大模型產(chǎn)業(yè)同樣適用,其中的算力就是 " 糧草 "。想要大模型深入落地到千行萬業(yè),勢必要開啟一場追求高效率和低成本的 " 雙螺旋 " 競賽。

可以找到的一個實戰(zhàn)案例是:春節(jié)假期結束時,有近 20 家芯片企業(yè)在忙著適配 DeepSeek,在百舸 4.0 的賦能下,百度的昆侖芯是國內率先支持單機部署滿血版 DeepSeekR1 的芯片,單機 8 卡配置便可實現(xiàn) 2437tokens/s 吞吐,并給出了業(yè)內最低的價格。

02.

吹響落地號角,工程能力見真章

和每次產(chǎn)業(yè)革命初期一樣,創(chuàng)新的擴散始于 " 早期采用者 ",往往是創(chuàng)新意識比較明確且有能力進行智能化轉型的大中型企業(yè)。

某種程度上說,大中型企業(yè)的選擇,更能折射出真實的市場需求,更能從中洞察到創(chuàng)新的方向。

曾有媒體統(tǒng)計了 "2024 全年大模型相關中標項目 ",一共有 910 個項目,中標金額約為 25.2 億元。其中百度智能云斬獲了 55 個項目,中標金額 3.4 億元,在能源、政務、金融等行業(yè)的中標數(shù)量位于所有廠商第一。

到了 2025 年 1 月,公開數(shù)據(jù)統(tǒng)計到的大模型相關中標項目數(shù)量已經(jīng)達到 125 個,項目金額為 12.67 億元。百度

智能云實現(xiàn)了中標項目數(shù)量和中標金額上的雙第一,中標金額 4.17 億元,占到了全行業(yè)的三分之一。

為什么會出現(xiàn)這樣的局面?

國際權威咨詢機構弗若斯特沙利文進行了深入的市場調研后,在《2024 年中國大模型行業(yè)應用優(yōu)秀案例白皮書》給出了解釋:企業(yè)用戶在大模型落地的主要需求點包含完善的落地指導、先進的產(chǎn)品架構、全面的安全治理以及開放的生態(tài)支持,百度智能云代表的 AI 云廠商在技術生態(tài)、行業(yè)經(jīng)驗和服務能力方面具備顯著優(yōu)勢,能夠以高效率、低成本的方式加速大模型的推廣與行業(yè)應用。

原因依然離不開 " 高效率和低成本 "。

進一步從技術層面剖析的話,和百度智能云的全棧 AI 技術能力不無關系。

百度是國內為數(shù)不多同時深耕芯片、框架、模型、應用的企業(yè),能夠針對大模型的訓推、部署和調優(yōu)等進行全流程優(yōu)化。比如昆侖芯三代萬卡集群,在行業(yè)內率先驗證了可以通過模型優(yōu)化、并行策略、有效訓練率提升、動態(tài)資源分配等手段,將訓練、微調、推理任務混合部署,進而最大化提升集群綜合利用率,降低單位算力成本的可行性。

在大模型進入全球視野的第四年,早已形成了兩個戰(zhàn)場:第一個戰(zhàn)場是大模型訓練,第二個戰(zhàn)場是大模型落地。

特別是在 " 百模大戰(zhàn) " 格局瓦解,大模型的牌桌上僅剩下百度、阿里、DeepSeek、智譜等少數(shù)玩家后,越來越多企業(yè)將注意力集中到了應用層,思考怎么將技術可能性轉化為穩(wěn)定生產(chǎn)力,討論如何通過標準化流程、工具鏈支撐和全生命周期管理,解決大模型開發(fā)與部署中的效率、成本和質量矛盾。

在百度智能云的示范下,云廠商競賽的升維已然是可以預見的結果,倒逼全行業(yè)提升工程能力,從底層芯片、智算平臺、大模型等多個維度進行布局,推進全棧創(chuàng)新與快速迭代。

也就是說,落地應用的號角吹響后,競爭的天平進一步向 " 擴散 " 傾斜,不單單是算力之爭、模型之爭,而是工程能力的比拼:誰能借助系統(tǒng)性的技術體系和方法論降低成本、提升大模型落地易用性、幫助企業(yè)更好地構建 AI 原生應用,誰才有機會成為最后的贏家。

03.

長跑才剛開始,算力仍是重頭戲

按照 " 創(chuàng)新擴散理論 ",一旦跨越了從早期采用者到早期大眾擴散的 " 鴻溝 ",市場將會進入到高速增長階段。

2024 年被公認是大模型推理應用的元年,2025 年注定是落地生花的一年,從央國企先行逐漸演變成一股不可逆的產(chǎn)業(yè)浪潮。對算力的需求,將呈現(xiàn)出指數(shù)級的增長態(tài)勢。

折射到 AI 基礎設施的布局上,點亮昆侖芯三代萬卡集群的百度智能云并未停下來,還將進一步點亮 3 萬卡集群。百度集團執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖曾公開表示:" 百舸 4.0 正是為部署 10 萬卡大規(guī)模集群而設計的,目前已經(jīng)具備了成熟的 10 萬卡集群部署和管理能力。"

不只是百度智能云,國外的 xAI、Meta、OpenAI 等都在積極布局 10 萬卡乃至更大規(guī)模的智算集群。

個中原因并不難理解。

一方面,大模型的 Scaling Law 仍在繼續(xù),大模型競賽本質依然是算力競賽,能否解決跨地域部署、多芯混訓以及集群穩(wěn)定性等問題,關系著是否能滿足源源不斷的算力需求,是否有參與大模型競賽的資格。

另一方面,比創(chuàng)新更重要的,是創(chuàng)新的擴散。大模型賦能千行萬業(yè)的過程中,需要根據(jù)不同企業(yè)的需求動態(tài)分配計算資源,提高資源利用率的同時,降低云服務的成本,10 萬卡乃至更大規(guī)模的集群至關重要。

參考每次工業(yè)革命的時間跨度,大模型的產(chǎn)業(yè)競賽,更像是一場考驗耐力的馬拉松。擅長耐力賽的百度,正以一種兼顧技術創(chuàng)新與產(chǎn)業(yè)落地的獨特節(jié)奏,穩(wěn)步推動大模型從創(chuàng)新走向產(chǎn)業(yè)應用。

正如 World Governments Summit 2025 峰會上的一幕,當阿聯(lián)酋 AI 部長奧馬爾詢問 " 如何看待數(shù)據(jù)中心和 AI 基礎設施的未來 " 時,百度創(chuàng)始人李彥宏篤定地回答道:" 我們仍需對芯片、數(shù)據(jù)中心和云基礎設施進行持續(xù)投入,用于打造更好、更智能的下一代模型。"

來源:Alter聊科技

THE END
廣告、內容合作請點擊這里 尋求合作
免責聲明:本文系轉載,版權歸原作者所有;旨在傳遞信息,不代表砍柴網(wǎng)的觀點和立場。

相關熱點

相關推薦

1
3