• 正文
    • AI變現(xiàn),哪些背景和預期?
    • 2025年,AI應用變現(xiàn)的關鍵轉折?
    • AI變現(xiàn),哪些機遇和挑戰(zhàn)?
    • 變現(xiàn)去!國產(chǎn)AI芯片與大模型如何互為促進?
    • 寫在最后
  • 相關推薦
申請入駐 產(chǎn)業(yè)圖譜

AI變現(xiàn),博通暴漲只是前奏?

原創(chuàng)
01/17 08:10
3650
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

大模型的能力邊界在不斷拓寬,主流云端大模型普遍具備了多模態(tài)推理能力。技術路線上,也不再局限于算力堆疊,而是探索強化學習、符號推理、類腦計算等新路徑。并且,投入更小、更垂直的小模型涌現(xiàn),為特定領域的應用提供了更高效的解決方案。

與此同時,我國大模型領域仍然存在多方面痛點,例如:云端訓練成本高、高端算力存在“卡脖子”風險、優(yōu)質數(shù)據(jù)匱乏、人才缺口、AI算法開源生態(tài)仍需強化、數(shù)據(jù)安全和隱私問題等等,仍是市場進一步發(fā)展和應用落地的不確定因素。

芯片側也掀起范式之爭。盡管GPU仍是基于Transformer框架及多種AI工作負載的不二之選,不過,近來先有博通AI芯片收入飆升220%、市值首破萬億美元大關,接著寒武紀市值一度突破3000億、問鼎“AI股王”,業(yè)界關于“GPU到ASIC范式大轉變”的聲音開始不絕于耳。

種種跡象顯示,2025年的AI應用市場正處在關鍵轉折點上,商業(yè)變現(xiàn)的可能性與不確定性并存。

AI變現(xiàn),哪些背景和預期?

Arm中國區(qū)業(yè)務全球副總裁鄒挺認為,AI工作負載大幅增加,對計算資源的需求同步激增。同時,AI模型的復雜性和應用場景的多樣化導致了能源消耗的增加,特別是AI訓練和推理中,需要使用大量能源和電力。因此,整個產(chǎn)業(yè)對能效問題表現(xiàn)出了前所未有的關注,行業(yè)正在尋求更高性能、更低功耗的解決方案,以應對這些挑戰(zhàn)。

Imagination公司產(chǎn)品管理副總裁Dennis Laudick表示,2024 年是邊緣AI成為主流的一年。在過去的 18 個月里,圍繞基于Transformer框架的模型數(shù)量激增,徹底改變了自然語言處理等AI應用的能力。正因如此,使得實時翻譯和對話式個人助手等應用能夠在消費類設備上運行,而非依靠云端。

中存算董事長陳巍比較關注視頻大模型應用的崛起和下沉。在他看來,視頻是人類自然交互的主流模式,視頻大模型也是通向未來世界模型的必經(jīng)之路。相對傳統(tǒng)的文本類大模型和Chatbot,視頻大模型對計算芯片有更高的要求,對傳統(tǒng)的GPGPU架構提出了新的巨大挑戰(zhàn)。他認為,視頻大模型的需求爆發(fā)很可能會重構算力芯片產(chǎn)業(yè)的格局,博通DSA(ASIC)芯片的需求上漲可能只是前奏。

安謀科技產(chǎn)品總監(jiān)鮑敏祺則談到,2024年可以被視作端側AI元年,目前這一趨勢已成為行業(yè)普遍共識,并逐步成為芯片、終端制造、操作系統(tǒng)、大模型、AI應用等各大廠商爭相投入的重點領域。同時,全球科技巨頭也紛紛在AI手機、AIPC、智駕智艙等新興應用場景進行“重兵部署”,極大地帶動了端側AI創(chuàng)新浪潮的高速演進。

2025年,AI應用變現(xiàn)的關鍵轉折?

隨著多模態(tài)AI、推理AI等發(fā)展,以及大模型能力的普及,2025年會是AI應用變現(xiàn)的關鍵轉折點嗎?

陳巍認為,2025年會出現(xiàn)明顯的剪刀差。一方面是AI應用大規(guī)模滲透到編程、政企辦公、教育、工業(yè)場景帶來的增量,另一方面是全球的需求變緩和區(qū)域沖突帶來的緊縮,這也就意味著機遇和風險并存,對企業(yè)決策層的市場感知能力和趨勢預見能力提出很高的要求。

不過,樂觀的方面在于,中國大陸依然具備全世界最完備的產(chǎn)業(yè)鏈,相對全球可以具備更好的成本優(yōu)勢。挑戰(zhàn)在于,中國產(chǎn)業(yè)界需要進一步提升在AI生態(tài)的話語權。

Dennis Laudick談到了AI商業(yè)化變現(xiàn)途徑的多元化,他認為會因行業(yè)而異,比如在移動領域,AI正被用作提升設備銷量的品牌差異化策略,以推動銷量增長并增強用戶忠誠度。在汽車等其他市場,軟件定義汽車使得汽車制造商(OEM)能夠根據(jù)消費者偏好的價格點來提供不同級別的新功能,例如自動駕駛功能,并且能夠通過OTA更新,升級AI功能來拓展商業(yè)化路徑。

鮑敏祺認為,2025年有望成為端側AI商業(yè)化落地的關鍵節(jié)點,更多端側AI芯片解決方案將陸續(xù)面世,支撐端側AI應用的快速演化與落地,期待涌現(xiàn)更多成熟、商業(yè)化路徑清晰的AI解決方案。但挑戰(zhàn)依然嚴峻,主要問題在于不同技術架構下AI算法開發(fā)的理念存在差異,傳統(tǒng)CNN模式下的能效比思維慣性已難以適用于當前快速迭代、部署的新要求,進而影響算法使用者能否快速將算法部署到端側。因此,聚焦前沿AI算法演進趨勢,并實現(xiàn)快速響應,將成為端側AI研發(fā)工作的關鍵。

后摩智能聯(lián)合創(chuàng)始人、產(chǎn)品副總裁信曉旭對2025年AI應用變現(xiàn)持相對樂觀態(tài)度,認為AI技術進步、市場需求增長,提供了商業(yè)化的基礎和空間。特別是在端側AI方面,有望迎來爆發(fā),比如AI PC等應用的擴展,需要支持端側AI大模型運行的芯片提供強大算力支持。同時,落地傳統(tǒng)行業(yè),需要AI解決方案提供商需具備技術能力和行業(yè)知識,這對許多技術公司是挑戰(zhàn)。

AI變現(xiàn),哪些機遇和挑戰(zhàn)?

正如多位受訪人對<與非網(wǎng)>所說,端側和邊緣AI落地已經(jīng)成為業(yè)界關注的焦點。綜合各方觀點來看,變現(xiàn)挑戰(zhàn)主要在于以下兩方面:第一,成本控制、算法快速迭代與實時性要求;第二,AI生態(tài)與技術協(xié)同。

成本、算法與實時性

Dennis Laudick認為,軟件開發(fā)成本是目前企業(yè)實施AI的一大障礙,特別是邊緣AI系統(tǒng)中專用AI加速器的軟件難度更大,它雖能實現(xiàn)高TOPS性能,但面臨兩大挑戰(zhàn):第一,可能不適用于汽車等產(chǎn)品生命周期內的AI算法;第二,缺乏通用軟件棧和工具,代碼移植困難。Imagination在這方面的AI策略是,基于成熟GPU和并行計算架構,提供高性能、靈活、易編程的計算平臺,支持高度并行的AI加速,并配備了基于開放標準和廣泛支持框架的計算軟件棧。

在陳巍看來,目前AI落地的大挑戰(zhàn)主要有兩個,一個是AI應用的準確度,或者說是相對人類智力的水平;另一個是AI應用的性價比,也就是能不能比人工更便宜。事實上,后者是目前阻礙AI應用落地的最大因素,例如GPT-o3的解題成本據(jù)說高達3000美元,這使得標準o3的落地受到成本擠壓的閑置。在降成本方面,中存算目前借助自研的大模型來輔助芯片設計,以降低研發(fā)成本;另一方面,使用存算一體和先進封裝集成技術降低AI芯片的單位Token成本。

鮑敏祺則認為,大模型在端側部署的一大挑戰(zhàn)在于如何實現(xiàn)算法的快速迭代。在當前以Transformer架構為主流的大模型時代,算法更加多樣、迭代更加快速。此前,端側AI算法的設計思路側重于極盡所能去優(yōu)化功耗、性能和面積,例如將計算精度限定于int8甚至更低,導致算法遷移成本攀升。尤其是將云端開發(fā)好的算法部署到端側時,需要進行大量的剪枝、量化等處理,所需周期會非常長,嚴重影響了實時性。安謀科技正在研發(fā)的下一代“周易”NPU通過增加高精度fp16算力并支持包括int8/int16/fp16等在內的多精度計算,以及W4A16硬件加速、帶寬壓縮加速技術和多核高性能協(xié)同等一系列調優(yōu)措施,能更好地兼容傳統(tǒng)視覺及語音模型的輕算力場景和大模型的中算力場景。

信曉旭認為,AI應用的下一個爆發(fā)點極有可能在端側出現(xiàn)。當前,AI落地和傳統(tǒng)行業(yè)轉型的最大挑戰(zhàn)在于滿足端邊側大模型部署的“三高三低”要求:即對硬件的高算力、高帶寬、高精度需求,以及對低功耗、低延時、低成本的追求。傳統(tǒng)的CPU和GPU在這些方面存在局限,尤其是在成本和功耗方面,端邊側大模型需要更高性能、更高效率的AI芯片來支持。后摩智能利用存算一體技術打造的AI芯片,在保持低功耗的同時,能夠實現(xiàn)與傳統(tǒng)GPU相當?shù)乃懔Γ⑶覠o需占用系統(tǒng)內存,在成本和性能上都具有優(yōu)勢。

AI生態(tài)與技術協(xié)同

鄒挺表示,行業(yè)對于算力、性能、能效以及縮短上市時間的需求都在不斷攀升。因此,構建計算的方式需要隨之演變,芯片不再是一個由離散模塊或組件以模塊化的方式構建的簡單集合,需要從整體解決方案的角度進行設計,也需要更深度的集成,更多的功能需要協(xié)作共存,以實現(xiàn)更低的延遲、更高的帶寬,以及更高的能效。為充分釋放AI的潛力,Arm從系統(tǒng)層面思考問題,將硬件、軟件和生態(tài)無縫集成到一個全面的解決方案,通過Arm計算子系統(tǒng)(CSS)和軟件生態(tài)系統(tǒng)來推動行業(yè)發(fā)展。

他指出,由于專用AI處理器開發(fā)周期較長,高能效CPU在AI初期成為推理核心;隨著技術發(fā)展和場景多樣化,定制化專用AI加速器興起,CPU與GPU、NPU等異構單元協(xié)同工作,平衡推理性能、成本和功耗。在AI推理及應用的各個階段,高能效CPU都發(fā)揮著關鍵作用。

阿里巴巴達摩院資深技術專家李春強認為,AI技術落地催生的模型推理需求,對硬件提出了更高要求,他強調RISC-V作為新興芯片架構,其開放性和可定制性具有獨特優(yōu)勢。達摩院玄鐵團隊針對AI模型定制的Matrix擴展指令集,提升基于RISC-V芯片的端側AI能效,已首次應用于玄鐵C907處理器;并且針對當前的主流網(wǎng)絡特征,進行了端到端推理優(yōu)化,通過創(chuàng)新硬件架構提升算力利用效率。軟硬件一體的玄鐵AI平臺解決方案,可以為芯片廠家提供通用的、高效的AI算力基礎設施,已應用于云端視頻轉碼卡、AI邊緣計算盒子、RISC-V筆記本電腦等終端產(chǎn)品。

變現(xiàn)去!國產(chǎn)AI芯片與大模型如何互為促進?

縱觀大模型的商業(yè)落地,高度集成的軟硬件一體化方案在滿足特定需求方面有優(yōu)勢。那么,國產(chǎn)AI芯片與大模型在商業(yè)落地方面如何互為促進?有哪些新趨勢?

李春強表示,AI芯片與大模型互為促進,具體表現(xiàn)為:大模型需求驅動芯片創(chuàng)新,推動芯片開發(fā)高效硬件架構,如支持并行計算的NPU、多模態(tài)協(xié)同處理的IP設計;同時,AI芯片加速大模型訓練和推理,提供本地化、高性價比算力,降低硬件成本,縮短研發(fā)周期。

三大趨勢正在發(fā)生:第一,大模型專用加速芯片興起,支持稀疏矩陣運算、低精度計算等,優(yōu)化Transformer模型訓練和推理效率,提升GPT、BERT等模型性能;第二,AI芯片從通用算力走向定制算力,滿足不同場景大模型應用的多樣化算力需求;第三,芯片-模型-算法的三位一體優(yōu)化,通過硬件加速深度學習模型的注意力機制、動態(tài)路由技術等,實現(xiàn)芯片算力最優(yōu)利用。

鮑敏祺則看到,高度集成的軟硬件一體化方案過去多用于智能眼鏡、低功耗手機攝像頭ISP相關場景,追求極致成本控制,投入產(chǎn)出比并不理想。

而端側AI領域,正在從專適專用芯片或IP設計方法,逐步轉變?yōu)榫邆涓ㄓ么竽P椭С帜芰Φ姆绞健4竽P蜁r代,AI算法加速迭代,這就需要快速部署、找到用戶高頻使用熱點并獲取反饋以調優(yōu)算法。并且,云端到端側部署更看重快速迭代能力而非極致成本控制,只有快速部署、抓住用戶才是實現(xiàn)良好商業(yè)落地的關鍵。

陳巍談到,目前看到的大部分情況是大模型需要遷就國產(chǎn)AI芯片,進行相對復雜的適配,但國產(chǎn)AI芯片確實在規(guī)避算力禁運方面起到了非常大的作用。盡管大部分國產(chǎn)AI芯片和大模型還處于各自為戰(zhàn)的情況,預計未來會有更多的國產(chǎn)AI芯片與大模型進行深度適配和架構優(yōu)化,降低大模型的部署成本。

寫在最后

對AI應用變現(xiàn)的預期,是多年來技術發(fā)展與市場需求共振的結果,顯示出市場對AI應用價值的認可和期待。

盡管AI領域的競爭比任何時候都更為激烈,但技術迭代的速度在加快,大模型賦能的AI應用正在多種場景迅速普及,AI的實際滲透率在逐步增長,這也預示著AI應用變現(xiàn)的潛力和廣闊前景。

Arm

Arm

ARM公司是一家知識產(chǎn)權(IP)供應商,主要為國際上其他的電子公司提供高性能RISC處理器、外設和系統(tǒng)芯片技術授權。目前,ARM公司的處理器內核已經(jīng)成為便攜通訊、手持計算設備、多媒體數(shù)字消費品等方案的RISC標準。公司1990年11月由Acorn、Apple和VLSI合并而成。

ARM公司是一家知識產(chǎn)權(IP)供應商,主要為國際上其他的電子公司提供高性能RISC處理器、外設和系統(tǒng)芯片技術授權。目前,ARM公司的處理器內核已經(jīng)成為便攜通訊、手持計算設備、多媒體數(shù)字消費品等方案的RISC標準。公司1990年11月由Acorn、Apple和VLSI合并而成。收起

查看更多

相關推薦

登錄即可解鎖
  • 海量技術文章
  • 設計資源下載
  • 產(chǎn)業(yè)鏈客戶資源
  • 寫文章/發(fā)需求
立即登錄