“我們總是高估兩年后的變化,低估未來十年的變革?!?/p>
在這個科學與資本和聚光燈緊密結合的時代,比爾·蓋茨的這句話非常貼切,尤其是過去幾年來的人工智能領域:
一方面,去年底今年初ChatGPT橫空出世,婦孺皆知,“所有業(yè)務都值得用人工智能重新做一遍”;
另一方面,對已經(jīng)真正在賽道上堅持了十幾年、甚至幾十年長跑的選手來說,利用好當下的聚光燈,在關鍵節(jié)點咬牙沖刺,為今后的賽程積攢更多能量和資源,才是內(nèi)行的門道。
對真正關心這項技術發(fā)展和競爭格局的朋友們來說,上月末國內(nèi)有一件大事,那就是科大訊飛一年一度的1024開發(fā)者節(jié)大會。
兩個背景讓這次大會更加引人注目,一是近期美國政府更新了出口管制規(guī)定,計劃阻止英偉達等公司向中國出口先進算力芯片;二是在“一帶一路”大會上,中方提出《全球人工智能治理倡議》,站在國際社會大多數(shù)的立場上,宣示西方并非全球人工智能技術和生態(tài)的唯一選擇。
01. 科大訊飛的深耕與產(chǎn)業(yè)生態(tài)的共建
說回訊飛1024大會本身,會上氣氛熱烈,干貨很多,科工力量的小伙伴也受邀來到現(xiàn)場,也參與了董事長劉慶峰和研究院院長劉聰?shù)拈]門采訪,務實、坦誠、高效是這些技術大佬給人的印象。
我們在這一期希望把看到的亮點做一個簡單梳理,加上一些自己的理解,希望了解更完整內(nèi)容的小伙伴,可以移步科工力量B站官方,有一個半小時的發(fā)布會全程回顧。
首先是通用大模型技術本身。
本次,星火認知大模型V3.0亮相,第三方評測認定對標ChatGPT(GPT3.5版本)實現(xiàn)整體能力超越,訊飛如期到達今年的第三座里程碑,劉慶峰在發(fā)布會上情緒激動,立下新的flag:明年上半年要對標GPT-4。
為什么情緒激動?因為這件事情很難,很重要。
我們先從澄清一個說法開始。
過去一段時間,很多報道喜歡渲染“百模大戰(zhàn)”,好像做大模型很容易,很多人都在做,這是很大的誤導。從技術角度,把大語言(LLM)底座模型、開源微調(diào)模型、行業(yè)垂直模型等不同類型大模型放在一起比較。是把不在一個難度級別的事情強拉在一起。
底座模型(LLM)是一種基礎的大模型,它已經(jīng)掌握了大量的通用知識,可以應用于多個領域;開源微調(diào)模型是在底座模型基礎上進行微調(diào)的模型;行業(yè)垂直模型針對特定行業(yè)或領域,如醫(yī)療、金融、法律、教育等。
在實際應用中,如果只強調(diào)通用性,底座模型(LLM)更為合適;如果任務專注于某一特定領域,那么基于底座模型進一步提煉行業(yè)垂直模型會有更好的表現(xiàn);而開源微調(diào)模型是更靈活的解決方案,可以在通用性和專業(yè)性之間取得平衡。
可見,對AI應用來說,底座模型(LLM)是一種基礎設施,參數(shù)量巨大,需要的訓練數(shù)據(jù)量也極多。
不說必須的人才和工程師隊伍,單說資金成本,有機構今年2月估算,以ChatGPT今年1月的水平,需要3萬多塊英偉達A100卡( GPU),初始投入成本8億美元,每天電費5萬美元。GPT3訓練一次成本140萬美元,更大的模型每次訓練成本在200萬美元到1200萬美元之間。
既然是基礎設施,它就有邊際成本遞減的特點,基于一個底座模型開發(fā)的實際業(yè)務用途越多,越有利于攤薄龐大的訓練成本,也越有利于底座模型能力的進化迭代和生態(tài)繁榮。
因此,如果是在別人的底座模型上去提煉行業(yè)垂直模型和做開源微調(diào)模型,不僅關乎數(shù)據(jù)安全和自主可控的問題,而且是在給別人的生態(tài)添磚加瓦。
今天,英偉達GPU+CUDA開發(fā)工具+OpenAI的算法和大眾影響力+優(yōu)質(zhì)英語語料數(shù)據(jù)+全球優(yōu)秀開發(fā)者+成熟的資本市場的大模型生態(tài),無疑是一個強勢生態(tài)。
在這個基礎上,對潛在競爭者掐緊底層,開放上層,復刻wintel生態(tài)的一統(tǒng)江湖,是對方早已擺上棋盤的變化圖。但這對中國和廣大發(fā)展中國家意味著什么,不言而喻。
對此如何破局,是我們要講的第二個重點。
在發(fā)布會現(xiàn)場,科大訊飛攜手華為,發(fā)布基于昇騰生態(tài)的“飛星一號”大模型算力平臺,科大訊飛董事長劉慶峰、科大訊飛總裁吳曉如和華為輪值董事長徐直軍、華為公司董事質(zhì)量流程IT總裁陶景文、華為董事ICT產(chǎn)品與解決方案總裁楊超斌共同宣示,將致力于為世界“提供第二種選擇”。
剛才已經(jīng)講過,底座大模型(LLM)是AI行業(yè)應用的基礎設施,算力平臺則是更底層的,訓練底座大模型的基礎設施。要訓練對標GPT-4的大模型,就需要更高性能的底座,聰院(訊飛研究院院長劉聰)在采訪中給出了一個數(shù)字,“一兩千張卡不夠,需要3000-4000P的算力,也就是說萬卡級別。”
一方面,需要這么大的算力,另一方面,這種規(guī)模的算力不可能即插即用。算力平臺、算法和框架之間的協(xié)同和優(yōu)化極其重要。
合作分工上,科大訊飛更專注應用和算法,華為負責算力平臺,雙方共同研發(fā)了高性能的算子庫,使同樣的算力、帶寬條件下,訓練效率得以提升一倍以上。
所以,徐直軍這次是作為星火V3.0大模型的幕后團隊代表亮相的。從5月6日開始,華為的團隊就常駐合肥,跟訊飛團隊一起熬夜加班,劉慶峰把雙方的攻關團隊親切稱呼為“聯(lián)合特戰(zhàn)隊”。今年中秋節(jié),這支隊伍都沒有休息,訊飛把華為團隊的家屬都接到合肥一起過節(jié)。
劉慶峰在采訪中說得很坦率,也很動容。
他說,使用英偉達成熟的算力產(chǎn)品可能一個月就能干成的事情,用國產(chǎn)的可能要三個月。那邊市場上又在打仗,別人用的是最豪華的武器;我們一邊在打仗,一邊磨練武器,在這個過程中要投入的就更多,壓力可想而知。
但這一步非走不可。因為,不管是國產(chǎn)操作系統(tǒng),國產(chǎn)算力平臺,還是大模型,都有一個從打磨、到可用、逐步到好用,再到整個生態(tài)繁榮的過程,早期一定會花費更多成本,這是事物的客觀規(guī)律。如果誰都不肯往前走一步,國家始終就無法自立自強。
第三個重點是應用和生態(tài)。
如何尋找和解決“剛需”,實現(xiàn)社會價值和商業(yè)邏輯,都在這一part。
劉聰有一個錘子和釘子的比喻,“當你有一把錘子的時候,你看所有的東西都像是釘子”。這就是我們曾經(jīng)嘗試用AI技術的通用能力解決各種場景與問題。
但慢慢發(fā)現(xiàn),通用能力在實際應用中往往難以適應不同的場景需求,這就像發(fā)現(xiàn)每個釘子的形狀都不同。
于是衍生出兩個嘗試方向:一是繼續(xù)強化錘子的通用性,嘗試打造一把萬能的雷神的錘子;二是嘗試根據(jù)不同的釘子定制錘子,這伴隨了行業(yè)定制的復雜性、高成本等問題。
后來又發(fā)現(xiàn)第三條思路,就是把錘子的改造和應用的探索開放給大家,來適應更多樣的需求。
這恰好能對應訊飛的“1+N+X”的戰(zhàn)略,其中,“1”是通用認知智能大模型算法研發(fā)及高效訓練底座平臺;“N”是應用于教育、醫(yī)療、人機交互等各個領域的自有產(chǎn)品;“X”是開放生態(tài)。
分別展開一下,首先是萬能錘子,徐直軍在現(xiàn)場非常實誠地為訊飛打了一個廣告。他說,華為在全球所有智能終端上使用的語音技術,都來自于科大訊飛,不僅是中文,是幾十種語言。
翻譯,恐怕是近年來人工智能發(fā)展最讓普通人擁有獲得感的方向之一。
這次訊飛展示的另一把“萬能錘子”:代碼能力,說到底也是一種翻譯能力。
因為“最好的編程語言是自然語言”,今天,千行百業(yè)都說數(shù)字化轉型,數(shù)字化轉型離不開IT部門,但IT部門不是轉型主導者,IT的工作是把主導者的思路翻譯成軟件,如果這個翻譯過程能被機器取代,將節(jié)約大量的溝通和摩擦成本。
訊飛總裁吳曉如和代碼產(chǎn)品負責人張致江在代碼論壇現(xiàn)場演示了大模型如何從拆解和分析需求開始,一步步生成軟件產(chǎn)品,有興趣的朋友可以去看看錄播。
其次是定制錘子,現(xiàn)場既展示了訊飛多年深耕的教育、醫(yī)療、人機互動等賽道的升級,也發(fā)布了科研、金融、工業(yè)等領域的12個行業(yè)大模型。
現(xiàn)場演示的醫(yī)療大模型和科研大模型令人印象深刻,值得一提的是,醫(yī)療大模型并非要取代醫(yī)生,而是致力于幫助億萬普通人觸達基本的醫(yī)療知識;科研大模型并非取代科研工作,而是幫助人提升獲得知識和前沿信息的效率。
這里順便回應一下關于人工智能會帶來失業(yè)、毀滅人類等常見大眾焦慮:
我們認為,這種焦慮并非來自人工智能本身,而是來自于這個強大變量被注入后,有的人擔心既有格局被沖擊,有的人擔心既有格局被加強。人工智能究竟被用于更好地控制大眾,還是更好地賦能和服務大眾,恐怕這也是徐直軍說的“第二種選擇”的題中之義。
再來講講大家一起玩錘子,也就是生態(tài)建設。當下,發(fā)現(xiàn)錘子的用途和改造方式急需千行百業(yè)的“腦洞”和“奇思妙想”,也需要各種各樣輕巧創(chuàng)新的工具和小部件。
比如大模型知名工具LangChain,將提示詞(Prompt)的管理和編排做得很好;ELMo工具具有根據(jù)上下文動態(tài)調(diào)整詞向量的能力,使得對話系統(tǒng)的表現(xiàn)更加流暢。
LangChain頁面
劉聰在采訪中透露了一組星火大模型生態(tài)開發(fā)者的數(shù)據(jù):從5月6日至今,生態(tài)開發(fā)者數(shù)量從400萬迅速上升到530多萬,增速是去年同期的三倍多。他估計,其中已經(jīng)跟訊飛鏈接,比較認真在做大模型相關研發(fā)的開發(fā)者數(shù)量已達10萬左右。這個規(guī)模是比較狹義的星火生態(tài)。
更廣義的生態(tài),不但包括整個“1+N+X”的體系,還包括作為支撐的整個社會外部環(huán)境,從邏輯上來說,1是N和X的基礎,有了足夠扎實的1,才能有N和X的衍生,N和X繁榮帶來的數(shù)據(jù)、人才、資金等資源會反哺1,形成正向循環(huán),也會出現(xiàn)強者愈強的先發(fā)優(yōu)勢和馬太效應。
今天我們看到,OpenAI的GPT-4大模型是世界領先的,不管是劉慶峰還是劉聰,都坦誠面對這個事實。但是,當前中美兩大市場因為種種原因處于割裂狀態(tài),大大削弱了這種先發(fā)優(yōu)勢,中國市場足夠大,足以支撐起一套自有生態(tài)的起步和起旋。這是站在中國視角來說。
站在人類命運共同體視角來說,大教堂和集市要結合,絕對的集中和絕對的自由都不可取。對所有用戶和消費者而言,存在兩種以上AI生態(tài)的多極化競爭,才可能在更高層次上形成共贏博弈,這是我們理解的“為世界提供第二種選擇”的另一層意義。
02. 升華
在當前的熱鬧喧囂中,我們還想談一點歷史。
就像我們在開頭說的,人工智能并非始于當下,而是一場從上世紀50年代就開始的馬拉松,它是一個螺旋式前進的過程,已經(jīng)經(jīng)歷了三波浪潮和兩次低谷。日本的五代機路線失敗了,今天聚光燈下神經(jīng)網(wǎng)絡路線和OpenAI,也長期經(jīng)受打壓和質(zhì)疑。
在這個過程中,大量資源投入可能是必要條件,但越用力,在方向上的把握就越重要,就如劉聰所說,“對算法沒把握的話,錯一個東西,三個月就過去了。”更宏觀的層面上,也是這樣。
中國人工智能研究始于上世紀70年代末的第二波浪潮,當時不僅在符號主義的研究上取得了世界級的成果,也趕上了神經(jīng)網(wǎng)絡研究的浪潮。更重要的是,在大方向上始終保持大致正確,尤其在上世紀90年代全球人工智能研究進入低谷的時候,國家主導的863(-306)計劃孕育了一大批人才,也孵化了科大訊飛、漢王、寒武紀、中科信利等一大批領軍企業(yè),使我們追趕到今天的位置。
對于中國發(fā)展人工智能的長處和短處,鵬城實驗室主任、中國工程院高文院士有一個高度概括的論述。
總體來講,我國發(fā)展人工智能有優(yōu)勢也有短板,優(yōu)勢有四個:強有力的政策支持、龐大的數(shù)據(jù)、豐富的應用場景、非常多的有潛力的年輕人。同時有四個短板:基礎理論和原創(chuàng)算法薄弱、關器核心元器件薄弱、開源開放平臺建立不足、高端人才不足。
實際上,科技部在新一代人工智能發(fā)展規(guī)劃方面已經(jīng)有了一個很好的前瞻性考慮,基本原則有四個:一是科技引領,二是系統(tǒng)布局,三是市場主導,四是開源開放。目標是在 2020年中國的人工智能能夠和世界同步,到2025年其中一部分能夠達到領先水平,到2030年總體上能夠走在前面。
今天我們說了那么多,也是希望彌合一點信息差,讓更多人認識到這件關乎所有人命運的事情,減少誤解,凝聚共識,使更多的關注和資源配置到正確的方向上。我們一定能夠以星星之火,成就燎原之勢,引領新一輪通用人工智能帶來的變革。?