AI訓(xùn)練

加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點(diǎn)資訊討論
  • 第三代昆侖芯萬卡集群點(diǎn)亮,全版本適配DeepSeek訓(xùn)練推理
    兩周之內(nèi),DeepSeek成為全球增速最快的AI應(yīng)用。2月6日,昆侖芯宣布,已完成DeepSeek訓(xùn)練推理全版本適配,在追求低成本、高效率的基礎(chǔ)上支持卓越性能,能夠?qū)崿F(xiàn)一鍵部署,為廣大開發(fā)者提供更快、更強(qiáng)、更省的訓(xùn)練推理體驗(yàn)。
    第三代昆侖芯萬卡集群點(diǎn)亮,全版本適配DeepSeek訓(xùn)練推理
  • 人形機(jī)器人重大突破!英偉達(dá)攜中國初創(chuàng)企業(yè)登上世界舞臺(tái)
    NVIDIA打造的仿真環(huán)境,以及與業(yè)界在合成數(shù)據(jù)等方面探索,正在逐一打破落地瓶頸,為人形機(jī)器人注入新靈魂,開啟新范式,推動(dòng)人形機(jī)器人產(chǎn)業(yè)步入快速發(fā)展期。
  • AI模型訓(xùn)練【偏差/方差】與【欠擬合/過擬合】
    在我們拿到一個(gè)數(shù)據(jù)集,高高興興準(zhǔn)備訓(xùn)練一個(gè)模型時(shí),會(huì)遇到欠擬合或過擬合的問題,業(yè)內(nèi)也喜歡用偏差和方差這兩指標(biāo)去定義它們,那這些詞什么意思呢?有什么方法能避免/解決 欠擬合和過擬合呢?這其實(shí)是非常非?;A(chǔ)的概念,但是其實(shí)即使是業(yè)內(nèi)人士很難一下子把它們完全講明白,并列出全面的解決方法,本文為你最通俗地解答。
    AI模型訓(xùn)練【偏差/方差】與【欠擬合/過擬合】
  • Ubuntu人工智能訓(xùn)練環(huán)境搭建
    Ubuntu版本信息: cat /etc/lsb-release 1、創(chuàng)建部署用戶 創(chuàng)建一個(gè)用戶,非root用戶即可,創(chuàng)建用戶示例: # 創(chuàng)建用戶 sudo useradd -d /home/yeqinfang -m yeqinfang sudo passwd yeqinfang # 賦予免密sudo權(quán)限,可以不執(zhí)? echo "yeqinfang ALL = (root) NOPASSWD:AL
  • 強(qiáng)攻GPU,TPU芯片一夜躥紅
    自ChatGPT爆火之后,AI大模型的研發(fā)層出不窮,而在這場“百模大戰(zhàn)”激戰(zhàn)正酣之際,美國芯片公司英偉達(dá)卻憑借其GPU在大模型計(jì)算中的出色發(fā)揮賺得盆滿缽滿。
    強(qiáng)攻GPU,TPU芯片一夜躥紅
  • AI 2.0時(shí)代,服務(wù)器DDR5底層架構(gòu)迎來變革
    DDR5 內(nèi)存模塊是第一個(gè)在內(nèi)存模塊上集成PMIC的主要內(nèi)存類型,未來,隨著對(duì)更高性能和電源效率的需求不斷增長,可能會(huì)定義新型內(nèi)存模塊。而且,這些模塊很有可能繼續(xù)在模塊上集成 PMIC,以進(jìn)一步優(yōu)化電源管理并提高整體系統(tǒng)性能。
  • H100利用率飆升至75%!英偉達(dá)親自下場FlashAttention三代升級(jí),比標(biāo)準(zhǔn)注意力快16倍
    大模型訓(xùn)練推理神作,又更新了!主流大模型都在用的FlashAttention,剛剛升級(jí)第三代。時(shí)隔一年,F(xiàn)lashAttention-3已經(jīng)全方位升級(jí)。訓(xùn)練速度提升1.5-2倍,F(xiàn)P16下計(jì)算吞吐量高達(dá)740TFLOPs/s,達(dá)理論最大吞吐量75%,更充分利用計(jì)算資源,此前只能做到35%。
    H100利用率飆升至75%!英偉達(dá)親自下場FlashAttention三代升級(jí),比標(biāo)準(zhǔn)注意力快16倍
  • 臺(tái)達(dá)研究院闕志克:降伏AI訓(xùn)練“吃電怪獸”靠誰?
    數(shù)據(jù)中心機(jī)房內(nèi),一排排機(jī)柜內(nèi)線纜虬結(jié)、風(fēng)扇呼嘯,燈光閃爍,徹夜不息……當(dāng)前,這樣的數(shù)據(jù)中心已經(jīng)遍及世界各地,并仍然在世界頭部科技廠商的引領(lǐng)下不斷增長。僅在今年6月內(nèi),微軟就已宣布將在瑞典、馬來西亞、西班牙等國家投資建設(shè)數(shù)據(jù)中心,項(xiàng)目投資總金額超140億美元;同時(shí),英偉達(dá)計(jì)劃在未來5年內(nèi)投資3萬億美元建設(shè)數(shù)據(jù)中心;亞馬遜云科技則規(guī)劃在未來15年內(nèi)投入約1500億美元用于全球數(shù)據(jù)中心的建設(shè)與運(yùn)營……
    臺(tái)達(dá)研究院闕志克:降伏AI訓(xùn)練“吃電怪獸”靠誰?
  • 黃仁勛“松弛感”演講談創(chuàng)新:偉大的智慧是退后一步
    在生成式AI的熱潮來臨之前需要思考:人工智能的背景是什么?深度學(xué)習(xí)的基礎(chǔ)是什么?長期的影響是什么?
    4964
    2024/06/03
  • AI推理,和訓(xùn)練有什么不同?
    如果要用一句話概括AI的訓(xùn)練和推理的不同之處,我覺得用“臺(tái)上一分鐘,臺(tái)下十年功”最為貼切。話說小明已經(jīng)和心目中的女神交往數(shù)年,在邀約女神出門這件事上積累了大量的經(jīng)驗(yàn)數(shù)據(jù),但卻依然捉摸不透其中的玄機(jī)。借助AI技術(shù),能否實(shí)現(xiàn)精準(zhǔn)預(yù)測呢?小明思考再三,總結(jié)出了可能影響女神是否接受邀請(qǐng)的變量:是否節(jié)假日,天氣不好,太熱/太冷了,心情不好,生病了,另有他約,家里來親戚了......等等。
    AI推理,和訓(xùn)練有什么不同?
  • 瞬變對(duì)AI加速卡供電的影響
    圖形處理單元(GPU)、張量處理單元(TPU)和其他類型的專用集成電路(ASIC)通過提供并行處理能力來實(shí)現(xiàn)高性能計(jì)算,以滿足加速人工智能(AI)訓(xùn)練和推理工作負(fù)載的需求。AI需要大量的算力,尤其是在學(xué)習(xí)和推理時(shí)。這種需求不斷地將供電網(wǎng)絡(luò)的邊界推向前所未有的新水平。這些高密度工作負(fù)載變得愈加復(fù)雜,更高的瞬態(tài)需求推動(dòng)配電網(wǎng)絡(luò)的每個(gè)部分都必須高效運(yùn)行。AI加速卡嚴(yán)格的功耗要求對(duì)系統(tǒng)性能也有影響。本文將討論AI加速卡的配電網(wǎng)絡(luò)要求,剖析瞬變的影響,并介紹ADI公司針對(duì)這些需求提出的多相供電解決方案。
    瞬變對(duì)AI加速卡供電的影響
  • Eureka!NVIDIA 研究突破為機(jī)器人學(xué)習(xí)注入新動(dòng)力
    NVIDIA Research 開發(fā)的一款名為 Eureka 的新型 AI 智能體可以教機(jī)器人復(fù)雜的技能,它教會(huì)了機(jī)器人手快速轉(zhuǎn)筆,并且第一次轉(zhuǎn)得像人類一樣好。上面視頻中所展示的令人驚嘆的“魔術(shù)”是機(jī)器人通過 Eureka 學(xué)會(huì)熟練完成的近 30 項(xiàng)任務(wù)之一,Eureka 可以自動(dòng)編寫?yīng)剟?lì)算法來訓(xùn)練機(jī)器人。
    Eureka!NVIDIA 研究突破為機(jī)器人學(xué)習(xí)注入新動(dòng)力
  • ChatGPT背后的算力殺手锏
    微軟如何將大規(guī)模AI訓(xùn)練鑲在云計(jì)算的DNA里?為了向人工智能(AI)初創(chuàng)公司OpenAI的前沿研究提供支持,微軟三年前為OpenAI打造了一臺(tái)由數(shù)萬個(gè)A100 GPU組成的大型AI超級(jí)計(jì)算機(jī),成本或超過數(shù)億美元。微軟還在60多個(gè)數(shù)據(jù)中心總共部署了幾十萬個(gè)推理GPU。
  • 燧原科技亮相Hot Chips大會(huì),詳解邃思芯片架構(gòu)
    今天燧原科技在一年一度的Hot Chips大會(huì)上由首席架構(gòu)師劉彥和資深芯片設(shè)計(jì)總監(jiān)馮闖一起介紹了第一代云端訓(xùn)練芯片“邃思1.0”的架構(gòu)細(xì)節(jié)。Hot Chips是全球高性能微處理器和集成電路相關(guān)的重要會(huì)議之一。

正在努力加載...