大型語言模型

加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論
  • AI的下一個浪潮?AI for Science或將重塑未來
    當前,人工智能領域正經歷一場深刻的變革。當大眾目光聚焦在大語言模型(LLM)所引發(fā)的交互革命,以及它們在整合、處理和高效呈現(xiàn)人類已有知識方面的卓越能力時,另一股更具顛覆性的力量——以谷歌DeepMind為代表的“AI for Science”正在悄然崛起,并展現(xiàn)出改變科學研究格局的潛力。
    AI的下一個浪潮?AI for Science或將重塑未來
  • AI算力革命驅動光模塊產業(yè)躍遷:800G規(guī)?;渴鹋c1.6T技術競速下的市場新紀元
    近年來,AI技術的爆發(fā)式增長(如ChatGPT等大模型的普及)驅動了算力需求的激增,進而加速了數(shù)據(jù)中心和高速光模塊產業(yè)的發(fā)展。800G光模塊已進入規(guī)?;渴痣A段,1.6T產品研發(fā)競爭白熱化,同時電信領域向400G城域網升級,接入網向25G/50G PON演進。全球光模塊市場年復合增長率預計達16.7%~19.7%,中國云服務商對400G/800G需求激增,1.6T技術或于2025年商用,標志著光通信邁入新紀元。
    AI算力革命驅動光模塊產業(yè)躍遷:800G規(guī)模化部署與1.6T技術競速下的市場新紀元
  • 大語言模型是黑洞!AI研究者謹慎繞行!
    日前,楊立昆(Yann LeCun)應邀在AMS(美國數(shù)學學會)著名的Josiah Willard Gibbs講座上,進行了主題為《通往人類水平人工智能的數(shù)學障礙》的演講。
    大語言模型是黑洞!AI研究者謹慎繞行!
  • RAG檢索不過關?試試這些優(yōu)化策略,精準度飆升!
    近來,RAG成了大語言模型的“救命稻草”,可讓大語言模型回答更準確、更靠譜。可問題來了,很多 RAG 應用的檢索系統(tǒng)還是有點“笨”:要么漏掉關鍵信息,要么抓回一堆無關緊要的“噪聲”,搞得最終答案質量參差不齊。
    RAG檢索不過關?試試這些優(yōu)化策略,精準度飆升!
  • 研華推出GenAI Studio邊緣AI軟件平臺
    2025年初,全球AIoT平臺與服務提供商研華科技宣布推出一款新的軟件產品——GenAI Studio,該產品是研華Edge AI SDK的一部分,主要目標是為了滿足對成本效益高、本地部署的大語言模型(LLM)解決方案日益增長的需求。 加速人工智能發(fā)展,應對行業(yè)挑戰(zhàn) 作為研華邊緣AI軟件開發(fā)工具包(Edge AI SDK)的一部分,GenAI Studio致力于解決行業(yè)痛點,例如縮短工廠操作員等待
    研華推出GenAI Studio邊緣AI軟件平臺
  • 探索基于Qwen2.5實現(xiàn)DeepSeek推理的奇妙之旅
    作為一名互聯(lián)網技術愛好者,我一直對大型語言模型和高效推理技術充滿熱情。本文基于基于Qwen2.5實現(xiàn)DeepSeek推理功能。
    探索基于Qwen2.5實現(xiàn)DeepSeek推理的奇妙之旅
  • 研報 | 機器人大語言模型市場規(guī)模預估于2028年破千億美元,英偉達WFM平臺或成主要驅動力
    根據(jù)TrendForce集邦咨詢最新研究,隨著人形機器人邁向高度系統(tǒng)整合,并有望從工業(yè)場景走進家庭生活,前端的AI模型訓練將更為關鍵,以滿足更多后端理解與互動需求。預估含AI訓練、AIGC解決方案在內的全球機器人大型語言模型(機器人LLM)市場,有望于2028年超越1,000億美元,且從2025至2028年之年復合成長率將達48.2%。
    研報 | 機器人大語言模型市場規(guī)模預估于2028年破千億美元,英偉達WFM平臺或成主要驅動力
  • 研華本地大型語言模型(LLM)邊緣AI服務器AIR-520 榮獲第33屆“臺灣精品獎”銀獎
    工業(yè)物聯(lián)網領域的全球供應商研華科技近日公布,其自主研發(fā)的“AIR-520本地大型語言模型(LLM)邊緣AI服務器”榮獲“第33屆臺灣精品獎”銀獎! 今年,研華有六款產品獲得了中國臺灣精品獎,其中兩款獲得了享有盛譽的銀獎。這一出色的成績凸顯了業(yè)界對研華智能系統(tǒng)和嵌入式平臺在工業(yè)物聯(lián)網領域的認可。研華表示將繼續(xù)整合人工智能驅動的行業(yè)解決方案和領域專業(yè)知識,加速數(shù)字化轉型,為客戶推動工業(yè)智能的發(fā)展。 研
    研華本地大型語言模型(LLM)邊緣AI服務器AIR-520 榮獲第33屆“臺灣精品獎”銀獎
  • 產業(yè)丨LiveBench榜單比拼,階躍星辰成為國內大模型第一
    目前生成式AI產業(yè)尚處于發(fā)展的初期階段。中國工程院院士、北京大學博雅講席教授高文指出,如果將人工智能的發(fā)展與人類成長相類比,那么通用人工智能目前可能僅處于蹣跚學步的幼兒階段。但從應用的角度來看,人工智能已經能夠解決生產、社會及服務領域的問題,因此可以先行投入使用,無需等待其達到完美狀態(tài)。
    產業(yè)丨LiveBench榜單比拼,階躍星辰成為國內大模型第一
  • 職場人必備丨AI術語小詞典(7)
    接著上一期的AI術語小詞典,文檔君又如期而至,來給大家科普啦~推斷是機器學習模型在訓練后對新數(shù)據(jù)進行預測或分類的過程。在推斷階段,模型會使用在訓練階段學習到的參數(shù)和規(guī)則,對輸入數(shù)據(jù)進行計算和分析,然后輸出預測結果。推斷通常發(fā)生在模型部署后,用于處理實際應用中的數(shù)據(jù)。推斷的性能和準確性是衡量模型好壞的重要指標之一。
    職場人必備丨AI術語小詞典(7)
  • 大模型已基本解決幻覺問題?
    你是否經歷過大語言模型一本正經“胡說八道”?大模型在發(fā)展初期的幻覺問題尤為嚴重,所回答問題基本屬于“已讀亂回”,至于哪家企業(yè)的大模型不在本文探討之列,大家心知肚明,更重要的是大語言模型的幻覺問題有了最新進展。其實大語言模型發(fā)展到今天,面臨的不止“幻覺”這一個挑戰(zhàn),如未來隨著數(shù)據(jù)量的巨增,必須要進行模型壓縮與優(yōu)化;多模態(tài)模型與大語言模型的結合,將自然語言處理與計算機視覺、語音處理等多模態(tài)信息相結合,擴大應用場景。
    大模型已基本解決幻覺問題?
  • 2024AI+研發(fā)數(shù)字(AiDD)峰會深圳站圓滿收官!
    11月8-9日,為期兩天的AI+研發(fā)數(shù)字(AiDD)峰會在深圳灣萬麗酒店圓滿收官!本屆峰會由AiDD峰會組委會和深圳市軟件行業(yè)協(xié)會聯(lián)合主辦,承辦單位為國內領先的專業(yè)數(shù)字人才發(fā)展平臺中智凱靈。 本屆峰會以“AI驅動研發(fā)變革,助力企業(yè)降本增效”為主題。邀請了來自百度、阿里、騰訊、華為、網易、360、字節(jié)跳動、快手、微軟、去哪兒、中興、等頭部互聯(lián)網企業(yè),以及各大高校的一線從業(yè)者和技術專家?guī)碜钋把氐闹黝}
  • 曝OpenAI新旗艦模型“難產”,或明年年初發(fā)布
    11月11日消息,據(jù)The Information報道,OpenAI的GPT系列模型改進速度放緩,公司正調整策略以應對這一挑戰(zhàn)。據(jù)OpenAI員工透露,下一代旗艦模型Orion已完成約20%的訓練。Orion在語言任務上表現(xiàn)出色,但在編碼等方面未超越GPT-4,且運行成本偏高,提升幅度低于預期。此外,Orion在明年年初發(fā)布時,可能不會沿用傳統(tǒng)的“GPT”命名規(guī)則,而是采用新的命名方式。
    曝OpenAI新旗艦模型“難產”,或明年年初發(fā)布
  • 大語言模型上車后,你的車機真的好用了嗎?
    去年號稱大模型技術元年,智能座艙的演進進入了新階段:大語言模型上車。智能座艙通過運用大模型,將提供千人千面的語音識別、娛樂信息,以及駕駛輔助的個性化定制服務,讓座艙具有了深度進化的能力。
    大語言模型上車后,你的車機真的好用了嗎?
  • 如果強化學習是問題,大模型是否是「答案」?
    “強化學習讓大模型具有了思考能力,大模型為強化學習提供了更開闊的思路?!? 在當今大模型推動的新一波人工智能的快速發(fā)展浪潮中,大模型和強化學習技術的結合成為研究和產業(yè)界的焦點。尤其最近OpenAI最新模型o1的發(fā)布,強化學習成為o1的靈魂,更是印證了強化學習的潛力。大模型憑借其強大的數(shù)據(jù)處理能力,為強化學習提供了豐富的知識。這種結合不僅極大地擴展了人工智能在處理復雜問題上的能力,也為強化學習帶來了更深層次的洞察力和更高效的決策過程。
    如果強化學習是問題,大模型是否是「答案」?
  • 大模型應用開發(fā)-走進大模型應用
    在人工智能的浩瀚星空中,大模型就像是那顆閃耀的北極星,不僅指引著科技的發(fā)展方向,也照亮了我們對未來的無限暢想。
    大模型應用開發(fā)-走進大模型應用
  • 小模型“反卷”大模型?適用才是真王道!
    隨著“千模大戰(zhàn)”接近尾聲,由大模型掀起的算力競賽也逐漸進入“下半場”,由“建算力”過渡到“用算力”上。不同于大模型的參數(shù)量大、成本高、部署復雜,以“小而美”著稱的小模型為行業(yè)提供了新選擇。
    小模型“反卷”大模型?適用才是真王道!
  • 一文搞懂大語言模型的發(fā)展歷程和未來應用場景!
    “IT有得聊”是機械工業(yè)出版社旗下IT專業(yè)資訊和服務平臺,致力于幫助讀者在廣義的IT領域里,掌握更專業(yè)、更實用的知識與技能,快速提升職場競爭力。點擊藍色微信名可快速關注我們!
    一文搞懂大語言模型的發(fā)展歷程和未來應用場景!
  • 艾體寶洞察丨透過語義緩存,實現(xiàn)更快、更智能的LLM應用程序
    本文探討了語義緩存在提升大型語言模型(LLM)應用程序性能中的關鍵作用。與傳統(tǒng)緩存不同,語義緩存理解用戶查詢背后的語義,提供更快、更相關的響應。這種技術通過嵌入模型、矢量搜索等組件,顯著提高了自動化客戶支持、實時翻譯等應用的效率,為企業(yè)優(yōu)化操作和提升用戶體驗提供了新路徑。
  • 大語言模型有什么用途?
    大語言模型能夠識別、總結、翻譯、預測和生成文本及其它形式的內容。AI 應用正在被應用于總結文章、撰寫故事和進行長對話,而大語言模型在其中發(fā)揮了重要作用。大語言模型(LLM)是一種深度學習算法,能夠基于從海量數(shù)據(jù)集中獲得的知識,識別、總結、翻譯、預測和生成文本以及其它形式的內容。
    大語言模型有什么用途?

正在努力加載...