大語言模型或推動“換機潮”產(chǎn)業(yè)鏈公司望集體受益
(資料圖片)
■機會挖掘
■國信證券
大模型參數(shù)量級飛漲,相應(yīng)訓(xùn)練集需同比提升。李開復(fù)定義AI2.0時代的特征是通過海量數(shù)據(jù),無需標(biāo)注自監(jiān)督學(xué)習(xí),訓(xùn)練一個基礎(chǔ)大模型,并在各領(lǐng)域?qū)⑵鋵I(yè)化。據(jù)相關(guān)論文,當(dāng)模型的參數(shù)量大于某閾值,會展現(xiàn)出類似推理、無監(jiān)督學(xué)習(xí)等未曾出現(xiàn)的能力,這種現(xiàn)象被稱為“涌現(xiàn)”,因此目前大語言模型參數(shù)均在十億量級以上。同時,Deepmind研究表明,模型參數(shù)的上漲需要配合等比例上升的優(yōu)質(zhì)數(shù)據(jù)集來達到最佳訓(xùn)練效果。因此,大模型參數(shù)在十億級以上發(fā)展并受限于優(yōu)質(zhì)數(shù)據(jù)集的增速是AI發(fā)展的必然趨勢。
大模型增長挑戰(zhàn)芯片算力和內(nèi)存,無法實現(xiàn)完整端側(cè)部署。大模型訓(xùn)練和推理的三大瓶頸是算力、顯存和通信,根據(jù)我們的測算,算力方面GPT-3 訓(xùn)練所需算力為121528TFLOPS,若30天內(nèi)完成,需要1558顆A100。內(nèi)存角度,GPT-3訓(xùn)練至少需要3.2T內(nèi)存,至少44張A100,推理任務(wù)則主要受顯存限制,需要4至8張A100,因此完整的模型無法在終端上離線運行。
優(yōu)化后大模型可在旗艦機型芯片上運行,AI落地有望推動新一輪換機潮。AI部署本地化具有必要性,優(yōu)勢包括更低的延遲、更小的帶寬、提高數(shù)據(jù)安全、保護數(shù)據(jù)隱私、高可靠性等。完整的大模型僅參數(shù)權(quán)重就占滿一張80G的GPU,但是通過量化、知識蒸餾、剪枝等優(yōu)化,大模型可以在手機本地實現(xiàn)推理。高通團隊使用驍龍8Gen2部署StableDiffusion,實現(xiàn)本地運營15秒出圖,證明了大模型本地化運行的可能,也體現(xiàn)出目前手機芯片的局限性。根據(jù)IDC數(shù)據(jù),1Q23全球手機銷量中主處理器頻率超過2.8GHz的占比36%,價格在1000美金以上的占比13%,即旗艦機型占比較低,隨著AI大模型在邊緣端落地,有望推動新一輪換機潮。
以大語言模型為核心,以語言為接口,控制多AI模型系統(tǒng),構(gòu)建“賈維斯”式智能管家。我們認為大語言模型不僅可以實現(xiàn)對話、創(chuàng)意,未來也有望作為眾多復(fù)雜AI模型的控制中心,同時也是接受用戶指令的交互窗口,實現(xiàn)《鋼鐵俠》電影中“賈維斯”式綜合智能管家。23年5月,Google推出PaLM2輕量版Gecko,其可在最新的旗艦機型上離線運行。同月,OpenAI首次推出ChatGPT移動端應(yīng)用,各家大廠正式進入AI模型移動端創(chuàng)新、競爭時期。智能音箱、全屋智能中控屏、手機、MR等均有望成為這一時代的交互入口。
產(chǎn)業(yè)鏈相關(guān)公司:半導(dǎo)體:晶晨股份、瑞芯微、全志科技、北京君正、兆易創(chuàng)新;消費電子:傳音控股、歌爾股份、福立旺、聞泰科技、創(chuàng)維數(shù)字。
(文章來源:金融投資報)
關(guān)鍵詞: