阿里云率先支持Llama2全系列訓練部署 助力打造專屬大模型
7月26日消息,阿里云在國內率先推出針對Llama2全系列版本的訓練和部署方案。官方表示,歡迎所有開發(fā)者來阿里云上打造專屬大模型。
近日,Llama2大語言模型宣布開源,覆蓋70億、130億及700億參數(shù)版本。Llama2可免費用于研究場景和月活7億用戶以下的商業(yè)場景,為企業(yè)和開發(fā)者提供了大模型研究的新工具。然而,對Llama2的再訓練和部署仍存在較高門檻,尤其是針對效果更勝一籌的大尺寸版本。
為方便開發(fā)者群體,阿里云機器學習平臺PAI在國內率先對Llama2系列模型進行深度適配,推出了輕量級微調、全參數(shù)微調、推理服務等場景的最佳實踐方案,助力開發(fā)者快速基于Llama2進行再訓練,搭建自己的專屬大模型。
(圖源阿里云官網(wǎng)截圖)
阿里云牽頭發(fā)起的AI模型社區(qū)魔搭ModelScope,第一時間上架了Llama2系列模型。開發(fā)者可在魔搭社區(qū)Llama2模型頁面點擊“Notebook快速開發(fā)”,一鍵拉起阿里云機器學習平臺PAI,對模型進行云上開發(fā)和部署;在其他平臺下載的Llama2模型,也可使用阿里云PAI進行開發(fā)。
針對特殊的場景需求,開發(fā)者往往需使用微調訓練的方法對模型進行“調整”,以獲得特定領域的專業(yè)能力和知識。此時,PAI支持開發(fā)者在云上進行輕量級Lora微調或更深度的全參數(shù)微調。完成模型微調后,PAI支持開發(fā)者通過Web UI及API的方式部署Llama2,使模型可以通過網(wǎng)頁或嵌入應用與使用者交互。
相比本地單機訓練Llama2,在阿里云上可完成對超大尺寸模型的深度開發(fā),且預置環(huán)境免運維,操作簡單便捷,同時開發(fā)者可獲得豐富的AI計算資源和極致彈性。本地單卡GPU只能完成Llama2 70億參數(shù)版本的輕量級Lora微調和推理,更大尺寸版本及更深度訓練均很難支撐。在阿里云上,通過PAI靈駿智算服務提供的分布式計算能力,可對Llama2全尺寸版本進行輕量級和全參數(shù)微調,并進行高效部署和推理。
(圖源魔搭ModelScope官網(wǎng)截圖)
據(jù)了解,阿里云已構建完備的IaaS+PaaS+MaaS一體化AI服務。在基礎設施層,阿里云擁有國內最強的智能算力儲備,靈駿智算集群具備最大十萬卡GPU規(guī)模擴展性,可承載多個萬億參數(shù)大模型同時在線訓練;在AI平臺層,阿里云機器學習平臺PAI提供AI開發(fā)全流程的工程能力,PAI靈駿智算服務支撐了通義千問等超大模型的訓練和應用,可將大模型訓練性能提高近10倍,推理效率提升37%;在模型服務層,阿里云構建了國內最活躍的AI模型社區(qū)魔搭,并支持企業(yè)基于通義千問或三方大模型進行再訓練。
今年7月初,阿里云宣布,將把促進中國大模型生態(tài)的繁榮作為首要目標,向大模型創(chuàng)業(yè)公司提供包括模型訓練、推理、部署、精調、測評、產(chǎn)品化落地等在內的全方位服務,并在資金和商業(yè)化探索方面提供充分支持。
2、電商號平臺僅提供信息存儲服務,如發(fā)現(xiàn)文章、圖片等侵權行為,侵權責任由作者本人承擔。
3、如對本稿件有異議或投訴,請聯(lián)系:info@dsb.cn