9月7日 消息:近日,人工智能科技公司 Hugging Face 推出了一項新服務(wù)Training Cluster,用戶僅需一鍵即可對模型進行訓(xùn)練,無需處理復(fù)雜的內(nèi)部過程。這項創(chuàng)新服務(wù)將極大地減少用戶在深度學(xué)習(xí)項目中進行模型訓(xùn)練所需的時間和精力。
項目地址:https://huggingface.co/training-cluster
(資料圖片)
Training Cluster可以讓用戶在Hugging Face的GPU基礎(chǔ)設(shè)施上大規(guī)模定制訓(xùn)練語言模型。用戶只需要提供自定義的數(shù)據(jù)集和單節(jié)點的訓(xùn)練參數(shù),Hugging Face會自動在數(shù)千個GPU上進行訓(xùn)練并縮放。這種即服務(wù)的解決方案可以幫助用戶高效地訓(xùn)練出針對特定業(yè)務(wù)領(lǐng)域和需求優(yōu)化的基礎(chǔ)語言模型。
Hugging Face 的這一舉措有望進一步推動 AI 技術(shù)的普及和發(fā)展,降低 AI 技術(shù)應(yīng)用的門檻。
核心功能:
支持高達(dá)600億個標(biāo)記的大規(guī)模數(shù)據(jù)集訓(xùn)練
提供高達(dá)500個H100GPU的計算資源
支持高達(dá)30B參數(shù)量的大模型訓(xùn)練
多模態(tài)訓(xùn)練支持
保留數(shù)據(jù)控制權(quán),不存儲客戶數(shù)據(jù)
提供基礎(chǔ)設(shè)施專家支持
【來源:站長之家】
關(guān)鍵詞:
質(zhì)檢
推薦