9月7日 消息:近日,人工智能科技公司 Hugging Face 推出了一項(xiàng)新服務(wù)Training Cluster,用戶僅需一鍵即可對(duì)模型進(jìn)行訓(xùn)練,無(wú)需處理復(fù)雜的內(nèi)部過(guò)程。這項(xiàng)創(chuàng)新服務(wù)將極大地減少用戶在深度學(xué)習(xí)項(xiàng)目中進(jìn)行模型訓(xùn)練所需的時(shí)間和精力。
項(xiàng)目地址:https://huggingface.co/training-cluster
Training Cluster可以讓用戶在Hugging Face的GPU基礎(chǔ)設(shè)施上大規(guī)模定制訓(xùn)練語(yǔ)言模型。用戶只需要提供自定義的數(shù)據(jù)集和單節(jié)點(diǎn)的訓(xùn)練參數(shù),Hugging Face會(huì)自動(dòng)在數(shù)千個(gè)GPU上進(jìn)行訓(xùn)練并縮放。這種即服務(wù)的解決方案可以幫助用戶高效地訓(xùn)練出針對(duì)特定業(yè)務(wù)領(lǐng)域和需求優(yōu)化的基礎(chǔ)語(yǔ)言模型。
(資料圖片)
Hugging Face 的這一舉措有望進(jìn)一步推動(dòng) AI 技術(shù)的普及和發(fā)展,降低 AI 技術(shù)應(yīng)用的門(mén)檻。
核心功能:
支持高達(dá)600億個(gè)標(biāo)記的大規(guī)模數(shù)據(jù)集訓(xùn)練
提供高達(dá)500個(gè)H100GPU的計(jì)算資源
支持高達(dá)30B參數(shù)量的大模型訓(xùn)練
多模態(tài)訓(xùn)練支持
保留數(shù)據(jù)控制權(quán),不存儲(chǔ)客戶數(shù)據(jù)
提供基礎(chǔ)設(shè)施專家支持
【來(lái)源:站長(zhǎng)之家】
關(guān)鍵詞: