
字節(jié)對(duì)MoE模型訓(xùn)練成本再砍一刀 成本可節(jié)省40%
財(cái)聯(lián)社3月10日電,字節(jié)豆包大模型團(tuán)隊(duì)官宣開源一項(xiàng)針對(duì)MoE(混合專家模型)架構(gòu)的關(guān)鍵優(yōu)化技術(shù),可將大模型訓(xùn)練效率提升1.7倍,成本節(jié)省40%。據(jù)悉,該技術(shù)已實(shí)際應(yīng)用于字節(jié)的萬卡集群訓(xùn)練,累計(jì)幫助節(jié)省了數(shù)百萬GPU小時(shí)訓(xùn)練算力。
我要評(píng)論
反饋意見 

歡迎您發(fā)表有價(jià)值的評(píng)論,發(fā)布廣告和不和諧的評(píng)論都將會(huì)被刪除,您的賬號(hào)將禁止評(píng)論。
發(fā)表評(píng)論
關(guān)聯(lián)話題
4.96W 人關(guān)注
+ 關(guān)注