來(lái)源:JRS低調(diào)看直播2025-01-28 16:47:29
“預(yù)訓(xùn)練”是AI大模型學(xué)習(xí)中的一種方法,指的是通過(guò)海量的數(shù)據(jù),訓(xùn)練一個(gè)大模型。訓(xùn)練時(shí)需要大量的數(shù)據(jù)和算力支持,每次迭代可能耗資數(shù)百萬(wàn)至數(shù)億美元。
官方技術(shù)論文披露,DeepSeek-V3在預(yù)訓(xùn)練階段僅使用2048塊GPU訓(xùn)練了2個(gè)月,且只花費(fèi)557.6萬(wàn)美元。這個(gè)費(fèi)用是什么概念?
據(jù)報(bào)道,GPT-4o的模型訓(xùn)練成本約為1億美元。簡(jiǎn)單粗暴地說(shuō),這相當(dāng)于DeepSeek-V3比同等性能的AI大模型,降了十幾倍的成本。
早在2024年5月,深度求索發(fā)布DeepSeek-V2時(shí),就曾因給模型的定價(jià)太過(guò)于便宜,開啟了中國(guó)大模型的價(jià)格戰(zhàn),被稱之為“AI界的拼多多”。
“相比于說(shuō)它是‘拼多多’,它更像小米,貼近成本定價(jià),并且自產(chǎn)自銷。”馬千里認(rèn)為,訓(xùn)練成本比較低的原因,離不開深度求索團(tuán)隊(duì)自研的架構(gòu)和算力,他們自身的算力儲(chǔ)備可以與大廠比肩,并且更注重底層的模型。
“ChatGPT走的是大參數(shù)、大算力、大投入的路子,DeepSeek-V3的路徑用了更多的巧思,依托數(shù)據(jù)與算法層面的優(yōu)化創(chuàng)新,從而高效利用算力,實(shí)現(xiàn)較好的模型效果。”馬千里說(shuō)道。
傳聞是真的?Ale沉默全程不說(shuō)話!WBG新輔助登場(chǎng)溝通很清晰!
JDG賽后群訪 教練:近期要重新梳理很多東西 慢慢做調(diào)整
謙虛使人進(jìn)步!Erha:打比賽要有不急不躁的感覺(jué) 滿意本場(chǎng)發(fā)揮
WBG賽后群訪 Tian:隊(duì)伍能進(jìn)步的地方還有很多 團(tuán)戰(zhàn)能打的好一點(diǎn)
責(zé)任!吳京成立影武堂:旨在把經(jīng)驗(yàn)傳授給年輕人,減少受傷風(fēng)險(xiǎn)
對(duì)線對(duì)線打不過(guò)!Scout:今天前期就劣了 要從對(duì)線期開始調(diào)整
時(shí)間緊迫啊!JDG教練:今天很多東西都沒(méi)做好 后面慢慢調(diào)整下
你又懂了?朱開力挺Ale:選手不會(huì)宮斗教練,有經(jīng)紀(jì)公司在整活