DoNews11月16日消息,針對(duì)近日零一萬(wàn)物被質(zhì)疑完全使用 LLaMA 架構(gòu),只對(duì)兩個(gè)張量(Tensor)名稱(chēng)做修改,李開(kāi)復(fù)在朋友圈進(jìn)行了回應(yīng)。
IT之家報(bào)道,李開(kāi)復(fù)表示:“全球大模型架構(gòu)一路從 GPT2 --> Gopher --> Chinchilla --> Llama2 --> Yi,行業(yè)逐漸形成大模型的通用標(biāo)準(zhǔn),就像做一個(gè)手機(jī) App 開(kāi)發(fā)者,不會(huì)去自創(chuàng) iOS、Android 以外的全新基礎(chǔ)架構(gòu)。01.AI 起步受益于開(kāi)源,也貢獻(xiàn)開(kāi)源,從社區(qū)中虛心學(xué)習(xí),我們會(huì)持續(xù)進(jìn)步?!?/p>
創(chuàng)新工場(chǎng)董事長(zhǎng)兼 CEO 李開(kāi)復(fù)于 2023 年創(chuàng)辦了 AI 大模型創(chuàng)業(yè)公司“零一萬(wàn)物”,該公司已推出 Yi-34B 和 Yi-6B 兩個(gè)開(kāi)源大模型,號(hào)稱(chēng)對(duì)學(xué)術(shù)研究完全開(kāi)放,同步開(kāi)放免費(fèi)商用申請(qǐng)。
然而在 Yi-34B 的 Hugging Face 開(kāi)源主頁(yè)上,開(kāi)發(fā)者 ehartford 質(zhì)疑稱(chēng)該模型使用了 Meta LLaMA 的架構(gòu),只對(duì)兩個(gè)張量(Tensor)名稱(chēng)進(jìn)行了修改,分別為 input_layernorm 和 post_attention_layernorm。
零一萬(wàn)物開(kāi)源團(tuán)隊(duì)總監(jiān) Richard Lin 回應(yīng)稱(chēng),這一命名問(wèn)題是開(kāi)發(fā)人員疏忽導(dǎo)致,開(kāi)發(fā)人員在代碼中進(jìn)行了幾次重命名,以滿足實(shí)驗(yàn)要求。但是開(kāi)發(fā)人員“忘記將張量名稱(chēng)修改回 LLaMA”,開(kāi)發(fā)人員對(duì)此感到抱歉。
值得一提的是,原阿里首席 AI 科學(xué)家賈揚(yáng)清吐槽國(guó)內(nèi)某一新模型中用的其實(shí)是 LLaMA 架構(gòu),僅在代碼中更改了幾個(gè)變量名引發(fā)網(wǎng)絡(luò)熱議。在被指大模型回應(yīng)并發(fā)布訓(xùn)練模型過(guò)程后,賈揚(yáng)清最新發(fā)文,表示開(kāi)源領(lǐng)域“魔改”要不得。
15日,零一萬(wàn)物官方對(duì) Yi-34B 訓(xùn)練過(guò)程進(jìn)行了說(shuō)明,表示大模型持續(xù)發(fā)展與尋求突破口的核心點(diǎn)不僅在于架構(gòu),而是在于訓(xùn)練得到的參數(shù)。