九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
Llama 2 發(fā)布:一夜之間,大模型競(jìng)爭(zhēng)來(lái)到新起點(diǎn)

大語(yǔ)言模型的市場(chǎng)格局變了。

文丨賀乾明

編輯丨龔方毅

當(dāng)一家公司的新技術(shù)遙遙領(lǐng)先,眼看要獨(dú)占一個(gè)行業(yè),追趕者們應(yīng)該怎么辦?

2008 年,iPhone 發(fā)布后一年,各大手機(jī)廠商奮力研發(fā)操作系統(tǒng)追趕蘋果。微軟有 Windows Mobile、黑莓有 BBOS、諾基亞基于 Linux 系統(tǒng)開發(fā)了 Maemo、Palm 在秘密研發(fā) WebOS……

又過(guò)了不到五年,還賣得動(dòng)的智能手機(jī)要么來(lái)自蘋果,要么裝著開源的 Android 系統(tǒng)?,F(xiàn)在,蘋果的競(jìng)爭(zhēng)對(duì)手們不再有屬于自己的操作系統(tǒng),但它們占據(jù)著超過(guò) 80% 的智能手機(jī)市場(chǎng)。

一整個(gè)行業(yè)圍繞開源技術(shù),協(xié)力對(duì)抗領(lǐng)先者,這一幕在今天的技術(shù)競(jìng)爭(zhēng)中不斷發(fā)生。

Windows 系統(tǒng)難以挑戰(zhàn),不滿微軟的科技行業(yè)將 Linux 變成了網(wǎng)站和互聯(lián)網(wǎng)應(yīng)用的操作系統(tǒng)。亞馬遜 AWS 開創(chuàng)了云計(jì)算行業(yè),阿里云、IBM 等競(jìng)爭(zhēng)公司將 Google 的 Kubernetes(K8S)開源技術(shù)奉為標(biāo)準(zhǔn)。幾乎所有移動(dòng)處理器都依賴 ARM 架構(gòu),于是 RISC-V 正得到廣泛的投資支持。

昨夜 Meta 又貢獻(xiàn)了一個(gè)這樣的例子。他們宣布將大語(yǔ)言模型 Llama 2 有條件地開源給商業(yè)使用(月活用戶超過(guò) 7 億需要單獨(dú)申請(qǐng)),正是在牽頭做大模型時(shí)代的開源標(biāo)準(zhǔn)。而 OpenAI 的密切合作伙伴微軟,這一次成了 Llama 2 的首要合作伙伴。

微軟是在同一天舉行的 Inspire 大會(huì)宣布這項(xiàng)合作的,而且就在宣布的 2 分鐘前,微軟還在一張 PPT 上畫著 “微軟 ?? OpenAI”。微軟與有競(jìng)爭(zhēng)關(guān)系的閉源 OpenAI 和開源 Llama 2 兩頭牽手,反映了如今大模型激烈的技術(shù)競(jìng)賽之外,多變的商業(yè)合縱連橫。

微軟 CEO 薩蒂亞·納德拉(Satya Nadella)發(fā)布會(huì)上強(qiáng)調(diào)微軟與 OpenAI 關(guān)系親密(上)。Meta CEO 馬克·扎克伯格(Mark Zuckerberg)與納德拉的合影(下),圖片來(lái)自扎克伯格的社交媒體。

ChatGPT 去年底亮相后,全球大小科技公司和各類研究機(jī)構(gòu)都在奮力追趕,造出了上百個(gè)大模型。而在 Meta 開源 Llama 2 之后,這些模型中的大多數(shù)還沒有商用就已經(jīng)過(guò)時(shí)。

“Llama 2 看起來(lái)非常強(qiáng)大(超越 GPT-3),經(jīng)過(guò)微調(diào)的聊天模型看起來(lái)與 ChatGPT 處于同一水平。”HuggingFace 機(jī)器學(xué)習(xí)科學(xué)家內(nèi)森·蘭伯特( Nathan Lambert )說(shuō),“對(duì)開源來(lái)說(shuō)是一個(gè)巨大的飛躍,但對(duì)閉源的大模型公司是一個(gè)巨大打擊,這個(gè)模型(Llama 2)將滿足大多數(shù)公司對(duì)更低成本和個(gè)性化的需求”。

水平在 GPT-3 到 GPT-3.5 之間

今年 2 月,ChatGPT 發(fā)布 3 個(gè)月,Meta 就開源了第一版 Llama 大語(yǔ)言模型。當(dāng)時(shí)開發(fā)者能拿到的只是 Llama 預(yù)訓(xùn)練模型、且只被允許用作研究,而不是一個(gè)像 ChatGPT 那樣針對(duì)特定任務(wù)或者需求訓(xùn)練過(guò)的應(yīng)用。

支持商用的 Llama 2 看上去更強(qiáng)。本次 Meta 一共發(fā)布 70 億、130 億和 700 億三種參數(shù)規(guī)模的模型,其公布了模型訓(xùn)練數(shù)據(jù)、訓(xùn)練方法、數(shù)據(jù)標(biāo)注等大量細(xì)節(jié),展示了 Llama 2 的水平:

  • 同等參數(shù)規(guī)模, Llama 2 能力超過(guò)所有的開源大模型;

  • 700 億參數(shù)的模型在推理層面接近 ChatGPT 背后的 GPT-3.5,但寫代碼的能力還有較大差距。

多位測(cè)試過(guò) Llama 2 模型的開發(fā)者基本證實(shí)了 Meta 的說(shuō)法:“代碼測(cè)試環(huán)節(jié)挺不了 15 分鐘”。70 億參數(shù)的模型可以在 Mac 上運(yùn)行,每秒鐘能處理 6 個(gè)字符,比 Google 發(fā)布的 PaLM 2 最小的模型 “壁虎” 慢 70%。但 Google 并沒有公布 “壁虎” 的具體參數(shù)。

根據(jù) Meta 公布的信息,Llama 2 的訓(xùn)練數(shù)據(jù)(都來(lái)自公開數(shù)據(jù))提升到 2 萬(wàn)億個(gè) Token(指一個(gè)常用單詞、標(biāo)點(diǎn)或數(shù)字),較第一代多 40%。其上下文長(zhǎng)度擴(kuò)展到了 4000 個(gè)字符,對(duì)文本語(yǔ)義的理解更強(qiáng)。

Meta 還像 OpenAI 那樣,借助人類反饋強(qiáng)化學(xué)習(xí)(RLHF)機(jī)制,用 100  萬(wàn)人類標(biāo)記數(shù)據(jù)訓(xùn)練出了類似 ChatGPT 的對(duì)話應(yīng)用。這也是開源社區(qū)過(guò)去幾個(gè)月微調(diào)訓(xùn)練 Llama 的常用方法。Meta 稱 “大語(yǔ)言模型的卓越寫作能力,從根本上是由 RLHF 驅(qū)動(dòng)的。”

訓(xùn)練 Llama 2 可能并不便宜。HuggingFace 機(jī)器學(xué)習(xí)科學(xué)家內(nèi)森·蘭伯特估算 Llama 2 的訓(xùn)練成本可能超過(guò) 2500 萬(wàn)美元,不比 OpenAI 三年前訓(xùn)練 GPT-3 的花費(fèi)少。他說(shuō),有充足的跡象表明,Meta 還在繼續(xù)訓(xùn)練更強(qiáng)的 Llama。

Meta 的 Llama 2 在多個(gè)數(shù)據(jù)集上表現(xiàn)好過(guò)其他開源模型。圖片來(lái)自 Meta。

“改變大語(yǔ)言模型的市場(chǎng)格局”

作為基礎(chǔ)設(shè)施,大模型在產(chǎn)品中處于底層。用戶使用大模型應(yīng)用,感受到的就是對(duì)話框和大模型處理過(guò)的內(nèi)容,不會(huì)看到用的什么大模型、什么技術(shù)。

大模型的這個(gè)特點(diǎn),一定程度上決定了它競(jìng)爭(zhēng)局面——只要有更符合用戶或企業(yè)需求的大模型出現(xiàn),換起來(lái)的障礙并不高,甚至不會(huì)對(duì)用戶造成太多負(fù)面影響?!叭绻竽P湍芰ο嗖畈淮?,只需要做一些調(diào)度工作就可以解決,開發(fā)量不大?!?一位 AI 開發(fā)者說(shuō)。

有了 Llama 2 這樣的開源大模型,自研的意義更小了。連競(jìng)爭(zhēng)對(duì)手 OpenAI 的研究科學(xué)家、特斯拉前人工智能總監(jiān)安德烈·卡帕西(Andrej Karpathy)都說(shuō),Llama 2 的發(fā)布是人工智能和大模型發(fā)展過(guò)程中的重要一天,“Llama 2 是任何人都可以拿到模型權(quán)重(參數(shù)特征,一個(gè)模型最關(guān)鍵的信息)的最強(qiáng)大語(yǔ)言模型?!?/p>

Meta 副總裁、人工智能部門負(fù)責(zé)人楊立昆(Yann LeCun)說(shuō),Llama 2 將改變大語(yǔ)言模型市場(chǎng)的格局。一位中國(guó)大模型創(chuàng)業(yè)公司高管解釋了這句話:“很快就能看到許多開發(fā)大模型應(yīng)用的公司,把基礎(chǔ)模型換成 Llama 2”。

多位人工智能研究者認(rèn)同楊立昆的說(shuō)法,隨著 Llama 2 發(fā)布,Meta 可以用開源、支持商用的策略會(huì)改變大模型的格局和生態(tài)。

今年 6 月,美國(guó)紅杉資本發(fā)現(xiàn)在其投資的 33 家創(chuàng)業(yè)公司和上市公司中,65% 已經(jīng)上線了大模型應(yīng)用、94% 正用 OpenAI 的大模型接口(API)開發(fā)應(yīng)用。

它們使用大模型的方法大多較為簡(jiǎn)單:直接調(diào)用 ChatGPT 的接口處理私有數(shù)據(jù)完成特定任務(wù),如多語(yǔ)言互譯、生成文本或者網(wǎng)頁(yè)內(nèi)容摘要等。很少有公司會(huì)做更深入的開發(fā),比如用大量數(shù)據(jù)微調(diào)模型。

在中國(guó),許多公司選擇從頭收集數(shù)據(jù)或者用公開數(shù)據(jù)集訓(xùn)練大模型,過(guò)去半年發(fā)布了 80 多個(gè)大模型,不乏有公司和機(jī)構(gòu)開源模型,把支持商用當(dāng)做競(jìng)爭(zhēng)點(diǎn),然后做起生意。

《晚點(diǎn) LatePost》了解到,中國(guó)一家備受關(guān)注的大模型創(chuàng)業(yè)公司推出的開源 60 億參數(shù)大模型,企業(yè)想買商用授權(quán)要花百萬(wàn)元;沒有開源的千億參數(shù)模型,售價(jià)每年上千萬(wàn)元。

一位上市公司人工智能部門負(fù)責(zé)人 5 月告訴《晚點(diǎn) LatePost》,他們打算用 OpenAI 的 GPT-3.5 開發(fā)功能,但成本太高——每天成本預(yù)計(jì)上萬(wàn)元,而且想定制做開發(fā)很困難,也不支持同一時(shí)間響應(yīng)大量用戶的請(qǐng)求。

最后他們選擇了參數(shù)量更小的 Llama(60 億)和一個(gè)中國(guó)公司的開源大模型,這意味著訓(xùn)練和部署成本更低,而且經(jīng)過(guò)數(shù)據(jù)微調(diào)后,在他們的業(yè)務(wù)場(chǎng)景中,基于 Llama 與中國(guó)開源模型的開發(fā)效果和使用 GPT-3.5 差別不大。

中國(guó)大模型公司當(dāng)時(shí)的另一個(gè)優(yōu)勢(shì)是可以談商業(yè)授權(quán),而 Llama  不能。當(dāng) Llama 2 開始允許商用,中國(guó)大模型公司的這一優(yōu)勢(shì)現(xiàn)在也沒有了。

開源大模型正迅速追趕

ChatGPT 去年底剛發(fā)布時(shí),它憑看上去充滿意義的回復(fù)和強(qiáng)大的寫代碼能力等功能震撼了世界。許多公司都在關(guān)注怎樣才能做出一個(gè)類似的產(chǎn)品。

半年多過(guò)去,從大公司到普通程序員,都能借助開源社區(qū)做出來(lái)一個(gè)類似 ChatGPT 的應(yīng)用。云端開發(fā)平臺(tái) Replit 發(fā)現(xiàn),使用他們服務(wù)的開源大模型的項(xiàng)目數(shù)量,每個(gè)季度都在翻倍。

在 Llama 等開源大模型基礎(chǔ)上,開發(fā)者們做出了各種開源數(shù)據(jù)集,比如基于人類反饋強(qiáng)化學(xué)習(xí)(RLHF)的數(shù)據(jù)集,持續(xù)提升開源大模型的能力。

根據(jù)加州大學(xué)伯克利分校、卡耐基梅隆大學(xué)等高校多位教授和學(xué)生成立的 LMSYS Org 評(píng)估,過(guò)去幾個(gè)月,開源大模型與 GPT-4 的差距正明顯縮小——從相差 191 分到近期的 115 分。在追趕過(guò)程中,開源社區(qū)還先大公司一步做出了在電腦、手機(jī)上運(yùn)行的大模型,比 Google 早一個(gè)多月。

隨著 Meta 開源 Llama 2,大模型開源社區(qū)的力量將會(huì)變得更強(qiáng)。Meta 稱, 第一版不支持商用的模型開源后,他們收到了超過(guò) 10 萬(wàn)個(gè)研究人員的使用申請(qǐng)——這還沒算那些直接從網(wǎng)上下載模型的人。

“大公司的人工智能研究人員因?yàn)殚_源許可問(wèn)題對(duì)第一版 Llama 持謹(jǐn)慎態(tài)度,現(xiàn)在我認(rèn)為他們中的許多人會(huì)跳上這艘船(Llama 2)并貢獻(xiàn)他們的火力?!?英偉達(dá)資深人工智能科學(xué)家 Jim Fan 說(shuō),就算現(xiàn)在 Llama 2 編程能力不行,開源后很快就會(huì)追上來(lái)。

這次 Llama 2 最大開源參數(shù)版本(700 億)的訓(xùn)練數(shù)據(jù)量還不到 OpenAI 三年前訓(xùn)練好的 GPT-3 的一半,但效果好于 GPT-3,就是最好的例證之一。

開源的邏輯偏向于大模型達(dá)到一定能力后,就擴(kuò)大新技術(shù)的覆蓋范圍,讓更多人使用技術(shù),然后從大量應(yīng)用中改進(jìn)模型。而閉源的公司,如 OpenAI 更偏向于技術(shù)領(lǐng)先,研發(fā)強(qiáng)大模型后再推廣給更多人。

就像 iOS 與 Andriod 在手機(jī)操作系統(tǒng)上的競(jìng)爭(zhēng),開源與閉源的競(jìng)爭(zhēng)并不都是在同一維度上的短兵相接,大模型領(lǐng)域也會(huì)出現(xiàn)類似的分化。

在這種新的競(jìng)爭(zhēng)格局下,連 Google 都沒有信心繼續(xù)保持領(lǐng)先。

今年 5 月,Google 一位高級(jí)工程師在內(nèi)部撰文稱,盡管 Google 在大模型的質(zhì)量上仍然略有優(yōu)勢(shì),但開源產(chǎn)品與 Google 大模型的差距正在以驚人的速度縮小,開源的模型迭代速度更快,使用者能根據(jù)不同的業(yè)務(wù)場(chǎng)景做定制開發(fā),更利于保護(hù)隱私數(shù)據(jù),成本也更低。

“只需要幾周時(shí)間,他們用 100 美元和 130 億參數(shù)的模型,就能做成我們花 1000 萬(wàn)美元和 540 億參數(shù)模型很難做到的事情?!?他說(shuō),“我們沒有護(hù)城河,OpenAI 也沒有”。

昨天,Meta 在宣布 Llama2 開源后解釋說(shuō),開源對(duì)于當(dāng)今人工智能模型的發(fā)展是正確的,尤其是在技術(shù)迅速發(fā)展的生產(chǎn)領(lǐng)域,“通過(guò)公開提供人工智能模型,它們可以惠及所有人ーー而不僅僅是少數(shù)幾家大公司”。

一場(chǎng)不同于過(guò)去的新式競(jìng)爭(zhēng)正在生成式人工智能領(lǐng)域開展。開源社區(qū)憑借開放協(xié)作的力量,正在以驚人的速度追趕商業(yè)巨頭們建立的領(lǐng)先優(yōu)勢(shì)。而過(guò)去習(xí)慣于技術(shù)封閉和市場(chǎng)壟斷的大公司,也在逐步擁抱開源。

題圖來(lái)源:烈火戰(zhàn)車 Chariots of Fire (1981)

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
「AI版YC」創(chuàng)始人:大模型正在改變商業(yè)模式,原生用戶將顛覆市場(chǎng)
差一步稱霸AI:歷史進(jìn)程中的扎克伯格
LeCun狂贊:600刀GPT-3.5平替! 斯坦福70億參數(shù)「羊駝」爆火,LLaMA殺瘋了
“開源軍團(tuán)”來(lái)勢(shì)洶洶,OpenAI還能堅(jiān)挺多久? 轉(zhuǎn)載
王小川:做搜索,我晚了;做AI,我趕上好時(shí)候
大模型,開源干不掉閉源
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服