魚羊 發(fā)自 凹非寺
ChatGPT爆火,吹起了大模型、AIGC的風(fēng)口,但伴隨著興奮而來的,還有普遍的焦慮:
大模型時代,我們究竟應(yīng)該做些什么?
我想現(xiàn)在,一是要看到未來AGI的絕對趨勢;二是要找到自己的長處,腳踏實地去做;三是要營造一個好的生態(tài)環(huán)境,大家多交流、互相成就。
這就是面對如此“焦慮”,世界頂級AI科學(xué)家、曾任ACL主席的周明,在首屆中國AIGC產(chǎn)業(yè)峰會現(xiàn)場給出的最新觀點。
2021年6月,周明成立瀾舟科技,這是一家以NLP技術(shù)為基礎(chǔ)的認(rèn)知智能公司。同年,瀾舟科技的“孟子”模型以10億參數(shù)“四兩撥千斤”,登頂中文語言理解權(quán)威評測基準(zhǔn)CLUE。
當(dāng)ChatGPT的大潮來襲,作為國內(nèi)最先一批有準(zhǔn)備的人,周明認(rèn)為,與此前的大模型不同:
首先,ChatGPT對用戶的意圖理解非常清晰,也更加準(zhǔn)確。
其次,多輪對話的建模非常好,還有若干解析能力。
但同時,站在工業(yè)界角度,很多需要解析能力的任務(wù),用單獨的引擎能達到比ChatGPT更好的效果。
所以,找到ChatGPT的應(yīng)用場景非常關(guān)鍵。
基于這樣的思考,周明博士站在To B角度,分享了對AI 2.0時代進行數(shù)智化轉(zhuǎn)型的看法,從自身角度解答了“怎么用ChatGPT”、“我們應(yīng)該做什么”的問題。
為了分享周明博士的更多精彩觀點,量子位在不改變原意的基礎(chǔ)上,對他的演講內(nèi)容進行了編輯整理,以饗讀者。
(以下為周明演講全文)
過去N多年,企業(yè)在完成信息化之后,期待的是智能化。但其實,這個智能化過去沒有很好地發(fā)展起來。
很多企業(yè)做所謂AI中臺,用AI中臺支持各項業(yè)務(wù),效果不是很理想?,F(xiàn)在有了大模型,大家都在考慮我能不能搞一個新的AI中臺來支持所有業(yè)務(wù)。
認(rèn)知智能涵蓋很多方面的因素:第一是語言理解,第二用推理、預(yù)測、決策去解決問題。這在很多方面都有用處,包括翻譯、客服、知識圖譜、推薦問答,都是企業(yè)智能引擎的一部分。
所以如何搞一個大模型,作為某種意義上的AI中臺來支持企業(yè)各項業(yè)務(wù),就是我們現(xiàn)在要考慮的一個問題。
回到大模型,支持下游任務(wù)無非有兩種做法:GPT-3之前,是做模型的微調(diào),去修改模型參數(shù);而GPT-3之后,像ChatGPT,它就是用prompt(提示詞),不需要對大模型進行修改,通過提示就能把大模型的很多能力牽引出來解決問題。
這樣一來下游任務(wù)的開發(fā)就變得非常簡單了,做prompt就可以了。
現(xiàn)在大家都去追ChatGPT,其實大模型是多種多樣的,包括一開始BERT、T5到GPT-1、GPT-2等等。那么ChatGPT跟以前的大模型有什么區(qū)別?
我的理解是:第一,它對用戶的意圖理解更加清晰準(zhǔn)確;第二,多輪對話的建模非常好,有若干解析能力。
不過,站在工業(yè)界角度,很多解析能力其實不用ChatGPT也能做得很好,比如翻譯。用單獨的引擎跟ChatGPT比,可能還比ChatGPT厲害。
在這種情況下,到底要用ChatGPT來干什么?
兩種考慮:一個是在ToC層面上,AGI能力越多越好,用戶在一個簡單界面中,就可以想干什么干什么,不用來回來去翻。
另一個是在ToB環(huán)境下,把問題理解、多輪對話的能力,接上企業(yè)自己的核心引擎,好好結(jié)合起來。因為對于企業(yè)來說,很多AGI功能是基本不用的,甚至還有可能搗亂。
現(xiàn)在都在討論AI 2.0,AI 2.0對應(yīng)的是AI 1.0。
1.0是什么?一個模型一個引擎,一個模型一個任務(wù)。而AI 2.0,就是一個模型N個任務(wù),甚至可以想象未來一個模型解決無窮個任務(wù)?,F(xiàn)在當(dāng)然達不到這個狀態(tài),但是有這樣的趨勢。
好處是,一個模型N個任務(wù),可以提高開發(fā)效率。另外大模型到一定程度有涌現(xiàn)能力,讓人產(chǎn)生了一些對未來人工智能深深的遐想,這是以前單模型、單任務(wù)永遠出不來的。
但對于企業(yè)而言,并不是必須用AI 2.0、一定要拋棄AI 1.0。
企業(yè)應(yīng)該把AI 1.0功能引擎和AI 2.0的部分能力(如問題理解和多輪對話的能力)無縫對接起來,形成一縱一橫的合力。
大模型來了,能有效改進企業(yè)的智能化研發(fā)環(huán)境。過去任務(wù)太碎片化,一個任務(wù)一個模型,研發(fā)人員準(zhǔn)備各種feature的代價太大,維護成本也比較高。現(xiàn)在有了大模型,代價就減少了很多,通過本地部署或者云,整體開發(fā)效率提高了很多,維護也容易了。
我們就在想,有這樣的開發(fā)新范式,在企業(yè)經(jīng)營場景中會有哪些新發(fā)現(xiàn)?
舉一個例子,金融行業(yè)用大模型,你得拿金融數(shù)據(jù)做continue training才會更準(zhǔn)。再拿金融領(lǐng)域常見的任務(wù)、長期積累的一些標(biāo)注數(shù)據(jù)做監(jiān)督學(xué)習(xí),才能讓模型適用于真實場景。這時候再拿模型去完成一些已有任務(wù)或新任務(wù),效率才會提高。
類似于ChatGPT,具體怎么用呢?一個是用ChatGPT做底座,做foundation model訓(xùn)練金融大模型,另一個是用ChatGPT,在人機交互環(huán)境下對企業(yè)的各個引擎進行調(diào)度。這樣一來,就能讓原來的智能客服具有多輪對話、意圖理解能力,推動新一代智能客服的出現(xiàn)。
瀾舟在做大模型的時候,尤其考慮了企業(yè)落地的問題。
第一,是大模型企業(yè)數(shù)智化應(yīng)用的邊界。是把大模型當(dāng)作一種分發(fā)機制,還是當(dāng)成基礎(chǔ)模型支持下游訓(xùn)練?
第二,是大模型結(jié)果的可控性和安全性,不能一會兒對,一會兒錯。
還有,企業(yè)以前的功能引擎如何無縫地接入大模型。
最后,企業(yè)數(shù)據(jù)要如何巧妙地用起來,如何把模型做得更輕。
為此,我們訓(xùn)練了孟子的一系列模型,并進行了開源。結(jié)合用戶的需求,我們不追求非得是千億模型,十億、百億、千億我們都可以提供,然后基于用戶的數(shù)據(jù)快速做continue training。
基于互聯(lián)網(wǎng)中文數(shù)據(jù),以及來自企業(yè)、客戶的中文數(shù)據(jù),孟子模型很懂中文。
另外,我們也做了很多AIGC的工作,包括小說的續(xù)寫,關(guān)鍵詞生成,實體渲染等等。
基于這些工作,我們跟中文在線合作了一個網(wǎng)文版類ChatGPT引擎。
瀾舟在做企業(yè)落地的時候,以孟子大模型為底座,拿用戶行業(yè)數(shù)據(jù)和用戶任務(wù)數(shù)據(jù)做continue training的例子,還包括和同花順一起做的金融大模型,和傳神合作的翻譯大模型,和華夏金融合作的輿情分析大模型,以及跟數(shù)說故事公司一起做的AIGC大模型,這些大模型都已經(jīng)落地了。
多說一句,行業(yè)搜索引擎也會被重新定義。第一是從關(guān)鍵詞匹配到語言理解,第二是從數(shù)據(jù)到深度理解,第三是從簡單信息獲取到內(nèi)容生產(chǎn)。
最后說一點感想。這張圖這兩天很火,是黃仁勛當(dāng)時把DGX-1的第一臺機器贈送給了OpenAI。
現(xiàn)在,OpenAI已經(jīng)是AI領(lǐng)域的翹楚,英偉達是全球科技領(lǐng)域市值第五的公司,還有微軟,也堅持投入AI,跟OpenAI長期合作,三家公司現(xiàn)在發(fā)展非常好。
他們做對了什么?
第一,是擁抱未來。他們看到AI的主旋律是一定要抓住的,并且持續(xù)為之努力。
第二,是腳踏實地。每個企業(yè)都有自己的特點,OpenAI、微軟和英偉達,都是在把自己的長處發(fā)揮出來。
第三,是互相成就,而不是互相拆臺。比如說微軟突然把OpenAI做的事都給做了,或者OpenAI往下游走,去跟英偉達形成競爭關(guān)系。
我想說這句話的意思是,現(xiàn)在咱們中國AIGC開始火了,大家蜂擁而上,大廠、小廠、研究機構(gòu)、學(xué)生、老師都有小小的焦慮。
這時候,一是要看到未來AGI的絕對趨勢;二是要找到自己的長處,腳踏實地去做;三是要營造一個好的生態(tài)環(huán)境,大家多交流、互相成就,才能促進整個AIGC的發(fā)展。
謝謝大家!
— 完 —
量子位 QbitAI · 頭條號簽約
關(guān)注我們,第一時間獲知前沿科技動態(tài)
聯(lián)系客服