九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
ChatGPT之后,值得關(guān)注的垂直領(lǐng)域大模型
userphoto

2023.06.15 澳大利亞

關(guān)注
垂直領(lǐng)域大模型是指在特定的領(lǐng)域或行業(yè)中經(jīng)過訓(xùn)練和優(yōu)化的大型語言模型。與通用語言模型相比,垂直領(lǐng)域大模型更專注于某個特定領(lǐng)域的知識和技能,具備更高的領(lǐng)域?qū)I(yè)性和實用性。

題圖 from unsplash

與通用大模型相比,垂直領(lǐng)域大模型具有以下優(yōu)勢和劣勢:
優(yōu)勢:
  1. 領(lǐng)域?qū)I(yè)性:垂直領(lǐng)域大模型經(jīng)過專門的訓(xùn)練,能夠更好地理解和處理特定領(lǐng)域的知識、術(shù)語和上下文。
  2. 高質(zhì)量輸出:由于在特定領(lǐng)域中進(jìn)行了優(yōu)化,垂直領(lǐng)域大模型在該領(lǐng)域的輸出質(zhì)量通常比通用大模型更高。
  3. 特定任務(wù)效果更好:對于特定領(lǐng)域的任務(wù),垂直領(lǐng)域大模型通常比通用大模型表現(xiàn)更好。
劣勢:
  1. 數(shù)據(jù)需求和訓(xùn)練成本:垂直領(lǐng)域大模型需要大量的特定領(lǐng)域數(shù)據(jù)進(jìn)行訓(xùn)練,這可能會面臨數(shù)據(jù)收集和標(biāo)注的挑戰(zhàn)。
  2. 適應(yīng)性限制:垂直領(lǐng)域大模型在特定領(lǐng)域中的適應(yīng)性較強(qiáng),但在其他領(lǐng)域的表現(xiàn)可能相對較弱。
  3. 更新和維護(hù)成本:由于特定領(lǐng)域的知識和要求經(jīng)常變化,垂直領(lǐng)域大模型需要定期更新和維護(hù),以保持與最新發(fā)展的同步。
下面介紹幾個知名度較高的垂直領(lǐng)域大模型,涉及教育、金融、醫(yī)學(xué)、法律四個領(lǐng)域。

MathGPT 教育大模型

學(xué)而思正在進(jìn)行自研數(shù)學(xué)大模型的研發(fā),命名為MathGPT。面向全球數(shù)學(xué)愛好者和科研機(jī)構(gòu),以數(shù)學(xué)領(lǐng)域的解題和講題算法為核心。據(jù)透露,MathGPT將先從中小學(xué)數(shù)學(xué)做起,逐步覆蓋全年齡學(xué)段和解題種類。
目前已經(jīng)取得階段性成果,并將于年內(nèi)推出基于該自研大模型的產(chǎn)品級應(yīng)用。

BloombergGPT 金融大模型

近期根據(jù)彭博社報告顯示,其構(gòu)建迄今為止最大的特定領(lǐng)域數(shù)據(jù)集,并訓(xùn)練了專門用于金融領(lǐng)域的LLM,開發(fā)了擁有500億參數(shù)的語言模型—BloombergGPT。
BloombergGPT 和 GPT模式一樣,也是基于 Transformer架構(gòu)的,采用的是譯碼器的技術(shù)路線。通過比較, BloombergGPT模型參數(shù)為500億,在GPT-2 (1.5億)和GPT-3 (1750億)之間。Bloomberg構(gòu)建了目前規(guī)模最大的金融數(shù)據(jù)集 FINPILE,通過對通用文本 金融知識的混合訓(xùn)練,使得 BloombergGPT在執(zhí)行金融任務(wù)方面的表現(xiàn)超過了現(xiàn)有的通用 LLM模型,而在通用場景方面的表現(xiàn)則與現(xiàn)有的通用 LLM模型基本持平。

BenTsao 中文醫(yī)學(xué)模型

https://github.com/SCIR-HI/Huatuo-Llama-Med-Chinese
本草原名華駝(HuaTuo),是一個基于中文醫(yī)學(xué)知識的LLaMA-7B微調(diào)模型。通過醫(yī)學(xué)知識圖譜和GPT3.5 API構(gòu)建了中文醫(yī)學(xué)指令數(shù)據(jù)集,并在此基礎(chǔ)上對LLaMA進(jìn)行了指令微調(diào),提高了LLaMA在醫(yī)療領(lǐng)域的問答效果。
嘗試?yán)肎PT3.5 API將醫(yī)學(xué)文獻(xiàn)中的【結(jié)論】作為外部信息融入多輪對話中,在此基礎(chǔ)上對LLaMA進(jìn)行了指令微調(diào)。目前,團(tuán)隊只開放針對'肝癌'單個疾病訓(xùn)練的模型參數(shù)。在未來,我們計劃發(fā)布融入文獻(xiàn)結(jié)論的醫(yī)學(xué)對話數(shù)據(jù)集,并且會針對“肝膽胰”相關(guān)16種疾病訓(xùn)練模型。

LaWGPT 中文法律知識模型

https://github.com/pengxiao-song/LaWGPT/
LaWGPT 是一系列基于中文法律知識的開源大語言模型,該系列模型在通用中文基座模型(如 Chinese-LLaMA、ChatGLM 等)的基礎(chǔ)上擴(kuò)充法律領(lǐng)域?qū)S性~表、大規(guī)模中文法律語料預(yù)訓(xùn)練,增強(qiáng)了大模型在法律領(lǐng)域的基礎(chǔ)語義理解能力。在此基礎(chǔ)上,構(gòu)造法律領(lǐng)域?qū)υ拞柎饠?shù)據(jù)集、中國司法考試數(shù)據(jù)集進(jìn)行指令精調(diào),提升了模型對法律內(nèi)容的理解和執(zhí)行能力。
不遠(yuǎn)的將來會有更多垂直領(lǐng)域的大模型面世,百模大戰(zhàn)已經(jīng)拉開序幕,AI滲透到千行百業(yè)只是時間問題,我們一起見證機(jī)器崛起吧。

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
金融GPT來了:500億參數(shù),但用來投資還是跑不贏大盤
當(dāng)我想要構(gòu)建一款 LLM 應(yīng)用時:關(guān)于技術(shù)棧、省錢和游戲規(guī)則
隱秘AI巨頭「幻方量化」:大模型,不止用來炒股|焦點分析
GPT危!llama2攪局大模型 #玩兒個很新的東西 #人工智能#有ai就有無限可能 #chatgpt應(yīng)用領(lǐng)域 #llama2
“百模大戰(zhàn)”即將迎來一輪應(yīng)用淘汰賽
今天聊一聊通用大模型如何突破垂直行業(yè)場景
更多類似文章 >>
生活服務(wù)
熱點新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服