新智元報道
最近對大型語言模型(例如ChatGPT和GPT-4)進行的評估工作主要側(cè)重于在基本自然語言任務上的能力,以及模型生成用于解決單句用戶指令的API的工具使用能力,卻忽略了在理解復雜多模態(tài)環(huán)境中使用API完成用戶指令的難題。
此外,現(xiàn)有評估方法主要集中在比較生成的API與標簽API序列,但在存在多個/無限正確解決方案的復雜情況下,這種方法也變得不再適用。
為了解決這個挑戰(zhàn),來自北大和微軟亞洲研究院的研究人員們提出了測試大模型在多輪,多模態(tài)環(huán)境下完成PPT任務的評估數(shù)據(jù)集PPTC(PowerPoint Task Completion)。
論文地址:http://arxiv.org/abs/2311.01767
開源項目:https://github.com/gydpku/PPTC
如圖1(a)所示,為了幫助用戶完成對PPT文檔的創(chuàng)建和編輯,研究人員采取多輪人機對話的形式來構(gòu)建數(shù)據(jù)集。
圖1:(a)模擬了人類與語言模型之間的多輪對話場景,以評估語言模型在PPT任務完成性能方面的表現(xiàn)。(b)對話單元的輪次數(shù)量分布。
每輪開始于用戶的指令,大模型需要生成對應的API序列作為解決方法,執(zhí)行并返回生成的PPT文檔給用戶。
數(shù)據(jù)集中一共有279個像這樣的多輪對話單元,如圖1(b)所示,大部分單元由3到10對話輪次組成。
更進一步,如圖2(a)所示,數(shù)據(jù)集中包含各種難度的用戶指令(由所需API數(shù)量決定),如數(shù)百個涉及到統(tǒng)計圖表、表格、圖像、空間位置相關(guān)多模態(tài)操作的指令。
圖2:(a)指令所需最少API數(shù)量分布。(b)涉及到統(tǒng)計圖表,表格,圖片和位置操作的用戶指令數(shù)量。
生成和執(zhí)行API序列
為了完成每輪用戶的指令,研究人員主要考慮:
1. 當前輪次的用戶指令
2. 之前輪次的用戶指令(對話歷史)
3. PPT文檔(環(huán)境信息)
4. 可使用的API列表作為大模型輸入,prompt大模型生成對應的API序列作為解決方案。
圖3:一個會話單元中語言模型如何完成一個輪次。(A)用當前的指令、之前的指令(對話歷史)、PPT文件內(nèi)容以及API參考文件作為輸入prompt大模型。(B)然后,語言模型生成API序列并執(zhí)行它,以獲取預測的PPT文件。(C)評估預測文件中的屬性和位置關(guān)系
為了方便大模型處理信息,研究人員提供一個PPT文檔讀取函數(shù)來將多模態(tài)文檔轉(zhuǎn)化為文字形式的文檔內(nèi)容,以及一個API執(zhí)行函數(shù)來自動執(zhí)行大模型生成的API序列,從而生成對應的預測PPT文檔。
評估大模型生成的PPT文檔
本文提出PPTX-Match評估系統(tǒng)來評估大模型生成的文檔是否正確。
如圖3所示,它使用PPTX庫來抽取生成的文檔中所有的元素,并逐一驗證元素間的空間位置關(guān)系是否正確,并驗證元素的屬性內(nèi)容是否和標簽文檔的對應內(nèi)容匹配。
本文的評測系統(tǒng)只評測最終生成的PPT文檔,因此允許各種API序列來完成用戶指令。
基于這個系統(tǒng),本文的評測指標分別包括只考慮當前輪次的輪次層面表現(xiàn)和考慮整個單元的單元層面表現(xiàn)。
實驗結(jié)果
本文在3個閉源大模型和6個開源大模型上測試PPTC數(shù)據(jù)集。進一步的,本文測試計劃算法(零樣本思維鏈(Zero-shot CoT)和思維樹(ToT)算法)以及PPT內(nèi)容和API選擇算法是否能進一步提升GPT-4模型在PPTC上的表現(xiàn)。
從表1和表2展現(xiàn)出的結(jié)果中,可以得出以下結(jié)論:
(1)GPT-4是9個大模型中表現(xiàn)最強的模型,在創(chuàng)建新PPT文檔任務中它甚至能實現(xiàn)75%的輪次層面正確率。
(2)基于開源大模型(LLaMa-2)的進一步代碼預訓練(code-LLaMa)和對齊能夠進一步提升模型輪次層面表現(xiàn)
表1:9個大語言模型的結(jié)果?!窽D-003」是指Text-Davinci-003模型
(3)計劃算法和選擇算法能夠進一步提升GPT-4 2到5個百分點的輪次層面正確率。然而,本文發(fā)現(xiàn),盡管思維樹相對零樣本思維鏈花了超過數(shù)倍的推斷成本,它的表現(xiàn)卻并沒有明顯進一步的提升。
表2:GPT-4和基于GPT-4模型的算法的結(jié)果。'CoT'和'ToT'分別是思維鏈和思維樹算法
三個PPTC上的主要挑戰(zhàn)
進一步的,本文分析得出大模型在PPTC上遇到的三個主要的挑戰(zhàn):
1. 錯誤累計導致大模型單元層面表現(xiàn)糟糕
盡管諸如GPT-4這樣的大模型在輪次層面表現(xiàn)較好,但當本文測試大模型在包含多個輪次的單元層次表現(xiàn)時,大模型表現(xiàn)普遍糟糕。
如表1所示,在創(chuàng)建新文檔任務中,GPT-4只正確完成了不到百分之23的多輪次單元。
2. 大模型處理長PPT模版的能力欠佳
在PPT文檔編輯任務中,大模型需要基于給予的長PPT模板完成用戶指令。
圖4: 創(chuàng)建新的PPT文件任務(任務1)和編輯PPT模板任務(任務2)的分析結(jié)果。在子圖(a)中,本圖展示了涉及圖表、表格、圖片、位置和純文本的指令的平均基于輪次的準確度。在子圖(b)中,本圖展示了GPT-4的四種常見錯誤的比例。
3. 多模態(tài)指令提高了任務難度
如圖4(a)所示,大模型在處理圖表,表格,圖像,空間位置相關(guān)的指令上的表現(xiàn)遠不如處理只涉及純文本操作的指令表現(xiàn),特別是涉及到移動空間位置的指令。
如圖4(b)所示,糟糕的空間位置感知成為創(chuàng)建新文檔任務的主要錯誤原因。
總結(jié)
1. 本文提出了PowerPoint任務完成評估測試(PPTC),用于衡量在 PowerPoint 官方軟件中的語言模型的任務完成性能。這一基準測試包含了279個多輪會話單元,涵蓋了復雜的多模式環(huán)境中的數(shù)百個多模式指令。
2. 本文提出了PPTX-Match評估系統(tǒng),用于自動測量語言模型在PPTC中的性能。本文測試了3個閉源語言模型和6個開源語言模型,發(fā)現(xiàn)GPT-4是所有語言模型中性能最強的。
3. 本文進一步發(fā)現(xiàn)了三個關(guān)鍵的錯誤因素:會話中的錯誤累積、長的PPT模板處理和多模態(tài)感知。這些發(fā)現(xiàn)為未來的語言模型和基于語言模型的agent系統(tǒng)提出了重要的挑戰(zhàn)。
聯(lián)系客服