微軟開(kāi)源的大模型太強了,數學(xué)推理超ChatGPT,論文、模型權重全部公開(kāi)
有了這項研究,大模型的數學(xué)能力更強了。
上周,微軟與中國科學(xué)院聯(lián)合發(fā)布的 WizardMath 大模型火了。
該模型有 70B、13B、7B 三個(gè)參數規模,研究者在兩個(gè)數學(xué)推理基準 GSM8k 和 MATH 上的測試表明,WizardMath 優(yōu)于所有其他開(kāi)源 LLM,達到 SOTA。
在 GSM8K 上,WizardMath-70B-V1.0 模型的性能略?xún)?yōu)于一些閉源 LLM,包括 ChatGPT 3.5、Claude Instant 1 和 PaLM 2 540B。
WizardMath-70B-V1.0 模型在 GSM8k 基準測試中達到 81.6 pass@1,比 SOTA 開(kāi)源 LLM 高出 24.8 分。
WizardMath-70B-V1.0 模型在 MATH 基準測試中達到 22.7 pass@1,比 SOTA 開(kāi)源 LLM 高出 9.2 分。
其中,GSM8k 數據集包含大約 7500 個(gè)訓練數據和 1319 個(gè)測試數據,主要是小學(xué)水平的數學(xué)問(wèn)題,每個(gè)數據集都包含基本算術(shù)運算(加、減、乘、除),一般需要 2 到 8 步來(lái)解決。MATH 數據集來(lái)自 AMC 10、AMC 12 和 AIME 等著(zhù)名數學(xué)競賽當中的數學(xué)問(wèn)題,包含 7500 個(gè)訓練數據和 5000 個(gè)具有挑戰性的測試數據:初等代數、代數、數論、幾何、微積分等。
下圖顯示,WizardMath 在 GSM8k 基準測試中獲得第五名,超過(guò)了 Claude Instant 1(81.6 vs. 80.9)、ChatGPT(81.6 vs. 80.8)和 PaLM 2 540B(81.6 vs. 80.7)。值得注意的是,與這些模型相比,WizardMath 模型的尺寸要小得多。
HuggingFace 已上線(xiàn) 3 個(gè)版本(分別為 7B、13B 和 70B 參數)?,F在,相關(guān)論文已經(jīng)公布了。
- 論文地址:https://github.com/nlpxucan/WizardLM
- 項目地址:https://github.com/victorsungo/WizardLM/tree/main/WizardMath
- 模型權重:https://huggingface.co/WizardLM/WizardMath-70B-V1.0
方法介紹
該研究提出了一種名為 Reinforced Evol-Instruct 方法,如圖 1 所示,其包含 3 個(gè)步驟:1、監督微調。2、訓練指令獎勵模型以及過(guò)程監督獎勵模型。3、Active Evol-Instruct 和 PPO 訓練。
監督微調:繼 InstructGPT 之后,該研究還使用了監督指令 - 響應對進(jìn)行微調,其中包含:
- 為了使每個(gè)步驟的解析都更加容易,該研究使用 Alpha 版本的 WizardLM 70B(微調的 LLaMA 模型)模型對 GSM8k 和 MATH 重新生成了 15k 個(gè)答案,以 step-by-step 方式生成解決方案,然后找出正確答案,并使用這些數據對基礎 Llama 模型進(jìn)行微調。
- 該研究還從 WizardLM 的訓練數據中采樣了 1.5k 個(gè)開(kāi)放域對話(huà),然后將其與上述數學(xué)語(yǔ)料庫合并作為最終的 SFT ( supervised fine-tuning )訓練數據。
Evol-Instruct 原則:受 WiazrdLM 提出的 Evol-Instruct 方法及其在 WizardCoder 上有效應用的啟發(fā),該研究試圖制作具有各種復雜性和多樣性的數學(xué)指令,以增強預訓練 LLM。具體來(lái)說(shuō):
- 向下進(jìn)化:首先是增強指令,通過(guò)使問(wèn)題變得更加容易來(lái)實(shí)現。例如,i):將高難度問(wèn)題轉化為較低難度,或 ii) 用另一個(gè)不同主題制作一個(gè)新的更簡(jiǎn)單的問(wèn)題。
- 向上進(jìn)化:源自原始的 Evol-Instruct 方法,通過(guò) i)添加更多約束,ii)具體化,iii)增加推理來(lái)深化并產(chǎn)生新的更難的問(wèn)題。
Reinforced Evol-Instruct :受 InstructGPT 和 PRMs 的啟發(fā),該研究訓練了兩個(gè)獎勵模型,分別用來(lái)預測指令的質(zhì)量和答案中每一步的正確性。
實(shí)驗及結果
該研究主要在 GSM8k 和 MATH 這兩個(gè)常見(jiàn)的數學(xué)基準上測試了模型的性能,并使用大量基線(xiàn)模型,包括閉源模型:OpenAI 的 GPT-3、GPT-3.5、ChatGPT、GPT-4,谷歌的 PaLM 2、PaLM、 Minerva,Anthropic 的 Claude Instant、Claude 1.3、Claude 2, DeepMind 的 Chinchilla;開(kāi)源模型:Llama 1、Llama 2、GAL、GPT-J、GPT-Neo、Vicuna、MPT、Falcon、Baichuan、ChatGLM、Qwen 和 RFT。
與閉源模型的比較。在表 1 中,WizardMath 70B 稍微優(yōu)于 GSM8k 上的一些閉源 LLM,包括 ChatGPT、Claude Instant 和 PaLM 2 540B。
如圖 2 所示(見(jiàn)上文),WizardMath 目前在所有模型上排名前五。同時(shí),WizardMath 70B 在 MATH 上也超越了 Text-davinci-002。詳細結果如下:
WizardMath 13B 在 GSM8k 上優(yōu)于 PaLM 1 540B(63.9 vs 56.5)、Minerva 540B(63.9 vs 58.8)和 GPT-3.5(63.9 vs 57.1)。同時(shí),它在 MATH 上超越了 PaLM 1 540B(14.0 vs. 8.8)、GPT-3 175B(14.0 vs. 5.2)。
WizardMath 70B 在 GSM8k 上實(shí)現了與 Claude Instant(81.6 vs 80.9)、ChatGPT(81.6 vs 80.8)和 PaLM 2(81.6 vs 80.7)更好或相當的性能。同時(shí),WizardMath 70B 在 MATH 基準測試中也超過(guò)了 Text-davinci-002(22.7 比 19.1)。
與開(kāi)源模型的比較。表 1 中所示的結果表明,WizardMath 70B 在 GSM8k 和 MATH 基準測試中明顯優(yōu)于所有開(kāi)源模型。詳細結果如下:
WizardMath 7B 超越了大多數開(kāi)源模型,這些模型的參數數量約為 7B 到 40B 不等,包括 MPT、Falcon、Baichuan-chat、Vicuna v1.3、ChatGLM 2、Qwen、Llama 1 和 Llama 2 。盡管它的參數數量要少得多。
WizardMath 13B 在 GSM8k 上明顯優(yōu)于 Llama 1 65B(63.9 vs. 50.9)和 Llama 2 70B(63.9 vs. 56.8)。此外,它在 MATH 上的表現遠遠優(yōu)于 Llama 1 65B(14.0 vs. 10.6)和 Llama 2 70B(14.0 vs. 13.5)。
WizardMath 70B 在 GSM8k 上超越了 Llama 2 70B(81.6 比 56.8),提升達到 24.8%。同時(shí),它在數學(xué)方面也比 Llama 2 70B(22.7 比 13.5)高出 9.2%。
表 2 顯示了 WizardMath 70B 模型在 MATH Subtopics上的結果。
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。