谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

新智元報道

編輯:好睏 Aeneas

【新智元導讀】

最近,谷歌研究員釋出了關於指令微調的最新工作!然而卻宣傳圖中出現了可笑的烏龍。

幾個小時之前,谷歌大腦的研究員們非常開心地曬出了自己最新的研究成果:

「我們新開源的語言模型Flan-T5,在對1,800多種語言的任務進行指令微調後,顯著提高了prompt和多步推理的能力。」

然而,就在這張精心製作的「宣傳圖」上,竟藏著一個讓人哭笑不得的bug!

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

請注意看Geoffrey Hinton的出生日期:

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

但實際上,Hinton出生於1947年……

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

雖然沒有必然聯絡,但是谷歌自己的模型,竟然會把自家大佬的生日搞錯?

馬庫斯同志看完直接就驚了:你們谷歌,沒人負責稽核的嗎……

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

理論上,這篇擁有31位作者,外加Jeff Dean這種大佬參與的論文,不應該發生這種「低階錯誤」才對啊。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

「複製」的時候「打錯了」而已!

很快,論文的共同一作就在馬庫斯的推文下面進行了回覆:「我們都知道,模型的輸出並不總是符合事實。我們正在進行負責任的AI評估,一旦有了結果,我們將立即更新論文。」

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

沒過多久,這位作者刪除了上面那條推文,並更新留言稱:「這只是在把模型的輸出複製到推特上時,『打錯了』而已。」

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

對此,有網友調侃道:「不好意思,你能不能給我翻譯翻譯,什麼叫『複製』來著?」

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

當然,在檢視原文之後可以發現,「圖1」所示的生日,確實沒錯。

至於在宣傳圖中是如何從「1947」變成「1963」的,大概只有做圖的那位朋友自己知道了。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

隨後,馬庫斯也刪除了自己的這條推文。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

世界重歸平靜,就像什麼也沒有發生一樣。

只留下谷歌研究員自己推文下面的這條在風中飄搖——

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

擴充套件指令微調語言模型

既然誤會解除了,我們就讓話題重新回到論文字身上來吧。

去年,谷歌推出了一個引數量只有1370億的微調語言網路FLAN(fine-tuned language net)。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

https://arxiv。org/abs/2109。01652

FLAN是Base LM的指令調優(instruction-tuned)版本。指令調優管道混合了所有資料集,並從每個資料集中隨機抽取樣本。

研究人員稱,這種指令調節(instruction tuning)透過教模型如何執行指令描述的任務來提高模型處理和理解自然語言的能力。

結果顯示,在許多有難度的基準測試中,FLAN的效能都大幅超過了GPT-3。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

這次,谷歌將語言模型進行拓展之後,成功重新整理了不少基準測試的SOTA。

比如,在1。8K任務上進行指令微調的Flan-PaLM 540B,效能明顯優於標準的PALM 540B(平均 + 9。4%),並且在5-shot的MMLU上,Flan-PaLM也實現了75。2%的準確率。

此外,作者還在論文中公開發布Flan-T5檢查點。即便是與更大的模型(如PaLM 62B)相比,Flan-T5也能實現強大的小樣本效能。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

論文地址:https://arxiv。org/abs/2210。11416

總結來說,作者透過以下三種方式擴充套件了指令微調:

擴充套件到540B模型

擴充套件到1。8K的微調任務

在思維鏈(CoT)資料上進行微調

作者發現具有上述方面的指令微調顯著提高了各種模型類(PaLM、T5、U-PaLM)、prompt設定(zero-shot、few-shot、CoT)和評估基準(MMLU、BBH、 TyDiQA、MGSM、開放式生成)。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

這次的微調資料包括473個數據集、146個任務類別和1,836個總任務。

作者是透過結合之前工作中的四種混合(Muffin、T0-SF、NIV2 和 CoT),縮放(scale)成了下圖中的1836個微調任務。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

在研究中,微調資料格式如下圖這樣組合。研究者在有樣本/無樣本、有思想鏈/無思想鏈的情況下進行了微調。要注意的是,其中只有九個思維鏈(CoT)資料集使用CoT格式。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

第四種微調資料的混合涉及CoT註釋,作者用它來探索CoT註釋的微調是否可以提高看不見的推理任務的效能。

作者從先前的工作中建立了9個數據集的新混合,然後由人類評估者手動為訓練語料庫編寫CoT註釋。這9個數據集包括算數推理、多跳推理(multi-hop reasoning)和自然語言推理等。

作者在廣泛的模型中應用了指令微調,包括T5、PaLM和U-PaLM。對於每個模型,作者都採用了相同的訓練過程,使用恆定的學習率,並使用Adafactor最佳化器進行了微調。

從下表中可以看出,用於微調的計算量僅佔訓練計算的一小部分。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

作者根據模型的大小和微調任務的數量,在保留任務的效能上檢測了縮放的影響。

作者從對三種大小的PaLM模型(8B/62B/540B)進行實驗,從任務最少的混合開始,一次新增任務混合,然後再到任務最多的混合(CoT、Muffin、T0-SF 和 NIV2)。

作者發現,擴充套件指令微調後,模型大小和任務數量的擴充套件都會大大改善效能。

是的,繼續擴充套件指令微調就是最關鍵的要點!

不過,在282個任務之後,收益開始略微變小。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

從下表中可以看出,對於三種大小的模型,多工指令微調後,相比沒有微調時,效能有很大的提高,效能增益範圍從9。4%到15。5%。

其次,增加微調數量可以提高效能,儘管大部分的改進來自282個任務。

最後,將模型規模增加一個數量級(8B62B或62B540B)會顯著提高微調和非微調模型的效能。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

為什麼282個任務之後增益就變小了呢?有兩種解釋。

一是附加任務不夠多樣化,因此沒有為模型提供新知識。

二是多工指令微調的大部分收益,是因為模型學習更好地表達了它在預訓練中已經知道的知識,而282個以上的任務並沒有太大的幫助。

另外,作者還探討了在指令微調混合中包含思想鏈(CoT)資料的效果。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

可以看出,Flan-PaLM在所有評估基準上都優於PaLM。

不過令人驚訝的是,以前的指令微調方法(如FLAN,T0)顯著降低了non-CoT的效能。

對此的解決方案是,只需在微調混合中新增9個CoT資料集,就可以在所有評估中獲得更好的效能。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

雖然思維鏈(Chain-of-Thought)prompting通常非常有效,但只能編寫少量樣本,而且零樣本CoT並不總是有效果。

而谷歌研究者的CoT微調顯著提高了零樣本推理能力,比如常識推理。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

為了展示方法的通用性,研究人員訓練了T5、PaLM和U-PaLM。其中引數量的覆蓋範圍也非常廣,從8000萬到5400億。

結果證明,所有這些模型都得到了顯著提升。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

在以往,開箱即用的預訓練語言模型可用性通常都很差,比如對輸入的prompt沒有反應。

谷歌的研究者要求人類評估者來評估開放式生成問題的「模型可用性」。

結果顯示,Flan-PaLM 的可用性比PaLM基礎模型要高79%。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

此外,指令微調還補充了其他的模型適應技術,比如UL2R。

同樣的,Flan-U-PaLM取得了很多優秀的結果。

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

論文地址:https://arxiv。org/abs/2210。11399

谷歌的另一起「翻車」事件

可以說,剛剛發生的這個劇情,既視感相當強了!

沒錯,就在10月19日,當谷歌Pixel的官方賬號試圖挖苦蘋果CEO庫克時,被網友抓包:是用iPhone發的推文……

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

顯然,這種事情早已不是第一次了。

2013年,T-Mobile的CEO就在推特上對三星Note 3讚不絕口,但用的是iPhone。

同樣是2013年,黑莓的創意總監Alicia Keys在釋出會上說,她已經拋棄了自己之前的iPhone,換了黑莓Z10。隨後,就被發現用iPhone發推,甚至在被抓到後發推狡辯說是因為自己被黑了。

三星,也不例外:

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

而且,相比於谷歌的這次刪推,三星當時做得更加決絕:直接刪號!

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日

看來,營銷課程有必要加上這樣的一條戒律了:如果你要推廣一個產品,請不要用競爭對手的產品來做。

這並不是一個難以傳授的資訊,甚至還可以做得直白:在推銷其他產品時,手裡請不要拿著iPhone。

參考資料:

https://arxiv。org/abs/2210。11416

https://hub。baai。ac。cn/view/21163

https://www。businessinsider。com/google-pixel-tim-cook-tweet-sent-from-iphone-2022-10

https://wccftech。com/samsung-used-twitter-for-iphone-to-promote-the-galaxy-note-9-display/

谷歌又鬧大烏龍!Jeff Dean參與的新模型竟搞錯Hinton生日