奢華與平價教材一起拿來學,C-RLFT,Openchat's tricks for finetune

閱讀時間約 7 分鐘

Starling-LM-7B近來火燙,有使用到本篇的C-RLFT技術,基於此基礎上可以把7B小模型的微調成績做到頂尖,一起來理解OpenChat 的 C-RLFT技術是如何實現的,所能產生的效果為何,以及探索為何能達到這樣好的成績。

論文主要貢獻:

GPT-4回答素質明顯比GPT-3.5來得高,如下圖所示,但是GPT-4的時間與運算成本比GPT-3.5高出不少,同樣的成本與時間花下去,能取得的教材數量懸殊。有沒有辦法充分運用不同等級的教材,讓Model能取得更佳的學習成果,且不會被品質較差的教材拖累學習表現?

GPT-4 的對話品質分布比GPT-3.5好很多

GPT-4 的對話品質分布比GPT-3.5好很多

本篇提出這個問題的解法,將GPT-3.5 / GPT-4 訓練資料做條件強化學習(C-RL

以行動支持創作者!付費即可解鎖
本篇內容共 2807 字、0 則留言,僅發佈於人工智慧宇宙你目前無法檢視以下內容,可能因為尚未登入,或沒有該房間的查看權限。
90會員
126內容數
帶你用上帝視角,針對市面上具有高度價值的影片/論文/書籍,用東方取象,與西方邏輯辯證的角度同時出發,跟著我一起來探討宇宙萬事萬物的本質,隨時隨地都可以來一場說走就走的思維旅行。作者在台積電 / 聯發科等科技產業有累計10年的資歷,近期對於人工智慧,東方易經,西方辯證邏輯,還有佛法向內求有深度興趣。
留言0
查看全部
發表第一個留言支持創作者!
從 Google News 追蹤更多 vocus 的最新精選內容