8月23日凌晨,OpenAI在官網宣布,推出GPT-3.5 Turbo微調功能并更新API,使企業(yè)、開發(fā)人員可以使用自己的數據,結合業(yè)務用例構建專屬ChatGPT。GPT-4的微調功能將于今年秋天推出。
OpenAI表示,從早期測試數據來看,GPT-3.5 Turbo 的微調版本在某些特定任務上,其性能可以匹配甚至超越GPT-4 的基本功能。(詳細說明文檔:https://platform.openai.com/docs/guides/fine-tuning)
微調功能是目前企業(yè)應用大語言模型的主要方法,例如,法律領域的Spellbook、律商聯訊、Litera、Casetext等,他們通過自己積累的海量法律數據在GPT-4模型上進行微調、預訓練構建法律領域的專屬ChatGPT,使其回答的內容更加聚焦、安全、準確。
(相關資料圖)
自GPT-3.5 Turbo發(fā)布以來,開發(fā)人員和企業(yè)希望能夠開發(fā)自定義大模型,為用戶創(chuàng)造獨特、差異化的產品體驗?,F在,OpenAI終于開放了此功能,使得人人都能打造獨一無二的專屬ChatGPT。
什么是微調
大語言模型的微調(Fine-tuning)是一種在預訓練模型的基礎上,對特定任務進行深度訓練的方法。
微調的基本思想是,先在大規(guī)模文本數據上預訓練一個大型的語言模型,例如,GPT-3.5,然后,使用特定任務的數據集(如法律、醫(yī)療),進一步對模型進行訓練,以適應特定的任務。在這個過程中,模型的參數會進行微小的調整,使其在特定業(yè)務場景上的性能更好。
例如,如果我們有一個預訓練的GPT3.5模型,想讓它在法律業(yè)務上的表現更好、更專業(yè),可以用海量法律數據集對模型進行微調。
經過微調,模型學習到如何更好地解讀、生成和預測法律問題。
微調用例
根據OpenAI的官方微調說明文檔,列出了以下常見用例:
- 設置風格、基調、格式等;
- 提高輸出的可靠性;
- 糾正未能遵循復雜提示的問題;
- 以特定方式處理多個邊緣內容;
- 改進可操縱性;
- 執(zhí)行難以在提示中闡明的新技能或任務。
例如,改進可操縱性,微調功能允許企業(yè)使模型更好地遵循指令,使輸出簡潔或始終以特定語言進行響應。例如,開發(fā)人員可以使用微調來確保模型,在提示使用德語時始終以德語進行響應。
除了提高性能之外,微調使企業(yè)能夠縮短提示時間同時保證性能。GPT-3.5-Turbo微調還可以處理4k tokens,是OpenAI之前微調模型的兩倍。
早期測試人員通過對模型本身的指令進行微調,將提示大小減少了高達 90%,從而加快了每個API調用的速度并降低了成本。
如何進行微調
1,準備數據,創(chuàng)建一組多樣化的演示對話,類似于要求模型在實際輸出中的對話。數據集中的每個示例都應該與OpenAI的聊天完成 API 格式相同的對話,特別是消息列表,其中每條消息都有角色、內容和可選名稱。
2,上傳文件
3,創(chuàng)建微調作業(yè),使用 OpenAI SDK開始進行大規(guī)模數據訓練、微調。訓練模型可能需要幾分鐘或幾小時,具體取決于模型和數據集大小。模型訓練完成后,創(chuàng)建微調作業(yè)的用戶將收到一封確認電子郵件。
除了創(chuàng)建微調作業(yè)外,開發(fā)者還可以列出現有作業(yè)、檢索作業(yè)狀態(tài)或取消作業(yè)。
4,使用微調模型,微調作業(yè)完成后模型可以投入使用了。
在某些情況下,用戶的微調模型可能需要幾分鐘才能準備好處理請求。如果對模型的請求超時或找不到模型名稱,可能是因為模型仍在加載中,可在幾分鐘后重試。
微調定價
微調分為初始訓練成本和使用成本兩大部分。
訓練:0.008 美元/1K tokens。
使用輸入:0.012 美元/1K tokens。
使用輸出:0.016 美元/1K tokens。
例如,一個GPT-3.5 Turbo包含 100,000 個okens的訓練文件并訓練3個epoch的微調作業(yè)的預期成本為2.40美元。
本文來源:AIGC開放社區(qū),原文標題:《重磅!GPT-3.5 Turbo推出微調功能,可以打造專屬ChatGPT啦!》
關鍵詞: