沈阳网站设计价格,外贸企业做网站,黑马程序员培训机构,国际精品互联网专线LLMs#xff1a;OpenAI官方重磅更新——新增GPT-3.5Turbo调和API更新功能 导读#xff1a;2023年8月22日#xff0c;OpenAI官方发布#xff0c;开发者现在可以使用自己的数据来定制适用于其用例的GPT-3.5 Turbo模型。GPT-3.5 Turbo的微调现在已经可用#xff0c;GPT-4的微…LLMsOpenAI官方重磅更新——新增GPT-3.5Turbo调和API更新功能 导读2023年8月22日OpenAI官方发布开发者现在可以使用自己的数据来定制适用于其用例的GPT-3.5 Turbo模型。GPT-3.5 Turbo的微调现在已经可用GPT-4的微调将在今年秋季推出。此更新使开发者能够定制模型以便为其用例提供更好的性能并在规模上运行这些定制模型。初步测试显示经过微调的GPT-3.5 Turbo版本在某些狭窄任务上可以与基础GPT-4水平的能力相匹配甚至表现更好。与我们所有的API一样发送到微调API的数据由客户拥有不会被OpenAI或任何其他组织用于训练其他模型。 目录
微调用例
微调步骤
步骤1准备您的数据
步骤2上传文件
步骤3创建微调作业
步骤4使用经过微调的模型
安全性
定价
更新后的GPT-3模型 博客文章地址GPT-3.5 Turbo fine-tuning and API updates
微调指南地址https://platform.openai.com/docs/guides/fine-tuning 微调用例
自GPT-3.5 Turbo发布以来开发者和企业一直在寻求将模型定制为为其用户创建独特和差异化的体验的能力。通过此发布开发者现在可以运行监督式微调以使该模型在其用例中表现更佳。
在我们的私人测试版中微调客户已经能够在常见用例中显著提高模型性能例如 改进的可控性微调使企业能够更好地遵循指示例如使输出更简洁或始终以给定语言回复。例如开发者可以使用微调来确保模型在使用德语提示时始终以德语回复。 可靠的输出格式微调提高了模型一致格式化响应的能力 - 这对于需要特定响应格式的应用程序如代码补全或组合API调用来说是至关重要的。开发者可以使用微调来更可靠地将用户提示转换为可与其自己的系统一起使用的高质量JSON片段。 定制音调微调是磨练模型输出的定性感觉如其音调的好方法使其更符合企业品牌的声音。具有可辨识品牌声音的企业可以使用微调使模型更符合其音调的一致性。
除了提高性能外微调还使企业能够在确保类似性能的情况下缩短提示。使用GPT-3.5 Turbo进行微调还可以处理4k个标记 - 是我们先前微调模型的两倍。早期测试者通过将指令微调为模型本身将提示大小缩小了高达90加快了每个API调用的速度并降低了成本。
当与提示工程信息检索和函数调用等其他技术结合使用时微调效果最佳。请查看我们的微调指南以了解更多信息。对于使用函数调用和gpt-3.5-turbo-16k进行微调的支持将在今年秋季后期推出。 微调步骤
步骤1准备您的数据
{messages: [{ role: system, content: You are an assistant that occasionally misspells words },{ role: user, content: Tell me a story. },{ role: assistant, content: One day a student went to schoool. }]
} 步骤2上传文件
curl https://api.openai.com/v1/files \-H Authorization: Bearer $OPENAI_API_KEY \-F purposefine-tune \-F filepath_to_your_file 步骤3创建微调作业
curl https://api.openai.com/v1/fine_tuning/jobs \
-H Content-Type: application/json \
-H Authorization: Bearer $OPENAI_API_KEY \
-d {training_file: TRAINING_FILE_ID,model: gpt-3.5-turbo-0613
}
一旦模型完成微调过程它就可以立即在生产中使用并具有与基础模型相同的共享速率限制。 步骤4使用经过微调的模型
curl https://api.openai.com/v1/chat/completions \
-H Content-Type: application/json \
-H Authorization: Bearer $OPENAI_API_KEY \
-d {model: ft:gpt-3.5-turbo:org_id,messages: [{role: system,content: You are an assistant that occasionally misspells words},{role: user,content: Hello! What is fine-tuning?}]
}
我们还将在不久的将来推出微调用户界面开发者可以更轻松地访问有关进行中的微调作业已完成的模型快照等信息。 安全性
对我们来说微调的部署非常重要。为了通过微调过程保留默认模型的安全功能微调训练数据会通过我们的Moderation API和由GPT-4提供支持的调节系统进行传递以检测与我们的安全标准冲突的不安全训练数据。 定价
微调成本分为两部分初始培训成本和使用成本 训练$0.008 / 1K个标记 使用输入$0.012 / 1K个标记 使用输出$0.016 / 1K个标记
例如对于一个训练文件为100,000个标记的gpt-3.5-turbo微调作业经过3轮训练预期成本为$2.40。 更新后的GPT-3模型
在7月份我们宣布原始的GPT-3基础模型adababbagecurie和davinci将于2024年1月4日关闭。今天我们将babbage-002和davinci-002作为这些模型的替代品提供可以作为基础模型或微调模型。客户可以通过查询Completions API来访问这些模型。
这些模型可以使用我们的新API端点/v1/fine_tuning/jobs进行微调。此新端点提供分页和更多的可扩展性以支持微调API的未来发展。从/v1/fine-tunes转换为更新的端点非常简单更多详细信息可以在我们的新微调指南中找到。这会停用旧的/v1/fine-tunes端点将在2024年1月4日关闭。
基础模型和微调GPT-3模型的定价如下