GPT-3.5 Turbo的微调现已推出,GPT-4的微调将于今年秋季推出。此更新使开发人员能够自定义针对其用例表现更好的模型,并大规模运行这些自定义模型。
早期的测试表明,GPT-3.5 Turbo的微调版本在某些狭窄的任务上可以匹配甚至超越GPT-4级的基本能力。与我们所有的API一样,从微调API中发送和发送的数据归客户所有,OpenAI或任何其他组织不会用于训练其他模型。
官博地址:https://openai.com/blog/gpt-3-5-turbo-fine-tuning-and-api-updates
微调用例
自GPT-3.5 Turbo发布以来,开发人员和企业一直要求能够定制模型,为用户创造独特和差异化的体验。通过这次发布,开发人员现在可以运行监督微调,使该模型在他们的用例中表现得更好。在我们的私人测试版中,微调客户能够有意义地提高常见用例的模型性能,例如:
提高可调性:微调允许企业使模型更好地遵循指令,例如使输出简洁化或始终以给定语言响应。例如,开发人员可以使用微调来确保模型在提示使用该语言时始终以德语响应。
可靠的输出格式:微调提高了模型一致格式化响应的能力——对于需要特定响应格式的应用程序来说,这是一个关键的方面,例如代码完成或编写API调用。开发人员可以使用微调来更可靠地将用户提示转换为高质量的JSON片段,这些片段可以与自己的系统一起使用。
自定义语气:微调是磨练模型输出的定性感觉的好方法,例如它的语气,因此它更适合企业品牌的声音。具有可识别品牌声音的企业可以使用微调来使模型与他们的语气更加一致。
根据OpenAI的官方微调说明文档,列出了以下常见用例:
-
设置风格、基调、格式等; -
提高输出的可靠性; -
纠正未能遵循复杂提示的问题; -
以特定方式处理多个边缘内容; -
改进可操纵性; -
执行难以在提示中阐明的新技能或任务。
例如,改进可操纵性,微调功能允许企业使模型更好地遵循指令,使输出简洁或始终以特定语言进行响应。例如,开发人员可以使用微调来确保模型,在提示使用德语时始终以德语进行响应。
除了提高性能之外,微调使企业能够缩短提示时间同时保证性能。GPT-3.5-Turbo微调还可以处理4k tokens,是OpenAI之前微调模型的两倍。
早期测试人员通过对模型本身的指令进行微调,将提示大小减少了高达 90%,从而加快了每个API调用的速度并降低了成本。
微调定价
微调分为初始训练成本和使用成本两大部分。
训练:0.008 美元/1K tokens。
使用输入:0.012 美元/1K tokens。
使用输出:0.016 美元/1K tokens。
例如,一个GPT-3.5 Turbo包含 100,000 个okens的训练文件并训练3个epoch的微调作业的预期成本为2.40美元。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢