如果你想使用我们的API,你可以通过 HTTP 请求从任何语言与 API 进行交互,也可以使用我们的官方 Python 绑定、官方 Node.js库 或 社区维护的库。
若要安装官方 Python 绑定,请运行以下命令:
pip install openai要安装官方的 Node.js 库,请在您的 Node.js 项目目录中运行以下命令:
npm install openaiOpenAI API 使用 API密钥 进行身份验证。请访问您的 API密钥 页面以检索您在请求中使用的API密钥。
请记住,您的API密钥是机密的! 不要与他人分享它或在任何客户端代码(浏览器、应用程序)中公开它。生产请求必须通过您自己的后端服务器路由,其中您的 API密钥 可以从环境变量或密钥管理服务中安全加载。
所有API请求都应在 Authorization HTTP标头中包含您的API密钥,如下所示:
# 注意Bearer OPENAI_API_KEY,Bearer的后面是有一个空格的
Authorization: Bearer OPENAI_API_KEY对于属于多个组织的用户,您可以传递一个 表头 来指定用于 API请求 的组织。这些 API请求 的使用将计入指定组织的订阅配额。
示例 curl 命令:
curl https://api.openai.com/v1/models \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-H "OpenAI-Organization: org-gth0C8mT2wnKealyCkSRrpQk"使用 openai Python包 的示例:
- import os
- import openai
- openai.organization = "org-gth0C8mT2wnKealyCkSRrpQk"
- openai.api_key = os.getenv("OPENAI_API_KEY")
- openai.Model.list()
使用 openai Node.js包 的示例:
- import { Configuration, OpenAIApi } from "openai";
- const configuration = new Configuration({
- organization: "org-gth0C8mT2wnKealyCkSRrpQk",
- apiKey: process.env.OPENAI_API_KEY,
- });
- const openai = new OpenAIApi(configuration);
- const response = await openai.listEngines();
可以在 组织设置 页面上找到 组织ID。
您可以将下面的命令粘贴到您的终端中,以运行您的第一个 API请求。请确保将 $OPENAI_API_KEY 替换为您的 API密钥。
- curl https://api.openai.com/v1/chat/completions \
- -H "Content-Type: application/json" \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -d '{
- "model": "gpt-3.5-turbo",
- "messages": [{"role": "user", "content": "Say this is a test!"}],
- "temperature": 0.7
- }'
此请求查询 gpt-3.5-turbo模型,以完成从提示“Say this is a test”开始的文本。您应该会收到类似以下内容的响应:
- {
- "id":"chatcmpl-abc123",
- "object":"chat.completion",
- "created":1677858242,
- "model":"gpt-3.5-turbo-0301",
- "usage":{
- "prompt_tokens":13,
- "completion_tokens":7,
- "total_tokens":20
- },
- "choices":[
- {
- "message":{
- "role":"assistant",
- "content":"\n\nThis is a test!"
- },
- "finish_reason":"stop",
- "index":0
- }
- ]
- }
现在您已经生成了第一个聊天完成。我们可以看到 finish_reason 是 stop,这意味着API返回了模型生成的完整完成。在上面的请求中,我们只生成了一条消息,但您可以将 n 参数设置为生成多个消息选项。在此示例中,gpt-3.5-turbo 被用于更传统的 文本完成任务。该模型也针对 聊天应用 进行了优化。
列出并描述 API 中可用的各种模型。您可以参考 模型文档 以了解可用的模型以及它们之间的差异。
GET
https://api.openai.com/v1/models列出当前可用的模型,并提供有关每个模型的基本信息,例如所有者和可用性。
请求演示:
curl https://api.openai.com/v1/models \
-H "Authorization: Bearer $OPENAI_API_KEY"响应:
- {
- "data": [
- {
- "id": "model-id-0",
- "object": "model",
- "owned_by": "organization-owner",
- "permission": [...]
- },
- {
- "id": "model-id-1",
- "object": "model",
- "owned_by": "organization-owner",
- "permission": [...]
- },
- {
- "id": "model-id-2",
- "object": "model",
- "owned_by": "openai",
- "permission": [...]
- }
- ],
- "object": "list"
- }
GET
https://api.openai.com/v1/models/{model}检索模型实例,提供有关模型的基本信息,例如所有者和权限。
其中,model 为必填的字符串类型,用于此请求的模型的 ID。
请求演示:
curl https://api.openai.com/v1/models/text-davinci-003 \
-H "Authorization: Bearer $OPENAI_API_KEY"响应:
- {
- "id": "text-davinci-003",
- "object": "model",
- "owned_by": "openai",
- "permission": [...]
- }
给定一个提示,模型将返回一个或多个预测的完成,并且还可以在每个位置返回替代令牌的概率。
POST
https://api.openai.com/v1/completions为提供的提示和参数创建完成。
请求演示:
- curl https://api.openai.com/v1/completions \
- -H "Content-Type: application/json" \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -d '{
- "model": "text-davinci-003",
- "prompt": "Say this is a test",
- "max_tokens": 7,
- "temperature": 0
- }'
响应:
- {
- "id": "cmpl-uqkvlQyYK7bGYrRHQ0eXlWi7",
- "object": "text_completion",
- "created": 1589478378,
- "model": "text-davinci-003",
- "choices": [
- {
- "text": "\n\nThis is indeed a test",
- "index": 0,
- "logprobs": null,
- "finish_reason": "length"
- }
- ],
- "usage": {
- "prompt_tokens": 5,
- "completion_tokens": 7,
- "total_tokens": 12
- }
- }
-
model(string,必填)
要使用的模型的 ID。可以使用 列表模型API (GET api.openai.com/v1/models) 查看所有可用模型,或参阅 模型概述 了解它们的描述。 -
prompt(string or array,选填,Defaults to
<|endoftext|>)
用于生成完成、编码为字符串、字符串数组、标记数组或标记数组数组的提示。
注意|endoftext|是模型在训练期间看到的文档分隔符,因此如果未指定提示,模型将生成,就像从新文档的开头一样。 -
suffix(string,选填,Defaults to null)
完成插入文本后的后缀。 -
max_tokens(integer,选填,Defaults to 16)
完成时要生成的最大 token 数。
提示 max_tokens 的 token 计数不能超过模型的上下文长度。大多数模型的上下文长度为 2048 个令牌(最新模型除外,它支持 4096)。 -
temperature(number,选填,Defaults to 1)
使用哪个采样温度,在 0和2之间。
较高的值,如0.8会使输出更随机,而较低的值,如0.2会使其更加集中和确定性。
我们通常建议修改这个(temperature )为 top_p 但两者不能同时存在,二选一。 -
top_p(number,选填,Defaults to 1)
一种替代温度采样的方法叫做核心采样,模型会考虑到具有 top_p 概率质量的标记结果。因此,0.1 表示只有占前 10% 概率质量的标记被考虑。
我们通常建议修改这个(top_p )或者 temperature,但不要同时修改两者。 -
n(integer,选填,Defaults to 1)
每个 prompt 生成的完成次数。
注意:由于此参数会生成许多完成,因此它会快速消耗您的令牌配额。小心使用,并确保对 max_tokens 和 stop 进行合理的设置。 -
stream(boolean,选填,Defaults to false)
是否返回部分进度流。如果设置,令牌将作为数据服务器推送事件随着它们变得可用而发送,流通过data: [DONE]消息终止。 -
logprobs(integer,选填,Defaults to null)
在 logprobs 返回的最有可能的标记列表中,包括所选标记和对应的对数概率。
例如,如果 logprobs 为 5,则 API 将返回一个由 5 个最有可能的标记组成的列表。API 总是会返回采样标记的对数概率,因此响应中可能会有多达 logprobs+1 个元素。
logprobs 的最大值为 5。如果您需要更多,请通过我们的 帮助中心 联系我们并描述您的用例。 -
echo(boolean,选填,Defaults to false)
除了完成之外,还回显提示。 -
stop(string or array,选填,Defaults to null)
最多生成4个序列,API将停止生成更多的标记。返回的文本不包含停止序列。 -
presence_penalty(number,选填,Defaults to 0)
介于 -2.0 和 2.0 之间的数字。正值会根据它们是否出现在文本中迄今为止来惩罚新令牌,从而增加模型谈论新主题的可能性。 -
frequency_penalty(number,选填,Defaults to 0)
介于-2.0和2.0之间的数字。正值会根据文本中新令牌的现有频率对其进行惩罚,从而降低模型重复相同行的可能性。 -
best_of(integer,选填,Defaults to 1)
在生成服务器端生成 best_of 完成,并返回“最佳”(每个标记具有最高对数概率的那一个)。结果无法流式传输。
当与 n 一起使用时,best_of 控制候选完成的数量,n 指定要返回多少个 - best_of 必须大于 n。
注意:由于此参数生成许多完成,因此可能会快速消耗您的令牌配额。请小心使用并确保 max_tokens 和 stop 设置合理。 -
logit_bias(map,选填,Defaults to null)
修改指定标记在完成中出现的可能性。
接受一个JSON对象,将标记(由GPT分词器中的标记ID指定)映射到从 -100 到 100 的相关偏差值。您可以使用此 分词器工具(适用于GPT-2和GPT-3)将文本转换为令牌ID。数学上,在采样之前,模型生成的 logits 会添加偏差。确切的效果因模型而异,但是介于-1和1之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该会导致相关令牌被禁止或独占选择。
例如,您可以传递{"50256": -100}来防止生成。 -
user(string,选填)
一个唯一的标识符,代表您的终端用户,可以帮助OpenAI监测和检测滥用。
给定一组描述对话的消息列表,模型将返回一个回复。
POST
https://api.openai.com/v1/chat/completions为给定的聊天对话创建模型响应。
请求演示:
- curl https://api.openai.com/v1/chat/completions \
- -H "Content-Type: application/json" \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -d '{
- "model": "gpt-3.5-turbo",
- "messages": [{"role": "user", "content": "Hello!"}]
- }'
响应:
- {
- "id": "chatcmpl-123",
- "object": "chat.completion",
- "created": 1677652288,
- "choices": [{
- "index": 0,
- "message": {
- "role": "assistant",
- "content": "\n\nHello there, how may I assist you today?"
- },
- "finish_reason": "stop"
- }],
- "usage": {
- "prompt_tokens": 9,
- "completion_tokens": 12,
- "total_tokens": 21
- }
- }
-
model(string,必填)
要使用的模型ID。有关哪些模型适用于Chat API的详细信息,请查看 模型端点兼容性表。 -
messages(array,必填)
迄今为止描述对话的消息列表。- role(string,必填)
此消息的作者角色。system、user或assistant之一。 - content(string,必填)
消息的内容。 - name(string,选填)
此消息的作者的姓名。可以包含 a-z、A-Z、0-9 和下划线,最大长度为 64 个字符。
- role(string,必填)
-
temperature(number,选填,Defaults to 1)
使用哪个采样温度,在 0和2之间。
较高的值,如0.8会使输出更随机,而较低的值,如0.2会使其更加集中和确定性。
我们通常建议修改这个(temperature )为 top_p 但两者不能同时存在,二选一。 -
top_p(number,选填,Defaults to 1)
一种替代温度采样的方法叫做核心采样,模型会考虑到具有 top_p 概率质量的标记结果。因此,0.1 表示只有占前 10% 概率质量的标记被考虑。
我们通常建议修改这个(top_p )或者 temperature,但不要同时修改两者。 -
n(integer,选填,Defaults to 1)
每个输入消息要生成多少聊天完成选项数。 -
stream(boolean,选填,Defaults to false)
如果设置了,将发送部分消息增量,就像在 ChatGPT 中一样。令牌将作为数据 服务器推送事件 随着它们变得可用而被发送,流通过data: [DONE]消息终止。 -
stop(string or array,选填,Defaults to null)
最多生成4个序列,API将停止生成更多的标记。 -
max_tokens(integer,选填,Defaults to inf)
在聊天完成中生成的最大 tokens 数。
输入令牌和生成的令牌的总长度受模型上下文长度的限制。 -
presence_penalty(number,选填,Defaults to 0)
介于 -2.0 和 2.0 之间的数字。正值会根据它们是否出现在文本中迄今为止来惩罚新令牌,从而增加模型谈论新主题的可能性。 -
frequency_penalty(number,选填,Defaults to 0)
介于-2.0和2.0之间的数字。正值会根据文本中新令牌的现有频率对其进行惩罚,从而降低模型重复相同行的可能性。 -
logit_bias(map,选填,Defaults to null)
修改完成时指定标记出现的可能性。
接受一个JSON对象,将标记(由分词器中的标记ID指定)映射到从 -100 到 100 的相关偏差值。在采样之前,模型生成的logits会加上这个偏差。确切的影响因模型而异,但是 -1 到 1 之间的值应该会减少或增加选择概率;像 -100 或 100 这样的值应该会导致相关标记被禁止或独占选择。 -
user(string,选填)
一个唯一的标识符,代表您的终端用户,可以帮助OpenAI监测和检测滥用。
给定一个提示和一条指令,模型将返回提示的编辑版本。
POST
https://api.openai.com/v1/edits为提供的输入、指令和参数创建一个新的编辑。
请求演示:
- curl https://api.openai.com/v1/edits \
- -H "Content-Type: application/json" \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -d '{
- "model": "text-davinci-edit-001",
- "input": "What day of the wek is it?",
- "instruction": "Fix the spelling mistakes"
- }'
响应:
- {
- "object": "edit",
- "created": 1589478378,
- "choices": [
- {
- "text": "What day of the week is it?",
- "index": 0
- }
- ],
- "usage": {
- "prompt_tokens": 25,
- "completion_tokens": 32,
- "total_tokens": 57
- }
- }
-
model(string,必填)
要使用的模型ID。您可以在此端点中使用text-davinci-edit-001或code-davinci-edit-001模型。 -
input(string,选填,Defaults to '')
用作编辑起点的输入文本。 -
instruction(string,必填)
指导模型如何编辑提示的说明。 -
n(integer,选填,Defaults to 1)
输入和指令需要生成多少次编辑。 -
temperature(number,选填,Defaults to 1)
使用哪个采样温度,在 0和2之间。
较高的值,如0.8会使输出更随机,而较低的值,如0.2会使其更加集中和确定性。
我们通常建议修改这个(temperature )为 top_p 但两者不能同时存在,二选一。 -
top_p(number,选填,Defaults to 1)
一种替代温度采样的方法叫做核心采样,模型会考虑到具有 top_p 概率质量的标记结果。因此,0.1 表示只有占前 10% 概率质量的标记被考虑。
我们通常建议修改这个(top_p )或者 temperature,但不要同时修改两者。
给定一个提示和/或输入图像,模型将生成一张新的图像。
相关指南:图像生成。
POST
https://api.openai.com/v1/images/generations根据提示创建图像。
请求演示:
- curl https://api.openai.com/v1/images/generations \
- -H "Content-Type: application/json" \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -d '{
- "prompt": "A cute baby sea otter",
- "n": 2,
- "size": "1024x1024"
- }'
响应:
- {
- "created": 1589478378,
- "data": [
- {
- "url": "https://..."
- },
- {
- "url": "https://..."
- }
- ]
- }
-
prompt(string,必填)
所需图像的文本描述。最大长度为1000个字符。 -
n(integer,选填,Defaults to 1)
要生成的图像数量。必须在1到10之间。 -
size(string,选填,Defaults to 1024x1024)
生成图像的尺寸。必须是256x256、512x512或1024x1024之一。 -
response_format(string,选填,Defaults to url)
生成的图像返回格式。必须是url或b64_json之一。 -
user(string,选填)
一个唯一的标识符,代表您的终端用户,可以帮助OpenAI监测和检测滥用。
POST
https://api.openai.com/v1/images/edits根据原始图像和提示创建编辑或扩展的图像。
请求演示:
- curl https://api.openai.com/v1/images/edits \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -F image="@otter.png" \
- -F mask="@mask.png" \
- -F prompt="A cute baby sea otter wearing a beret" \
- -F n=2 \
- -F size="1024x1024"
响应:
- {
- "created": 1589478378,
- "data": [
- {
- "url": "https://..."
- },
- {
- "url": "https://..."
- }
- ]
- }
-
image(string,必填)
要编辑的图像。必须是有效的PNG文件,小于4MB且为正方形。如果未提供遮罩,则图像必须具有透明度,该透明度将用作遮罩。 -
mask(string,选填)
一个额外的图像,其完全透明的区域(例如 alpha 值为零的区域)指示应该编辑图像的位置。image 必须是有效的 PNG 文件,小于 4MB,并且具有与 image 相同的尺寸。 -
prompt(string,必填)
所需图像的文本描述。最大长度为1000个字符。 -
n(integer,选填,Defaults to 1)
要生成的图像数量。必须在1到10之间。 -
size(string,选填,Defaults to 1024x1024)
生成图像的尺寸。必须是256x256、512x512或1024x1024之一。 -
response_format(string,选填,Defaults to url)
生成的图像返回格式。必须是url或b64_json之一。 -
user(string,选填)
一个唯一的标识符,代表您的终端用户,可以帮助OpenAI监测和检测滥用。
POST
https://api.openai.com/v1/images/variations创建给定图像的变体。
请求演示:
- curl https://api.openai.com/v1/images/variations \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -F image="@otter.png" \
- -F n=2 \
- -F size="1024x1024"
响应:
- {
- "created": 1589478378,
- "data": [
- {
- "url": "https://..."
- },
- {
- "url": "https://..."
- }
- ]
- }
-
image(string,必填)
用作变体基础的图像。必须是有效的PNG文件,小于4MB,并且为正方形。 -
n(integer,选填,Defaults to 1)
要生成的图像数量。必须在1到10之间。 -
size(string,选填,Defaults to 1024x1024)
生成图像的尺寸。必须是256x256、512x512或1024x1024之一。 -
response_format(string,选填,Defaults to url)
生成的图像返回格式。必须是url或b64_json之一。 -
user(string,选填)
一个唯一的标识符,代表您的终端用户,可以帮助OpenAI监测和检测滥用。
获得一个给定输入的向量表示,可以轻松地被机器学习模型和算法使用。
相关指南:嵌入
POST
https://api.openai.com/v1/embeddings创建一个嵌入向量,代表输入的文本。
请求演示:
- curl https://api.openai.com/v1/embeddings \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -H "Content-Type: application/json" \
- -d '{
- "input": "The food was delicious and the waiter...",
- "model": "text-embedding-ada-002"
- }'
响应:
- {
- "object": "list",
- "data": [
- {
- "object": "embedding",
- "embedding": [
- 0.0023064255,
- -0.009327292,
- .... (1536 floats total for ada-002)
- -0.0028842222
- ],
- "index": 0
- }
- ],
- "model": "text-embedding-ada-002",
- "usage": {
- "prompt_tokens": 8,
- "total_tokens": 8
- }
- }
-
model(string,必填)
要使用的 模型ID。您可以使用 列出模型 API查看所有可用模型,或者请参阅我们的 模型概述 以了解它们的描述。 -
input(string or array,必填)
输入文本以获取嵌入,编码为字符串或令牌数组。要在单个请求中获取多个输入的嵌入,请传递字符串数组或令牌数组的数组。每个输入长度不得超过 8192 个标记。 -
user(string,选填)
一个唯一的标识符,代表您的终端用户,可以帮助OpenAI监测和检测滥用。
了解如何将音频转换为文本。
相关指南:语音转文本
POST
https://api.openai.com/v1/audio/transcriptions将音频转录为输入语言。
请求演示:
- curl https://api.openai.com/v1/audio/transcriptions \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -H "Content-Type: multipart/form-data" \
- -F file="@/path/to/file/audio.mp3" \
- -F model="whisper-1"
响应:
{
"text": "Imagine the wildest idea that you've ever had, and you're curious about how it might scale to something that's a 100, a 1,000 times bigger. This is a place where you can get to do that."
}-
file(string,必填)
要转录的音频文件,格式为以下之一:mp3、mp4、mpeg、mpga、m4a、wav 或 webm。 -
model(string,必填)
要使用的模型ID。目前仅有whisper-1可用。 -
prompt(string,选填)
一个可选的文本,用于指导模型的风格或继续之前的音频片段。 prompt 应该与音频语言相匹配。 -
response_format(string,选填,Defaults to json)
转录输出的格式,可选项包括:json、文本、srt、verbose_json或vtt。 -
temperature(number,选填,Defaults to 0)
采样温度介于0和1之间。较高的值(如0.8)会使输出更随机,而较低的值(如0.2)则会使其更加集中和确定性。如果设置为0,则模型将使用 log probability(对数概率) 自动增加温度,直到达到某些阈值。 -
language(string,选填)
输入音频的语言。以 ISO-639-1 格式提供输入语言将提高准确性和延迟。
POST
https://api.openai.com/v1/audio/translations将音频翻译成英语。
请求演示:
- curl https://api.openai.com/v1/audio/translations \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -H "Content-Type: multipart/form-data" \
- -F file="@/path/to/file/german.m4a" \
- -F model="whisper-1"
响应:
{
"text": "Hello, my name is Wolfgang and I come from Germany. Where are you heading today?"
}-
file(string,必填)
要翻译的音频文件必须是以下格式之一:mp3、mp4、mpeg、mpga、m4a、wav或webm。 -
model(string,必填)
要使用的模型ID。目前仅有whisper-1可用。 -
prompt(string,选填)
一个可选的文本,用于指导模型的风格或继续之前的音频片段。 prompt 应该与音频语言相匹配。 -
response_format(string,选填,Defaults to json)
转录输出的格式,可选项包括:json、文本、srt、verbose_json或vtt。 -
temperature(number,选填,Defaults to 0)
采样温度介于0和1之间。较高的值(如0.8)会使输出更随机,而较低的值(如0.2)则会使其更加集中和确定性。如果设置为0,则模型将使用 log probability(对数概率) 自动增加温度,直到达到某些阈值。
Files 用于上传文档,可与 Fine-tuning 等功能一起使用。
GET
https://api.openai.com/v1/files返回属于用户组织的文件列表。
请求演示:
curl https://api.openai.com/v1/files \
-H "Authorization: Bearer $OPENAI_API_KEY"响应:
- {
- "data": [
- {
- "id": "file-ccdDZrC3iZVNiQVeEA6Z66wf",
- "object": "file",
- "bytes": 175,
- "created_at": 1613677385,
- "filename": "train.jsonl",
- "purpose": "search"
- },
- {
- "id": "file-XjGxS3KTG0uNmNOK362iJua3",
- "object": "file",
- "bytes": 140,
- "created_at": 1613779121,
- "filename": "puppy.jsonl",
- "purpose": "search"
- }
- ],
- "object": "list"
- }
POST
https://api.openai.com/v1/files上传包含文档的文件以在各个端点/功能之间使用。目前,一个组织上传的所有文件的大小可以高达1 GB。如果您需要增加存储限制,请与我们联系。
请求演示:
curl https://api.openai.com/v1/files \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-F purpose="fine-tune" \
-F file="@mydata.jsonl"响应:
- {
- "id": "file-XjGxS3KTG0uNmNOK362iJua3",
- "object": "file",
- "bytes": 140,
- "created_at": 1613779121,
- "filename": "mydata.jsonl",
- "purpose": "fine-tune"
- }
-
file(string,必填)
要上传的 JSON Lines 文件名。
如果 purpose 设置为 “fine-tune”,则每行都是一个JSON记录,其中包含“prompt”和“completion”字段,表示您的 training examples(训练示例)。 -
purpose(string,必填)
上传文档的预期用途。
使用 “fine-tune” 进行 Fine-tuning(微调)。这样可以验证上传文件的格式。
DELETE
https://api.openai.com/v1/files/{file_id}删除文件。
请求演示:
curl https://api.openai.com/v1/files/file-XjGxS3KTG0uNmNOK362iJua3 \
-X DELETE \
-H "Authorization: Bearer $OPENAI_API_KEY"其中,{file_id} 为 string类型的必填项,用于此请求的文件的 ID。
响应:
- {
- "id": "file-XjGxS3KTG0uNmNOK362iJua3",
- "object": "file",
- "deleted": true
- }
GET
https://api.openai.com/v1/files/{file_id}返回有关特定文件的信息。
请求演示:
curl https://api.openai.com/v1/files/file-XjGxS3KTG0uNmNOK362iJua3 \
-H "Authorization: Bearer $OPENAI_API_KEY"其中,{file_id} 为 string类型的必填项,用于此请求的文件的 ID。
响应:
- {
- "id": "file-XjGxS3KTG0uNmNOK362iJua3",
- "object": "file",
- "bytes": 140,
- "created_at": 1613779657,
- "filename": "mydata.jsonl",
- "purpose": "fine-tune"
- }
GET
https://api.openai.com/v1/files/{file_id}/content返回指定文件的内容。
请求演示:
curl https://api.openai.com/v1/files/file-XjGxS3KTG0uNmNOK362iJua3/content \
-H "Authorization: Bearer $OPENAI_API_KEY" > file.jsonl其中,{file_id} 为 string类型的必填项,用于此请求的文件的 ID。
管理微调作业以将模型定制为您的特定训练数据。
相关指南:Fine-tune models(微调模型)
POST
https://api.openai.com/v1/fine-tunes创建一个工作,从给定的数据集中微调指定模型。
响应包括已入队的作业的详细信息,包括 作业状态 和 完成后微调模型的名称。
请求演示:
- curl https://api.openai.com/v1/fine-tunes \
- -H "Content-Type: application/json" \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -d '{
- "training_file": "file-XGinujblHPwGLSztz8cPS8XY"
- }'
响应:
- {
- "id": "ft-AF1WoRqd3aJAHsqc9NY7iL8F",
- "object": "fine-tune",
- "model": "curie",
- "created_at": 1614807352,
- "events": [
- {
- "object": "fine-tune-event",
- "created_at": 1614807352,
- "level": "info",
- "message": "Job enqueued. Waiting for jobs ahead to complete. Queue number: 0."
- }
- ],
- "fine_tuned_model": null,
- "hyperparams": {
- "batch_size": 4,
- "learning_rate_multiplier": 0.1,
- "n_epochs": 4,
- "prompt_loss_weight": 0.1
- },
- "organization_id": "org-...",
- "result_files": [],
- "status": "pending",
- "validation_files": [],
- "training_files": [
- {
- "id": "file-XGinujblHPwGLSztz8cPS8XY",
- "object": "file",
- "bytes": 1547276,
- "created_at": 1610062281,
- "filename": "my-data-train.jsonl",
- "purpose": "fine-tune-train"
- }
- ],
- "updated_at": 1614807352
- }
-
training_file(string,必填)
包含 训练数据 的已上传文件的ID。
请参阅 upload file 以了解如何上传文件。
您的数据集必须格式化为 JSONL文件,其中每个训练示例都是一个带有 “prompt” 和 “completion” keys 的 JSON对象。此外,您必须上传带有 fine-tune 目的的文件。 -
validation_file(string,选填)
包含 验证数据 的已上传文件的ID。
如果您提供此文件,则数据将在微调期间定期用于生成验证指标。这些指标可以在 微调结果文件 中查看。您的训练和验证数据应该是互斥的。 -
model(string,选填,Defaults to curie)
要微调的基础模型名称。
您可以选择其中之一:"ada"、"babbage"、"curie"、"davinci",或 2022年4月21日 后创建的经过微调的模型。 -
n_epochs(integer,选填,Defaults to 4)
训练模型的时期数。一个 epoch 指的是完整地遍历一次训练数据集。 -
batch_size(integer,选填,Defaults to null)
用于训练的批次大小。批次大小是用于训练单个前向和后向传递的训练示例数量。 -
learning_rate_multiplier(number,选填,Defaults to null)
用于训练的学习率倍增器。微调学习率 是预训练时使用的 原始学习率 乘以 此值 得到的。 -
prompt_loss_weight(number,选填,Defaults to 0.01)
用于提示 tokens 损失的权重。这控制了模型尝试学习生成提示的程度。 -
compute_classification_metrics(boolean,选填,Defaults to false)
如果设置了,我们会在每个 epoch 结束时使用验证集计算特定于分类的指标,例如准确率和 F-1 分数。 -
classification_n_classes(integer,选填,Defaults to null)
分类任务中的类别数量。 -
classification_positive_class(string,选填,Defaults to null)
二元分类中的正类。 -
classification_betas(array,选填,Defaults to null)
如果提供了这个参数,我们会在指定的 beta 值上计算 F-beta分数。 -
suffix(string,选填,Defaults to null)
一个长度最多为 40个字符 的字符串,将被添加到您的 微调模型名称 中。
GET
https://api.openai.com/v1/fine-tunes列出组织的微调作业。
请求演示:
curl https://api.openai.com/v1/fine-tunes \
-H "Authorization: Bearer $OPENAI_API_KEY"响应:
- {
- "object": "list",
- "data": [
- {
- "id": "ft-AF1WoRqd3aJAHsqc9NY7iL8F",
- "object": "fine-tune",
- "model": "curie",
- "created_at": 1614807352,
- "fine_tuned_model": null,
- "hyperparams": { ... },
- "organization_id": "org-...",
- "result_files": [],
- "status": "pending",
- "validation_files": [],
- "training_files": [ { ... } ],
- "updated_at": 1614807352
- }
- ]
- }
GET
https://api.openai.com/v1/fine-tunes/{fine_tune_id}获取有关微调作业的信息。
请求演示:
curl https://api.openai.com/v1/fine-tunes/ft-AF1WoRqd3aJAHsqc9NY7iL8F \
-H "Authorization: Bearer $OPENAI_API_KEY"其中,fine_tune_id 为 string类型 的字符串,必传;微调作业的 ID。
响应:略(结构同创建示例)
POST
https://api.openai.com/v1/fine-tunes/{fine_tune_id}/cancel立即取消微调工作。
请求演示:
curl https://api.openai.com/v1/fine-tunes/ft-AF1WoRqd3aJAHsqc9NY7iL8F/cancel \
-H "Authorization: Bearer $OPENAI_API_KEY"GET
https://api.openai.com/v1/fine-tunes/{fine_tune_id}/events获取微调作业的精细状态更新。
- stream(boolean,选填,Defaults to false)
是否对微调作业进行事件流。
DELETE
https://api.openai.com/v1/models/{model}删除微调的模型。您必须在组织中具有所有者的角色。
请求演示:
curl https://api.openai.com/v1/models/curie:ft-acmeco-2021-03-03-21-44-20 \
-X DELETE \
-H "Authorization: Bearer $OPENAI_API_KEY"给定一个输入文本,输出模型是否将其分类为违反 OpenAI 内容政策。
相关指南:Moderations
POST
https://api.openai.com/v1/moderations分类判断文本是否违反 OpenAI 的内容政策。
请求演示:
- curl https://api.openai.com/v1/moderations \
- -H "Content-Type: application/json" \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -d '{
- "input": "I want to kill them."
- }'
响应:
- {
- "id": "modr-5MWoLO",
- "model": "text-moderation-001",
- "results": [
- {
- "categories": {
- "hate": false,
- "hate/threatening": true,
- "self-harm": false,
- "sexual": false,
- "sexual/minors": false,
- "violence": true,
- "violence/graphic": false
- },
- "category_scores": {
- "hate": 0.22714105248451233,
- "hate/threatening": 0.4132447838783264,
- "self-harm": 0.005232391878962517,
- "sexual": 0.01407341007143259,
- "sexual/minors": 0.0038522258400917053,
- "violence": 0.9223177433013916,
- "violence/graphic": 0.036865197122097015
- },
- "flagged": true
- }
- ]
- }
-
input(string or array,必填)
要分类的输入文本。 -
model(string,选填,Defaults to text-moderation-latest)
有两个内容审核模型可用:text-moderation-stable和text-moderation-latest。
引擎端点已过时。
请使用它们的替代品模型。
GET
https://api.openai.com/v1/enginesGET
https://api.openai.com/v1/engines/{engine_id}在 Completions API 中发现的频率和存在惩罚可以用于减少采样重复令牌序列的可能性。它们通过直接向 logits(未归一化的对数概率)添加贡献来进行修改。
mu[j] -> mu[j] - c[j] * alpha_frequency - float(c[j] > 0) * alpha_presenceWhere:
mu[j]is the logits of the j-th tokenc[j]is how often that token was sampled prior to the current positionfloat(c[j] > 0)is 1 ifc[j] > 0and 0 otherwisealpha_frequencyis the frequency penalty coefficientalpha_presenceis the presence penalty coefficient
正如我们所看到的,存在惩罚是一次性的加法贡献,适用于所有已经被采样至少一次的标记,并且频率惩罚是与特定标记已经被采样的频率成比例的贡献。
如果目的只是稍微减少重复样本,那么惩罚系数的合理值大约在 0.1 到 1 之间。如果目的是强烈抑制重复,则可以将系数增加到 2,但这可能会明显降低样本质量。负值可用于增加重复出现的可能性。