本篇内容介绍了“OPENai api微调GPT-3的Ada模型怎么实现”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!需要提前安装好
本篇内容介绍了“OPENai api微调GPT-3的Ada模型怎么实现”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
需要提前安装好 openai 所需要的各种库,我这里的库版本是 openai-0.25.0 。以及最关键过的 openai key ,这需要科学上网,请自行解决。需要注意的是微调是要花钱的,不过最开始的注册账户里默认都有 5$ ,在开始之前到
https://platfORM.openai.com/account/usage
这里可以查看是否有余额。另外可以去
Https://openai.com/pricing
查看微调不同模型的费用,对于本文的介绍的内容使用免费的 5$ 是足够的。
我们这里使用现成的数据,从网上可以直接读取使用,该数据主要有两类包含棒球和曲棍球。并且会随机打乱数据,方便后续的训练。可以看到数据的总量不大,只有 1197 条数据。
from sklearn.datasets import fetch_20newsgroupsimport pandas as pdimport openaicateGories = ['rec.sport.baseball', 'rec.sport.hockey']sports_dataset = fetch_20newsgroups(subset='train', shuffle=True, random_state=42, categories=categories)len_all, len_baseball, len_hockey = len(sports_dataset.data), len([e for e in sports_dataset.target if e == 0]), len([e for e in sports_dataset.target if e == 1])print(f"Total examples: {len_all}, Baseball examples: {len_baseball}, Hockey examples: {len_hockey}")
打印:
Total examples: 1197, Baseball examples: 597, Hockey examples: 600
为了加速我们的训练,我们这里选用打乱的训练集中的前 100 条数据来进行演示效果,因为数据多的话,时间消耗会长,而且微调的费用会和训练数据成正比增加。
这里的数据一共有两列,一列是 prompt 表示待分类的文本,一列是 completion 表示对应文本描述的标签,标签只有两类 baseball 和 hockey 。
labels = [sports_dataset.target_names[x].split('.')[-1] for x in sports_dataset['target']]texts = [text.strip() for text in sports_dataset['data']]df = pd.DataFrame(zip(texts, labels), columns = ['prompt','completion']) df = df[:100]
微调模型的输入数据需要按照规定的格式进行整理,这里使用常见的 JSONl 格式,使用 openai 库自带的工具进行处理即可得到训练集 sport2_prepared_train.jsonl 和验证集 sport2_prepared_valid.jsonl 在当前目录。
df.to_json("sport2.jsonl", orient='records', lines=True)!openai tools fine_tunes.prepare_data -f sport2.jsonl -q
首先将你的 openai key 设置成环境变量 OPENAI_API_KEY 才能执行下面的命令,该命令会使用指定的训练集和验证集进行微调的分类任务,并且会计算保留分类常见的指标,我们这里指定的模型为 ada 。
!openai api fine_tunes.create -t "sport2_prepared_train.jsonl" -v "sport2_prepared_valid.jsonl" --compute_classification_metrics --classification_positive_class " baseball" -m ada
打印:
Uploaded file from sport2_prepared_train.jsonl: file-wx9c3lYQB6Z4pWrrCqBabWUhUploaded file from sport2_prepared_valid.jsonl: file-aujZlpbhXZnevKzJNjF06q85Created fine-tune: ft-aEHXhd8q9dfG8MOKt43ph7wkStreaming events until fine-tuning is complete...[2023-03-28 09:57:12] Created fine-tune: ft-aEHXhd8q9dfG8MOKt43ph7wk[2023-03-28 09:59:16] Fine-tune costs $0.06[2023-03-28 09:59:16] Fine-tune enqueued. Queue number: 2[2023-03-28 09:59:32] Fine-tune is in the queue. Queue number: 1(Ctrl-C will interrupt the stream, but not cancel the fine-tune)[2023-03-28 09:57:12] Created fine-tune: ft-aEHXhd8q9dfG8MOKt43ph7wkStream interrupted (client disconnected).To resume the stream, run: openai api fine_tunes.follow -i ft-aEHXhd8q9dfG8MOKt43ph7wk
从打印信息中我们能看到此次训练的花费,以及当前的排队情况,这个训练过程是在 openai 的服务器上进行的,有时候长时间因为排队没有响应会自己断开数据流的传输,我们如果想要继续查看任务情况,只需要找到打印出来的唯一任务编码,执行下面的命令,我的远程服务器上的训练任务编码是 ft-aEHXhd8q9dfG8MOKt43ph7wk ,其实上面的打印信息中都有相应的提示。
openai api fine_tunes.follow -i ft-aEHXhd8q9dfG8MOKt43ph7wk
[2023-03-28 09:57:12] Created fine-tune: ft-aEHXhd8q9dfG8MOKt43ph7wk
[2023-03-28 09:59:16] Fine-tune costs $0.06
[2023-03-28 09:59:16] Fine-tune enqueued. Queue number: 2
[2023-03-28 09:59:32] Fine-tune is in the queue. Queue number: 1
[2023-03-28 10:12:20] Fine-tune is in the queue. Queue number: 0
[2023-03-28 10:13:54] Fine-tune started
[2023-03-28 10:14:22] Completed epoch 1/4
[2023-03-28 10:14:37] Completed epoch 2/4
[2023-03-28 10:14:50] Completed epoch 3/4
[2023-03-28 10:15:03] Completed epoch 4/4
[2023-03-28 10:15:26] Uploaded model: ada:ft-personal-2023-03-28-02-15-26
[2023-03-28 10:15:27] Uploaded result file: file-YZ2VNHkFnAJAhBeTKJ2AxfLK
[2023-03-28 10:15:27] Fine-tune succeeded
从打印信息中我们可以看到微调的结果模型叫 ada:ft-personal-2023-03-28-02-15-26 ,这个可以在 platform.openai.com/playground 里的模型选择栏中看到自己微调后的模型。
我们通过任务编码可以获取该任务训练的各种信息,比如随着 epoch 变化的 loss 、acc 等信息。可以看出在我们的训练集上训练的分类准确率为 100% 。
!openai api fine_tunes.results -i ft-aEHXhd8q9dfG8MOKt43ph7wk > result.csvresults = pd.read_csv('result.csv')results[results['classification/accuracy'].notnull()].tail(1)
打印信息:
stepelapsed_tokenselapsed_examplestraining_losstraining_sequence_accuracytraining_token_accuracyvalidation_lossvalidation_sequence_accuracyvalidation_token_accuracyclassification/accuracyclassification/precisionclassification/recallclassification/aurocclassification/auprcclassification/f1.03163171435573170.024171.01.0NaNNaNNaN1.01.01.01.01.01.0
我们随机挑选验证集中的一条文本,使用微调后的模型进行测试,打印出来的分类标签是正确的。
test = pd.read_json('sport2_prepared_valid.jsonl', lines=True)res = openai.Completion.create(model= 'ada:ft-personal-2023-03-28-02-15-26', prompt=test['prompt'][0] + '\n\n###\n\n', max_tokens=1, temperature=0)res['choices'][0]['text']
打印:
' hockey'
另外我们的微调分类器是非常通用的,不仅在我们使用的训练集和验证集上游泳,它也能用来预测推文。
sample_hockey_tweet = """Thank you to the @Canes and all you amazing Caniacs that have been so supportive! You guys are some of the best fans in the NHL without a doubt! Really excited to start this new chapter in my career with the @DetroitRedWings !!"""res = openai.Completion.create(model='ada:ft-personal-2023-03-28-02-15-26', prompt=sample_hockey_tweet + '\n\n###\n\n', max_tokens=1, temperature=0, logprobs=2)res['choices'][0]['text']
打印:
' baseball'
“OPENAI API微调GPT-3的Ada模型怎么实现”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注编程网网站,小编将为大家输出更多高质量的实用文章!
--结束END--
本文标题: OPENAI API微调GPT-3的Ada模型怎么实现
本文链接: https://lsjlt.com/news/357284.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0