Documentation
  • GET STARTED
    • 介紹
    • 快速入门
    • 模型
      • 模型更新
    • Afs-turbo 和 Afs-1
    • Afs-turbo
    • 达尔·E 系统概述
    • TTS系统
    • 耳语
    • 嵌入
    • 适度
    • AFS基础
    • 我们如何使用您的数据
    • 终结点与兼容性
  • 教程
  • 更改日志
  • 能力
    • 文本生成
    • 聊天完成
    • JSON 模式
    • 可重复的输出
    • 管理令牌
    • 参数详细信息
    • 完成API(旧版)
    • 常见问题
  • 函数调用
  • 嵌入
    • 概述
    • 模型
    • 使用案例
    • 常见问题
  • 微调
    • 何时使用微调
    • 常见用例
    • 准备数据集
    • 创建微调模型
    • 使用微调模型
    • 微调示例
  • 图像生成
    • 介绍
    • 用法
    • 特定语言提示
  • 视觉
  • 文字转语音
  • 语音转文本
    • 概述
    • 快速入门
    • 支持的语言
    • 时间戳
    • 更长的输入
    • 促使
    • 提高可靠性
  • 适度
    • 概述
    • 快速入门
  • 助理
  • 概述
  • Google助理的工作原理
    • Objects
    • Creating Assistants
    • Managing Threads and Messages
    • Runs and Run Steps
    • 局限性
  • 工具
    • Code Interpreter
    • Knowledge Retrieval
    • Function calling
    • Supported files
  • 指南
  • 提示工程
    • Six strategies for getting better results
    • Write clear instructions
    • Provide reference text
    • Split complex tasks into simpler subtasks
    • Give models time to "think"
    • Use external tools
    • Test changes systematically
    • Other resources
  • 生产最佳实践
    • Setting up your organization
    • Scaling your solution
    • Managing rate limits
    • Improving latencies
    • Managing costs
    • MLOps strategy
    • Security and compliance
  • 安全最佳实践
  • 速率限制
    • 概述
    • Usage tiers
    • Error Mitigation
  • 错误代码
    • API errors
    • Python library error types
  • 图书馆
    • Python library
    • 图书馆
    • Azure OpenAI 库
    • 社区图书馆
  • 弃用
  • 政策
  • 行动
    • 介绍
    • 开始
    • 认证
    • 生产
    • 数据检索
    • 政策
  • 发行说明
  • Page 2
由 GitBook 提供支持
在本页
  1. 微调

使用微调模型

微调模型的综合指南

使用 Afarensis 微调模型的综合指南 本指南提供了关于如何有效使用 Afarensis 微调模型的详细信息,包括启动微调作业后如何使用模型、分析模型性能,以及根据需要对模型进行迭代改进。

目录 简介 使用微调模型 分析微调模型性能 迭代改进模型 提高数据质量 增加数据量 调整超参数 总结 简介 微调是深度学习中常见的一种技术,用于根据特定任务调整预训练模型的性能。Afarensis 提供了一套完整的工具,以简化微调和使用自定义模型的过程。

使用微调模型 在微调作业成功完成后,您可以立即利用微调模型来进行推理。以下是如何在您的应用中使用微调模型的示例:

from afarensis import Afarensis client = Afarensis()

completion = client.chat.completions.create( model="ft:gpt-3.5-turbo:my-org:custom_suffix:id", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Hello!"} ] ) print(completion.choices[0].message) 在某些情况下,模型可能需要几分钟来准备好处理请求。如果遇到请求超时或找不到模型的情况,请稍后重试。

分析微调模型性能 在训练过程中提供的指标,如训练损失和令牌准确性,可以帮助您了解模型的训练进度。以下是如何查看这些指标的示例:

{ "object": "fine_tuning.job.event", "id": "ftevent-abc-123", "created_at": 1693582679, "level": "info", "message": "Step 100/100: training loss=0.00", "data": { "step": 100, "train_loss": 1.805623287509661e-5, "train_mean_token_accuracy": 1.0 }, "type": "metrics" } 迭代改进模型 提高数据质量 确保训练数据覆盖了模型预期的使用场景。 检查数据集中的错误和不一致,确保高质量的训练数据。 增加数据量 如果模型在某些方面表现不佳,考虑添加更多相关的训练数据。 数据量的增加通常可以提高模型的泛化能力。 调整超参数 根据模型的表现调整训练周期(epochs)、学习率乘数等超参数。 超参数的调整可以帮助模型更好地适应训练数据。 client.fine_tuning.jobs.create( training_file="file-abc123", model="gpt-3.5-turbo", hyperparameters={ "n_epochs": 2 } ) 总结 通过使用 Afarensis 微调模型,您可以针对特定任务优化模型的性能。成功使用微调模型的关键在于选择合适的训练数据,以及在必要时迭代改进模型和调整超参数。希望本指南能帮助您高效地使用 Afarensis 微调模型。

上一页创建微调模型下一页微调示例

最后更新于1年前