Documentation
  • GET STARTED
    • 介紹
    • 快速入门
    • 模型
      • 模型更新
    • Afs-turbo 和 Afs-1
    • Afs-turbo
    • 达尔·E 系统概述
    • TTS系统
    • 耳语
    • 嵌入
    • 适度
    • AFS基础
    • 我们如何使用您的数据
    • 终结点与兼容性
  • 教程
  • 更改日志
  • 能力
    • 文本生成
    • 聊天完成
    • JSON 模式
    • 可重复的输出
    • 管理令牌
    • 参数详细信息
    • 完成API(旧版)
    • 常见问题
  • 函数调用
  • 嵌入
    • 概述
    • 模型
    • 使用案例
    • 常见问题
  • 微调
    • 何时使用微调
    • 常见用例
    • 准备数据集
    • 创建微调模型
    • 使用微调模型
    • 微调示例
  • 图像生成
    • 介绍
    • 用法
    • 特定语言提示
  • 视觉
  • 文字转语音
  • 语音转文本
    • 概述
    • 快速入门
    • 支持的语言
    • 时间戳
    • 更长的输入
    • 促使
    • 提高可靠性
  • 适度
    • 概述
    • 快速入门
  • 助理
  • 概述
  • Google助理的工作原理
    • Objects
    • Creating Assistants
    • Managing Threads and Messages
    • Runs and Run Steps
    • 局限性
  • 工具
    • Code Interpreter
    • Knowledge Retrieval
    • Function calling
    • Supported files
  • 指南
  • 提示工程
    • Six strategies for getting better results
    • Write clear instructions
    • Provide reference text
    • Split complex tasks into simpler subtasks
    • Give models time to "think"
    • Use external tools
    • Test changes systematically
    • Other resources
  • 生产最佳实践
    • Setting up your organization
    • Scaling your solution
    • Managing rate limits
    • Improving latencies
    • Managing costs
    • MLOps strategy
    • Security and compliance
  • 安全最佳实践
  • 速率限制
    • 概述
    • Usage tiers
    • Error Mitigation
  • 错误代码
    • API errors
    • Python library error types
  • 图书馆
    • Python library
    • 图书馆
    • Azure OpenAI 库
    • 社区图书馆
  • 弃用
  • 政策
  • 行动
    • 介绍
    • 开始
    • 认证
    • 生产
    • 数据检索
    • 政策
  • 发行说明
  • Page 2
由 GitBook 提供支持
在本页
  1. 适度

快速入门

Afarensis 文本审核端点:快速入门指南

引言 Afarensis 文本审核端点是一个强大的工具,旨在帮助开发者检测并识别潜在有害内容。通过此端点,开发者可以有效地过滤不适当的文本,确保内容的安全性。

如何获取文本分类 要利用 Afarensis 文本审核端点对文本进行分类,您需要按照以下步骤操作:

发送请求: 使用以下命令向审核端点发送请求,以获得文本的分类信息。

curl https://api.afarensis.com/v1/moderations -X POST -H "Content-Type: application/json" -H "Authorization: Bearer $AFARENSIS_API_KEY" -d '{"input": "这里填写样本文本"}' 解读响应: 请求成功后,您将收到如下格式的响应:

flagged: 标记内容是否被认为潜在有害。true 表示有害,false 表示无害。 categories: 每个类别的违规标志字典。true 表示违规,false 表示不违规。 category_scores: 每个类别的模型原始分数,表示模型对违规的置信度,分数范围从 0 到 1。 示例输出:

{ "id": "modr-XXXXX", "model": "text-moderation-007", "results": [ { "flagged": true, "categories": { "sexual": false, "hate": false, "harassment": false, "self-harm": false, "sexual/minors": false, "hate/threatening": false, "violence/graphic": false, "self-harm/intent": false, "self-harm/instructions": false, "harassment/threatening": true, "violence": true }, "category_scores": { "sexual": 1.2282071e-6, "hate": 0.010696256, "harassment": 0.29842457, "self-harm": 1.5236925e-8, "sexual/minors": 5.7246268e-8, "hate/threatening": 0.0060676364, "violence/graphic": 4.435014e-6, "self-harm/intent": 8.098441e-10, "self-harm/instructions": 2.8498655e-11, "harassment/threatening": 0.63055265, "violence": 0.99011886 } } ] } 注意事项 我们不断升级 Afarensis 审核端点的基础模型,以提高准确性和效率。因此,随着时间推移,依赖于 category_scores 的自定义策略可能需要调整和校准。

上一页概述下一页助理

最后更新于1年前