快速入门

Afarensis 文本审核端点:快速入门指南

引言 Afarensis 文本审核端点是一个强大的工具,旨在帮助开发者检测并识别潜在有害内容。通过此端点,开发者可以有效地过滤不适当的文本,确保内容的安全性。

如何获取文本分类 要利用 Afarensis 文本审核端点对文本进行分类,您需要按照以下步骤操作:

发送请求: 使用以下命令向审核端点发送请求,以获得文本的分类信息。

curl https://api.afarensis.com/v1/moderations -X POST -H "Content-Type: application/json" -H "Authorization: Bearer $AFARENSIS_API_KEY" -d '{"input": "这里填写样本文本"}' 解读响应: 请求成功后,您将收到如下格式的响应:

flagged: 标记内容是否被认为潜在有害。true 表示有害,false 表示无害。 categories: 每个类别的违规标志字典。true 表示违规,false 表示不违规。 category_scores: 每个类别的模型原始分数,表示模型对违规的置信度,分数范围从 0 到 1。 示例输出:

{ "id": "modr-XXXXX", "model": "text-moderation-007", "results": [ { "flagged": true, "categories": { "sexual": false, "hate": false, "harassment": false, "self-harm": false, "sexual/minors": false, "hate/threatening": false, "violence/graphic": false, "self-harm/intent": false, "self-harm/instructions": false, "harassment/threatening": true, "violence": true }, "category_scores": { "sexual": 1.2282071e-6, "hate": 0.010696256, "harassment": 0.29842457, "self-harm": 1.5236925e-8, "sexual/minors": 5.7246268e-8, "hate/threatening": 0.0060676364, "violence/graphic": 4.435014e-6, "self-harm/intent": 8.098441e-10, "self-harm/instructions": 2.8498655e-11, "harassment/threatening": 0.63055265, "violence": 0.99011886 } } ] } 注意事项 我们不断升级 Afarensis 审核端点的基础模型,以提高准确性和效率。因此,随着时间推移,依赖于 category_scores 的自定义策略可能需要调整和校准。

最后更新于