Anthropic 全新开发者工具:精准操控 AI,提升提示词效率
优质的提示词是构建高效 AI 应用程序的关键。然而,打造高质量的提示词并非易事,需要开发者对应用需求和大型语言模型有深入的理解。为了解决这一难题,帮助用户快速生成高质量提示词,Anthropic 近日宣布在开发者控制台中推出全新功能。
告别复杂流程:轻松生成优质提示词
现在,您可以在 Anthropic 控制台中一站式完成提示词的生成、测试和评估。 Anthropic 新增了多项实用功能,包括自动生成测试用例和比较输出结果,使开发者能够利用 Claude 生成最符合需求的响应。
用户只需简单描述任务,例如“对入站客户支持请求进行分类”,内置的提示词生成器(由 Claude 3.5 Sonnet 提供支持)即可自动生成高质量的提示词,大大降低了使用门槛。

此外,您还可以利用 Claude 的测试用例生成功能,为提示词生成输入变量,例如模拟真实的客户支持消息,并运行提示词查看 Claude 的响应。您也可以选择手动输入测试用例,满足个性化需求。

精益求精:多维度评估,打造值得信赖的 AI 应用
在真实环境中测试提示词对各种输入的响应至关重要,Anthropic 深谙此道。全新的“评估”功能允许用户直接在控制台中完成测试,无需再依赖电子表格或代码进行手动管理,显著提高了测试效率。
用户可以选择手动添加或从 CSV 文件导入测试用例,也可以使用“生成测试用例”功能自动生成。在对测试用例进行必要修改后,只需点击一下即可运行所有测试用例。 Anthropic 还提供了细粒度控制功能,用户可以查看并调整 Claude 对每个变量的生成要求,确保测试用例的精准性。

快速迭代,优化模型性能:打造更智能的 AI 应用
Anthropic 致力于帮助用户以最便捷的方式优化提示词。现在,用户可以创建新的提示词版本,并重新运行测试套件,快速迭代并改进结果,持续提升模型的响应质量。
此外,Anthropic 还新增了并排比较多个提示词输出的功能,并支持主题专家以 5 分制对响应质量进行评分。这两项功能的结合,使用户能够更直观地了解更改后的提示词是否提升了响应质量,从而更高效地改进模型性能,打造更智能的 AI 应用。
立即体验,开启高效 AI 开发之旅
Anthropic 控制台上的所有用户均可使用测试用例生成和输出比较功能。
想了解更多关于使用 Claude 生成和评估提示词的信息,请访问 Anthropic 官方文档。