Agenta 是一个用于构建生产级 LLM 应用的平台。它通过集成的提示词管理、评估和可观测性,帮助工程和产品团队更快地创建可靠的 LLM 应用。
与领域专家(SMEs)协作进行提示工程,并确保生产环境中的稳定性。
通过人工和自动化反馈,系统地评估您的 LLM 应用。
- 灵活的测试集:从生产数据、游乐场实验或上传的 CSV 文件创建测试用例
- 预构建与自定义评估器:使用 LLM-as-judge、20+ 预构建评估器之一,或您自定义的评估器
- UI 与 API 访问:通过 UI(供领域专家使用)或编程方式(供工程师使用)运行评估
- 人工反馈集成:收集并整合专家标注
在生产环境中洞察您的 LLM 应用。
- 成本与性能追踪:监控开销、延迟和使用模式
- LLM 链路追踪:通过详细的链路追踪调试复杂工作流
- 开放标准:原生支持 OpenTelemetry 追踪,兼容 OpenLLMetry 和 OpenInference
- 集成:提供与大多数模型和框架的预构建集成
最简单的方式是通过 Agenta 云平台开始。提供免费套餐,无需信用卡。
bash
git clone https://github.com/Agenta-AI/agenta && cd agenta复制配置文件:
在启动服务之前,从示例创建环境文件:
bash
cp hosting/docker-compose/oss/env.oss.gh.example hosting/docker-compose/oss/.env.oss.gh
启动 Agenta 服务:
bash
docker compose -f hosting/docker-compose/oss/docker-compose.gh.yml --env-file hosting/docker-compose/oss/.env.oss.gh --profile with-web --profile with-traefik up -d
在 http://localhost 访问 Agenta。
如需在远程主机上部署或使用不同端口,请参阅我们的自托管和远程部署文档。
寻求帮助、探索资源或参与贡献:
我们欢迎各种形式的贡献,从提交问题、分享想法到改进代码库。查看我们的 CONTRIBUTING.md 并:
请考虑为我们点亮星星! 这有助于我们发展社区,让更多开发者了解 Agenta。
感谢这些优秀的人们(表情符号说明):
Sameh Methnani 💻 📖 |
Suad Suljovic 💻 🎨 🧑🏫 👀 |
burtenshaw 💻 |
Abram 💻 📖 |
Israel Abebe 🐛 🎨 |