OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  代码  ›  Langfuse — 开源 LLM 可观测性与追踪分析平台

Langfuse — 开源 LLM 可观测性与追踪分析平台

 
  april ·  2026-04-23 11:00:23 · 17 次点击  · 0 条评论  

github-banner


Langfuse 使用 GitHub Discussions 进行支持和功能请求。
我们正在招聘。 加入我们,担任产品工程和技术市场推广相关职位。

MIT License Y Combinator W23 Docker Pulls langfuse Python package on PyPi langfuse npm package
chat on Discord follow on X(Twitter) follow on LinkedIn Commits last month Issues closed Discussion posts Ask DeepWiki

README in English 简体中文版自述文件 日本語のREADME README in Korean

自豪地使用 ClickHouse 开源数据库构建

Langfuse 是一个开源 LLM 工程平台。它帮助团队协作开发、监控、评估调试 AI 应用。Langfuse 可以在几分钟内完成自托管,并且经过实战检验

Langfuse 概览视频

✨ 核心功能

Langfuse 概览

  • LLM 应用可观测性:为你的应用添加插桩,开始向 Langfuse 发送追踪数据,从而跟踪 LLM 调用以及应用中的其他相关逻辑,如检索、嵌入或智能体操作。检查和调试复杂的日志和用户会话。尝试交互式演示以查看实际效果。

  • 提示词管理帮助你集中管理、版本控制和协作迭代你的提示词。得益于服务器和客户端的强大缓存,你可以在不增加应用延迟的情况下迭代提示词。

  • 评估是 LLM 应用开发工作流的关键,Langfuse 适应你的需求。它支持 LLM 作为评判器、用户反馈收集、手动标注以及通过 API/SDK 的自定义评估流水线。

  • 数据集为评估你的 LLM 应用提供测试集和基准。它们支持持续改进、部署前测试、结构化实验、灵活评估,并与 LangChain 和 LlamaIndex 等框架无缝集成。

  • LLM 游乐场是一个用于测试和迭代你的提示词和模型配置的工具,缩短反馈循环并加速开发。当你在追踪中看到不理想的结果时,可以直接跳转到游乐场进行迭代。

  • 全面的 API:Langfuse 经常被用来支持定制的 LLMOps 工作流,同时通过 API 使用 Langfuse 提供的构建模块。提供 OpenAPI 规范、Postman 集合以及适用于 Python、JS/TS 的类型化 SDK。

📦 部署 Langfuse

Langfuse 部署选项

Langfuse 云服务

由 Langfuse 团队管理的部署,提供慷慨的免费套餐,无需信用卡。

自托管 Langfuse

在你自己的基础设施上运行 Langfuse:

```bash
# 获取最新的 Langfuse 仓库副本
git clone https://github.com/langfuse/langfuse.git
cd langfuse

# 运行 langfuse docker compose
docker compose up
```

  • 虚拟机:使用 Docker Compose 在单个虚拟机上运行 Langfuse。
  • Kubernetes (Helm):使用 Helm 在 Kubernetes 集群上运行 Langfuse。这是推荐的生产部署方式。
  • Terraform 模板:AWSAzureGCP

查看自托管文档以了解更多关于架构和配置选项的信息。

🔌 集成

github-integrations

主要集成:

集成 支持 描述
SDK Python, JS/TS 使用 SDK 进行手动插桩,以获得完全的灵活性。
OpenAI Python, JS/TS 使用 OpenAI SDK 的替代方案进行自动插桩。
Langchain Python, JS/TS 通过向 Langchain 应用传递回调处理器进行自动插桩。
LlamaIndex Python 通过 LlamaIndex 回调系统进行自动插桩。
Haystack Python 通过 Haystack 内容追踪系统进行自动插桩。
LiteLLM Python, JS/TS (仅代理) 使用任何 LLM 作为 GPT 的替代品。使用 Azure、OpenAI、Cohere、Anthropic、Ollama、VLLM、Sagemaker、HuggingFace、Replicate (100+ LLMs)。
Vercel AI SDK JS/TS 专为帮助开发者使用 React、Next.js、Vue、Svelte、Node.js 构建 AI 应用而设计的 TypeScript 工具包。
Mastra JS/TS 用于构建 AI 智能体和多智能体系统的开源框架。
API 直接调用公共 API。提供 OpenAPI 规范。

与 Langfuse 集成的软件包:

名称 类型 描述
Instructor 用于获取结构化 LLM 输出(JSON, Pydantic)的库
DSPy 系统化优化语言模型提示词和权重的框架
Mirascope 用于构建 LLM 应用的 Python 工具包。
Ollama 模型 (本地) 轻松在你自己的机器上运行开源 LLMs。
Amazon Bedrock 模型 在 AWS 上运行基础模型和微调模型。
AutoGen 智能体框架 用于构建分布式智能体的开源 LLM 平台。
Flowise 聊天/智能体 UI 用于定制化 LLM 流程的 JS/TS 无代码构建器。
Langflow 聊天/智能体 UI 基于 Python 的 LangChain UI,使用 react-flow 设计,提供了一种轻松实验和原型化流程的方式。
Dify 聊天/智能体 UI 带有无代码构建器的开源 LLM 应用开发平台。
OpenWebUI 聊天/智能体 UI 自托管的 LLM 聊天 Web UI,支持各种 LLM 运行器,包括自托管和本地模型。
Promptfoo 工具 开源 LLM 测试平台。
LobeChat 聊天/智能体 UI 开源聊天机器人平台。
Vapi 平台 开源语音 AI 平台。
Inferable 智能体 用于构建分布式智能体的开源 LLM 平台。
Gradio 聊天/智能体 UI 用于构建 Web 界面(如聊天 UI)的开源 Python 库。
Goose 智能体 用于构建分布式智能体的开源 LLM 平台。
smolagents 智能体 开源 AI 智能体框架。
CrewAI 智能体 用于智能体协作和工具使用的多智能体框架。

🚀 快速开始

为你的应用添加插桩,开始向 Langfuse 发送追踪数据,从而跟踪 LLM 调用以及应用中的其他相关逻辑,如检索、嵌入或智能体操作。检查和调试复杂的日志和用户会话。

1️⃣ 创建新项目

  1. 创建 Langfuse 账户自托管
  2. 创建一个新项目
  3. 在项目设置中创建新的 API 凭证

2️⃣ 记录你的第一个 LLM 调用

@observe() 装饰器 使得追踪任何 Python LLM 应用变得容易。在这个快速开始中,我们还使用 Langfuse OpenAI 集成 来自动捕获所有模型参数。

[!TIP]
不使用 OpenAI?访问 我们的文档 了解如何记录其他模型和框架。

pip install langfuse openai

```bash filename=".env"
LANGFUSE_SECRET_KEY="sk-lf-..."
LANGFUSE_PUBLIC_KEY="pk-lf-..."
LANGFUSE_BASE_URL="https://cloud.langfuse.com" # 🇪🇺 欧盟区域

LANGFUSE_BASE_URL="https://us.cloud.langfuse.com" # 🇺🇸 美国区域


```python /@observe()/ /from langfuse.openai import openai/ filename="main.py"
from langfuse import observe
from langfuse.openai import openai # OpenAI 集成

@observe()
def story():
    return openai.chat.completions.create(
        model="gpt-4o",
        messages=[{"role": "user", "content": "What is Langfuse?"}],
    ).choices[0].message.content

@observe()
def main():
    return story()

main()

3️⃣ 在 Langfuse 中查看追踪

在 Langfuse 中查看你的语言模型调用和其他应用逻辑。

Langfuse 中的示例追踪

Langfuse 中的公开示例追踪

[!TIP]

了解更多 关于 Langfuse 中的追踪,或尝试 交互式演示

⭐️ 为我们加星

star-langfuse-on-github

💭 支持

寻找问题的答案:

  • 我们的文档是开始寻找答案的最佳场所。它内容全面,我们投入了大量时间进行维护。你也可以通过 GitHub 建议文档的修改。
  • Langfuse 常见问题解答,回答了最常见的问题。
  • 使用“询问 AI”即时获取问题的答案。

支持渠道:

  • 在我们的 GitHub Discussions 公共问答区 提出任何问题。 请尽可能包含详细信息(例如代码片段、截图、背景信息)以帮助我们理解你的问题。
  • 在 GitHub Discussions 上请求功能
  • 在 GitHub Issues 上报告 Bug
  • 对于时间敏感的查询,通过应用内聊天小部件联系我们。

🤝 贡献

欢迎你的贡献!

  • 在 GitHub Discussions 上为想法投票。
  • 提出并评论问题
  • 提交 PR - 有关如何设置开发环境的详细信息,请参阅 CONTRIBUTING.md

🥇 许可证

ee 文件夹外,此仓库采用 MIT 许可证。更多详情请参阅 LICENSE文档

依赖项

我们在基于 Linux Alpine 镜像 (来源) 的 Docker 容器中部署此代码库。你可以在 web/Dockerfileworker/Dockerfile 中找到 Dockerfile。

⭐️ 加星历史





Star History Chart

❤️ 使用 Langfuse 的开源项目

使用 Langfuse 的顶级开源 Python 项目,按星标数排名 (来源):

仓库 星标数
  langflow-ai / langflow 116251
  open-webui / open-webui 109642
  abi / screenshot-to-code 70877
  lobehub / lobe-chat 65454
  infiniflow / ragflow 64118
  firecrawl / firecrawl 56713
  run-llama / llama_index 44203
  FlowiseAI / Flowise 43547
  QuivrHQ / quivr 38415
  microsoft / ai-agents-for-beginners 38012
  chatchat-space / Langchain-Chatchat 36071
  mindsdb / mindsdb 35669
  danny-avila / LibreChat 33142
  BerriAI / litellm 28726
  onlook-dev / onlook 22447
  NixOS / nixpkgs 21748
  kortix-ai / suna 17976
  anthropics / courses 17057
  mastra-ai / mastra 16484
  langfuse / langfuse 16054
  Canner / WrenAI 11868
  promptfoo / promptfoo 8350
  The-Pocket / PocketFlow 8313
  OpenPipe / ART 7093
  topoteretes / cognee 7011
  awslabs / agent-squad 6785
  BasedHardware / omi 6231
  hatchet-dev / hatchet 6019
  zenml-io / zenml 4873
  refly-ai / refly 4654
  coleam00 / ottomator-agents 4165
  JoshuaC215 / agent-service-toolkit 3557
  colanode / colanode 3517
  VoltAgent / voltagent 3210
  bragai / [bRAG-langchain](https://github
17 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私 ·  条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 30 ms
Developed with Cursor