OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  代码  ›  Embedchain — 快速构建基于私有数据的 RAG 应用

Embedchain — 快速构建基于私有数据的 RAG 应用

 
  august ·  2026-03-20 11:00:23 · 5 次点击  · 0 条评论  

Mem0 - 个性化AI的记忆层

mem0ai%2Fmem0 | Trendshift

了解更多 · 加入 Discord · 演示 · OpenMemory

Mem0 Discord Mem0 PyPI - 下载量 GitHub 提交活跃度 包版本 Npm 包 Y Combinator S24

📄 使用可扩展的长期记忆构建生产就绪的 AI 智能体 →

⚡ 相比 OpenAI Memory 准确率提升 +26% • 🚀 响应速度提升 91% • 💰 Token 使用量减少 90%

🎉 mem0ai v1.0.0 现已发布! 此主要版本包含 API 现代化、改进的向量存储支持和增强的 GCP 集成。查看迁移指南 →

🔥 研究亮点

  • 相比 OpenAI Memory,在 LOCOMO 基准测试中准确率提升 +26%
  • 相比完整上下文,响应速度提升 91%,确保大规模下的低延迟
  • 相比完整上下文,Token 使用量降低 90%,在不妥协性能的前提下降低成本
  • 阅读完整论文

简介

Mem0(发音为 "mem-zero")通过智能记忆层增强 AI 助手和智能体,实现个性化的 AI 交互。它能记住用户偏好,适应个体需求,并随时间持续学习——非常适合客户支持聊天机器人、AI 助手和自主系统。

核心功能与用例

核心能力:
- 多级记忆:无缝保留用户、会话和智能体状态,并具备自适应个性化能力
- 开发者友好:直观的 API、跨平台 SDK 以及完全托管的服务选项

应用场景:
- AI 助手:保持连贯、上下文丰富的对话
- 客户支持:回忆过往工单和用户历史,提供定制化帮助
- 医疗保健:跟踪患者偏好和历史,提供个性化护理
- 生产力与游戏:根据用户行为自适应调整工作流和环境

🚀 快速入门指南

您可以选择我们的托管平台或自托管包:

托管平台

几分钟内即可启动并运行,享受自动更新、分析和企业级安全。

  1. Mem0 平台 上注册
  2. 通过 SDK 或 API 密钥嵌入记忆层

自托管(开源)

通过 pip 安装 SDK:

pip install mem0ai

通过 npm 安装 SDK:

npm install mem0ai

基本用法

Mem0 需要一个 LLM 才能运行,默认使用 OpenAI 的 gpt-4.1-nano-2025-04-14。不过,它支持多种 LLM;详情请参阅我们的 支持的 LLM 文档

第一步是实例化记忆:

from openai import OpenAI
from mem0 import Memory

openai_client = OpenAI()
memory = Memory()

def chat_with_memories(message: str, user_id: str = "default_user") -> str:
    # 检索相关记忆
    relevant_memories = memory.search(query=message, user_id=user_id, limit=3)
    memories_str = "\n".join(f"- {entry['memory']}" for entry in relevant_memories["results"])

    # 生成助手回复
    system_prompt = f"You are a helpful AI. Answer the question based on query and memories.\nUser Memories:\n{memories_str}"
    messages = [{"role": "system", "content": system_prompt}, {"role": "user", "content": message}]
    response = openai_client.chat.completions.create(model="gpt-4.1-nano-2025-04-14", messages=messages)
    assistant_response = response.choices[0].message.content

    # 从对话中创建新记忆
    messages.append({"role": "assistant", "content": assistant_response})
    memory.add(messages, user_id=user_id)

    return assistant_response

def main():
    print("Chat with AI (type 'exit' to quit)")
    while True:
        user_input = input("You: ").strip()
        if user_input.lower() == 'exit':
            print("Goodbye!")
            break
        print(f"AI: {chat_with_memories(user_input)}")

if __name__ == "__main__":
    main()

详细的集成步骤,请参阅 快速入门API 参考

🔗 集成与演示

  • 带记忆的 ChatGPT:由 Mem0 驱动的个性化聊天(在线演示
  • 浏览器扩展:在 ChatGPT、Perplexity 和 Claude 中存储记忆(Chrome 扩展
  • Langgraph 支持:使用 Langgraph + Mem0 构建客户机器人(指南
  • CrewAI 集成:使用 Mem0 定制 CrewAI 输出(示例

📚 文档与支持

  • 完整文档:https://docs.mem0.ai
  • 社区:Discord · Twitter
  • 联系:founders@mem0.ai

引用

我们有一篇可供引用的论文:

@article{mem0,
  title={Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory},
  author={Chhikara, Prateek and Khant, Dev and Aryan, Saket and Singh, Taranjeet and Yadav, Deshraj},
  journal={arXiv preprint arXiv:2504.19413},
  year={2025}
}

⚖️ 许可证

Apache 2.0 — 详情请见 LICENSE 文件。

5 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私政策 ·  服务条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 23 ms
Developed with Cursor