了解更多 · 加入 Discord · 演示 · OpenMemory
⚡ 相比 OpenAI Memory 准确率提升 +26% • 🚀 响应速度提升 91% • 💰 Token 使用量减少 90%
🎉 mem0ai v1.0.0 现已发布! 此主要版本包含 API 现代化、改进的向量存储支持和增强的 GCP 集成。查看迁移指南 →
Mem0(发音为 "mem-zero")通过智能记忆层增强 AI 助手和智能体,实现个性化的 AI 交互。它能记住用户偏好,适应个体需求,并随时间持续学习——非常适合客户支持聊天机器人、AI 助手和自主系统。
核心能力:
- 多级记忆:无缝保留用户、会话和智能体状态,并具备自适应个性化能力
- 开发者友好:直观的 API、跨平台 SDK 以及完全托管的服务选项
应用场景:
- AI 助手:保持连贯、上下文丰富的对话
- 客户支持:回忆过往工单和用户历史,提供定制化帮助
- 医疗保健:跟踪患者偏好和历史,提供个性化护理
- 生产力与游戏:根据用户行为自适应调整工作流和环境
您可以选择我们的托管平台或自托管包:
几分钟内即可启动并运行,享受自动更新、分析和企业级安全。
通过 pip 安装 SDK:
pip install mem0ai
通过 npm 安装 SDK:
npm install mem0ai
Mem0 需要一个 LLM 才能运行,默认使用 OpenAI 的 gpt-4.1-nano-2025-04-14。不过,它支持多种 LLM;详情请参阅我们的 支持的 LLM 文档。
第一步是实例化记忆:
from openai import OpenAI
from mem0 import Memory
openai_client = OpenAI()
memory = Memory()
def chat_with_memories(message: str, user_id: str = "default_user") -> str:
# 检索相关记忆
relevant_memories = memory.search(query=message, user_id=user_id, limit=3)
memories_str = "\n".join(f"- {entry['memory']}" for entry in relevant_memories["results"])
# 生成助手回复
system_prompt = f"You are a helpful AI. Answer the question based on query and memories.\nUser Memories:\n{memories_str}"
messages = [{"role": "system", "content": system_prompt}, {"role": "user", "content": message}]
response = openai_client.chat.completions.create(model="gpt-4.1-nano-2025-04-14", messages=messages)
assistant_response = response.choices[0].message.content
# 从对话中创建新记忆
messages.append({"role": "assistant", "content": assistant_response})
memory.add(messages, user_id=user_id)
return assistant_response
def main():
print("Chat with AI (type 'exit' to quit)")
while True:
user_input = input("You: ").strip()
if user_input.lower() == 'exit':
print("Goodbye!")
break
print(f"AI: {chat_with_memories(user_input)}")
if __name__ == "__main__":
main()
我们有一篇可供引用的论文:
@article{mem0,
title={Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory},
author={Chhikara, Prateek and Khant, Dev and Aryan, Saket and Singh, Taranjeet and Yadav, Deshraj},
journal={arXiv preprint arXiv:2504.19413},
year={2025}
}
Apache 2.0 — 详情请见 LICENSE 文件。