Perplexica 是一个注重隐私的 AI 问答引擎,完全在您自己的硬件上运行。它结合了来自广阔互联网的知识,支持本地大语言模型(Ollama)和云端提供商(OpenAI、Claude、Groq),在提供附带引用来源的准确答案的同时,确保您的搜索完全私密。

想了解更多关于其架构和工作原理的信息?您可以阅读这里。
🤖 支持所有主流 AI 提供商 - 通过 Ollama 使用本地 LLM,或连接到 OpenAI、Anthropic Claude、Google Gemini、Groq 等。根据您的需求混合搭配模型。
⚡ 智能搜索模式 - 需要快速答案时选择“速度模式”,日常搜索用“均衡模式”,深度研究用“质量模式”。
🧭 选择您的来源 - 搜索网页、讨论或学术论文。更多来源和集成正在开发中。
🧩 小组件 - 在相关时出现的实用 UI 卡片,例如天气、计算器、股票价格和其他快速查询。
🔍 由 SearxNG 驱动的网络搜索 - 访问多个搜索引擎,同时保护您的身份隐私。即将支持 Tavily 和 Exa 以获得更好的结果。
📷 图片和视频搜索 - 在文本结果之外查找视觉内容。搜索不再局限于文章。
📄 文件上传 - 上传文档并针对其提问。PDF、文本文件、图片 - Perplexica 都能理解。
🌐 搜索特定域名 - 当您知道去哪里找时,可以将搜索限制在特定的网站。非常适合技术文档或研究论文。
💡 智能建议 - 在您输入时获得智能搜索建议,帮助您构建更好的查询。
📚 发现 - 全天浏览有趣的文章和热门内容。无需主动搜索也能保持信息灵通。
🕒 搜索历史 - 每次搜索都保存在本地,您可以随时回顾您的发现。您的研究成果永不丢失。
✨ 更多功能即将推出 - 我们正根据社区反馈积极开发新功能。加入我们的 Discord,共同塑造 Perplexica 的未来!
Perplexica 的开发得益于我们赞助商的慷慨支持。他们的贡献帮助这个项目保持免费、开源,并让每个人都能使用。
### **✨ [尝试 Warp - AI 驱动的终端 →](https://www.warp.dev/perplexica)**
Warp 通过 AI 驱动的功能、现代化的用户体验和极致的性能,正在彻底改变开发工作流程。被全球顶级公司的开发者所使用。
我们还要感谢以下合作伙伴的慷慨支持:
|
Exa • 为 LLM 量身定制的完美网络搜索 API - 提供网络搜索、爬取、深度研究和答案 API |
主要有两种安装 Perplexica 的方式:使用 Docker 和不使用 Docker。强烈推荐使用 Docker。
Perplexica 可以轻松地使用 Docker 运行。只需运行以下命令:
docker run -d -p 3000:3000 -v perplexica-data:/home/perplexica/data --name perplexica itzcrazykns1337/perplexica:latest
这将拉取并启动包含捆绑的 SearxNG 搜索引擎的 Perplexica 容器。运行后,打开浏览器并访问 http://localhost:3000。然后您可以在设置屏幕中直接配置您的设置(API 密钥、模型等)。
注意:该镜像同时包含 Perplexica 和 SearxNG,因此无需额外设置。-v 标志为您的数据和上传的文件创建持久化存储卷。
如果您已经运行了 SearxNG,可以使用 Perplexica 的精简版:
docker run -d -p 3000:3000 -e SEARXNG_API_URL=http://your-searxng-url:8080 -v perplexica-data:/home/perplexica/data --name perplexica itzcrazykns1337/perplexica:slim-latest
重要:请确保您的 SearxNG 实例已启用:
将 http://your-searxng-url:8080 替换为您实际的 SearxNG URL。然后在 http://localhost:3000 的设置屏幕中配置您的 AI 提供商设置。
如果您更喜欢从源代码构建或需要更多控制:
克隆 Perplexica 仓库:
bash
git clone https://github.com/ItzCrazyKns/Perplexica.git
克隆完成后,导航到包含项目文件的目录。
使用 Docker 构建并运行:
bash
docker build -t perplexica .
docker run -d -p 3000:3000 -v perplexica-data:/home/perplexica/data --name perplexica perplexica
在 http://localhost:3000 访问 Perplexica,并在设置屏幕中配置您的设置。
注意:容器构建完成后,您可以直接从 Docker 启动 Perplexica,无需打开终端。
JSON 格式。确保 Wolfram Alpha 搜索引擎也已启用。克隆仓库:
bash
git clone https://github.com/ItzCrazyKns/Perplexica.git
cd Perplexica
安装依赖:
bash
npm i
构建应用:
bash
npm run build
启动应用:
bash
npm run start
打开浏览器并导航到 http://localhost:3000 以完成设置,并在设置屏幕中配置您的设置(API 密钥、模型、SearxNG URL 等)。
注意:推荐使用 Docker,因为它简化了设置过程,特别是在管理环境变量和依赖项方面。
有关更新等更多信息,请参阅安装文档。
如果 Perplexica 提示您未配置任何聊天模型提供商,请确保:
0.0.0.0(而不是 127.0.0.1)上,并且端口与您在 API URL 中输入的端口一致。如果您遇到 Ollama 连接错误,很可能是由于后端无法连接到 Ollama 的 API。要解决此问题,您可以:
http://host.docker.internal:11434http://host.docker.internal:11434http://<主机私有IP>:11434/etc/systemd/system/ollama.service 文件中,需要添加 Environment="OLLAMA_HOST=0.0.0.0:11434"。(如果您使用不同的端口号,请更改端口号。)然后使用 systemctl daemon-reload 重新加载 systemd 管理器配置,并使用 systemctl restart ollama 重启 Ollama。更多信息请参阅 Ollama 文档如果您遇到 Lemonade 连接错误,很可能是由于后端无法连接到 Lemonade 的 API。要解决此问题,您可以:
http://host.docker.internal:8000http://host.docker.internal:8000http://<主机私有IP>:80000.0.0.0)的连接,而不仅仅是本地主机(127.0.0.1)。如果您希望将 Perplexica 用作 Google 或 Bing 等传统搜索引擎的替代品,或者想为浏览器的搜索栏添加快捷方式以便快速访问,请按照以下步骤操作:
http://localhost:3000/?q=%s。如果 Perplexica 不是本地托管的,请将 localhost 替换为您的 IP 地址或域名,并将 3000 替换为端口号。Perplexica 还为希望将其强大的搜索引擎集成到自己应用中的开发者提供了 API。您可以运行搜索、使用多个模型并获取查询的答案。
更多详情,请查看完整的文档此处。
Perplexica 运行在 Next.js 上,并处理所有 API 请求。它在同一网络上可以立即工作,即使进行端口转发也能保持可访问性。
如果您觉得 Perplexica 有用,请考虑在 GitHub 上给我们一个星标。这有助于更多人发现 Perplexica,并支持新功能的开发。我们非常感谢您的支持。
我们也接受捐赠以帮助维持我们的项目。如果您想贡献一份力量,可以使用以下选项进行捐赠。感谢您的支持!
| 以太坊 |
|---|
地址:0xB025a84b2F269570Eb8D4b05DEdaA41D8525B6DD |
Perplexica 建立在这样一个理念之上:AI 和大语言模型应该让每个人都能轻松使用。如果您发现了错误或有想法,请通过 GitHub Issues 分享。有关为 Perplexica 做出贡献的更多信息,您可以阅读 CONTRIBUTING.md 文件,了解更多关于 Perplexica 以及您如何为其做出贡献的信息。
如果您有任何问题或反馈,请随时联系我们。您可以在 GitHub 上创建问题,或加入我们的 Discord 服务器。在那里,您可以与其他用户联系,分享您的经验和评论,并获得更个性化的帮助。点击此处 加入 Discord 服务器。要讨论常规支持之外的事宜,请随时在 Discord 上通过 itzcrazykns 联系我。
感谢您探索 Perplexica,这款旨在提升您搜索体验的 AI 驱动搜索引擎。我们正在不断努力改进 Perplexica 并扩展其功能。我们重视您的反馈和贡献,它们帮助我们让 Perplexica 变得更好。别忘了回来查看更新和新功能!