LobeChat – 现代化的开源多模态 AI 聊天框架
什么是 LobeChat?
LobeChat 是一个开源的、多模型支持的 AI 聊天框架(WebUI),允许你像部署 ChatGPT 一样自建一个智能对话平台。它支持包括 GPT‑4、Claude 3、Gemini、Mistral、LLaMA、Ollama、DeepSeek 等主流语言模型。
为什么选择 LobeChat?
- 多模型统一支持:在同一个平台上调用 OpenAI、Anthropic、Google、国内模型、Ollama 等多个大模型服务。
- 免费、开源、可自部署:基于 Apache 2.0 许可协议,你可以通过 Docker 或 Vercel 自行部署,无需登录或支付费用。
- 多模态能力强:支持语音识别与合成(TTS/STT)、图像识别(如 GPT-4 Vision、Gemini Vision)、文件上传、白板协作、文本转图像、甚至视频生成插件。
- 插件与智能体生态完善:集成 40+ 插件(如网页搜索、股票分析、知识库问答),并提供 500+ 可复用的智能体(Agent)。
- 高级 UI 与对话体验:提供浅色/深色主题、PWA 支持、Markdown 渲染(支持代码块/LaTeX/流程图)、对话分支、思维链路可视化等功能。
核心功能一览
- 多云模型切换:可轻松使用 GPT‑3.5/4、Claude 3、Gemini Pro‑Vision、Mistral、DeepSeek 等模型。
- 视觉与语音支持:上传图片进行视觉问答,或用语音进行对话。
- 白板与人工制品生成:直接在聊天中绘制流程图、生成 HTML 组件、写文章、图表等。
- 知识库接入:上传 PDF、音频、视频等文件,实现本地知识问答(RAG)。
- 对话分支系统:任何一句话都可以创建新的分支话题,探索不同的问答路径。
安装与使用方式
方式 1:一键 Docker 安装(推荐)
bash <(curl -fsSL https://lobe.li/setup.sh) -l zh_CN
docker compose up -d
该命令会自动配置中文界面与后端服务。
方式 2:手动部署
- 克隆代码:
git clone https://github.com/lobehub/lobe-chat.git
- 可通过 Docker Compose、Vercel、Node.js 本地方式启动
- 支持本地 SQLite 或远程 PostgreSQL/MySQL 数据库
方式 3:访问使用
- 浏览器访问
http://localhost:8080
或你绑定的域名
- 注册账号(支持 NextAuth 或 Clerk 登录)
- 进入设置页选择你想使用的 AI 模型,开始对话
使用技巧
- 灵活切换 AI 模型:根据速度、隐私、成本自由选择合适的 API 提供方。
- 启用 PWA 模式:将 LobeChat 安装为桌面或移动设备的“原生”应用。
- 使用图像与语音交互:上传图片可进行图像分析或语音对话。
- 充分利用对话分支功能:探索不同话题路径,适合写作、代码调试等场景。
常见问题
Q:LobeChat 是免费的吗?
A:是的。LobeChat 完全开源、支持自部署。你只需为接入的 API(如 OpenAI)付费。
Q:支持哪些模型?
A:几乎所有主流模型都支持:GPT‑3.5/4、Claude 3、Gemini Pro-Vision、Ollama、Mistral、国内模型(讯飞、阿里等)。
Q:能离线使用吗?
A:可以。如使用本地模型(如 Ollama),无需联网即可运行。
Q:我的数据安全吗?
A:绝对安全。数据保存在本地浏览器或你自己的服务器上,不经第三方平台。