LobeChat

LobeChat

在线

LobeChat 是一个现代化的开源 AI 聊天框架,支持 GPT‑4、Claude 3、Gemini 等主流大模型,支持语音、图像、插件与本地知识库,可实现自部署的 ChatGPT 替代方案。

最后更新: 2025/7/9

详细描述

LobeChat – 现代化的开源多模态 AI 聊天框架

什么是 LobeChat?

LobeChat 是一个开源的、多模型支持的 AI 聊天框架(WebUI),允许你像部署 ChatGPT 一样自建一个智能对话平台。它支持包括 GPT‑4、Claude 3、Gemini、Mistral、LLaMA、Ollama、DeepSeek 等主流语言模型。


为什么选择 LobeChat?

  • 多模型统一支持:在同一个平台上调用 OpenAI、Anthropic、Google、国内模型、Ollama 等多个大模型服务。
  • 免费、开源、可自部署:基于 Apache 2.0 许可协议,你可以通过 Docker 或 Vercel 自行部署,无需登录或支付费用。
  • 多模态能力强:支持语音识别与合成(TTS/STT)、图像识别(如 GPT-4 Vision、Gemini Vision)、文件上传、白板协作、文本转图像、甚至视频生成插件。
  • 插件与智能体生态完善:集成 40+ 插件(如网页搜索、股票分析、知识库问答),并提供 500+ 可复用的智能体(Agent)。
  • 高级 UI 与对话体验:提供浅色/深色主题、PWA 支持、Markdown 渲染(支持代码块/LaTeX/流程图)、对话分支、思维链路可视化等功能。

核心功能一览

  • 多云模型切换:可轻松使用 GPT‑3.5/4、Claude 3、Gemini Pro‑Vision、Mistral、DeepSeek 等模型。
  • 视觉与语音支持:上传图片进行视觉问答,或用语音进行对话。
  • 白板与人工制品生成:直接在聊天中绘制流程图、生成 HTML 组件、写文章、图表等。
  • 知识库接入:上传 PDF、音频、视频等文件,实现本地知识问答(RAG)。
  • 对话分支系统:任何一句话都可以创建新的分支话题,探索不同的问答路径。

安装与使用方式

方式 1:一键 Docker 安装(推荐)

bash <(curl -fsSL https://lobe.li/setup.sh) -l zh_CN
docker compose up -d

该命令会自动配置中文界面与后端服务。

方式 2:手动部署

  • 克隆代码:git clone https://github.com/lobehub/lobe-chat.git
  • 可通过 Docker Compose、Vercel、Node.js 本地方式启动
  • 支持本地 SQLite 或远程 PostgreSQL/MySQL 数据库

方式 3:访问使用

  • 浏览器访问 http://localhost:8080 或你绑定的域名
  • 注册账号(支持 NextAuth 或 Clerk 登录)
  • 进入设置页选择你想使用的 AI 模型,开始对话

使用技巧

  • 灵活切换 AI 模型:根据速度、隐私、成本自由选择合适的 API 提供方。
  • 启用 PWA 模式:将 LobeChat 安装为桌面或移动设备的“原生”应用。
  • 使用图像与语音交互:上传图片可进行图像分析或语音对话。
  • 充分利用对话分支功能:探索不同话题路径,适合写作、代码调试等场景。

常见问题

Q:LobeChat 是免费的吗?
A:是的。LobeChat 完全开源、支持自部署。你只需为接入的 API(如 OpenAI)付费。

Q:支持哪些模型?
A:几乎所有主流模型都支持:GPT‑3.5/4、Claude 3、Gemini Pro-Vision、Ollama、Mistral、国内模型(讯飞、阿里等)。

Q:能离线使用吗?
A:可以。如使用本地模型(如 Ollama),无需联网即可运行。

Q:我的数据安全吗?
A:绝对安全。数据保存在本地浏览器或你自己的服务器上,不经第三方平台。

评论

发表评论

分享你的想法。带 * 的字段为必填项。

邮箱信息不会公开显示

评论

0

网站评分

9

快速操作

网站标签

aiopen sourceAI Chat
一键轻松打造你的专属AI应用
搭建您的专属大模型主页