LobeChat – Marco de Chat de IA Moderno y de Código Abierto
¿Qué es LobeChat?
LobeChat es un marco de chat de IA de código abierto y multimodelo (WebUI) que te permite desplegar tu propia aplicación personal similar a ChatGPT. Soporta modelos de lenguaje principales como GPT‑4, Claude 3, Gemini, Mistral, LLaMA, Ollama, DeepSeek, y más
¿Por qué elegir LobeChat?
- Plataforma multi-IA: Accede a una variedad de modelos de IA (OpenAI, Anthropic, Google Gemini, proveedores domésticos, Ollama, etc.) desde una interfaz unificada
- Gratuito, de código abierto y autoalojado: Publicado bajo Apache 2.0, puedes desplegarlo tú mismo usando Docker o Vercel — sin tarifas ni necesidad de inicio de sesión.
- Soporte multimodal rico: Incluye voz a texto, texto a voz, reconocimiento de imágenes (visión de gemini, GPT‑4‑Vision), carga de archivos, pizarra, texto a imagen, e incluso generación de video con complementos
- Ecosistema de complementos y agentes: Ofrece más de 40 complementos (búsqueda web, análisis de acciones, documentos) y más de 500 agentes adaptados a dominios como codificación, investigación, escritura creativa
- UI premium y características de conversación: Hermosa UI con modos claro/oscuro, soporte PWA, Markdown con bloques de código/LaTeX/mermaid, trazado visual de "cadena de pensamiento" y conversaciones ramificadas.
Características principales
- LLMs multi-nube: Integración con un clic con GPT‑3.5/4, Claude 3, Gemini Pro‑Vision, Mistral, DeepSeek y más
- Soporte de visión y voz: Sube imágenes para Q&A visual. Usa TTS/STT para chatear por voz
- Artefactos y pizarra: Crea diagramas interactivos, HTML dinámico y documentos directamente dentro del chat
- Soporte de base de conocimiento: Sube archivos/audio/video, construye tu propio almacén de conocimiento y usa generación aumentada por recuperación
- Conversaciones ramificadas: Bifurca hilos de diálogo desde cualquier mensaje para explorar caminos laterales sin perder contexto
Cómo instalar y usar LobeChat
1. Instalar via Docker (recomendado)
bash <(curl -fsSL https://lobe.li/setup.sh) -l zh_CN
docker compose up -d
Este script configura LobeChat con Docker y configura una localización en chino
2. O desplegar manualmente
- Clona el repositorio:
git clone https://github.com/lobehub/lobe-chat.git
- Usa Docker Compose o Vercel para desplegar
- Soporta dominios personalizados, SQLite local DB o PostgreSQL/MySQL remote DB
3. Acceder a la aplicación
- Visita
http://localhost:8080
o tu dominio
- Registra un usuario (soporta next-auth o Clerk para autenticación)
- Elige tu(s) modelo(s) de IA preferido(s) en los ajustes y empieza a chatear
Consejos de uso
- Cambia de proveedores de IA para comparar respuestas o privacidad/costos.
- Habilita el modo PWA para instalar LobeChat como una aplicación nativa en escritorio o móvil
- Usa herramientas visuales: Sube una imagen para análisis, luego haz preguntas de seguimiento
- Utiliza la ramificación para explorar soluciones alternativas sin empezar de nuevo.
Preguntas frecuentes
P: ¿Es LobeChat gratuito?
R: Sí. Es una plataforma de código abierto y autoalojada sin coste de uso. Solo pagas por cualquier uso de API si conectas proveedores externos de LLM.
P: ¿Qué modelos puedo usar?
R: Soporta GPTs de OpenAI, Claude 3, Google Gemini Pro‑Vision, Mistral, DeepSeek, Ollama, modelos chinos domésticos, y más — intercambiables al vuelo
P: ¿Puede funcionar localmente sin internet?
R: Sí—si usas modelos locales LLaMA/Ollama. De lo contrario, los modelos en la nube requieren internet.
P: ¿Se mantienen los datos privados?
R: Sí—tus datos permanecen en tu servidor o navegador local, dando control total. Sin seguimiento de terceros.