LobeChat

LobeChat

En ligne

LobeChat est un framework de chat IA open-source et auto-hébergé qui prend en charge plusieurs fournisseurs de LLM (GPT‑4, Claude 3, Gemini), des entrées multimodales (vision, voix, fichiers), des plugins, des agents, et des fonctionnalités avancées d'interface utilisateur comme les artefacts et les conversations ramifiées.

Dernière mise à jour: 2025/7/9

Détails du site

LobeChat – Framework de Chat IA Open-Source Moderne

Qu'est-ce que LobeChat ?

LobeChat est un framework de chat IA open-source et multi-modèle (WebUI) qui vous permet de déployer votre propre application personnelle semblable à ChatGPT. Il prend en charge les principaux modèles de langage comme GPT‑4, Claude 3, Gemini, Mistral, LLaMA, Ollama, DeepSeek, et plus encore.


Pourquoi choisir LobeChat ?

  • Plateforme multi-IA : Accédez à une variété de modèles IA (OpenAI, Anthropic, Google Gemini, fournisseurs domestiques, Ollama, etc.) depuis une interface unifiée.
  • Gratuit, Open-source & Auto-hébergé : Publié sous Apache 2.0, vous pouvez le déployer vous-même en utilisant Docker ou Vercel — aucun frais ou connexion requis.
  • Support riche multimodal : Inclut la reconnaissance vocale, la synthèse vocale, la reconnaissance d'images (gemini vision, GPT‑4‑Vision), le téléchargement de fichiers, le tableau blanc, la génération de texte en image, et même la génération de vidéo avec des plugins.
  • Écosystème de Plugin & Agent : Offre plus de 40 plugins (recherche web, analyse boursière, documents) et plus de 500 agents adaptés à des domaines comme le codage, la recherche, l'écriture créative.
  • Interface utilisateur premium & fonctionnalités de conversation : Belle interface utilisateur avec modes clair/sombre, support PWA, Markdown avec blocs de code/LaTeX/mermaid, traçage visuel de la "chaîne de pensée", et conversations ramifiées.

Fonctionnalités principales

  • LLMs multi-cloud : Intégration en un clic avec GPT‑3.5/4, Claude 3, Gemini Pro‑Vision, Mistral, DeepSeek et plus encore.
  • Support vision & voix : Téléchargez des images pour des Q&R visuels. Utilisez TTS/STT pour discuter par voix.
  • Artefacts & tableau blanc : Créez des diagrammes interactifs, du HTML dynamique, et des documents directement dans le chat.
  • Support base de connaissances : Téléchargez des fichiers/audio/vidéo, construisez votre propre magasin de connaissances et utilisez la génération augmentée par récupération.
  • Conversations ramifiées : Divisez les fils de dialogue à partir de n'importe quel message pour explorer des chemins latéraux sans perdre le contexte.

Comment installer et utiliser LobeChat

1. Installer via Docker (recommandé)

bash <(curl -fsSL https://lobe.li/setup.sh) -l zh_CN
docker compose up -d

Ce script configure LobeChat avec Docker et configure une locale chinoise.

2. Ou déployer manuellement

  • Clonez le dépôt : git clone https://github.com/lobehub/lobe-chat.git
  • Utilisez Docker Compose ou Vercel pour déployer
  • Prend en charge les domaines personnalisés, la base de données locale SQLite ou les bases de données distantes PostgreSQL/MySQL

3. Accéder à l'application

  • Visitez http://localhost:8080 ou votre domaine
  • Enregistrez un utilisateur (prend en charge next-auth ou Clerk pour l'authentification)
  • Choisissez votre modèle IA préféré dans les paramètres et commencez à discuter

Conseils d'utilisation

  • Changez de fournisseurs IA pour comparer les réponses ou la confidentialité/coûts.
  • Activez le mode PWA pour installer LobeChat comme une application native sur bureau ou mobile.
  • Utilisez des outils visuels : Téléchargez une image pour analyse, puis posez des questions de suivi.
  • Utilisez le branchement pour explorer des solutions alternatives sans recommencer.

FAQ

Q : LobeChat est-il gratuit ?
R : Oui. C'est une plateforme open-source et auto-hébergée sans coût d'utilisation. Vous ne payez que pour toute utilisation d'API si vous connectez des fournisseurs externes de LLM.

Q : Quels modèles puis-je utiliser ?
R : Prend en charge les GPTs d'OpenAI, Claude 3, Google Gemini Pro‑Vision, Mistral, DeepSeek, Ollama, les modèles chinois domestiques, et plus encore — interchangeables à la volée.

Q : Peut-il fonctionner localement sans internet ?
R : Oui—si vous utilisez des modèles locaux LLaMA/Ollama. Sinon, les modèles cloud nécessitent internet.

Q : Les données sont-elles gardées privées ?
R : Oui—vos données restent sur votre serveur ou navigateur local, vous donnant un contrôle total. Aucun suivi par des tiers.

Commentaires

Laisser un commentaire

Partagez vos pensées sur cette page. Tous les champs marqués d'un * sont obligatoires.

Nous ne partagerons jamais votre email.

Commentaires

0

Note du site

9

Action rapide

Lables

aiLobeChatOpen SourceAI ChatMultimodalSelf-HostedPluginsVision AIVoice AssistantLLM UIPersonal AI
一键轻松打造你的专属AI应用
搭建您的专属大模型主页