LobeChat

LobeChat

オンライン

LobeChatは、オープンソースでセルフホスティング可能なAIチャットフレームワークで、複数のLLMプロバイダー(GPT‑4、Claude 3、Gemini)、マルチモーダル入力(視覚、音声、ファイル)、プラグイン、エージェント、およびアーティファクトや分岐会話のような高度なUI機能をサポートしています。

最終更新日: 2025/7/9

詳細な説明

LobeChat – モダンなオープンソースAIチャットフレームワーク

LobeChatとは?

LobeChatは、オープンソースのマルチモデルAIチャットフレームワーク(WebUI)で、あなた自身のChatGPTのようなアプリをデプロイすることができます。GPT‑4、Claude 3、Gemini、Mistral、LLaMA、Ollama、DeepSeekなどの主要な言語モデルをサポートしています。


LobeChatを選ぶ理由

  • マルチAIプラットフォーム: 統一されたインターフェースからさまざまなAIモデル(OpenAI、Anthropic、Google Gemini、国内プロバイダー、Ollamaなど)にアクセスできます。
  • 無料、オープンソース&セルフホスティング: Apache 2.0でリリースされており、DockerやVercelを使って自分でデプロイできます — 費用やログインは不要です。
  • 豊富なマルチモーダルサポート: 音声からテキスト、テキストから音声、画像認識(gemini vision、GPT‑4‑Vision)、ファイルアップロード、ホワイトボード、テキストから画像、さらにはプラグインを使ったビデオ生成まで含まれます。
  • プラグイン&エージェントエコシステム: ウェブ検索、株価分析、ドキュメントなど40以上のプラグインと、コーディング、研究、クリエイティブライティングなどの分野に特化した500以上のエージェントを提供しています。
  • プレミアムUI&会話機能: ライト/ダークモード、PWAサポート、コードブロック/LaTeX/mermaidを含むMarkdown、視覚的な「思考の連鎖」トレーシング、分岐会話を備えた美しいUIです。

コア機能

  • マルチクラウドLLMs: GPT‑3.5/4、Claude 3、Gemini Pro‑Vision、Mistral、DeepSeekなどとのワンクリック統合。
  • 視覚&音声サポート: 画像をアップロードして視覚的なQ&Aを行います。TTS/STTを使って音声でチャットします。
  • アーティファクト&ホワイトボーディング: チャット内で直接インタラクティブなダイアグラム、動的HTML、ドキュメントを作成します。
  • ナレッジベースサポート: ファイル/オーディオ/ビデオをアップロードし、独自のナレッジストアを構築して検索強化生成を使用します。
  • 分岐会話: 任意のメッセージからダイアログスレッドをフォークして、コンテキストを失うことなくサイドパスを探索します。

LobeChatのインストールと使用方法

1. Docker経由でインストール(推奨)

bash <(curl -fsSL https://lobe.li/setup.sh) -l zh_CN
docker compose up -d

このスクリプトはDockerでLobeChatをセットアップし、中国語のロケールを設定します。

2. または手動でデプロイ

  • リポジトリをクローン: git clone https://github.com/lobehub/lobe-chat.git
  • Docker ComposeまたはVercelを使用してデプロイ
  • カスタムドメイン、SQLiteローカルDBまたはPostgreSQL/MySQLリモートDBをサポート

3. アプリにアクセス

  • http://localhost:8080またはあなたのドメインを訪問
  • ユーザーを登録(next-authまたはClerk for authをサポート)
  • 設定で好みのAIモデルを選択し、チャットを開始

使用上のヒント

  • AIプロバイダーを切り替えて、応答やプライバシー/コストを比較します。
  • PWAモードを有効にして、デスクトップやモバイルにネイティブアプリのようにLobeChatをインストールします。
  • 視覚ツールを使用: 分析のために画像をアップロードし、その後フォローアップの質問をします。
  • 分岐を利用して、最初からやり直すことなく代替ソリューションを探索します。

FAQ

Q: LobeChatは無料ですか?
A: はい。それはオープンソースでセルフホスティング可能なプラットフォームで、使用コストはかかりません。外部のLLMプロバイダーに接続する場合のみAPI使用料を支払います。

Q: どのモデルを使用できますか?
A: OpenAI GPTs、Claude 3、Google Gemini Pro‑Vision、Mistral、DeepSeek、Ollama、国内の中国モデルなどをサポートしています — その場で交換可能です。

Q: インターネットなしでローカルで実行できますか?
A: はい — ローカルのLLaMA/Ollamaモデルを使用する場合。それ以外の場合、クラウドモデルにはインターネットが必要です。

Q: データはプライベートに保たれますか?
A: はい — あなたのデータはあなたのサーバーまたはローカルブラウザに留まり、完全なコントロールを提供します。第三者による追跡はありません。

コメント

コメントを投稿

あなたの考えを共有してください。* の付いた項目は必須です。

メールアドレスは公開されません

コメント

0

評価

9

クイックアクション

ラベル

aiLobeChatOpen SourceAI ChatMultimodalSelf-HostedPluginsVision AIVoice AssistantLLM UIPersonal AI
一键轻松打造你的专属AI应用
搭建您的专属大模型主页