Firefox ブラウザーアドオン
  • 拡張機能
  • テーマ
    • Firefox 向け
    • スペルチェック辞書と言語パック
    • 他のブラウザーサイト
    • Android 向けアドオン
ログイン
Ollama Client のプレビュー

Ollama Client 作成者: Shishir Chaurasiya

Privacy-first Ollama Chrome extension to chat with local AI models like LLaMA, Mistral, Gemma — fully offline.

5 (1 件のレビュー)5 (1 件のレビュー)
119 人のユーザー119 人のユーザー
Firefox をダウンロードして拡張機能を入手する
ファイルをダウンロード

拡張機能メタデータ

この拡張機能について
Ollama Client – Local LLM Chat in Your Browser (Multi‑Provider)
A privacy‑first, offline AI chat experience for local LLMs with multi‑provider support.
No cloud inference. No data leaving your machine.

What It Is
Ollama Client is a browser‑based frontend UI for local LLM servers. It connects to your self‑hosted LLM backend and lets you chat inside your browser. Supports Ollama, LM Studio, and llama.cpp servers.

Key Features
- Provider & model management: connect multiple local servers, switch models, view provider status
- Chat & session management: streaming responses, stop/regenerate, session history
- File & webpage context: local file attachments and optional page context for better answers
- Customisation & performance: prompt templates, model parameters, responsive UI
- Privacy & local storage: data stored locally; no external transfer required

Supported Providers
- Ollama (Ollama UI)
- LM Studio (LM Studio client)
- llama.cpp servers (OpenAI‑compatible local endpoints / llama.cpp UI)

Privacy & Local‑Only Guarantee
- No cloud inference
- No external data transfer
- All data stays on your machine and local network

Who It’s For
- Developers working with local AI models
- Researchers evaluating self‑hosted LLMs
- Students learning with offline AI chat
- Privacy‑conscious users who avoid cloud services

Setup Summary
1) Install the extension
2) Run a supported local LLM server
3) Connect via localhost or your LAN IP
4) Start chatting

Disclaimer
- Performance depends on your hardware and the backend server
- The extension does not include models or run inference itself

Useful Links
Chrome Web Store: https://chromewebstore.google.com/detail/ollama-client/bfaoaaogfcgomkjfbmfepbiijmciinjl
Setup Guide: https://ollama-client.shishirchaurasiya.in/ollama-setup-guide
Landing Page: https://ollama-client.shishirchaurasiya.in/
Privacy Policy: https://ollama-client.shishirchaurasiya.in/privacy-policy
GitHub: https://github.com/Shishir435/ollama-client
Bug: https://github.com/Shishir435/ollama-client/issues

Start chatting in seconds — private, fast, and fully local AI conversations on your own machine.

Built for developers, researchers, and anyone who values speed, privacy, and offline AI control.

ollama #privacy #olama-client #opensource #offline #ollama-ui #ollamachat #gpt-oss #lm-studio #llama.cpp
1 人のレビュー担当者が 5 と評価しました
ログインしてこの拡張機能を評価
まだ評価されていません

星の評価を保存しました

5
1
4
0
3
0
2
0
1
0
すべてのレビュー (1) を読む
権限とデータ

必要な権限:

  • 任意のページのコンテンツをブロックする
  • ブラウザーのタブへのアクセス
  • すべてのウェブサイトの保存されたデータへのアクセス
詳細情報
詳しい情報
アドオンリンク
  • ホームページ
  • サポートサイト
  • サポートメールアドレス
バージョン
0.6.0
サイズ
2.55 MB
最終更新日
18日前 (2026年2月8日)
関連カテゴリー
  • ウェブ開発
  • プライバシー/セキュリティ
ライセンス
MIT License
プライバシーポリシー
このアドオンのプライバシーポリシーを読む
バージョン履歴
  • すべてのバージョンを見る
タグ
  • chat
  • privacy
  • youtube
コレクションへ追加
このアドオンを報告
Mozilla のホームページへ

アドオン

  • このサイトについて
  • Firefox アドオンブログ
  • 拡張機能ワークショップ
  • 開発者センター
  • 開発者ポリシー
  • コミュニティブログ
  • フォーラム
  • バグを報告
  • レビューガイド

ブラウザー

  • Desktop
  • Mobile
  • Enterprise

製品情報

  • Browsers
  • VPN
  • Relay
  • Monitor
  • Pocket
  • Bluesky (@firefox.com)
  • Instagram (Firefox)
  • YouTube (firefoxchannel)
  • プライバシー
  • Cookie
  • 法的情報

特に 明記されている 場合を除き、当サイト上のコンテンツは Creative Commons 表示・継承ライセンス v3.0 あるいはそれ以降のバージョンで公開されています。