差異處
這裏顯示兩個版本的差異處。
兩邊的前次修訂版 前次修改 下次修改 | 前次修改 | ||
tech:ollama [2024/06/12 13:47] – [Model] jonathan | tech:ollama [2024/12/18 18:34] (目前版本) – [Open WebUI 設定 Gemini API] jonathan | ||
---|---|---|---|
行 1: | 行 1: | ||
- | ====== Ollama + Open-WebUI | + | ====== Ollama + Open-WebUI ====== |
* 安裝環境 VM 規格 : | * 安裝環境 VM 規格 : | ||
* vCPU : 8 ([host] i7-11700 支援 avx2) | * vCPU : 8 ([host] i7-11700 支援 avx2) | ||
* RAM : 8G | * RAM : 8G | ||
* SSD : 64G | * SSD : 64G | ||
- | * OS : Ubuntu 20.04 | + | * OS : Alpine 3.19 + docker compose |
===== 使用 docker compose 快速安裝測試 ===== | ===== 使用 docker compose 快速安裝測試 ===== | ||
行 47: | 行 47: | ||
- host.docker.internal: | - host.docker.internal: | ||
restart: unless-stopped | restart: unless-stopped | ||
+ | networks: | ||
+ | - ollama-docker | ||
+ | |||
+ | pipelines: | ||
+ | image: ghcr.io/ | ||
+ | container_name: | ||
+ | ports: | ||
+ | - " | ||
+ | volumes: | ||
+ | - ./ | ||
+ | extra_hosts: | ||
+ | - " | ||
+ | restart: always | ||
networks: | networks: | ||
- ollama-docker | - ollama-docker | ||
行 59: | 行 72: | ||
* Open-WebUI 網址 - http:// | * Open-WebUI 網址 - http:// | ||
* Ollama API 網址 - http:// | * Ollama API 網址 - http:// | ||
+ | |||
+ | ==== Open WebUI 設定 pipeline 使用雲端 LLM API === | ||
+ | * 採用 pipeline 機制 - https:// | ||
+ | - 設定 **連線** 新增 **http:// | ||
+ | |||
+ | === Anthropic API === | ||
+ | - **管線(pipeline)** 從 ++GitHub URL 安裝| \\ Repo - https:// | ||
+ | - ++下拉模型就可以選到 anthropic/ | ||
+ | - ++將不想使用的模型隱藏| \\ {{: | ||
+ | |||
+ | === Gemini API === | ||
+ | - **管線(pipeline)** 從 ++GitHub URL 安裝| \\ Repo - https:// | ||
==== Model ===== | ==== Model ===== |