Infinirc
Mac安裝Ollama與Open WebUI
Mac安裝Ollama與Open WebUI

在 macOS 上安裝 Ollama 與 Open WebUI,讓你能夠本地運行和管理大型語言模型(LLM)。本指南將涵蓋安裝步驟、設定方式,以及如何使用 Open WebUI 來操作 Ollama 的模型,提升 AI 互動體驗。

發佈於  星期二,三月 11 2025

Ollama

安裝Ollama

到Ollama官網下載並安裝
https://ollama.com/

更改模型下載路徑

預設模型會保存在以下目錄

  • macOS: ~/.ollama/models
  • Linux: /usr/share/ollama/.ollama/models
  • Windows: C:\Users%username%.ollama\models

macOS

如果您使用的是 Bash shell(macOS Catalina 之前的預設):

nano ~/.bash_profile

如果您使用的是 Zsh shell(macOS Catalina 及之後的預設):

nano ~/.zshrc

在檔案末尾添加以下行:

export OLLAMA_MODELS="/path/to/your/models"

編輯完成後:
按 Ctrl + O 保存文件
按 Enter 確認
按 Ctrl + X 退出 nano 編輯器
執行以下命令使變更立即生效:

source ~/.zshrc   # 如果使用 Zsh
# 或
source ~/.bash_profile   # 如果使用 Bash

Linux

如果您使用 Bash shell(大多數 Linux 的預設):

nano ~/.bashrc

或者也可以編輯:

nano ~/.bash_profile

在檔案末尾添加以下行:

export OLLAMA_MODELS="/path/to/your/models"

編輯完成後:

按 Ctrl + O 保存文件
按 Enter 確認
按 Ctrl + X 退出 nano 編輯器
執行以下命令使變更立即生效:

source ~/.bashrc
# 或
source ~/.bash_profile

Windows

按下 Win + R,輸入 sysdm.cpl,然後按 Enter 鍵。
前往進階選項卡,點擊環境變數。
在使用者變數下,點擊新增並輸入:

變數名稱:OLLAMA_MODELS
變數值:C:\path\to\your\models

點擊確定保存變更。

注意:請將 /path/to/your/models 替換為您實際想要存儲模型的路徑。

Ollama常用指令

指令描述使用範例
ollama list列出所有已下載的模型ollama list
ollama run運行指定模型ollama run llama3
ollama pull從模型倉庫下載模型ollama pull llama3
ollama rm刪除指定模型ollama rm llama3
ollama serve啟動 Ollama 服務ollama serve
ollama ps列出正在運行的模型ollama ps
ollama stop停止正在運行的模型ollama stop llama3
ollama show顯示模型詳細信息ollama show llama3
ollama cp複製模型ollama cp llama3 my-llama3
ollama create創建自定義模型ollama create my-model -f ./Modelfile
ollama push將模型推送到倉庫ollama push my-model:latest username/repo
ollama help獲取幫助信息ollama help 或 ollama --help

下載一個模型

以llama3.2-vision為例,到以下連結可以看到不同大小的模型,依自己需求與硬體設備來運行。
https://ollama.com/library/gemma3

截圖 2025-03-16 晚上9.26.19.png

下載好後即可在Terminal對話
截圖 2025-03-16 晚上9.28.02.png

Open WebUI

Open WebUI 是一款功能豐富、可擴展的 自託管 AI 平台,專為離線運行設計,支援 Ollama 及 OpenAI 相容 API,內建 RAG(檢索增強生成)推理引擎,適合 AI 部署。

部署也非常簡單,只要在電腦上安裝Docker並用以下指令執行:
如果您的電腦上有 Ollama,請使用下列命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

若要連接到另一台伺服器上的 Ollama,請將 OLLAMA_BASE_URL 變更為該伺服器的 URL:

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

到瀏覽器開啟
http://localhost:3000
就可以看到對話介面了喔

截圖 2025-03-16 晚上9.32.23.png

  • Artificial-Intelligence