2024年7月9日 星期二

使用Ollama與Open WebUI在本地端部署Llama3大語言模型



文/恆逸資深講師 申建忠

Ollama是一個使用Go語言開發的本地端大語言模型框架,可以在本地端執行多種開放原始碼的大語言模型,如:Llama 3、Mistral、Gemma等。其中Meta Llama 3以15T語料進行訓練,模型效果號稱無限接近ChatGPT4。

本文介紹如何在本地端安裝Ollama與Open WebUI,並使用Ollama運行Meta Llama 3:8b模型。

首先至Ollama官網(https://ollama.com)下載對應版本的ollama執行檔,下載完成後直接點擊安裝即可。本文以Apple Macbook pro 2018為例。

安裝完成後,請點擊ollama執行檔啟動ollama設定。
依下面圖示,由左向右便可設定完成。


可以使用curl http://localhost:11434 測試ollama是否啟動,若出現此訊息”Ollama is running”表示ollama已經啟動。

設定完成後,直接使用終端機執行”ollama run 模型名字”即可。

Ollama目前支援的模型可由https://ollama.com/library 查看。本文將部署目前最強大的模型:Meta Llama 3,Llama 3有兩種版本:80億(8B)與700億(70B),由於示範機器本身限制,所以選擇部署llama3:8b。


請注意初次執行llama3:8b模型,須從ollama.com下載模型約4.7GB,需要花費一些時間,但後續執行便不再需要下載。

$ ollama run llama3:8b


結束此次對話,直接輸入/bye即可離開。之後再次執行ollama run llama3:8b便可重新開始與llama3:8b的對話。

但是不是每個人都能夠接受終端機介面,此處介紹另一個docker container:Open WebUI(之前的名字是Ollama WebUI),使用容器提供Web-Based介面。

首先必須在本機端安裝Docker運行環境,請依據本機端的作業系統平台,從https://www.docker.com下載並安裝對應的Docker運行環境。


安裝Docker完成後,可以使用docker -v測試,若出現類似訊息”Docker version 26.0.0, build 2ae903e”表示Docker已經安裝成功。

執行” docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main”

初次執行時,需要花費一些時間下載open-webui映像檔,但往後便不再需要再次下載映像檔。

執行docker ps檢視open-webui容器是否執行中


若出現類似上面訊息,接著可以使用瀏覽器開啟 http://localhost:3000 進入Open WebUI。

初次登入Open WebUI需要註冊一個帳戶,畫面如下


進入Open WebUI後,首先選擇此次所要使用的本地端模型


接著到畫面下方的輸入框輸入您的問題即可


之後Llama 3:8b將回答您的問題


至此您已經在本地端部署目前最新、最強大的開源大語言模型Llama 3,後續您可以自由地探索Llama 3的各種功能。

🔎學習推薦

0 意見:

張貼留言