主要就是运行本地模型
使用 HuggingFace
模型
ollama
内置模型数量太少,可以导入GGUF
类型的模型。
创建一个文件,名称随意。比如config.txt
修改第一行为本地的模型文件位置
FROM "C:\Users\db117\.cache\lm-studio\models\second-state\gte-Qwen2-1.5B-instruct-GGUF\gte-Qwen2-1.5B-instruct-Q5_K_M.gguf"
TEMPLATE """{{- if .System }}
<|im_start|>system {{ .System }}<|im_end|>
{{- end }}
<|im_start|>user
{{ .Prompt }}<|im_end|>
<|im_start|>assistant
"""
SYSTEM """"""
PARAMETER stop <|im_start|>
PARAMETER stop <|im_end|>
执行命令即可
ollama create llama3-cn -f ./config.txt
安装可视化Web
open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI) (github.com)
使用docker
安装
- 需要修改本地隐射端口
- 修改
ollama
,IP
端口 WEBUI_AUTH
表示不需要登录- 修改
-v
参数为本地的数据文件夹
docker run -d -p 4000:8080 -e OLLAMA_BASE_URL=http:/ip:port -e WEBUI_AUTH=False -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main