ollama 是一个运行大模型的框架,这里选择使用 docker 的方式启动 ollama:
1
|
docker run -d -v ./ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
|
启动成功后,选择想要的模型,这里以阿里通义千问最小的模型 (352M) 为例:
1
|
docker exec -it ollama ollama run qwen2:0.5b
|
运行起来后,可以在命令行进行交互,输入/bye
或 ctrl + c
退出。
更多模型可在这里找: https://ollama.com/library
有很多开源的 UI 库允许你从浏览器访问模型,这里以 Open WebUI 为例,更多工具请参考:https://github.com/ollama/ollama/tree/main?tab=readme-ov-file#web--desktop
1
2
|
# OLLAMA_BASE_URL替换成你机器的IP地址,例如: OLLAMA_BASE_URL=http://192.168.1.110:11434
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v ./open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
|
然后浏览器访问 3000 端口即可,用户名密码随便注册一个即可。
默认是无限制注册的,可以登录后在设置里禁用掉。
点击右上角头像 --- 管理员面板 --- 设置
测试环境为一台无显卡的 oracle 服务器 ( 4 核 24G )。
跑大小为 8G 的模型 (llama3.1),平均每秒输出 4 个字符,勉强能用,再大的就跑不了了。
如果选择不使用 docker 部署 ollama, 想修改 ollama 的模型存储路径以及监听地址的话,需要修改文件 /etc/systemd/system/ollama.service
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
# 修改模型存储路径, 默认为 /usr/share/ollama/.ollama
Environment="OLLAMA_MODELS=/data/ollama"
# ollama监听地址,默认为 127.0.0.1
Environment="OLLAMA_HOST=0.0.0.0"
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
[Install]
WantedBy=default.target
|
修改完以后记得执行:
1
2
|
systemctl daemon-reload
systemctl enable ollama
|
参考资料:
https://hub.docker.com/r/ollama/ollama
https://github.com/ollama/ollama