OLLAMA_DATA=ollama_data # bash/zsh
$OLLAMA_DATA="ollama_data" # powershell
# 指定models路径(可选), 当前文件夹.ollama
$env:OLLAMA_MODELS='$PWD\.ollama\models' # Windows
OLLAMA_MODELS="$PWD/.ollama/models" # Linux/Mac
# 使用CUDA
$env:OLLAMA_GPU_LAYER="cuda"
OLLAMA_GPU_LAYER="cuda"
ollama serve # 启动后端
# 打开另一个shell
ollama ls # 查看下载的模型
ollama run <模型名> # 启动
# 启动服务
docker run --rm --name ollama -e OLLAMA_HOST=0.0.0.0:11434 -d -p 11434:11434 -v "${OLLAMA_DATA}:/root/.ollama" ollama/ollama
# 启动服务(使用gpu, 需要配置docker服务, 开启gpu容器支持)
docker run --gpus all --rm --name ollama -e OLLAMA_HOST=0.0.0.0:11434 -d -p 11434:11434 -v "${OLLAMA_DATA}:/root/.ollama" ollama/ollama
# 命令交互
docker exec -e OLLAMA_HOST=0.0.0.0:11434 -it ollama ollama run llama3.1
docker run -it --rm --name ollama-client --add-host host.docker.internal:host-gateway -e OLLAMA_HOST=host.docker.internal:11434 ollama/ollama run llama3.1
# 停止服务
docker stop ollama
参考网站 可能会遇到apt从nvidia.github.io下载清单和包受阻的情况, 需要给APT配置代理