本地部署大模型
ubuntu本地模型部署
1. 部署 ollama
# 下载 ollama 工具
curl -fsSL https://ollama.com/install.sh | sh
2. 安装docker
sudo apt-get install docker.io
sudo systemctl start docker
sudo systemctl enable docker
sudo docker --version
3. 安装 Anything LLM
sudo docker pull mintplexlabs/anythingllm
Windows 本地模型部署
下载 Anythingllm
# 网址
https://anythingllm.com/desktop
下载ollama
ollama本身并不是一个llm(大语言模型),而是一个为llm服务的工具,这个工具提供了一个平台和环境,使得可以在本地机器上更便利的部署,测试,运行大预言模型。
# 下载 ollama 网址
https://ollama.com/download
# 下载结束后,已经开始自动运行,查看版本
ollama --version
# 根据电脑性能和需求下载需要的模型
# https://ollama.com/library/deepseek-r1:1.5b
# ollama run deepseek-r1:1.5b 会首先自动下载模型
ollama run deepseek-r1:1.5b