432 字
2 分钟
ollama

前言#

TIP

准备工作 下载 ollama
相关文章: ollama

下载并启动win版本的ollma#

下载 ollama https://ollama.com/ 一键安装并启动且后台运行

下载并运行一个模型#

ollama run xxx

更改win的下载路径#

setx OLLAMA_MODELS "E:\ollama" /M

ollama命令行设置#

属性描述
serve启动 ollama 服务。
create使用 Modelfile 创建一个模型。这可能与定义模型架构或设置有关。
show显示特定模型的信息。
run执行或运行指定的模型。
pull从注册表中下载模型。
push将模型上传到注册表。
list列出所有模型。
ps列出正在运行的模型。
cp复制一个模型。
rm删除一个模型。
help获取关于任何命令的帮助。

ollama下载的模型与huggingface的模型的区别#

通常情况下,Qwen模型的表示方法为Qwen1.5-4B-Chat 在Ollama中,Qwen指代的是与Hugging Face上的Qwen1_5-4B-Chat-q4_0.gguf模型相对应的版本,这是一个经过4位量化处理的模型

ollama模型列表#

ModelParametersSizeDownload
Llama 3.18B4.7GBollama run llama3.1
Llama 3.170B40GBollama run llama3.1:70b
Llama 3.1405B231GBollama run llama3.1:405b
Phi 3 Mini3.8B2.3GBollama run phi3
Phi 3 Medium14B7.9GBollama run phi3:medium
Gemma 22B1.6GBollama run gemma2:2b
Gemma 29B5.5GBollama run gemma2
Gemma 227B16GBollama run gemma2:27b
Mistral7B4.1GBollama run mistral
Moondream 21.4B829MBollama run moondream
Neural Chat7B4.1GBollama run neural-chat
Starling7B4.1GBollama run starling-lm
Code Llama7B3.8GBollama run codellama
Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
LLaVA7B4.5GBollama run llava
Solar10.7B6.1GBollama run solar
qwen27BxGBollama run qwen2:7b
qwen27BxGBollama run qwen2:7b
CodeGemma8.54B5.0GBollama run codegemma

webui的使用(之后再说)#

way_1安装docker#

docker

way_2python安装#

对于 Windows:

git clone https://github.com/open-webui/open-webui.git
cd open-webui

copy .env.example .env

npm install
npm run build

cd .\backend

使用 Conda 作为开发环境进行安装:

# 创建并激活 Conda 环境
conda create --name open-webui-env python=3.11
conda activate open-webui-env

执行以下命令安装依赖:

pip install -r requirements.txt -U

运行启动脚本:

 .\start_windows.bat

http://localhost:8080/ 上启动并运行 Open WebUI

添加官方api#

把之前的open-ai的key和web填入 外部链接OpenAI API Ollama 部署图片

ollama
https://sereinna.github.io/posts/ollama部署/
作者
serein
发布于
2024-09-18
许可协议
CC BY-NC-SA 4.0