跨境派

跨境派

跨境派,专注跨境行业新闻资讯、跨境电商知识分享!

当前位置:首页 > 工具系统 > 运营工具 > 利用ollama和open-webui本地部署通义千问Qwen1.5-7B-Chat模型

利用ollama和open-webui本地部署通义千问Qwen1.5-7B-Chat模型

时间:2024-04-30 10:00:47 来源:网络cs 作者:晨起 栏目:运营工具 阅读:

标签: 模型  本地  部署  利用 

 

目录

1 安装ollama

2 安装open-webui

2.1 镜像下载

3 配置ollama的模型转换工具环境

3.1 下载ollama源码

 3.2 下载ollama子模块

3.3 创建ollama虚拟环境

3.4 安装依赖

3.5 编译量化工具

7 创建ollama模型

8 运行模型

参考文献:


1 安装ollama

curl -fsSL https://ollama.com/install.sh | sh

启动、关闭ollama
systemctl start ollama
systemctl stop ollama
systemctl restart ollama
systemctl status ollama

2 安装open-webui

git clone https://github.com/open-webui/open-webui.gitcd open-webui

这里open-webui的源码其实用不到,直接用下面的镜像就行。 

2.1 镜像下载

官方没有在 docker hub 上发布镜像,而是发布在 ghcr.io,地址在 https://Github.com/open-webui/open-webui/pkgs/container/open-webui

docker pull ghcr.io/open-webui/open-webui:main

如果没有科学上网,很可能会拉不动,可以试试 docker 代理网站:https://dockerproxy.com/,但是会多几个步骤

# 如果拉不动的话加个代理docker pull ghcr.dockerproxy.com/open-webui/open-webui:main# 重命名镜像(如果是通过代理下载的)docker tag ghcr.dockerproxy.com/open-webui/open-webui:main ghcr.io/open-webui/open-webui:main# 删除代理镜像(如果是通过代理下载的)docker rmi ghcr.dockerproxy.com/open-webui/open-webui:main

 然后docker images可以看到镜像

docker run -d -p 3006:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui-chw --restart always ghcr.io/open-webui/open-webui:main2c93ac3c6c911302d4d2926692a7bab64f607317938da71e53ff32798be801da

3 配置ollama的模型转换工具环境

3.1 下载ollama源码

git clone https://github.com/ollama/ollama.gitcd ollama

 3.2 下载ollama子模块

git submodule initgit submodule update llm/llama.cpp

3.3 创建ollama虚拟环境

conda create -n ollama_chw python=3.11conda activate ollama_chw

3.4 安装依赖

pip install -r llm/llama.cpp/requirements.txt

3.5 编译量化工具

make -C llm/llama.cpp quantize如果编译llama.cpp的测试工具main,在llama.cpp目录执行make -j,会在当前目录生成main文件。测试实验./main -m ./model_name

4 5 6 见私人博客

7 创建ollama模型

ollama create chw1.5 -f /data/chw/ollama_20240419/qwen1.5-7B/Modelfile

到了这一步之后,其实在open-webui上就可以看到这个模型了

8 运行模型

ollama run chw1.5

其实这个ollama run就相当于在命令行运行模型,但是我们这里是用open-webui,所以直接ollama create之后就可以用open-webui。

参考文献:

GitHub - ollama/ollama: Get up and running with Llama 3, Mistral, Gemma, and other large language models.

GitHub - open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI)

llama.cpp部署通义千问Qwen-14B_通义千问gguf model-CSDN博客

适配Ollama的前端界面Open WebUI | 半码博客
🚀 Getting Started | Open WebUI

本文链接:https://www.kjpai.cn/news/2024-04-30/163675.html,文章来源:网络cs,作者:晨起,版权归作者所有,如需转载请注明来源和作者,否则将追究法律责任!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

文章评论