使用Ollama在本地运行AI大模型gemma
时间:2024-04-24 10:00:37 来源:网络cs 作者:璐璐 栏目:卖家故事 阅读:
使用Ollama在本地运行AI大模型
1.下载:2.配置环境变量3.安装4.下载并运行模型5.整合界面UI本次本人用到的软件汇总:百度网盘下载
1.下载:
https://github.com/ollama/ollama/releases
2.配置环境变量
我的电脑-右键-属性-系统-高级系统设置-环境变量-【系统环境变量】新建
变量名:OLLAMA_MODELS (固定变量名)
变量值:E:\Ollama\Lib (写自己要存放的路径)
先配置好这个变量,这个是ollama的存储路径。
不配置也可以,不配置的话就会放到默认位置,建议还是修改下存储路径,方便后续使用。
3.安装
直接install即可。
安装完成后,cmd查询下:ollama --version
如果查询不到,重启下电脑即可。
我这里是因为我直接把ollama给关了,所以出现了警告,不过也同样可以看到ollama客户端的版本。
ollama的其他命令可以通过ollama help
来获取
4.下载并运行模型
谷歌最新开源gemma:
最低条件:2B版本需要2G显存
7B版本需要4G显存
7B的其他版本需要更大
打开命令提示符窗口下载运行模型:
访问:https://ollama.com/library选择自己想要的模型,复制下载命令即可.
这里选择拉取gemma7b版本来试试:ollama run gemma:7b
全量版模型拉取运行命令
ollama run gemma:2b-instruct-fp16
ollama run gemma:7b-instruct-fp16
ollama命令:
查看已有模型:ollama list
下载完成后即在运行(只下载的话,就用ollama pull
去拉取即可)
接下来可以直接在命令行窗口进行问答
拉取的模型可以在存储目录blobs下看到
5.整合界面UI
Ollama WebUI、open-webui等。需要在docker环境中运行,windows本地docker已经被我搞掉了,只有虚拟机里面才有docker环境。
虚拟机占用内存,破电脑性能一般般,不打算搞了。这个搞起来也还好,就是拉下镜像运行容器就行了。JAN AI:https://jan.ai/ 下载windows版本客户端(开源的)
1)下载安装后修改下数据存储路径(随便要不要改),修改完重启即可。
2)修改ai模型源:
E:\Ollama\JANAI\engines\openai.json
(上一步中的数据存储路径下,找到engines\openai.json进行修改)
{ "full_url": "http://localhost:11434/v1/chat/completions"}
3)添加模型配置:记得把里面的注释去掉。
E:\Ollama\JANAI\models\底下创建一个文件夹mine-gemma-7b(名字随便,我把models底下其他的文件夹都挪走备份了,方便管理而已)然后在底下创建个model.json文件
{ "sources": [ { "filename": "gemma:7b", # 模型名称 "url": "https://ollama.com/library/gemma:7b" # 模型url } ], "id": "gemma:7b", #模型ID "object": "model", "name": "mine-gemma:7b", #显示在jan中模型名称,随便写不影响 "version": "1.0", "description": "ollama本地gemma:7b", #随便写不影响 "format": "api", "settings": { }, "parameters": { }, "metadata": { "author": "Meta", "tags": [ "General", "Big Context Length" ] }, "engine": "openai", # 需要配置 "state":"ready" # 需要配置}
上述配置弄完之后重启下jan,然后再hub中就可以看到自己加的模型了,点击use即可使用
断网状态下是可以使用的。
直接安装完按照下图选中相应模型就可以使用了。
都是自动加载的,如果对界面没啥要求的,推荐直接用chatbox就可以了,啥都不用整就可以用了。
阅读本书更多章节>>>>
本文链接:https://www.kjpai.cn/gushi/2024-04-24/161708.html,文章来源:网络cs,作者:璐璐,版权归作者所有,如需转载请注明来源和作者,否则将追究法律责任!
上一篇:前端和后端解决跨域问题的方法
下一篇:返回列表