当前位置:首页 > 技术分析 > 正文内容

Ollama 导入模型指南_olap模型

ruisui883个月前 (02-16)技术分析13

导入模型

本指南将向您展示如何导入一个 GGUF、PyTorch 或 Safetensors 模型。

导入(GGUF)

步骤 1:编写模型文件

开始之前,您需要创建一个模型文件。这个文件就像是您模型的设计图,里面指定了模型的权重、参数、提示模板等信息。

FROM ./mistral-7b-v0.1.Q4_0.gguf

(可选)很多聊天模型为了能够正确回答问题,需要一个预设的提示模板。您可以通过在模型文件中添加 TEMPLATE 指令来设定一个默认的提示模板:

FROM ./mistral-7b-v0.1.Q4_0.gguf
TEMPLATE "[INST] {{ .Prompt }} [/INST]"

步骤 2:创建 Ollama 模型

接下来,根据您的模型文件创建一个新模型:

ollama create example -f Modelfile

步骤 3:运行您的模型

然后,使用 ollama run 命令来测试您的模型:

ollama run example "What is your favourite condiment?"

导入(PyTorch & Safetensors)

相比于 GGUF,从 PyTorch 和 Safetensors 导入模型的过程要复杂一些。不过,我们正在努力简化这一流程。

设置

首先,克隆 ollama/ollama 仓库:

git clone [git@github.com]():ollama/ollama.git ollama
cd ollama

紧接着,同步 llm/llama.cpp 子模块:

git submodule init
git submodule update llm/llama.cpp

然后,安装 Python 依赖项:

python3 -m venv llm/llama.cpp/.venv
source llm/llama.cpp/.venv/bin/activate
pip install -r llm/llama.cpp/requirements.txt

接着构建量化工具:

make -C llm/llama.cpp quantize

(可选)克隆 HuggingFace 仓库

如果模型托管在 HuggingFace 仓库中,首先克隆该仓库下载原始模型。

安装 Git LFS,验证是否安装成功,然后克隆模型的仓库:

git lfs install
git clone  model

步骤 1:转换模型

注意:某些模型架构需要使用特定的转换脚本。例如,Qwen 模型需要运行 convert-hf-to-gguf.py 而非 convert.py。


python llm/llama.cpp/convert.py ./model --outtype f16 --outfile converted.bin

步骤 2:量化模型

llm/llama.cpp/quantize converted.bin quantized.bin q4_0

步骤 3:编写模型文件

然后,为您的模型创建一个模型文件:

FROM quantized.bin
TEMPLATE "[INST] {{ .Prompt }} [/INST]"

步骤 4:创建 Ollama 模型

最后,根据您的模型文件创建一个模型:

ollama create example -f Modelfile

步骤 5:运行您的模型

再次使用 ollama run 命令测试您的模型:

ollama run example "What is your favourite condiment?"

发布您的模型(可选 - 早期 alpha 版本)

目前模型发布功能处于早期测试阶段。如果您想分享您的模型,请按照以下步骤操作:

1. 创建一个账号

2. 复制您的 Ollama 公钥:

  • macOS: cat ~/.ollama/id_ed25519.pub | pbcopy
  • Windows: type %USERPROFILE%\.ollama\id_ed25519.pub
  • Linux: cat /usr/share/ollama/.ollama/id_ed25519.pub

3. 将您的公钥添加到 Ollama 账号

接下来,将您的模型复制到您的用户名空间下:

ollama cp example /example

注意:模型名称只能包含小写字母、数字和 .、-、_ 这些字符。

然后推送模型:

ollama push /example

发布后,您的模型将可以在 https://ollama.com//example 访问。

量化参考

量化选项从最高到最低等级依次为:注意,某些结构如 Falcon 不支持 K 量化。

q2_K,q3_K,q3_K_S,q3_K_M,q3_K_L,q4_0(推荐),q4_1,q4_K,q4_K_S,q4_K_M,q5_0,q5_1,q5_K,q5_K_S,q5_K_M,q6_K,q8_0,f16

扫描二维码推送至手机访问。

版权声明:本文由ruisui88发布,如需转载请注明出处。

本文链接:http://www.ruisui88.com/post/2001.html

标签: gitsubmodule
分享给朋友:

“Ollama 导入模型指南_olap模型” 的相关文章

面试官:聊聊你知道的Vue与React的区别

最近面到很多大公司的时候,小编都会碰到一个很尴尬的问题,很多大公司的技术栈都是React,但是小编学的是Vue,其实从本质上来说两者都是比较优秀的前端框架,所以有些面试官会问到Vue和React的区别。小编认真整理了一些自己所知道的Vue和React的区别,给大家分享分享。1. 模板语法 vs JS...

Gitlab 的使用和代码审查流程介绍

1、先简洁介绍下项目常用的信息-面板统计页面2、用户信息面板3、服务器信息4、项目信息5、重点介绍代码提交审核机制和授权合并机制开发人员推送代码的时候不能直接推送到master,否则就会报错。此时开发人员要本地新建分支然后在提交上来列出修改了哪些细节管理员可以管理这些分支合并到master6、指派合...

快速掌握 Git:程序员必会的版本控制技巧

在现代软件开发中,版本控制系统(VCS)是开发人员不可或缺的工具。无论是个人项目,还是多人协作的团队开发,良好的版本控制都能确保代码管理的高效性与稳定性。而在版本控制系统中,Git 凭借其分布式、灵活性和高效性,成为了最流行的工具之一。几乎所有的开发团队都在使用 Git 来管理代码版本、协作开发和追...

软件测试-性能测试专题方法与经验总结

本文 从 性能测试流程,性能测试指标,性能监测工具,性能测试工具,性能测试基线,性能测试策略,性能瓶颈分析方法几个维度,进行知识总结和经验分享;详细见下图总结,欢迎大家补充;性能测试经验与思考1. 性能测试流程1.1. 性格规格评审1.2. 资源排期1.2.1. 人力资源1.2.2. 时间计划· 性...

抖音 Android 性能优化系列:启动优化实践

启动性能是 APP 使用体验的门面,启动过程耗时较长很可能使用户削减使用 APP 的兴趣,抖音通过对启动性能做劣化实验也验证了其对于业务指标有显著影响。抖音有数亿的日活,启动耗时几百毫秒的增长就可能带来成千上万用户的留存缩减,因此,启动性能的优化成为了抖音 Android 基础技术团队在体验优化方向...

VUE-router

七.Vue-router1、什么是vue-routervue-router是vue.js官方路由管理器。vue的单页应用是基于路由和组件的,路由用于设定访问路径,并将路径和组件映射起来。传统页面切换是用超链接a标签进行切换。但vue里是用路由,因为我们用Vue做的都是单页应用,就相当于只有一个主的i...