当前位置: 首页 > news >正文

云南网站建设选天软/小程序开发流程

云南网站建设选天软,小程序开发流程,广州番禺怎么读,研究生院 网站 建设在此之前,我们已成功利用Docker与Ollama框架,在内网环境中部署了Qwen2模型。下面我们再来看一下使用Docker与vLLM框架部署Qwen2模型。 准备vLLM镜像 在一台具备网络环境的机器上执行以下命令,拉取vLLM的镜像: # 官方镜像 docke…

在此之前,我们已成功利用Docker与Ollama框架,在内网环境中部署了Qwen2模型。下面我们再来看一下使用Docker与vLLM框架部署Qwen2模型。

准备vLLM镜像

在一台具备网络环境的机器上执行以下命令,拉取vLLM的镜像:

# 官方镜像
docker pull vllm/vllm-openai:latest# 如果因为墙的原因,以上命令拉取不到,可以去看看下面这些仓库
Docker仓库:https://docker.1panel.live ✅网友自建
Docker仓库:https://docker.agsv.top  ✅网友自建
Docker仓库:https://docker.agsvpt.work  ✅网友自建
Docker仓库:https://dockerpull.com ✅网友自建
Docker仓库:https://dockerproxy.cn ✅网友自建

下载Qwen2-7B-Instruct模型

我这里下载的是Qwen2-7B-Instruct-GPTQ-Int4的模型。下载地址:

https://huggingface.co/Qwen/Qwen2-7B-Instruct-GPTQ-Int4

编写Dockerfile

我们将Qwen2模型打包上传到服务器,然后编写Dockerfile:

# 基础镜像
FROM vllm/vllm-openai:latest# 暴露端口
EXPOSE 8000# 将模型上传到基础镜像
ADD Qwen2-7B-Instruct-GPTQ-Int4 /home/Qwen2-7B-Instruct-GPTQ-Int4# 容器启动要执行的命令,注意这里一定要是python3
ENTRYPOINT ["python3","-m","vllm.entrypoints.openai.api_server","--served-model-name","Qwen2-7B-Instruct-GPTQ","--model","/home/Qwen2-7B-Instruct-GPTQ-Int4"]

构建镜像

执行docker build命令,构建docker镜像:

docker build -t vllm_qwen2_7b:1.0 -f Dockerfile .

启动容器

执行以下命令,启动docker容器:

docker run -itd --runtime nvidia --gpus all --name vllm_qwen2 --env "HUGGING_FACE_HUB_TOKEN=<secret>" -p 8000:8000 vllm_qwen2_7b:1.0 --max-model-len 8129

经过启动、测试,模型运行没问题。

然后,我们就可以将镜像导出,提供给内网环境使用了:

# 镜像导出
docker save -o vllm_qwen2.tar vllm_qwen2_7b:1.0
# 镜像导入
docker load -i vllm_qwen2.tar

问题解决

问题1、No CUDA GPUs are available

解决方法:

(1)检查是否正确安装了CUDA驱动,执行nvidia-smi可查看。

(2)docker run命令中没有添加--runtime nvidia --gpus all。

问题2:unknown or invalid runtime name: nvidia

解决方法:

当Docker容器需要使用GPU时,需要配置Docker的default-runtimenvidia,然后重启Docker。

{"runtimes":{
"nvidia":{
"path":"nvidia-container-runtime",
"runtimeArgs":[]
}
},
"default-runtime":"nvidia"
}

 如果是Windows版Docker,需要在Docker Desktop中点击右上角的Setting,然后点击Docker Engine,在这里设置完上述配置后,点击restart

 

问题3、Try increasing gpu_memory_utilization or decreasing max_model_len when initializing the engine.

解决方法:

因为GPU内存限制而需要调整模型的最大序列长度。在docker run命令最后加--max-model-len限制。

--max-model-len 8129
http://www.jmfq.cn/news/5310847.html

相关文章:

  • 镇江网站建设哪家好/智能网站推广优化
  • 网站建设的需求分析报告/福州seo
  • 网站建设如何来选择空间/教程seo推广排名网站
  • 江苏省建设工程竣工验收网站/东营网站seo
  • 四川网站建设咨询/广东深圳今天最新通知
  • 电子商务网站建设的模式/域名搜索引擎
  • 建设部招标网 官方网站/营销网站建设哪家快
  • 石家庄建设网站哪家好/seo俱乐部
  • 美容加盟网站建设/国内免费域名注册网站
  • 广州网站建设V芯ee8888e/站长工具查询域名信息
  • 吉林电商网站建设价格/网络营销推广方式有哪些
  • 昆明网站建设昆明/关键词营销推广
  • 移动网站建设价格/谷歌seo引擎优化
  • 政府门户网站建设招标文件/国家职业技能培训学校
  • 完美网站建设/网络热词2022流行语及解释
  • 动态网站建设 js/柳州今日头条新闻
  • 海南省建设培训与执业资格注册中心网站/360优化关键词
  • 宁夏公路建设局网站/网络营销心得体会
  • 农业信息网站 建设/百度seo怎么查排名
  • 西宁市网站建设公司/江门百度seo公司
  • 承德市外贸网站建设/潍坊seo招聘
  • 中国建设网站下载/网络媒体软文案例
  • 网站建设原/seo网站外包公司
  • 河南省村镇建设处网站/优化服务公司
  • 海原网站建设/淘宝指数网站
  • 济南市建设银行网站/品牌营销活动策划方案
  • 网站建设证有/网站快速排名公司
  • 网站建设三大部分/免费发外链的网站
  • 网站建设公司海报/重庆关键词排名推广
  • 网站建设服务热线/百度问答首页