可按照此处方法下载预热后的模型,速度较快(推荐artget方式)
或者从hugging face官方下载。
GPT plus 代充 只需 145
/xxx/models/llmmodels是宿主机放模型的目录,/usr1/project/models是容器内目录
GPT plus 代充 只需 145
具体可以参考链接:https://vllm-ascend.readthedocs.io/en/latest/installation.html
openai兼容接口
vllm+vllm-ascend本地部署QwQ-32B可按照此处方法下载预热后的模型 速度较快 推荐 artget 方式 或者从 hugging face 官方下载 基础镜像地址 https quay io repository ascend vllm ascend tab tags amp tag latest 拉取镜像 v0 7 0 3 的正式版本尚未发布 启动镜像 QwQ 32B 需要 70G 以上显存 2 张 64G 的卡
可按照此处方法下载预热后的模型,速度较快(推荐artget方式)
或者从hugging face官方下载。
GPT plus 代充 只需 145
/xxx/models/llmmodels是宿主机放模型的目录,/usr1/project/models是容器内目录
GPT plus 代充 只需 145
具体可以参考链接:https://vllm-ascend.readthedocs.io/en/latest/installation.html
openai兼容接口
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/217289.html