输入以下命令,查看 GPU 支持的最高 CUDA 版本。

前往 Nvidia 的 CUDA 官网:CUDA Toolkit Archive | NVIDIA Developer
CUDA Toolkit 11.8 Downloads | NVIDIA Developer

linux
CUDA Toolkit Archive | NVIDIA Developer
下载下来后扔到服务器上:
注意他是 xz 不是 gz 所以解压就是:
之前,是将 cudnn 的文件扔到 cuda 的路径就OK了,然而事实上,不一定放到cuda的路径,只要添加到 LD_LIBRARY_PATH 即可
解压之后,有目录cudnn-linux-x86_64-8.4.1.50_cuda10.2-archive,其下有 include 和 lib
将该路径添加到 LD_LIBRARY_PATH,给这个路径起一个名字:
放到配置文件里:
之后刷新一下环境变量:
刷新完看看是否正确添加:
返回这个就OK
再看看 LD_LIBRARY_PATH 对不对
Start Locally | PyTorch
根据自己电脑和系统在网页上选择适配自己的选项。
- 第一行是选择torch是否稳定版本,默认稳定版本。
- 第二行是选择自己的系统,有linux,mac,windows。
- 第三行是在什么环境安装:有anacoda里面安装, cmd里面pip安装,在libtorch安装,或者源码安装。
- 第四行是语言选择:提供了python和c++/java
- 第五行是否选择用cuda gpu版本的,如果是就要去看自己cuda版本(自行谷歌,百度),我这里选择none,不用gpu,这样就是cpu版本的torch
- 第六行是安装的命令直接复制即可,到选择相应的环境安装,用anaconda或者pip这两个环境居多。
魔改bitsandbytes库让他支持windows。
安装window版本的bitsandbytes
或者
另一种选择https://github.com/acpopescu/bitsandbytes/releases/tag/v0.38.0-win0
GitHub - TimDettmers/bitsandbytes: 8-bit CUDA functions for PyTorch
1.pip安装
2.本地编译,选择自己的cuda版本
将 Int8 推理与 HuggingFace 转换器结合使用
int4

ModuleNotFoundError: No module named ‘pyopenjtalk’
pip install pyopenjtalk –no-build-isolation
参考资料
GitHub - jllllll/bitsandbytes-windows-webui: Windows compile of bitsandbytes for use in text-generation-webui.
GitHub - Keith-Hon/bitsandbytes-windows: 8-bit CUDA functions for PyTorch in Windows 10
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/229163.html