西安做网站广告的公司,服务器添加网站,免费游戏直接进入,假网站连接怎么做的首先保证cuda版本为12.1#xff0c;torch版本为2.1.0及以上#xff0c;python版本3.10以上 从此处下载最新版的whl#xff0c;https://github.com/jllllll/bitsandbytes-windows-webui/releases/tag/wheels#xff0c;通过whl来安装bitsandbytes 从此处下载最新版的whltorch版本为2.1.0及以上python版本3.10以上 从此处下载最新版的whlhttps://github.com/jllllll/bitsandbytes-windows-webui/releases/tag/wheels通过whl来安装bitsandbytes 从此处下载最新版的whl https://github.com/bdashore3/flash-attention/releases, 通过whl来安装flash-attn 如果出现
CUDA SETUP: Problem: The main issue seems to be that the main CUDA library was not detected.通常就是bitsandbytes的版本没装对或者cuda版本不对。确保安装cuda12.1以及对应的torch再从whl安装bitsandbytes即可避免此问题。