当前位置:   article > 正文

Windows部署chatGLM2-6B踩坑全记录_transformers_modules.chatglm2-6b-int4.quantization

transformers_modules.chatglm2-6b-int4.quantization | compile cpu kernel gcc

为了部署方便采用anaconda,全程使用conda install代替pip install,因为它不仅可以安装依赖的python包,还能同时安装依赖的动态链接文件。按照官方文档介绍的步骤在本地windows部署4位量化版本,遇到了以下问题:

1. 执行 python web_demo.py,发现没有GCC命令,需要安装gcc和openmp,正好TDM-GCC可以顺带安装openmp,于是下载了TDM-GCC,安装过程中需要勾选安装openmp。

2. 安装了transformers模块,但是运行web_demo.py时依然提示No module named "transformers_modules."。尝试重装transformers模块无果,后来发现是模型的路径不能用带“.”的相对路径,后改用绝对路径解决了这个问题。

3. 运行web_demo.py时遇到Torch not compiled with CUDA enabled错误。下载安装Nvidia CUDA toolkit。查询Previous PyTorch Versions | PyTorch找到相应版本的pytorch配合相应版本CUDA的安装命令。我这里执行了:conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia

4. 运行web_demo.py时遇到ModuleNotFoundError: No module named 'chardet'错误。执行:conda install chardet

5. FileNotFoundError: Could not find module 'C:\Users\netfl\.cache\huggingface\modules\transformers_modules\model\quantization_kernels_parallel.so' (or one of its dependencies).

实测对程序运行没影响。要完全解决这个问题,可以到huggingface的chatGLM2项目里去下载2个.c文件,本地自行编译。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/360735
推荐阅读
相关标签
  

闽ICP备14008679号