How to use the model in Windows?

#3
by kristada673 - opened

I copy-pasted your Python script and ran it, gives the following error:

C:\Users\Username\Documents>python script.py
โ•ญโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€ Traceback (most recent call last) โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฎ
โ”‚ C:\Users\Username\Documents\script.py:12 in <module>                  โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    9                                                                                             โ”‚
โ”‚   10 tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, use_fast=True)                โ”‚
โ”‚   11                                                                                             โ”‚
โ”‚ โฑ 12 model = AutoGPTQForCausalLM.from_quantized(model_name_or_path,                              โ”‚
โ”‚   13 โ”‚   โ”‚   model_basename=model_basename,                                                      โ”‚
โ”‚   14 โ”‚   โ”‚   use_safetensors=True,                                                               โ”‚
โ”‚   15 โ”‚   โ”‚   trust_remote_code=True,                                                             โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ C:\Users\Username\anaconda3\lib\site-packages\auto_gptq\modeling\auto.py:63 in from_quantized โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   60 โ”‚   โ”‚   trust_remote_code: bool = False                                                     โ”‚
โ”‚   61 โ”‚   ) -> BaseGPTQForCausalLM:                                                               โ”‚
โ”‚   62 โ”‚   โ”‚   model_type = check_and_get_model_type(save_dir)                                     โ”‚
โ”‚ โฑ 63 โ”‚   โ”‚   return GPTQ_CAUSAL_LM_MODEL_MAP[model_type].from_quantized(                         โ”‚
โ”‚   64 โ”‚   โ”‚   โ”‚   save_dir=save_dir,                                                              โ”‚
โ”‚   65 โ”‚   โ”‚   โ”‚   device=device,                                                                  โ”‚
โ”‚   66 โ”‚   โ”‚   โ”‚   use_safetensors=use_safetensors,                                                โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ C:\Users\Username\anaconda3\lib\site-packages\auto_gptq\modeling\_base.py:501 in              โ”‚
โ”‚ from_quantized                                                                                   โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   498 โ”‚   โ”‚   โ”‚   raise TypeError(f"{config.model_type} isn't supported yet.")                   โ”‚
โ”‚   499 โ”‚   โ”‚                                                                                      โ”‚
โ”‚   500 โ”‚   โ”‚   if quantize_config is None:                                                        โ”‚
โ”‚ โฑ 501 โ”‚   โ”‚   โ”‚   quantize_config = BaseQuantizeConfig.from_pretrained(save_dir)                 โ”‚
โ”‚   502 โ”‚   โ”‚                                                                                      โ”‚
โ”‚   503 โ”‚   โ”‚   if model_basename is None:                                                         โ”‚
โ”‚   504 โ”‚   โ”‚   โ”‚   model_basename = f"gptq_model-{quantize_config.bits}bit-{quantize_config.gro   โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ C:\Users\Username\anaconda3\lib\site-packages\auto_gptq\modeling\_base.py:51 in               โ”‚
โ”‚ from_pretrained                                                                                  โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    48 โ”‚                                                                                          โ”‚
โ”‚    49 โ”‚   @classmethod                                                                           โ”‚
โ”‚    50 โ”‚   def from_pretrained(cls, save_dir: str):                                               โ”‚
โ”‚ โฑ  51 โ”‚   โ”‚   with open(join(save_dir, "quantize_config.json"), "r", encoding="utf-8") as f:     โ”‚
โ”‚    52 โ”‚   โ”‚   โ”‚   return cls(**json.load(f))                                                     โ”‚
โ”‚    53 โ”‚                                                                                          โ”‚
โ”‚    54 โ”‚   def to_dict(self):                                                                     โ”‚
โ•ฐโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฏ
FileNotFoundError: [Errno 2] No such file or directory: 'TheBloke/Nous-Hermes-13B-GPTQ\\quantize_config.json'

I suspect it might be due to the directory naming structure in Windows vs Linux. But I don't want to edit the library files before ensuring that that's indeed the issue.

Sign up or log in to comment