遇到了和8b版本一样的无限输出问题

#5
by Orion-zhen - opened

这个discussion 所述,我试验了huggingface backend加载8B模型的BF16版本,用llama_cpp加载gguf版本,以及ollama模型,都没遇到无穷输出的问题。

此外我还同样试了5次70B BF16模型用huggingface backend来加载测试这个discussion 提到的prompt,也没有发现无限输出的问题。70B模型连续测试5次的回答如下:

image.png

Sign up or log in to comment