感觉效果不如之前orpo的llama3
#8
by
ztyl-tech
- opened
感觉效果不如之前orpo的llama3
同感, Llama3-8B-Chinese-Chat-v2.1 这个版本很稳定
请问有具体的可以比较的cases吗?我们排查一下原因。
理论上来说,我们只改了基础模型以及epoch数量,其他都没有变化。
感觉效果不如之前orpo的llama3
同感, Llama3-8B-Chinese-Chat-v2.1 这个版本很稳定
请问有具体的可以比较的cases吗?我们排查一下原因。
理论上来说,我们只改了基础模型以及epoch数量,其他都没有变化。