Datasets:
Source of answer in ruozhiba subset
#19
by
tctyjxl2000
- opened
根据论文描述,Ruozhiba数据集的回答应该既有人回答的,也有GPT-4回答的。但实际上现有数据集上将其全部标注为LLM,也就是全部为GPT-4回答。这似乎与论文内容不符?
另外由于该数据集似乎是唯一一个全部用LLM生成答案的子集?有没有可能这导致了单独用该子集SFT出的模型更偏重于GPT-4的回答习惯,因此在由GPT4进行评分的test实验中获得了更高的分数?
我觉得有可能,但是取得高分的测试项中,Classification,Math,Code这类依赖逻辑能力的测试感觉不是单凭“回答习惯”就能获得高分的,ruozhiba的训练数据和benchmark也没什么关联,也不排除ruozhiba的数据确实有助于加强模型深度思考的能力。
不知道在实验中微调的模型能否开源?如果开源或公布训练参数,也许社区可以通过各种实验自行验证猜想。