TwT-6's picture
Upload 2667 files
256a159 verified
|
raw
history blame
11.1 kB

Meta Template

背景

在 LLM 的 Supervised Fine-Tuning (SFT) 过程中,我们常常会根据实际的要求往对话内注入一些预定义的字符串,以求模型能按照一定的要求输出内容。例如,在一些 chat 模型的微调中,我们可能会在每段对话的开头加入系统层级的指令,并约定一套的格式表示用户与模型之间的对话。在一段对话中,模型期望文本的格式可能如下:

Meta instruction: You are now a helpful and harmless AI assistant.
HUMAN: Hi!<eoh>\n
Bot: Hello! How may I assist you?<eob>\n

在评测时,我们也需要按照约定的格式输入问题,模型才能发挥出其最大的性能。

此外, API 模型也存在着类似的情况。一般 API 的对话模型都允许用户在调用时传入历史对话,还有些模型也允许传入 SYSTEM 层级的指令。为了更好地评测 API 模型的能力,我们希望在评测 API 模型时可以尽量让数据更贴合 API 模型本身的多轮对话模板,而并非把所有内容塞进一段指令当中。

因此,我们需要针对不同模型指定不同的解析模板。在 OpenCompass 中,我们将这套解析模板其称为 Meta Template。Meta Template 与模型的配置相绑定,在运行时与数据集的对话式模板相结合,最终产生最适合当前模型的 prompt。

# 指定时只需要把 meta_template 字段传入模型
models = [
    dict(
        type='AnyModel',
        meta_template = ...,  # meta tmplate
    )
]

接下来,我们会介绍 Meta Template 在两种模型上的配置方法。建议读者在阅读本章前,先了解对话式模板的基本语法。

在某些情况下(例如对基座的测试),我们并不需要在正常对话中注入任何的指令,此时我们可以将 meta template 置空。在这种情况下,模型接收到的 prompt 仅由数据集配置定义,是一个普通的字符串。若数据集配置使用的是对话式模板,不同角色的发言将会由 \n 拼接而成。

应用在语言模型上

下图展示了在 2-shot learning 的情况下,数据从数据集中经过 prompt template 和 meta template,最终构建出 prompt 的几种情况。读者可以该图为参考,方便理解后续的章节。

我们将会结合几个例子讲解 meta template 的定义方式。

假设根据数据集的对话式模板,产生了下面的 PromptList:

PromptList([
    dict(role='HUMAN', prompt='1+1=?'),
    dict(role='BOT', prompt='2'),
    dict(role='HUMAN', prompt='2+2=?'),
    dict(role='BOT', prompt='4'),
])

我们希望把这段对话传到一个已经经过 SFT 的模型。模型约定的对话中不同的角色的发言以<角色名>:开头,并固定以一个特殊 token 和 \n 结尾。以下是模型期望接收到的完整字符串:

<HUMAN>: 1+1=?<eoh>
<BOT>: 2<eob>
<HUMAN>: 2+2=?<eoh>
<BOT>: 4<eob>

在 meta template 中,我们只需要把每轮对话的格式抽象为如下配置即可:

# model meta template
meta_template = dict(
    round=[
          dict(role='HUMAN', begin='<HUMAN>: ', end='<eoh>\n'),
          dict(role='BOT', begin='<BOT>: ', end='<eob>\n'),
    ],
 )

有的数据集中可能会引入 SYSTEM 级别的角色:

PromptList([
    dict(role='SYSTEM', fallback_role='HUMAN', prompt='Solve the following math questions'),
    dict(role='HUMAN', prompt='1+1=?'),
    dict(role='BOT', prompt='2'),
    dict(role='HUMAN', prompt='2+2=?'),
    dict(role='BOT', prompt='4'),
])

假设模型同样接受 SYSTEM 这个角色,且期望输入为:

<SYSTEM>: Solve the following math questions<eosys>\n
<HUMAN>: 1+1=?<eoh>\n
<BOT>: 2<eob>\n
<HUMAN>: 2+2=?<eoh>\n
<BOT>: 4<eob>\n
end of conversation

我们就可以把 SYSTEM 角色的定义放进 reserved_roles 中。reserved_roles 中的角色不会在常规对话中出现,但允许数据集配置的对话式模板在 begin 或者 end 中调用。

# model meta template
meta_template = dict(
    round=[
          dict(role='HUMAN', begin='<HUMAN>: ', end='<eoh>\n'),
          dict(role='BOT', begin='<BOT>: ', end='<eob>\n'),
    ],
    reserved_roles=[dict(role='SYSTEM', begin='<SYSTEM>: ', end='<eosys>\n'),],
 ),

若模型并不接受 SYSTEM 角色,则不需要配置此项,也能正常运行。这种情况下,模型会接收到的字符串变成了:

<HUMAN>: Solve the following math questions<eoh>\n
<HUMAN>: 1+1=?<eoh>\n
<BOT>: 2<eob>\n
<HUMAN>: 2+2=?<eoh>\n
<BOT>: 4<eob>\n
end of conversation

这是因为在 OpenCompass 预定义的数据集中,每个 SYSTEM 发言都会有一个 fallback_role='HUMAN',即若 meta template 中的 SYSTEM 角色不存在,发言者会被切换至 HUMAN 角色。


有的模型还可能需要考虑在对话开始或结束时嵌入其它字符串,如系统指令:

Meta instruction: You are now a helpful and harmless AI assistant.
<SYSTEM>: Solve the following math questions<eosys>\n
<HUMAN>: 1+1=?<eoh>\n
<BOT>: 2<eob>\n
<HUMAN>: 2+2=?<eoh>\n
<BOT>: 4<eob>\n
end of conversation

此时,我们可以通过指定 beginend 参数指定这些字符串。

meta_template = dict(
    round=[
          dict(role='HUMAN', begin='<HUMAN>: ', end='<eoh>\n'),
          dict(role='BOT', begin='<BOT>: ', end='<eob>\n'),
    ],
    reserved_roles=[dict(role='SYSTEM', begin='<SYSTEM>: ', end='<eosys>\n'),],
    begin="Meta instruction: You are now a helpful and harmless AI assistant.",
    end="end of conversion",
 ),

生成式的任务评测中,我们也不会将答案直接输入模型,而是通过截断 prompt,在保留上文的同时,把模型输出的答案留空。

Meta instruction: You are now a helpful and harmless AI assistant.
<SYSTEM>: Solve the following math questions<eosys>\n
<HUMAN>: 1+1=?<eoh>\n
<BOT>: 2<eob>\n
<HUMAN>: 2+2=?<eoh>\n
<BOT>:

我们只需要把 BOT 的配置中把 generate 字段置为 True ,OpenCompass 即会将 BOT 的最后一句话留给模型生成:

meta_template = dict(
    round=[
          dict(role='HUMAN', begin='<HUMAN>: ', end='<eoh>\n'),
          dict(role='BOT', begin='<BOT>: ', end='<eob>\n', generate=True),
    ],
    reserved_roles=[dict(role='SYSTEM', begin='<SYSTEM>: ', end='<eosys>\n'),],
    begin="Meta instruction: You are now a helpful and harmless AI assistant.",
    end="end of conversion",
 ),

需要注意的是,generate 仅影响生成式推理。在进行判别式推理时,模型接受到的 prompt 仍然是完整的。

全量字段介绍

models = [
    dict(meta_template = dict(
            begin="Meta instruction: You are now a helpful and harmless AI assistant.",
            round=[
                    dict(role='HUMAN', begin='HUMAN: ', end='<eoh>\n'),  # begin and end can be a list of strings or integers.
                    dict(role='THOUGHTS', begin='THOUGHTS: ', end='<eot>\n', prompt='None'), # Here we can set the default prompt, which may be overridden by the speicfic dataset
                    dict(role='BOT', begin='BOT: ', generate=True, end='<eob>\n'),
            ],
            end="end of conversion",
            reserved_roles=[dict(role='SYSTEM', begin='SYSTEM: ', end='\n'),],
            eos_token_id=10000,
         ),
     )
]

meta_template 是一个字典,该字典可以包含以下数个字段:

  • beginend :(str,可选) prompt 的开头和结尾,通常是一些系统级别的指令。

  • round:(list) 每一轮对话的模板格式。每轮对话的 prompt 内容由数据集配置的对话式模板控制。

  • reserved_roles:(list,可选)指定 round 中并未出现,但有可能在数据集配置中用到的的预留角色,例如 SYSTEM 角色。

  • eos_token_id:(int, 可选):指定了该模型的 eos token 的 id。如果不设置,则默认为 tokenizer 中的 eos token id。它的主要作用是在生成式任务中,截取模型的输出结果,因此一般应该被设置为 generate=True 的项所对应的 end 的第一个 token id。

meta_template 的 round 指定了一轮对话中每个角色说话的格式,接受一个字典组成的列表,每个字典的关键字如下:

  • role(str): 参与对话的角色名,该字符串并不影响实际的 prompt。

  • begin, end (str): 指定该角色在说话时的固定开头或结尾。

  • prompt (str):角色的 prompt。在 meta template 中允许留空,但此时必须在数据集配置的 prompt 中指定。

  • generate (bool): 指定为 True 时,该角色即为模型扮演的角色。在生成任务中,模型接收到的 prompt 会截止到该角色的 begin 处,剩下的内容由模型补全。

应用在 API 模型上

API 模型的 meta template 与普通模型的 meta template 类似,但配置更为简单。用户可以根据情况,直接使用下面的两种配置之一,即可以多轮对话的方式评测 API 模型:

# 若 API 模型不支持 system 指令
meta_template=dict(
    round=[
        dict(role='HUMAN', api_role='HUMAN'),
        dict(role='BOT', api_role='BOT', generate=True)
    ],
)

# 若 API 模型支持 system 指令
meta_template=dict(
    round=[
        dict(role='HUMAN', api_role='HUMAN'),
        dict(role='BOT', api_role='BOT', generate=True)
    ],
    reserved_roles=[
        dict(role='SYSTEM', api_role='SYSTEM'),
    ],
)

原理

尽管不同 API 模型接受的数据结构不一,但总体上不乏共通之处。接受对话历史的接口里通常允许用户传入以下三个角色的 prompt:

  • 用户

  • 机器人

  • 系统 (可选)

据此 OpenCompass 为 API 模型预设了三个 api_roleHUMAN, BOT, SYSTEM,同时约定 API 模型接受的输入除了普通字符串外,还有一种以 PromptList 结构表示对话的中间格式。API 模型会将对话重新以多轮对话格式打包,发送至后端。但要激活此功能,需要用户使用上面的 meta template 中把数据集 prompt 模板中的角色 role 映射到对应的 api_role 中。下图展示了 API 模型接受的输入与 Prompt Template 、Meta Template 之间的关系。

调试

如果需要调试 prompt,建议在准备好配置文件后,使用 tools/prompt_viewer.py 脚本预览模型实际接收到的 prompt。阅读这里了解更多。