CPM-Bee是一个完全开源、允许商用的百亿参数中英文基座模型,也是CPM-Live训练的第二个里程碑。它采用Transformer自回归架构(auto-regressive),在超万亿(trillion)高质量语料上进行预训练,拥有强大的基础能力。开发者和研究者可以在CPM-Bee基座模型的基础上在各类场景进行适配来以创建特定领域的应用模型。
-
👐 开源可商用:OpenBMB始终秉承“让大模型飞入千家万户”的开源精神,CPM-Bee基座模型将完全开源并且可商用,以推动大模型领域的发展。我们鼓励全球范围内的科研机构、企业和个人开发者在遵守开源许可协议的前提下,自由地在CPM-Bee基座模型上进行创新。
-
💫 中英双语性能优异:CPM-Bee基座模型在预训练语料上进行了严格的筛选和配比,同时在中英双语上具有亮眼表现,具体可参见评测任务和结果。
-
📖 超大规模高质量语料:CPM-Bee基座模型在超万亿语料进行训练,是开源社区内经过语料最多的模型之一。同时,我们对预训练语料进行了严格的筛选、清洗和后处理以确保质量。
-
OpenBMB大模型系统生态支持:OpenBMB大模型系统围绕高性能预训练、适配、压缩、推理开发了一系列工具,CPM-Bee基座模型将配套所有的工具脚本,高效支持开发者进行进阶使用。
-
🔨 对话和工具使用能力: 结合OpenBMB在指令微调和工具学习的探索,我们在CPM-Bee基座模型的基础上进行微调,训练出了具有强大对话和工具使用能力的实例模型,API和内测将于近期开放。
Read this in English.
说明:CPM-Bee是一个基座模型,即从零开始通过预训练得来。我们鼓励用户在自己的场景和数据上适配/微调/对齐后再进行使用。例如,WebCPM 以CPM-Bee为基座,在人类网络检索的序列化数据上进行适配,获得了复杂问答和上网检索的能力。后续我们将会发布更多在CPM-Bee基座模型基础上适配的模型。
- [2023/06/30] 基于CPM-Bee的多模态系列模型VisCPM发布,支持多模态对话和文生图!
- [2023/06/16] CPM-Bee现已支持🤗Transformers。
- [2023/06/08] 更新了使用CPM-Bee进行基础任务微调的教程。
- [2023/05/27] 百亿参数,允许商用的中英双语基座模型CPM-Bee开源了,它是CPM-Live的第二个里程碑。
模型 | 描述 |
---|---|
VisCPM | 支持多模态对话和图文双向生成的开源中英双语多模态大模型 |
WebCPM | 支持复杂问答和上网检索的开源中文大模型 |
您需要克隆该仓库:
$ git clone -b main --single-branch https://github.com/OpenBMB/CPM-Bee.git
并确保您的环境符合要求:
- python>=3.7
- torch>=1.10,<2.0.0
我们建议使用Anaconda管理环境并从PyPI安装其他依赖项:
$ cd src
$ pip install -r requirements.txt
注意torch版本需与CUDA版本对应,不然会引起安装错误,尤其是torch也是通过pip install -r requirements.txt进行安装时,较为容易出现自动拉取安装的torch版本与本地CUDA版本不对应,导致BMTrain无法安装。
- 不同于已有基座模型采用非结构化的自由文本形式组织数据,CPM-Bee采用结构化的json格式来组织数据。对于结构化数据,CPM-Bee的基座模型可以准确地进行语义理解,高效完成各类基础任务,包括:填空、文本生成、翻译、问答、评分预测、文本选择题等等,下面给出一些代表性任务的模板:
"填空":{
"input": "心理学领域的研究人员发现,做出重要决定的最好方法之一,比如选择一所大学或<mask_0>,都涉及到使用决策工作表。研究优化的心理学家将<mask_1>与理论理想决策进行比较,看看它们有多相似。工作表程序的支持者认为它会产生最优的,也就是说,最好的决策。虽然有<mask_2>可以接受,但它们在本质上都是相似的。",
"<ans>":{
"<mask_0>":"",
"<mask_1>":"",
"<mask_2>":""
}
}
"文本生成": {
"input": "今天天气很好,我和妈妈一起去公园,",
"prompt": "往后写约100字",
"<ans>": ""
}
"翻译": {
"input": "北京是中国的首都",
"prompt": "中翻英",
"<ans>": ""
}
"问答": {
"input": "NGC 6231是一个位于天蝎座的疏散星团,天球座标为赤经16时54分,赤纬-41度48分,视觉观测大小约45角分,亮度约2.6视星等,距地球5900光年。NGC 6231年龄约为三百二十万年,是一个非常年轻的星团,星团内的最亮星是5等的天蝎座 ζ1星。用双筒望远镜或小型望远镜就能看到个别的行星。NGC 6231在1654年被意大利天文学家乔瓦尼·巴蒂斯特·霍迪尔纳(Giovanni Battista Hodierna)以Luminosae的名字首次纪录在星表中,但是未见记载于夏尔·梅西耶的天体列表和威廉·赫歇尔的深空天体目录。这个天体在1678年被爱德蒙·哈雷(I.7)、1745年被夏西亚科斯(Jean-Phillippe Loys de Cheseaux)(9)、1751年被尼可拉·路易·拉卡伊(II.13)分别再次独立发现。",
"question": "NGC 6231的经纬度是多少?",
"<ans>": ""
}
"评分预测": {
"input":"之前多次聚餐都选择这里,有各种大小的包房同时能容纳很多人,环境好有特色还有表演,整体聚餐氛围一下被带动起来。现在由于炭火改成了电烤羊,口感真的不如从前,不过其他菜品都还是不错,烤羊剩下的拆骨肉最后还能再加工一下椒盐的也很好吃。",
"question":"评分是多少?(1-5)",
"<ans>":""
}
"选择题": {
"input": "父母都希望自己的孩子诚实、勇敢、有礼貌。要想让孩子成为这样的人,父母首先得从自己做起,要是连自己都做不到,又怎能要求孩子做到呢?",
"options": {
"<option_0>": "少提要求",
"<option_1>": "降低标准",
"<option_2>": "自己先做好",
"<option_3>": "让孩子拿主意"
},
"question": "教育孩子时,父母应该:",
"<ans>": ""
}
- 注意在模型推理时可采用上述模板,在模型训练时需在中""处填上标准答案,如:
{
"input": "北京是中国的首都",
"prompt": "中翻英",
"<ans>": "Beijing is the capital of China"
}
{
"input": "父母都希望自己的孩子诚实、勇敢、有礼貌。要想让孩子成为这样的人,父母首先得从自己做起,要是连自己都做不到,又怎能要求孩子做到呢?",
"options": {
"<option_0>": "少提要求",
"<option_1>": "降低标准",
"<option_2>": "自己先做好",
"<option_3>": "让孩子拿主意"
},
"question": "教育孩子时,父母应该:",
"<ans>": "<option_2>"
}
- CPM-Bee在预训练阶段注入了一些json格式,可以直接使用,也支持用户自己设计json格式然后微调模型。所有的json格式需要满足下列条件:
- 输出内容必须使用作为键值来组织;
- 选择题的选项建议使用<option_xx>来组织,且xx为数字;
- 填空题的空白建议使用<mask_xx>来组织,且xx为数字;
- 因为"<"在CPM-Bee中会作为识别 、<option_xx>、<mask_xx>的触发符,所以在数据中文中必须将"<"转化为"<<"进行转义,例如在下面的例子中"1 < 2"、"10 < 8"被转写为"1 << 2"、"10 << 8":
{
"question": "下面哪项是正确的",
"options": {
"<option_0>": "1 << 2",
"<option_1>": "10 << 8",
},
"<ans>": "<option_0>"
}
-
数据清洗
- 需要将每个样本放置为一行,换行进行转义变为\n,格式可为txt也可为json,例如:
- txt格式
... ... How can cross training benefit groups like runners, swimmers, or weightlifters?\n\n1. Reduces the risk of injury...\n\n2. Improves overall fitness... Are there any particular physical benefits to mindful walking, such as improved posture or increased physical fitness?\n\n1. Choose a quiet and peaceful environment...\n\n2. Start by tuning into your breath and becoming aware of your surroundings... ... ...
- json格式
... ... {"template": "Does the answer correctly answer the question", "sentence": "Unicode has the explicit aim of transcending ...", "question": "What is the aim of Unicode?", "options": {"<option_0>": "no", "<option_1>": "yes"}, "<ans>": "<option_1>"} ... ...
- 案例:我们提供了wiki(txt格式,纯文本)和flan(json格式,选择题)的样例,可以下载后按下列文件路径中的raw_data进行文件组织,完成后续步骤的尝试。
-
CPMBee/ ├── src | └── ... └── raw_data(原始数据位置) ├── wiki | └── raw.txt(txt原始数据) └── flan └── raw.json(json原始数据)
- 需要将每个样本放置为一行,换行进行转义变为\n,格式可为txt也可为json,例如:
-
数据集生成
- CPMBee为了高效读取数据以及在分布式文件系统上进行数据集部署,需要将其转化成二进制文件,具体调用src下的build_dataset.py,具体参数包括:
- --input-path: 导入的原始数据路径,程序会将路径下的文件统一打包进行处理
- --output-path: 导出的数据集路径
- --output-name: 导出的数据集名称
- --data-type: txt/json
- --min-length: 小于最小长度的数据将被抛弃
- --max-length: 超过最大长度的数据将被切分
- txt格式的原始数据将按照min-length和max-length进行切分,然后统一以{'text':'......'}的json格式导出到数据集
- 导出的数据集将有两个文件,一个名为output-name的二进制文件,一个meta.bin文件,meta.bin文件中记录了output-name的元信息,包括:
- "file_name": meta.bin对应的文件名,一般就是output-name
- "block_begin": 数据集按块分布存储,数据集所在的开始块,一般是0
- "block_end": 数据集按块分布存储,数据集所在的结束块,一般是总块数
- "nbytes": 60221163, 总的数据集大小
- "nlines": 41733, 总的数据集行数
- "block_size": 16777216,数据集每块大小
- 案例:我们将样例给定的wiki和flan生成为数据集:
-
$ cd CPMBee/src $ python build_dataset.py --input-path ../raw_data/wiki/ --output-path ../datasets/wiki/ --output-name wiki --data-type txt --min-length 100 --max-length 10000 $ python build_dataset.py --input-path ../raw_data/flan/ --output-path ../datasets/flan/ --output-name flan --data-type json
- 生成之后的文件结构为:
CPMBee/ ├── src | ├── ... | └── build_dataset.py ├── raw_data | ├── wiki | | └── raw.txt | └── flan | └── raw.json └── datasets(生成的数据集) ├── wiki(wiki对应的数据集) | └── data | ├── wiki | └── meta.bin └── flan(flan对应的数据集) └── data ├── flan └── meta.bin
- CPMBee为了高效读取数据以及在分布式文件系统上进行数据集部署,需要将其转化成二进制文件,具体调用src下的build_dataset.py,具体参数包括:
-
任务转换脚本
- 对于每个数据集,可以撰写任务转换脚本来对数据集中的json格式进行改写,改写成各类预训练任务。
- 脚本格式需满足以下格式:
import random def transform(data, num_sample: int, r: random.Random): ...
- 对于每个数据集,CPMBee的底层文件系统将会自动导入数据集,读出数据,然后调用任务转换脚本进行改造。
- 转换脚本包含三个输入参数,data为读出样本,num_sample为读出的样本数量(通常为1条,in-context learning设定下会有多条),r为随机生成器。
- 案例:针对wiki和flan写转换脚本:
- wiki脚本
import random def rand(n: int, r: random.Random): return int(r.random() * n) def transform(data, num_sample: int, r: random.Random): # 按照之前的步骤,wiki中的数据都为{'text':'...'}形式 text = data['text'] # 随机遮蔽50%~100%的内容进行预测 mid = rand(len(text) // 2, r) # CPMBee需要<来识别特殊键,所以需要将内容中的<转换为<<进行转义 ipt = text[:mid].replace("<", "<<") ans = text[mid:].replace("<", "<<") return {"input": ipt, "<ans>": ans}
- flan脚本
import random def transform(data, num_sample: int, r: random.Random): # 按照之前的步骤,flan中的数据已经是选择题的json格式了,且包含<ans>键,所以直接返回进行训练 return data
- 写完任务转换脚本后的文件结构为:
CPMBee/ ├── src | ├── ... | └── build_dataset.py ├── raw_data | ├── wiki | | └── raw.txt | | | └── flan | └── raw.json └── datasets ├── wiki | ├── data | | ├── wiki | | └── meta.bin | └── transform.py(wiki对应的任务转换脚本) └── flan ├── data | ├── flan | └── meta.bin └── transform.py(flan对应的任务转换脚本)
-
数据集脚本
- 所有参与训练的数据集需要一个数据集脚本来进行信息汇总,数据集脚本也是一个json文件,格式如下
-
[ { "dataset_name": "wiki", "task_name": "lm", "weight": 1.0, "path": "wiki/data", "incontext_weight": [1.0], "transforms": "wiki/transform.py" }, { "dataset_name": "flan", "task_name": "nlu", "weight": 1.0, "path": "flan/data", "incontext_weight": [1.0], "transforms": "flan/transform.py" } ]
- 其中,包含参数有:
- dataset_name: 数据集名称;
- task_name: 数据集所属任务,task_name+dataset_name将作为训练过程中识别数据集的标签,task_name则可用于训练过程中针对任务分别汇总loss信息;
- weight: 采样权重;
- path: meta.bin、二进制数据对应的路径;
- transforms: 任务转换脚本对应的路径;
- incontext_weight: 训练样本叠加,[1.0]表示100%的概率采样一个样本,[0.8, 0.2]表示20%概率采样两个样本进行拼接,[0.75, 0.1, 0.15]表示15%概率采样三个样本、10%的概率采样两个样本进行拼接。
- 案例:写完数据集脚本汇总wiki和flan数据集后的文件路径结构
CPMBee/ ├── src | ├── ... | └── build_dataset.py ├── raw_data | ├── wiki | | └── raw.txt | └── flan | └── raw.json └── datasets ├── datasets.json(数据集脚本) ├── wiki | ├── data | | ├── wiki | | └── meta.bin | └── transform.py └── flan ├── data | ├── flan | └── meta.bin └── transform.py
- 其中,包含参数有:
-
预训练脚本
- 预训练脚本如下
-
#! /bin/bash # 每台机器的卡数 GPUS_PER_NODE=8 # 机器台数 NNODES=1 # master机器的IP和端口,更多信息可以参考pytorch分布式训练文档 MASTER_ADDR="localhost" MASTER_PORT=12345 OPTS="" # model and dataset settings # 模型配置 OPTS+=" --model-config config/cpm-bee-10b.json" # 步骤4数据集脚本位置 OPTS+=" --dataset ../datasets/datasets.json" # training settings # 训练步数 OPTS+=" --train-iters 200000" # 单卡的batch size OPTS+=" --batch-size 2" # 样本最大长度,注意CPMBee底层会拼接数据确保max-length的利用效率 OPTS+=" --max-length 2048" # 学习率,如果接着之前的ckpt继续训练,建议改小 OPTS+=" --lr 0.01" # warmup步数 OPTS+=" --warmup-iters 2000" # 学习率下降的机制 OPTS+=" --lr-decay-style noam" # weight decay,这个会结合到AdamW中 OPTS+=" --weight-decay 0.01" # 梯度裁剪的范围 OPTS+=" --clip-grad 1.0" # 混合精度loss加倍系数 OPTS+=" --loss-scale 1048576" # 混合精度loss加倍系数的增长/降低倍数 OPTS+=" --loss-scale-factor 2" # 每隔多少步loss加倍系数进行增长 OPTS+=" --loss-scale-steps 128" # log settings # 每隔多少步打印参数均值方差、梯度均值方差 OPTS+=" --inspect-iters 100" # log文件输出路径 OPTS+=" --log-dir ../logs/train/" # tensorboard文件输出路径 OPTS+=" --tensorboard ../logs/tensorboard/cpm_live_48_4096/" # saving ckpts # 每隔多少步输出ckpt OPTS+=" --save-iters 500" # 输出ckpt的路径 OPTS+=" --save ../results/" # 输出ckpt的名称,CPMBee在输出ckpt时会打印步数 OPTS+=" --save-name cpm_live_checkpoint" # loading ckpts,如果加载老的ckpt就把下列注释打开,然后填写MODEL_STEPS # MODEL_STEPS="0" # OPTS+=" --start-step ${MODEL_STEPS}" # OPTS+=" --load ../results/cpm_live_checkpoint-${MODEL_STEPS}.pt" # 是否加载历史梯度 # OPTS+=" --load-grad " CMD="torchrun --nnodes=${NNODES} --nproc_per_node=${GPUS_PER_NODE} --rdzv_id=1 --rdzv_backend=c10d --rdzv_endpoint=${MASTER_ADDR}:${MASTER_PORT} pretrain_cpm_bee.py ${OPTS}" echo ${CMD} $CMD
- 案例:写完预训练脚本后的文件路径结构
-
CPMBee/ ├── src | ├── scripts | | └── pretrain_cpm_bee.sh(预训练脚本) | ├── pretrain_cpm_bee.py | └── build_dataset.py ├── raw_data | ├── wiki | | └── raw.txt | └── flan | └── raw.json └── datasets ├── datasets.json ├── wiki | ├── data | | ├── wiki | | └── meta.bin | └── transform.py └── flan ├── data | ├── flan | └── meta.bin └── transform.py
-
预训练命令
-
cd CPMBee/src bash scripts/pretrain_cpm_bee.sh
- 案例:写完预训练脚本后的文件路径结构
-
CPMBee/ ├── src | ├── scripts | | └── pretrain_cpm_bee.sh | ├── pretrain_cpm_bee.py | └── build_dataset.py ├── results(ckpt输出路径) ├── logs(log文件输出路径) ├── raw_data | ├── wiki | | └── raw.txt | └── flan | └── raw.json └── datasets ├── datasets.json ├── wiki | ├── data | | ├── wiki | | └── meta.bin | └── transform.py └── flan ├── data | ├── flan | └── meta.bin └── transform.py
-
基于OpenBMB的大模型系统生态,我们在训练CPM-Bee的过程中实现了全流程高效。同时提供了模型微调(基于BMTrain和OpenDelta)、工具使用(基于BMTools)、模型压缩(基于BMCook)、低资源推理(基于BMInf)的全套脚本,可以协助开发者快速上手和使用CPM-Bee。
基于BMTrain和OpenDelta,我们给出了两种微调方案:全参数微调和参数高效的增量微调,可以将CPM-Bee适配到各类下游场景中。
- 全参数微调:
$ torchrun --nnodes=1 --nproc_per_node=4 --rdzv_id=1 --rdzv_backend=c10d --rdzv_endpoint=localhost:12345 finetune_cpm_bee.py
- 增量微调:
$ torchrun --nnodes=1 --nproc_per_node=4 --rdzv_id=1 --rdzv_backend=c10d --rdzv_endpoint=localhost:12345 finetune_cpm_bee.py \
--use-delta \
微调流程
要在特定任务上微调模型,您应该准备数据集并按如下方式执行:
- 调整数据格式。
您可以将分类问题集成到选择题的格式中。有关数据格式的更多信息,您可以查看CPM-Bee数据格式
应当注意,由于我们选定<...>
作为特殊token的标记,可能与文本中的<
混淆,所以您应当对文本数据中的非特殊token的部分,做转义处理。例如,我们有如下数据该数据中,{"input": "团队配合非常重要,如果不能做到<mask_0>,则可能会造成1+1<2的结果,所以,要更加注意<mask_1>", "<ans>": {"<mask_0>": "", "<mask_1>": ""}}
<mask_0>
与<mask_1>
是特殊token,应保持不变,其余<
均替换为<<
,转义处理后的数据如下:{"input": "团队配合非常重要,如果不能做到<mask_0>,则可能会造成1+1<<2的结果,所以,要更加注意<mask_1>", "<ans>": {"<mask_0>": "", "<mask_1>": ""}}
- 将数据集预处理为二进制文件。 要构建预处理数据集,您可以运行
$ python preprocess_dataset.py --input your/reformated/data/path --output_path your/binary/data/path --output_name data_name
预处理后,您将获得:
|-- your/binary/data/path
|-- folder1
| |-- data_name
| |-- meta.bin
|-- folder2
|-- data_name
|-- meta.bin
- 微调CPM-Bee 要开始微调,您可以运行:
$ bash scripts/finetune_cpm_bee.sh
或者您可以直接通过torchrun运行finetune_cpm_bee.py。例如,您可以在具有4块GPU的服务器上对CPM-Bee进行增量微调,如下所示:
torchrun --nnodes=1 --nproc_per_node=4 --rdzv_id=1 --rdzv_backend=c10d --rdzv_endpoint=localhost:12345 finetune_cpm_bee.py \
--model-config your/model/config/path \
--load your/model/checkpoint/path \
--dataset your/binary/data/path/folder1 \
--eval_dataset your/binary/data/path/folder2 \
--use-delta
我们建议您使用上述方案微调,同时您可以参考🤗Transformers,使用您自己的并行化策略来微调CPM-Bee。
基于BMCook,我们对原始的CPM-Bee基座模型进行压缩,提供了多种大小的CPM-Bee模型来适应各种不同的场景。此外,我们针对不同大小的模型都提供了基于🤗Transformers的版本,您可以点击下方链接进入模型仓库查看更多信息。
模型 | #Attn层 | #FFN层 | Attn隐状态维度 | FFN隐状态维度 | 下载 | 🤗Transformers |
---|---|---|---|---|---|---|
CPM-Bee-10B | 48 | 48 | 4096 | 10240 | 链接 | 链接 |
CPM-Bee-5B | 19 | 24 | 4096 | 10240 | 链接 | 链接 |
CPM-Bee-2B | 19 | 24 | 2048 | 5120 | 链接 | 链接 |
CPM-Bee-1B | 19 | 24 | 1280 | 1024 | 链接 | 链接 |
对于压缩后的CPM-Bee,普通的消费级显卡即可完成快速推理,不同大小的模型所占用的推理资源如下:
模型 | 推理显存占用 | 推荐硬件 |
---|---|---|
CPM-Bee-10B | 20GB | RTX 3090(24 GB) |
CPM-Bee-5B | 11 GB | RTX 3090(24 GB) |
CPM-Bee-2B | 6.7 GB | GTX 1080(8 GB) |
CPM-Bee-1B | 4.1 GB | GTX 1660(6 GB) |
对于具体的推理任务,您可以根据克隆下来的CPM-Bee仓库编写自己的推理代码。这里我们举一个简单的文本生成示例。
from cpm_live.generation.bee import CPMBeeBeamSearch
from cpm_live.models import CPMBeeTorch, CPMBeeConfig
from cpm_live.tokenizers import CPMBeeTokenizer
import torch
# prepare your input data.
data_list = [
{"input": "今天天气是真的", "prompt": "往后写一句话", "<ans>": ""}
]
# load model
config = CPMBeeConfig.from_json_file("cpm-bee-5b.json")
ckpt_path = "cpm-bee-5b-ckpt.pt"
tokenizer = CPMBeeTokenizer()
model = CPMBeeTorch(config=config)
# load checkpoints
model.load_state_dict(torch.load(ckpt_path), strict=False)
model.cuda()
# use beam search
beam_search = CPMBeeBeamSearch(
model=model,
tokenizer=tokenizer,
)
for data in data_list:
inference_results = beam_search.generate([data], max_length=100, repetition_penalty=1.1)
for res in inference_results:
print(res)
我们还将上面的代码集成到一个python文件text_generation.py
中,为了便于推理,可以直接运行该文件:
python text_generation.py
如果您的显存较小,想使用BMInf进行低资源推理:
python text_generation.py --use-bminf --memory-limit 12
如果希望使用CPU进行推理:
python text_generation.py --device cpu
如果希望在推理时加载微调后的delta模型:
python text_generation.py --delta delta.pt
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("openbmb/cpm-bee-10b", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("openbmb/cpm-bee-10b", trust_remote_code=True).cuda()
result = model.generate({"input": "今天天气不错,", "<ans>": ""}, tokenizer)
print(result)
我们提供了一个基于🤗Transformers的推理脚本text_generation_hf.py
,您可以运行
python text_generation_hf.py
多卡部署:
python text_generation_hf.py --multi-gpu
多卡部署的基础上,加载微调后的delta模型:
python text_generation_hf.py --multi-gpu --delta delta.pt
我们对CPM-Bee基座模型进行了全方位的中英文能力评测。 在中文的Zero-CLUE评测基准上,CPM-Bee可以大幅超越其他模型,位列中文大模型第一。在英文评测基准上,CPM-Bee也展现出了和开源模型LLaMA相当的效果。
模型 | Score | EPRSTMT | CSLDCP | TNEWSF | IFLYTEKF | OCNLIF | BUSTM | CHIDF | CSLF | CLUEWSCF |
---|---|---|---|---|---|---|---|---|---|---|
CPM-Bee | 78.184 | 85.52 | 58.99 | 78.2 | 58.81 | 77.73 | 83.85 | 89.65 | 83.6 | 87.24 |
Ctyun_Big_Model | 76.217 | 87.25 | 48.02 | 77.13 | 59.62 | 75.5 | 90.05 | 84.6 | 82.9 | 81.72 |
PaddleNLP-UTC | 70.547 | 85.92 | 58.92 | 68.27 | 40.15 | 74.79 | 76.7 | 82.75 | 70.6 | 74.48 |
二郎神-UnifiedMC | 70.295 | 88.71 | 50.18 | 71.67 | 40.58 | 75.5 | 80.15 | 84.85 | 60.6 | 81.72 |
模型 | Average | BoolQ | PIQA | SIQA | HellaSwag | WinoGrande | ARC-e | ARC-c | OBQA |
---|---|---|---|---|---|---|---|---|---|
GPT-3 | 60.5 | 81 | - | 78.9 | 70.2 | 68.8 | 51.4 | 57.6 | |
Gopher | 79.3 | 81.8 | 50.6 | 79.2 | 70.1 | - | - | - | |
Chinchilla | 83.7 | 81.8 | 51.3 | 80.8 | 74.9 | - | - | - | |
PaLM | 84.8 | 80.5 | - | 79.7 | 77 | 75.2 | 52.5 | 50.4 | |
LLaMA-7B | 66.13 | 76.5 | 79.8 | 48.9 | 76.1 | 70.1 | 72.8 | 47.6 | 57.2 |
LLaMA-13B | 68.08 | 78.1 | 80.1 | 50.4 | 79.2 | 73 | 74.8 | 52.7 | 56.4 |
CPM-Bee | 67.80 | 78.69 | 77.58 | 61.11 | 78.89 | 61.88 | 66.88 | 54.18 | 63.20 |
使用和OpenBMB和THUNLP联合自研的Decoder Tuning(将发表于ACL 2023)技术,可以仅仅使用API的情况下,不访问和修改模型参数即可大幅提高下游任务的性能。 实现代码链接。
样本数 | 模型 | SST2 | IMDB | Yelp | AGNews | DBpedia | Yahoo | RTE | SNLI | MNLI-m | MNLI-mm | FewNERD | Avg. |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | CPM-Bee | 80.5 | 89.1 | 96.6 | 74.6 | 71.3 | 46.7 | 84.1 | 45.4 | 45.6 | 45.6 | 1.6 | 61.9 |
16 | T5-3B | 89.9 | 92.7 | 94.9 | 87.7 | 96.2 | 66.5 | 55.8 | 52.0 | 52.8 | 52.2 | 51.9 | 72.1 |
LLaMA-7B | 85.1 | 90.5 | 92.8 | 71.4 | 89.8 | 45.1 | 49.1 | 35.2 | 36.3 | 36.2 | 54.6 | 62.4 | |
Vicuna-13B | 82.1 | 88.8 | 95.6 | 86.4 | 74.4 | 55.3 | 62.5 | 61.4 | 54.3 | 48.6 | 52.1 | 69.2 | |
CPM-Bee | 92.7 | 96.2 | 97.5 | 85.5 | 89.8 | 65.2 | 86.0 | 86.4 | 76.3 | 76.3 | 54.6 | 82.4 | |
64 | LLaMA-7B | 87.5 | 85.7 | 96.9 | 75.4 | 93.5 | 47.4 | 51.4 | 39.4 | 36.2 | 38.4 | 59.8 | 64.7 |
Vicuna-13B | 92.0 | 90.8 | 96.5 | 87.7 | 87.8 | 58.7 | 59.1 | 58.7 | 56.7 | 48.4 | 56.8 | 72.1 | |
CPM-Bee | 94.3 | 96.5 | 98.3 | 88.5 | 93.5 | 68.7 | 87.1 | 88.9 | 78.0 | 79.0 | 59.8 | 84.8 | |
256 | LLaMA-7B | 87.6 | 88.8 | 97.1 | 82.4 | 94.2 | 48.5 | 53.4 | 39.8 | 37.3 | 37.4 | 59.1 | 66.0 |
Vicuna-13B | 93.1 | 88.7 | 96.8 | 89.9 | 89.1 | 58.6 | 58.5 | 58.7 | 57.5 | 48.3 | 56.6 | 72.3 | |
CPM-Bee | 94.5 | 96.7 | 98.4 | 89.7 | 94.2 | 69.9 | 87.7 | 89.4 | 81.7 | 80.6 | 59.1 | 85.6 |
CPM-Bee基座采用协议为“通用模型许可协议-来源说明-宣传限制-商业授权”,本模型允许商用,如需将模型用于商业用途,请联系[email protected]来获取书面授权。
作为一个语言模型,CPM-Bee通过学习大量的文本来生成内容,但它无法理解、表达个人观点或价值判断,它所输出的任何内容都不代表模型开发者的观点和立场。 因此用户在使用CPM-Bee生成的内容时,应自行负责对其进行评估和验证。