- 文本生成是自然语言处理中一个重要的研究领域,具有广阔的应用前景。简单来说,模型接受源文本(source text)输入,完成目标文本(target text)输出。经典地应用场景如对话生成、翻译、摘要、纠错、改写、Text2SQL、生成式问答、问题生成等。
- 目前文本生成任务只支持单机单卡。
- 文本生成任务位于 ./applications/tasks/text_generation
text_generation/
├── data #数据集存放文件夹
│ └── ernie_gen_dureader
│ ├── dev.tsv
│ ├── test.tsv
│ └── train.tsv
├── data_set_reader
│ └── ernie_gen_infilling_dataset_reader.py
├── examples
│ ├── cls_ernie_gen_infilling_ch_infer.json
│ └── cls_ernie_gen_infilling_ch.json
├── inference
│ ├── custom_inference.py
│ └── __init__.py
├── model
│ ├── ernie_infilling_generation.py
│ └── __init__.py
├── run_infer.py
├── run_trainer_ernie_gen.py
- 文心预置为问题生成任务数据集,该数据集来自Dureader,DuReader 是百度在自然语言处理国际顶会 ACL 2018 发布的机器阅读理解数据集,所有的问题、原文都来源于百度搜索引擎数据和百度知道问答社区,答案是由人工整理的。实验是在 DuReader 的单文档、抽取类的子集上进行的,训练集包含15763个文档和问题,验证集包含1628个文档和问题。[链接: https://arxiv.org/pdf/1711.05073.pdf]
- 问题生成任务的训练集、验证集分别存放在./data/ernie_gen_dureader目录下的train.tsv, dev.tsv文件中,训练集、验证集的数据格式相同,数据分为3列,列与列之间用\t进行分割。第一行为列名,从第二行开始为数据样例。数据示例如下:
answer |
paragraph |
tgt |
XPE |
爬行垫根据中间材料的不同可以分为:XPE爬行垫、EPE爬行垫、EVA爬行垫、PVC爬行垫;其中XPE爬行垫、EPE爬行垫都属于PE材料加保鲜膜复合而成,都是无异味的环保材料,但是XPE爬行垫是品质较好的爬行垫,韩国进口爬行垫都是这种爬行垫,而EPE爬行垫是国内厂家为了减低成本,使用EPE(珍珠棉)作为原料生产的一款爬行垫,该材料弹性差,易碎,开孔发泡防水性弱。EVA爬行垫、PVC爬行垫是用EVA或PVC作为原材料与保鲜膜复合的而成的爬行垫,或者把图案转印在原材料上,这两款爬行垫通常有异味,如果是图案转印的爬 |
爬行垫什么材质的好 |
360影视 |
在360影视里看试试看吧沈珍珠已经决心入宫,她向安庆绪辞行,安庆绪冲动地要带着她逃走,被安禄山带人拦住。安庆绪想告诉珍珠安禄山其实是在利用她,但遭到安禄山的警告,他担心珍珠会因此遭遇不测,只好三缄其口。结果,他被安禄山命人拉入密室暴打,珍珠则独自启程去了长安。 |
大唐荣耀哪里能看全集 |
- 问题生成任务可以通过已知的文章和用户回答,生成相关的问题来增加搜索引擎的泛化能力
- 在该数据集中分为两类文本:源文本、目标文本,问题生成任务就是根据源文本来生成目标文本:
- 文心预置的可用于生成任务的模型源文件在./applications/tasks/text_generation/model/目录下
网络名称(py文件的类型) |
简介 |
支持类型 |
备注 |
ErnieInfillingGeneration(ernie_infilling_generation.py) |
ERNIE-GEN是针对通用生成任务的预训练模型,在4类生成任务的5个英文公开数据集上超过微软 MASS 和 UNILM、Facebook BART、谷歌 T5 等参数规模更大、预训练数据更多的竞品模型取得SOTA效果,在中文任务上较通用ERNIE模型提升显著 |
通用生成Finetune任务 |
序列到序列 |
- 文心提供的ERNIE预训练模型的参数文件和配置文件在 applications/applications/models_hub目录下,使用对应的sh脚本,即可拉取对应的模型、字典、必要环境等文件。
模型名称 |
下载脚本 |
备注 |
ERNIE-Gen |
sh download_ernie_gen_base_ch.sh |
下载并解压后,参数、字典和配置存放于ernie_gen_ch_dir目录 |
- 采用序列生成常用指标:BLEU-4与ROUGE-L 。
- 进入指定任务的目录:./applications/tasks/text_generation
cd ./applications/tasks/text_generation
- 配置文件:./examples/cls_ernie_gen_infilling_ch.json
{
"dataset_reader": {
"train_reader": {
"name": "train_reader",
"type": "InfillingGenReader",
"fields": [],
"config": {
"data_path": "./data/ernie_gen_dureader/train.tsv",
"shuffle": true,
"batch_size": 8,
"epoch": 20,
"sampling_rate": 1.0,
"need_data_distribute": true,
"extra_params":{
"vocab_path":"../../models_hub/ernie_gen_ch_dir/vocab_ernie_gen_ch.txt",
"max_seq_len":512,
"do_lower_case":true,
"in_tokens":false,
"tokenizer": "FullTokenizer",
"tgt_type_id": 7,
"max_src_len": 320,
"max_tgt_len": 64,
"max_dec_len": 32
}
}
},
"dev_reader": {
"name": "dev_reader",
"type": "InfillingGenReader",
"fields": [],
"config": {
"data_path": "./data/ernie_gen_dureader/dev.tsv",
"shuffle": false,
"batch_size": 16,
"epoch": 1,
"sampling_rate": 1.0,
"need_data_distribute": true,
"extra_params":{
"vocab_path":"../../models_hub/ernie_gen_ch_dir/vocab_ernie_gen_ch.txt",
"max_seq_len":512,
"do_lower_case":true,
"in_tokens":false,
"tokenizer": "FullTokenizer",
"tgt_type_id": 7,
"max_src_len": 320,
"max_tgt_len": 64,
"max_dec_len": 32
}
}
}
},
"model": {
"type": "ErnieInfillingGeneration",
"is_dygraph": 0,
"embedding": {
"emb_dim": 768,
"use_amp": false,
"config_path": "../../models_hub/ernie_gen_ch_dir/ernie_gen_ch_config.json"
},
"optimization":{
"learning_rate": 5e-5,
"use_lr_decay": true,
"use_default_decay": false,
"lr_scheduler": "linear_warmup_decay",
"epsilon": 1e-6,
"warmup_steps": 0,
"warmup_proportion": 0.1,
"weight_decay": 0.01,
"use_dynamic_loss_scaling": false,
"init_loss_scaling": 128,
"incr_every_n_steps": 100,
"decr_every_n_nan_or_inf": 2,
"incr_ratio": 2.0,
"decr_ratio": 0.8
},
"label_smooth": 0.1,
"beam_size": 4,
"weight_sharing": true,
"length_penalty": 1.0
},
"trainer": {
"type" : "CustomGenerationTrainer",
"PADDLE_PLACE_TYPE": "gpu",
"ramdom_seed": 1,
"save_inference_model": true,
"train_log_step": 10,
"is_do_train": 1,
"is_eval_dev": 1,
"is_eval_test": 0,
"eval_step": 10000,
"save_model_step": 100000000,
"load_parameters": "",
"load_checkpoint": "",
"pre_train_model": [
{
"name": "ernie_gen_ch",
"params_path": "../../models_hub/ernie_gen_ch_dir/params_dec"
}
],
"output_path": "./output/ernie_gen_ch"
}
}
python run_trainer_ernie_gen.py --param_path ./examples/cls_ernie_gen_infilling_ch.json
- 训练模型保存于./output/ernie_gen_ch文件夹下(可在配置文件./examples/cls_ernie_gen_infilling_ch.json中修改输出路径),其中save_inference_model/文件夹会保存用于预测的模型文件,save_checkpoint/文件夹会保存用于热启动的模型文件
- 训练模型的日志文件保存于./log文件夹下
- 配置文件:./examples/cls_ernie_gen_infilling_ch_infer.json
- 在配置文件./examples/cls_ernie_gen_infilling_ch_infer.json中需要更改 inference.inference_model_path 为上面训练过程中所保存的预测模型的路径
{
"dataset_reader": {
"predict_reader": {
"name": "predict_reader",
"type": "InfillingGenReader",
"fields": [],
"config": {
"data_path": "./data/ernie_gen_dureader/test.tsv",
"shuffle": false,
"batch_size": 8,
"epoch": 1,
"sampling_rate": 1.0,
"need_data_distribute": false,
"need_generate_examples": true,
"extra_params":{
"vocab_path":"../../models_hub/ernie_gen_ch_dir/vocab_ernie_gen_ch.txt",
"max_seq_len":512,
"do_lower_case":true,
"in_tokens":false,
"tokenizer": "FullTokenizer",
"tgt_type_id": 7,
"max_src_len": 320,
"max_tgt_len": 64,
"max_dec_len": 32
}
}
}
},
"model": {
"type": "ErnieInfillingGeneration",
"is_dygraph": 0,
"embedding": {
"emb_dim": 768,
"use_amp": false,
"config_path": "../../models_hub/ernie_gen_ch_dir/ernie_gen_ch_config.json"
},
"optimization":{
"learning_rate": 5e-5,
"use_lr_decay": true,
"use_default_decay": false,
"lr_scheduler": "linear_warmup_decay",
"epsilon": 1e-6,
"warmup_steps": 0,
"warmup_proportion": 0.1,
"weight_decay": 0.01,
"use_dynamic_loss_scaling": false,
"init_loss_scaling": 128,
"incr_every_n_steps": 100,
"decr_every_n_nan_or_inf": 2,
"incr_ratio": 2.0,
"decr_ratio": 0.8
},
"label_smooth": 0.1,
"beam_size": 4,
"weight_sharing": true,
"length_penalty": 1.0
},
"inference": {
"type": "CustomInference",
"output_path": "./output/predict_result.txt", #预测输出文件路径
"PADDLE_PLACE_TYPE": "gpu",
"thread_num": 1,
"inference_model_path": "output/ernie_gen_ch/save_inference_model/inference_step_39421/", ## 配置对应预测模型的路径
"extra_param": {
"meta":{
"job_type": "text_generation"
}
}
}
}
python run_infer.py --param_path ./examples/cls_ernie_gen_infilling_ch_infer.json
- 预测结果保存于./output/predict_result.txt文件中(可在./examples/cls_ernie_gen_infilling_ch_infer.json中修改输出路径)