FewCLUE: 为中文NLP定制的小样本学习测评基准

Overview

FewCLUE

中文小样本学习测评基准

FewCLUE: Few-shot learning for Chinese Language Understanding Evaluation

简介 Intorudction

预训练语言模型,包括用于语言理解(BERT类)或文本生成模型(GPT类),通过海量文本语料上做语言模型的预训练的方式,极大提升了NLP领域上多种任务上的表现并扩展了NLP的应用。使用预训练语言模型结合成数千或上万的标注样本,在下游任务上做微调,通常可以取得在特定任务上较好的效果;但相对于机器需要的大量样本,人类可以通过极少数量的样本上的学习来学会特定的物体的识别或概念理解。

小样本学习(Few-shot Learning)正是解决这类在极少数据情况下的机器学习问题。结合预训练语言模型通用和强大的泛化能力基础上,探索小样本学习最佳模型和中文上的实践,是本课题的目标。FewCLUE:中文小样本学习测评基准,基于CLUE的积累和经验,并结合少样本学习的特点和近期的发展趋势,精心设计了该测评,希望可以促进中文领域上少样本学习领域更多的研究、应用和发展。

任务描述和统计 Task Descriptions and Statistics

Corpus Train Dev Test Public Test Private Num Labels Unlabeled Task Metric Source
Single Sentence Tasks
EPRSTMT 32 32 610 753 2 19565 SntmntAnalysis Acc E-CommrceReview
CSLDCP 536 536 1784 2999 67 18111 LongTextClassify Acc AcademicCNKI
TNEWS 240 240 2010 1500 15 20000 ShortTextClassify Acc NewsTitle
IFLYTEK 928 690 1749 2279 119 7558 LongTextClassify Acc AppDesc
Sentence Pair Tasks
OCNLI 32 32 2520 3000 3 20000 NLI Acc 5Genres
BUSTM 32 32 1772 2000 2 4251 SemanticSmlarty Acc AIVirtualAssistant
Reading Comprhnsn Tasks
CHID 42 42 2002 2000 7? 7585 MultipleChoice,idiom Acc Novel,EssayNews
CSL 32 32 2828 3000 2? 19841 KeywordRecogntn Acc AcademicCNKI
CLUEWSC 32 32 976 290 2 0 CorefResolution Acc ChineseFictionBooks
EPRSTMT:电商评论情感分析;CSLDCP:科学文献学科分类;TNEWS:新闻分类;IFLYTEK:APP应用描述主题分类;
OCNLI: 自然语言推理;BUSTM: 对话短文本匹配;CHID:成语阅读理解;CSL:摘要判断关键词判别;CLUEWSC: 代词消歧
EPRSTMT,CSLDCP,BUSTM 为新任务;其他任务(TNEWS,CHID,IFLYTEK,OCNLI,CSL,CLUEWSC)来自于CLUE benchmark,部分数据集做了新的标注。

实验结果 Experiments

实验设置:训练集和验证集使用32个样本,或采样16个,测试集正常规模。基础模型使用RoBERT12层chinese_roberta_wwm_ext(GPT系列除外)。

模型 score eprstmt bustm ocnli csldcp tnews wsc ifytek csl chid
Human 82.49 90.0N 88.0N 90.3N 68.0N 71.0N 98.0N 66.0N 84.0N 87.1N
FineTuning 46.37 73.7N 61.1N 34.0N 28.6N 43.6N 50.2N 29.6N 50.1N 15.0N
PET 54.34 78.6N 64.0 43.9N 56.9N 51.2N 50.0N 35.1N 55.0N 61.3N
PtuningB 51.81 88.5N 65.4 35.0N 44.4N 48.2N 51.0N 32.0N 50.0N 57.6N
PtuningGPT 46.44 75.65N 54.9N 35.75N 33.69N 45.3N 49.0N 24.0N 53.5N 13.7N
Zero-shot 40.07 54.8N 50N 34.4N 26.23N 25.3N 50.0N 27.7N 52.2N 57.6N
PtuningB: Ptuning_RoBERTa; PtuningGPT: Ptuning_GPT; 报告的数字是每一个任务的公开测试集(test_public.json)上的实验效果;
Zero-shot: 零样本学习。前4个任务采用GPT模型,后5个任务采用chinese_roberta_wwm_ext为基础模型。N”,代表已更新;
五一后待榜单可以提交后,将报告在测试集(test.json)上的效果;由于CHID还在继续实验中,暂时未将CHID的分数纳入到最终的分数(Score)中。

使用的GPT模型: NEZHA-Gen

实验结果 vs 人类水平 Human Performance & Benchmark Results

1.人类水平 Human Performance

我们采取如下方式测评人类水平。按照训练,然后测评的方式。首先,人类会在训练集上学习30个样本,
然后我们鼓励人类标注员进行讨论和分享经验;然后,每一个人人类标注员在验证集上标注100个样本;最后,由多个人的投票得出最终预测的答案。

从实验结果可以看到,人类有高达82.49分的成绩。人类在多个任务中可以取得超过80分以上的分数。在较难的指代消解任务中,人类甚至达到了高达98的分数;
而在类别特别多的任务,如iflytek(119个类别),csldcp(67个类别),人类仅取得了60多分的及格成绩。

2.测评结果 Benchmark Results

2.1 模型表现分析 Analysis of Model Performance

模型有5种不同的方式做任务,分别是使用预训练模型直接做下游任务微调、PET、RoBERTa为基础的Ptuning方式、GPT类模型为基础的Ptuning方式、
使用RoBERTa或GPT做零样本学习。

我们发现:
1)模型潜力:最好的模型表现(54.34分)远低于人类的表现(82.49分),即比人类低了近30分。说明针对小样本场景,模型还有很大的潜力;
2)新的学习范式:在小样本场景,新的学习方式(PET,Ptuning)的效果以较为明显的差距超过了直接调优的效果。
   如在通用的基础模型(RoBERTa)下,PET方式的学习比直接下游任务微调高了近8个点。
3)零样本学习能力:在没有任何数据训练的情况下,零样本学习在有些任务上取得了较好的效果。如在119个类别的分类任务中,模型在没有训练的情况下
取得了27.7的分数,与直接下游任务微调仅相差2分,而随机猜测的话仅会获得1%左右的准确率。这种想象在在67个类别的分类任务csldcp中也有表现。

2.2 任务分析 Analysis of Tasks

我们发现,在小样本学习场景:
不同任务对于人类和模型的难易程度相差较大。如wsc指代消解任务,对于人类非常容易(98分),但对于模型却非常困难(50分左右),只是随机猜测水平;
而有些任务对于人类比较困难,但对于模型却不一定那么难。如csldcp有67个类别,人类只取得了及格的水平,但我们的基线模型PET在初步的实验中
就取得了56.9的成绩。我们可以预见,模型还有不少进步能力。

FewCLUE 有什么特点?

1、任务类型多样、具有广泛代表性。包含多个不同类型的任务,包括情感分析任务、自然语言推理、多种文本分类、文本匹配任务和成语阅读理解等。

2、研究性与应用性结合。在任务构建、数据采样阶段,即考虑到了学术研究的需要,也兼顾到实际业务场景对小样本学习的迫切需求。 如针对小样本学习中不实验结果的不稳定问题,我们采样生成了多份训练和验证集;考虑到实际业务场景类别,我们采用了多个有众多类别的任务(如50+、100+多分类), 并在部分任务中存在类别不均衡的问题。

3、时代感强。测评的主要目标是考察小样本学习,我们也同时测评了模型的零样本学习、半监督学习的能力。不仅能考察BERT类擅长语言理解的模型, 也可以同时查考了近年来发展迅速的GPT-3这类生成模型的中文版本在零样本学习、小样本学习上的能力;

此外,我们提供小样本测评完善的基础设施。 从任务设定,广泛的数据集,多个有代表性的基线模型及效果对比,一键运行脚本,小样本学习教程,到测评系统、学术论文等完整的基础设施。

基线模型及运行 Baselines and How to run

目前支持4类代码:直接fine-tuning、PET、Ptuning、GPT

直接fine-tuning: 
    一键运行.基线模型与代码
    1、克隆项目 
       git clone https://github.com/CLUEbenchmark/FewCLUEDatasets.git
    2、进入到相应的目录
       分类任务  
           例如:
           cd FewCLUEDatasets/baseline/models_tf/fine_tuning/bert/
    3、运行对应任务的脚本(GPU方式): 会自动下载模型并开始运行。
       bash run_classifier_multi_dataset.sh
       计算8个任务cecmmnt tnews iflytek ocnli csl cluewsc bustm csldcp,每个任务6个训练集的训练模型结果
       结果包括验证集和测试集的准确率,以及无标签测试集的生成提交文件
      
  
PET/Ptuning/GPT:
    环境准备:
      预先安装Python 3.x(或2.7), Tesorflow 1.14+, Keras 2.3.1, bert4keras。
      需要预先下载预训练模型:chinese_roberta_wwm_ext,并放入到pretrained_models目录下
    
    运行:
    1、进入到相应的目录,运行相应的代码。以ptuning为例:
       cd ./baselines/models_keras/ptuning
    2、运行代码
       python3 ptuning_iflytek.py

NLPCC2021-小模型测评

测评报名与提交入口

NLPCC2021官方链接

比赛证书:测评前三名队伍会获得NLPCC和CCF中国信息技术技术委员会认证的证书;
优胜队伍有机会提交测评任务的论文(Task Report),并投稿到NLPCC会议(CCF推荐会议)

数据集介绍 Introduction of datasets

分类任务 Single Sentence Tasks

1. EPRSTMT(EPR-sentiment) 电商产品评论情感分析数据集 E-commerce Product Review Dataset for Sentiment Analysis
     数据量:训练集(32),验证集(32),公开测试集(610),测试集(753),无标签语料(19565)
     
     例子:
     {"id": 23, "sentence": "外包装上有点磨损,试听后感觉不错", "label": "Positive"}
     每一条数据有三个属性,从前往后分别是 id,sentence,label。其中label标签,Positive 表示正向,Negative 表示负向。
2. CSLDCP 中文科学文献学科分类数据集
     中文科学文献学科分类数据集,包括67个类别的文献类别,这些类别来自于分别归属于13个大类,范围从社会科学到自然科学,文本为文献的中文摘要。
     数据量:训练集(536),验证集(536),公开测试集(1784),测试集(2999),无标签语料(67)
     
     例子:
     {"id": 23, "sentence": "外包装上有点磨损,试听后感觉不错", "label": "Positive"}
     每一条数据有三个属性,从前往后分别是 id,sentence,label。其中label标签,Positive 表示正向,Negative 表示负向。
3.TNEWS 今日头条中文新闻(短文本)分类数据集 Toutiao Short Text Classificaiton for News
 该数据集来自今日头条的新闻版块,共提取了15个类别的新闻,包括旅游、教育、金融、军事等。
     
     例子:
     {"label": "102", "label_des": "news_entertainment", "sentence": "江疏影甜甜圈自拍,迷之角度竟这么好看,美吸引一切事物"}
     每一条数据有三个属性,从前往后分别是 分类ID,分类名称,新闻字符串(仅含标题)。
4.IFLYTEK 长文本分类数据集 Long Text classification
该数据集关于app应用描述的长文本标注数据,包含和日常生活相关的各类应用主题,共119个类别:"打车":0,"地图导航":1,"免费WIFI":2,"租车":3,….,"女性":115,"经营":116,"收款":117,"其他":118(分别用0-118表示)。
    
    例子:
    {"label": "110", "label_des": "社区超市", "sentence": "朴朴快送超市创立于2016年,专注于打造移动端30分钟即时配送一站式购物平台,商品品类包含水果、蔬菜、肉禽蛋奶、海鲜水产、粮油调味、酒水饮料、休闲食品、日用品、外卖等。朴朴公司希望能以全新的商业模式,更高效快捷的仓储配送模式,致力于成为更快、更好、更多、更省的在线零售平台,带给消费者更好的消费体验,同时推动中国食品安全进程,成为一家让社会尊敬的互联网公司。,朴朴一下,又好又快,1.配送时间提示更加清晰友好2.保障用户隐私的一些优化3.其他提高使用体验的调整4.修复了一些已知bug"}
    每一条数据有三个属性,从前往后分别是 类别ID,类别名称,文本内容。

Sentence Pair Tasks

5.OCNLI 中文原版自然语言推理数据集 Original Chinese Natural Language Inference
OCNLI,即原生中文自然语言推理数据集,是第一个非翻译的、使用原生汉语的大型中文自然语言推理数据集。
数据量:训练集(32),验证集(32),公开测试集(2520),测试集(3000),无标签语料(20000)

例子:
{
"level":"medium",
"sentence1":"身上裹一件工厂发的棉大衣,手插在袖筒里",
"sentence2":"身上至少一件衣服",
"label":"entailment","label0":"entailment","label1":"entailment","label2":"entailment","label3":"entailment","label4":"entailment",
"genre":"lit","prem_id":"lit_635","id":0
}
6.BUSTM 小布助手对话短文本匹配数据集 XiaoBu Dialogue Short Text Matching
对话短文本语义匹配数据集,源于小布助手。它是OPPO为品牌手机和IoT设备自研的语音助手,为用户提供便捷对话式服务。
意图识别是对话系统中的一个核心任务,而对话短文本语义匹配是意图识别的主流算法方案之一。要求根据短文本query-pair,预测它们是否属于同一语义。

数据量:训练集(32),验证集(32),公开测试集(1772),测试集(2000),无标签语料(4251)
例子:
{"id": 5, "sentence1": "女孩子到底是不是你", "sentence2": "你不是女孩子吗", "label": "1"}
{"id": 18, "sentence1": "小影,你说话慢了", "sentence2": "那你说慢一点", "label": "0"}

Reading Comprehension Tasks

7.ChID 成语阅读理解填空 Chinese IDiom Dataset for Cloze Test
以成语完形填空形式实现,文中多处成语被mask,候选项中包含了近义的成语。 https://arxiv.org/abs/1906.01265
数据量:训练集(42),验证集(42),公开测试集(2002),测试集(2000),无标签语料(7585)

例子:
{"id": 1421, "candidates": ["巧言令色", "措手不及", "风流人物", "八仙过海", "平铺直叙", "草木皆兵", "言行一致"],
"content": "当广州憾负北控,郭士强黯然退场那一刻,CBA季后赛悬念仿佛一下就消失了,可万万没想到,就在时隔1天后,北控外援约瑟夫-杨因个人裁决案(拖欠上一家经纪公司的费用),
导致被禁赛,打了马布里一个#idiom#,加上郭士强带领广州神奇逆转天津,让...", "answer": 1}
8.CSL 论文关键词识别 Keyword Recognition
中文科技文献数据集(CSL)取自中文论文摘要及其关键词,论文选自部分中文社会科学和自然科学核心期刊,任务目标是根据摘要判断关键词是否全部为真实关键词(真实为1,伪造为0)。
数据量:训练集(32),验证集(32),公开测试集(2828),测试集(3000),无标签语料(19841)

例子: 
{"id": 1, "abst": "为解决传统均匀FFT波束形成算法引起的3维声呐成像分辨率降低的问题,该文提出分区域FFT波束形成算法.远场条件下,
以保证成像分辨率为约束条件,以划分数量最少为目标,采用遗传算法作为优化手段将成像区域划分为多个区域.在每个区域内选取一个波束方向,
获得每一个接收阵元收到该方向回波时的解调输出,以此为原始数据在该区域内进行传统均匀FFT波束形成.对FFT计算过程进行优化,降低新算法的计算量,
使其满足3维成像声呐实时性的要求.仿真与实验结果表明,采用分区域FFT波束形成算法的成像分辨率较传统均匀FFT波束形成算法有显著提高,且满足实时性要求.",
 "keyword": ["水声学", "FFT", "波束形成", "3维成像声呐"], "label": "1"}
 
每一条数据有四个属性,从前往后分别是 数据ID,论文摘要,关键词,真假标签。
9.CLUEWSC WSC Winograd模式挑战中文版
Winograd Scheme Challenge(WSC)是一类代词消歧的任务,即判断句子中的代词指代的是哪个名词。题目以真假判别的方式出现,如:  
句子:这时候放在[床]上[枕头]旁边的[手机]响了,我感到奇怪,因为欠费已被停机两个月,现在[它]突然响了。需要判断“它”指代的是“床”、“枕头”,还是“手机”?
从中国现当代作家文学作品中抽取,再经语言专家人工挑选、标注。  

数据量:训练集(32),验证集(32),公开测试集(976),测试集(290),无标签语料(0)
例子:  
 {"target": 
     {"span2_index": 37, 
     "span1_index": 5, 
     "span1_text": "床", 
     "span2_text": "它"}, 
 "idx": 261, 
 "label": "false", 
 "text": "这时候放在床上枕头旁边的手机响了,我感到奇怪,因为欠费已被停机两个月,现在它突然响了。"}
 "true"表示代词确实是指代span1_text中的名词的,"false"代表不是。 

任务构建过程与调查问卷 Construction of Tasks

任务构建过程与调查问卷

调查问卷

1.调查背景
调查问卷主要针对任务和数据集设定进⾏,调查对象为FewCLUE⼩小样本学习交流群,获得35份有效样本。

2.调查问卷主要反馈: 
1)希望任务丰富多样、适应真实场景; 
2)数据集数量量: 提供9个左右数据集;
3)当个任务数量量:按类别采样16为主; 
4)半监督学习:⼩小样本测试还应提供⼤大量量⽆无标签数据;
5)测试零样本学习;

任务构建过程

任务构建过程参考了本次调查问卷,以及近年来比较有代表性的结合预训练语言模型的小样本学习的论文。

调查问卷反馈详见:FewCLUE调查问卷-反馈信息

数据集文件结构 Data set Structure

5份训练集,对应5份验证集,1份公开测试集,1份用于提交测试集,1份无标签样本,1份合并后的训练和验证集

单个数据集目录结构:
    train_0.json:训练集0
    train_1.json:训练集1
    train_2.json:训练集2
    train_3.json:训练集3
    train_4.json:训练集4
    train_few_all.json: 合并后的训练集,即训练集0-4合并去重后的结果
    
    dev_0.json:验证集0,与训练集0对应
    dev_0.json:验证集1,与训练集1对应
    dev_0.json:验证集2,与训练集2对应
    dev_0.json:验证集3,与训练集3对应
    dev_0.json:验证集4,与训练集4对应
    dev_few_all.json: 合并后的验证集,即验证集0-4合并去重后的结果
    
    test_public.json:公开测试集,用于测试,带标签
    test.json: 测试集,用于提交,不能带标签
    
    unlabeled.json: 无标签的大量样本

模型简介(附图)

1.BERT.Fine-tuning

模型简介:
BERT模型开创了语言模型预训练-下游任务微调的范式。结合海量数据上预训练,使得模型具有强大的泛化能力;
通过下游任务微调,仅新引入部分参数,而不需对整个网络从头训练。

MLM pre-training: 预训练,利用上下文预测[MASK]位置的信息; Fine-tuning:通过下游任务微调,获得[CLS]位置的句子语义表示,
并预测句子的标签。见下图:

alt text

BERT的输入表示:三部分信息求和,包括字的向量、段落向量、位置向量。见下图:

alt text

2.GPT3: Language Models are Few-Shot Learners

模型介绍:
GPT3: GPT-3延续单向语言模型训练方式,把模型尺寸增大到了1750亿,并且使用45TB数据进行训练。
同时,GPT-3主要聚焦于更通用的NLP模型,解决当前BERT类模型的两个缺点:对领域内有标签数据的过分依赖;对于领域数据分布的过拟合。
GPT-3的主要目标是用更少的领域数据、且不经过微调去解决问题。

GPT3中的零样本学习、单样本学习、少样本学习。通过给模型0、1或多个示例形式实现,但没有更新模型的参数:

alt text

3.PET: Pattern-Exploiting Training

模型和示例:
将任务转化为完形填空。包括两部分,一部分将输入文本转化为完形填空,里面包含一个需要[MASK]的部分。

如输入文本“这个手机壳很不错”,转化为:这个手机壳很不错。我觉得[MASK]好。这里的[MASK]计算需要填写的部分。
另一部分将需要预测的标签对应到一个字符上。如,有两个情感分类的标签POSITIVE和NEGATIVE。POSITIVE-->good; NEGATIVE-->bad。

下面报导一则[MASK]新闻。八个月了,终于又能在赛场上看到女排姑娘们了。
[MASK]的地方可以填“体育”,也可以填“财经”、“娱乐”,但联合概率上看“体育”最大,那么“体育”可以做为预测的标签。

PET的优缺点:
优点:将任务进行了转换后,不再需要向之前的fine-tuning阶段一样引入新的最后一层,即没有引入任何参数;将下游任务转换成与预训练的语言模型一致的形式。
缺点:可能需要手工构造Pattern; 不同的Pattern效果差异很大

4.LM-BFF: Making Pre-trained Language Models Better Few-shot Learners

模型和示例:
LM-BFF是一套针对小样本进行微调的技术,主要包括两部分:基于提示(prompt)进行微调,关键是如何自动化生成提示模板;
将样本示例以上下文的形式添加到每个输入中,关键是如何对示例进行采样;

alt text

LM-BFF的基本方式如上图所示,红框部分就是提示模板,篮框部分就是额外的样本示例:

alt text

在“Thank you  me to your party  week ”,T5会在生成“ for inviting ”、在生成“last ”。
然后我们就可以基于T5去填充占位符,生成提示模板T。我们选定的模板应该是使得训练集中的输出概率最大化:

LB-BFF的优缺点
优点:结合T5的生成能力,自动化找到最优的模板,省去人工搜寻模板的过程。
缺点:依然假设模板是自然语言的版本;非全自动化的:先找模板,然在最优模板上做任务。

5.Ptuning: GPT Understands, Too

模型和示例:
人工选择模板,或者机器自动选择模板,都是比较繁琐的工作,但对效果影响很大。那有没有能自动构建模型的方式呢?
Ptuning放弃了模板必须是自然语言的假设,通过使用BERT系列中未使用的字的表示来自动设法学习到最佳的模板;
并且它可以只学习模板对应的参数,如10个embedding,而之前的方法一般都是需要学习所有的字的表示;
论文中实验了GPT类的模型也可以使用Ptuning方式取得很好的文本理解效果。

离散模板搜索-->连续端到端学习:

alt text

中文例子:

这里的[u1]~[u6],代表BERT词表里边的[unused1]~[unused6]。也就是用几个从未见过的token来构成模板,
这里的token数目是一个超参数。

测评报名|提交 Submit

提交到测评系统(5月份开放,五一之后)

教程 Tutorial

1.系列PPT分享资料,详见: PPT

2.教程(Jupyter Notebook/Google Colab),添加中。。。

问题 Question

1. 问:测试系统,什么时候开发?
   答:测评系统在5月1节后才会开放。

贡献与参与 Contribution & Participation

1.问:我有符合代码规范的模型代码,并经过测试,可以贡献到这个项目吗?
 答:可以的。你可以提交一个pull request,并写上说明。

2.问:我正在研究小样本学习,具有较强的模型研究能力,怎么参与到此项目?
  答:发送邮件到 [email protected],标题为:参与FewCLUE课题,并介绍一下你的研究。

引用 Reference

1、GPT3: Language Models are Few-Shot Learners

2、PET: It's Not Just Size That Matters: Small Language Models Are Also Few-Shot Learners

3、必须要GPT3吗?不,BERT的MLM模型也能小样本学习

4、LM_BFF: Making Pre-trained Language Models Better Few-shot Learners

5、GPT-3的最强落地方式?陈丹琦提出小样本微调框架LM-BFF,比普通微调提升11%

6、论文:GPT Understands, Too

7、文章:P-tuning:自动构建模版,释放语言模型潜能

License

正在添加中

引用

@misc{FewCLUE,
  title={FewCLUE:Few-shot learning for Chinese Language Understanding Evaluation},
  author={CLUE benchmark},
  year={2021},
  howpublished={\url{https://github.com/CLUEbenchmark/FewCLUE}},
}
Comments
  • train_1.json集和dev_0.json集应该一一对应吗

    train_1.json集和dev_0.json集应该一一对应吗

    https://github.com/CLUEbenchmark/FewCLUE/blob/f90b637e7af2fedb7f90c084f05f3f5a710a5bb4/baselines/models_keras/ptuning/ptuning_chid.py#L90

    看论文理解下来,使用train集和dev集应该一一对应, 即valid_data += load_data('ready_data/chid/dev_{}.json'.format(train_set_index))

    since training on small datasets might lead to fluctuating results, we provide multiple training/validation splits to alleviate the issue and make our benchmark more robust

    from https://arxiv.org/pdf/2107.07498.pdf

    opened by xsthunder 1
  • FewCLUE LM-BFF can't run in prompt-demo mode

    FewCLUE LM-BFF can't run in prompt-demo mode

    error: TypeError: int() argument must be a string, a bytes-like object or a number, not 'list'

    TASK=tnews TYPE=prompt-demo TASK_EXTRA="--max_seq_len 512 --first_sent_limit 500 --other_sent_limit 500"

    [features.input_ids] in your code: [101, 711, 784, 720, 2434, 746, 4670, 686, 1348, 4917, 5273, 5961, 4670, 686, 8043, 2434, 746, 4670, 686, 3198, 3249, 6858, 4636, 1998, 4495, 3833, 3717, 2398, 1168, 2419, 2582, 3416, 8043, 1962, 103, 103, 8013, 102, 1045, 3471, 1762, 1278, 7368, 7305, 1366, 2939, 702, 1968, 8024, 1962, 1962, 2105, 7556, 8024, 679, 1168, 676, 2399, 8024, 2157, 7027, 3341, 749, 702, 6570, 2669, 2060, 1967, 1962, [3125, 752], 103, 8013, 102, 4507, 5464, 3153, 2682, 1168, 7942, 7962, 4331, 4638, 3125, 752, 928, 679, 928, 4507, 872, 1962, [3152, 1265], 103, 8013, 102, 823, 5799, 2025, 185, 5801, 823, 1046, 1469, 1395, 6612, 2209, 185, 6930, 6801, 8024, 4991, 1762, 3198, 2213, 722, 2330, 8024, 1316, 3295, 711, 4263, 856, 6822, 2212, 1812, 1962, [2031, 727], 103, 8013, 102, 6593, 3172, 3722, 185, 3683, 843, 1377, 6458, 3221, 671, 807, 2342, 3215, 8024, 794, 8108, 2259, 5273, 1168, 4385, 1762, 1962, [860, 5509], 103, 8013, 102, 2582, 720, 7309, 1166, 782, 955, 7178, 8043, 1962, [6568, 5307], 103, 8013, 102, 1068, 754, 743, 2791, 117, 872, 3187, 7557, 7309, 1166, 782, 117, 1372, 7444, 2462, 3926, 6821, 123, 702, 7309, 7579, 1962, [2791, 772], 103, 8013, 102, 7023, 4500, 7478, 2824, 6770, 2466, 6756, 6716, 8024, 124, 119, 10973, 11051, 116, 129, 8488, 6981, 4510, 2094, 6774, 1221, 5143, 5320, 8024, 5436, 2255, 6632, 2275, 1980, 1980, 4638, 1962, [3749, 6756], 103, 8013, 102, 1403, 3189, 5878, 1469, 1961, 4638, 3301, 1351, 812, 8024, 5018, 671, 6381, 1962, [3136, 5509], 103, 8013, 102, 1220, 6773, 4636, 674, 4493, 5635, 677, 1283, 674, 8024, 8450, 8118, 677, 6820, 3221, 679, 677, 8020, 122, 8021, 1962, [4906, 2825], 103, 8013, 102, 2802, 3647, 1305, 2799, 5838, 2400, 2843, 6624, 1071, 7942, 7032, 2797, 3366, 4638, 1894, 1070, 1963, 791, 678, 1767, 1963, 862, 8043, 1962, [1092, 752], 103, 8013, 102, 5865, 1399, 4638, 4684, 2357, 5384, 7351, 3862, 2284, 3295, 6901, 1525, 1126, 702, 1744, 2157, 4638, 751, 1932, 8043, 1962, [3180, 3952], 103, 8013, 102, 8128, 2259, 4958, 1995, 1777, 7556, 7599, 6756, 6878, 2154, 8024, 6821, 816, 752, 5314, 2769, 812, 784, 720, 1423, 1355, 8043, 1962, [1744, 7354], 103, 8013, 102, 1920, 4669, 671, 4275, 5344, 5682, 8024, 2900, 3144, 3221, 1963, 862, 976, 1168, 1158, 3173, 7770, 4638, 8043, 1962, [5500, 4873], 103, 8013, 102, 1963, 862, 4692, 2521, 1093, 3333, 3136, 5509, 744, 3119, 6589, 7309, 7579, 8043, 1962, [1093, 689], 103, 8013, 102, 4385, 1762, 517, 4959, 6632, 4125, 5296, 518, 4638, 4868, 1690, 4696, 4638, 6820, 4294, 1166, 4638, 1914, 8024, 6443, 6820, 6381, 2533, 7213, 5682, 3324, 2797, 4638, 3198, 807, 1962, [4510, 4993], 103, 8013, 102, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]

    [features.input_ids] in original LM-BFF's code: features.input_ids: [0, 118, 56, 7, 356, 409, 111, 42, 21, 9069, 11522, 479, 85, 21, 50264, 4, 2, 405, 128, 29, 101, 18443, 8, 8347, 605, 15673, 15, 2078, 2156, 53, 14, 128, 29, 5063, 2198, 36122, 4226, 2156, 3486, 473, 24, 2916, 5, 10603, 9, 5, 1569, 128, 29, 31083, 14186, 479, 85, 21, 6587, 4, 2, 605, 718, 876, 16, 10, 16599, 1971, 19, 215, 41, 20407, 14500, 154, 527, 14, 40, 5604, 5, 7283, 8, 7754, 9, 171, 479, 85, 21, 372, 4, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]

    It seems that the question is give the model a list. How to fix the code? Thanks a lot !

    opened by o0mahan0o 1
  • README中的实验结果是如何计算的?

    README中的实验结果是如何计算的?

    你好,请问README中的实验结果是如何计算的? 我分别在train_x.json和valid_x.json进行训练和验证(x=0,1,2,3,4)并在test_public.json进行测试,得到五份结果。 请问README中的实验结果是这5份中结果最好的情况,还是求和平均后的情况呢?或者是其他方式?

    opened by Armorhtk 0
  • baseline/models_keras/ptuning_origin

    baseline/models_keras/ptuning_origin

    运行这个文件,会报错'NoneType' object has no attribute '_inbound_nodes'。 Traceback (most recent call last): File "/home/xuwei/Downloads/pycharm-professional-2021.3.3/pycharm-2021.3.3/plugins/python/helpers/pydev/pydevd.py", line 1483, in _exec pydev_imports.execfile(file, globals, locals) # execute the script File "/home/xuwei/Downloads/pycharm-professional-2021.3.3/pycharm-2021.3.3/plugins/python/helpers/pydev/_pydev_imps/_pydev_execfile.py", line 18, in execfile exec(compile(contents+"\n", file, 'exec'), glob, loc) File "/home/xuwei/Downloads/FewCLUE-main/baselines/models_keras/ptuning_origin/ptuning_sentiment.py", line 135, in model, train_model = get_model(pattern_len=unused_length, trainable=True, lr=3e-5) File "/home/xuwei/Downloads/FewCLUE-main/baselines/models_keras/ptuning_origin/modeling.py", line 154, in get_model model = build_transformer_model( File "/home/xuwei/anaconda3/lib/python3.8/site-packages/bert4keras/models.py", line 2441, in build_transformer_model transformer.build(**configs) File "/home/xuwei/anaconda3/lib/python3.8/site-packages/bert4keras/models.py", line 96, in build self.model = Model(self.inputs, self.outputs, name=self.name) File "/home/xuwei/anaconda3/lib/python3.8/site-packages/keras/legacy/interfaces.py", line 91, in wrapper return func(*args, **kwargs) File "/home/xuwei/anaconda3/lib/python3.8/site-packages/keras/engine/network.py", line 94, in init self._init_graph_network(*args, **kwargs) File "/home/xuwei/anaconda3/lib/python3.8/site-packages/keras/engine/network.py", line 240, in _init_graph_network nodes, nodes_by_depth, layers, layers_by_depth = _map_graph_network( File "/home/xuwei/anaconda3/lib/python3.8/site-packages/keras/engine/network.py", line 1431, in _map_graph_network build_map(x, finished_nodes, nodes_in_progress, File "/home/xuwei/anaconda3/lib/python3.8/site-packages/keras/engine/network.py", line 1420, in build_map build_map(x, finished_nodes, nodes_in_progress, layer, File "/home/xuwei/anaconda3/lib/python3.8/site-packages/keras/engine/network.py", line 1420, in build_map build_map(x, finished_nodes, nodes_in_progress, layer, File "/home/xuwei/anaconda3/lib/python3.8/site-packages/keras/engine/network.py", line 1420, in build_map build_map(x, finished_nodes, nodes_in_progress, layer, [Previous line repeated 50 more times] File "/home/xuwei/anaconda3/lib/python3.8/site-packages/keras/engine/network.py", line 1393, in build_map node = layer._inbound_nodes[node_index] AttributeError: 'NoneType' object has no attribute '_inbound_nodes' python-BaseException 能否修复下

    opened by Torres9999 1
  • CSLDCP数据量和描述中不一致

    CSLDCP数据量和描述中不一致

    您好! 关于CSLDCP数据集,您的Readme和论文中提到的数据量都为train:val:test = 536:536:1784 然而下载后,发现train_few_all: dev_few_all: test_public = 2036:2068:1784 请问是版本不同吗?这两版数据有什么区别吗? 谢谢!

    opened by PineappleWill 0
  • 使用RoBERTa-large无法复现P-Tuning结果

    使用RoBERTa-large无法复现P-Tuning结果

    您好,很感谢您的工作!

    我在tnews数据集上复现时p-tuning,使用RoBERTa-wwm-ext可以得到与论文相近的结果,但是改成RoBERTa-wwm-ext-large后结果很差,仅比random的结果好一点。

    我更换模型时只更改了预训练模型的路径

    base_model_path = './chinese_roberta_wwm_large_ext_L-24_H-1024_A-16'
    config_path = base_model_path+'bert_config.json'
    checkpoint_path =  base_model_path+'bert_model.ckpt'
    dict_path = base_model_path+'vocab.txt'
    

    我并没有发现其他需要改动的地方,请问这样有问题吗?我尝试调整了学习率等超参数,但效果依然不佳

    opened by PineappleWill 13
Owner
CLUE benchmark
Organization of Language Understanding Evaluation benchmark for Chinese: tasks & datasets, baselines, pre-trained Chinese models, corpus and leaderboard
CLUE benchmark