“英特尔创新大师杯”深度学习挑战赛 赛道3:CCKS2021中文NLP地址相关性任务

Overview
基于 bert4keras 的一个baseline

不作任何 数据trick 单模 线上 最高可到 0.7891


# 基础 版
train.py         0.7769

# transformer 各层 cls concat   明神的trick https://xv44586.github.io/2021/01/20/ccf-qa-2/
train_concat.py  0.7786

# 使用那个FGM对抗
train_FGM.py     0.7891

# 苏神提出的 PET
train_PET.py     0.7812


预训练模型使用 nezha

使用说明:
	数据放在 data下
	下载预训练模型解压
	模型会保存在 train中

优化方向:
 1,融合
  🙃
 

bert4keras >= 0.10.0

nezha的预训练模型
链接: https://pan.baidu.com/s/1lURyXs39PYnsb4imCjVkfQ  密码: 1eqq
--来自百度网盘超级会员V4的分享
You might also like...
Owner
孙永松
机器学习,数据挖掘,神经网络,NLP
孙永松