本文描述了我们在SemEval-2023任务3中的方法:在多语言环境下检测在线新闻中的类别、框架和说服技巧。对于子任务1(新闻类型),我们提出了一个完全训练的和适配器mBERT模型的集合,这个模型在德语中被评为联合第一,并且在多语言团队中具有最高的平均排名。对于子任务2(框架),我们使用两个单独的集合:一个是单语RoBERTa-MUPPETLARGE,另一个是具有适配器和任务自适应预训练的XLM-RoBERTaLARGE集合,在3种语言中取得了第一名,在所有语言中获得了最佳平均排名。对于子任务3(说服技巧),我们训练了一个适用于英语的单语RoBERTa-Base模型和一个适用于其余语言的多语言mBERT模型,这两个模型都在所有语言中进入了前10名,其中英语排名第二。对于每个子任务,我们比较了单语和多语言方法,并考虑了类别不平衡技术。
论文链接:http://arxiv.org/pdf/2303.09421v1
更多计算机论文:http://cspaper.cn/