Syntactic Data Augmentation Increases Robustness to Inference Heuristics

通过语法数据扩增提升推理启发法的鲁棒性
摘要
诸如BERT的预训练的神经模型在微调以执行自然语言推理(NLI)时,常常在标准数据集上展现出了高度准确性,但在受控的挑战集上,它们却表现出对语序敏感度的出奇缺乏。我们假设此问题并不主要因为预训练模型的局限性引起,而是由于缺乏众包的NLI样例引起的,而这些样例可能在微调阶段传递了语法结构的重要性。我们探索了几种方法来扩增标准训练集中语法丰富的实例,这些实例是通过对MNLI语料库的句子应用语法转换而生成的。而表现最好的扩增方法,主语/宾语倒置法,可以在不影响BERT对MNLI测试集性能的情况下,将BERT对受控实例的词序敏感度诊断从0.28提升至0.73。这种改进全面超过了用于数据扩增的特定结构,这表明了扩增可以使BERT学习到抽象语法的表现形式。