细粒度情感分析:还在用各种花式GNN?或许只用RoBERTa就够了
不同的树结构对ALSC任务的性能影响有限。论文在四种语言的六个数据集上进行了实验。其中,表现最好的树结构(从预训练模型中诱导出的树结构)相比句法依存树在英文数据集上有约1%的提升。
从任务微调后的预训练模型中诱导的依存树可能比语言学家定义的句法依存树更适应任务本身。在分析环节中,作者提出了两个有趣的评估指标,指标的结果都指明依存树在微调过程中发生了趋同性的改变。
直接基于预训练模型进行微调,就可以利用到模型中隐式蕴含的依存树。作者据此提出了简单有效的基于RoBERTa的baseline 模型。
在[paperwithcode](https://www.paperswithcode.com/sota/aspect-based-sentiment-analysis-on-semeval)的ABSA排行榜上 , RoBERTa+MLP的性能结果在不包含额外训练数据的模型中取得第一的成绩。
整体介绍
论文动机
实验与分析
实验
分析
FT-RoBERTa Induced Tree能取得最好的结果,与Dep.相比有约1%的性能提升。
PTMs Induced Tree与Left-chain和Right-chain的性能都比较接近。而与Dep.相比,结果相当或者更低。这也回答了背景中提出的问题一。
模型结合模型微调后诱导得到的树,与结合预训练模型直接得到的树相比,会得到性能的提升。
Neighboring Connection的占比。
一点小”惊喜”
总结
赞 (0)