Abstract & Introduction
- 这篇文章主要分析了BERT在「评论数据集」上fine-tuning后,在「ABSA数据集」上测试,看看BERT的self-attention和隐藏表示层是否学习到了情感观点。
- 结果发现似乎BERT学到语义方面比较多,而不是情感极向。
- 作者表示,他感兴趣的是像MLM这种self-supervised任务能够多大程度上覆盖ABSA中的特定任务。
Datasets
微调数据集(20GB)
- 亚马逊评论
- [Yelp评论数据集](https://www.yelp.com/dataset/
challenge)
评估数据集(每个领域sample 150条)
- 2014年SemEval任务4(Laptop and Restaurant)
- 2016年SemEval任务5(Laptop and Restaurant)