迁移学习中的负迁移:综述
更多技术干货第一时间送达
迁移移学习(TL)试图利用来自一个或多个源域的数据或知识来促进目标域的学习。由于标记成本、隐私问题等原因,当目标域只有很少或没有标记数据时,它特别有用。
不过,TL的有效性并不总是得到保证。负迁移(NT),即源域数据/知识导致目标域学习性能下降,是TL中一个长期存在且具有挑战性的问题,文献中提出了各种克服负迁移的方法。本文从源数据质量、目标数据质量、域差异和集成算法四个方面对近100种对抗NT的方法进行了分类和回顾,填补了这一空白。本文也讨论了相关领域的NT,如多任务学习、多语言模式和终身学习。
源域和目标域的学习任务相似或相关;
源域和目标域数据分布比较接近;
存在一个源域和目标域同时适用的模型。
迁移什么?
如何迁移?
何时迁移?
然而大多数迁移学习研究只考虑了前2个问题。
更多具体的内容,可以查看对应的文章。
论文信息
Overcoming Negative Transfer: A Survey
编辑:邹思
赞 (0)