基于预训练语言模型BERT与EasyTL迁移学习框架的跨领域文本语义相似度计算与分类系统_利用BERT作为特征提取器结合Easy...

基于预训练语言模型BERT与EasyTL迁移学习框架的跨领域文本语义相似度计算与分类系统_利用BERT作为特征提取器结合Easy...参考文献 Jindong Wang Yiqiang Chen Han Yu Meiyu Huang Qiang Yang Easy Transfer Learning By Exploiting Intra domain Structures IEEE Internationa Conference on Multimedia amp Expo ICME 2019

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。

参考文献:Jindong Wang, Yiqiang Chen, Han Yu, Meiyu Huang, Qiang Yang. Easy Transfer Learning By Exploiting Intra-domain Structures. IEEE International Conference on Multimedia & Expo (ICME) 2019.

本项目利用预训练-微调模型作为特征提取器,使用EasyTL实现源域到目标域的迁移和预测。

在具体效果上(统一用LCQMC进行训练):

在LCQMC测试集中:

Algorithm Accuracy(%)
EasyTL with LP+CORAL(源域对齐) 88.83
EasyTL with softmax(没有进行源域对齐) 88.16
just Bert+finetune 86.18

在蚂蚁金服测试集中:

Algorithm Accuracy(%)
EasyTL with LP+CORAL(源域对齐) 78.54
EasyTL with softmax 84.33
just Bert+finetune 83.16
EasyTL with LP(没有源域对齐) 84.33

可见:

  • 使用EasyTL的方法比普通微调模型会提高预测精度,性能良好。
  • 当源域与目标域的样本差异性过大时,使用CORAL对齐可能导致负迁移

负迁移原因分析

  • BERT 输出的 CLS 特征维度很高,在高维空间中,协方差矩阵的估计可能不准确。
  • LCQMC 和蚂蚁金服这两个数据集之间的差异,可能不仅仅体现在特征的整体分布形状(由协方差描述),可能更多体现在词汇的使用(领域术语、俚语)、句子结构、甚至是“相似”的判定标准上。

创新:使用softmax代替LP线性规划

实验结果上来看,使用EasyTL的方法在测试集上表现更佳。值得注意的是,我将EasyTL中的域内规划 (Intra-domain Programming) 中构造线性规划问题改为直接使用softmax方法,将距离 D_cj 转换成分数,然后用 softmax 函数归一化得到概率。然后直接硬分类。本质上是把样本分给距离最近的那个源域类中心 h_c

与LP方法的本质一样,都是找最近的h_c,LP的优化目标是最小化 sum(D_cj * M_cj),其中 M_cj 是分配给类别 c 的权重(概率),j是样本。为了最小化这个和,LP 求解器会倾向于将尽可能大的权重 M_cj 分配给距离 D_cj 最小的那个类别 c。最优解会将权重 1 分配给距离最近的类别,0 分配给其他类别。本质上也是把样本分给距离最近的那个源域类中心 h_c

使用softmax拥有与LP同等的性能(acc,precision都一样),甚至更加强悍(AUC更大)!并且softmax的计算实现更加简单易懂。

小讯
上一篇 2026-04-12 14:36
下一篇 2026-04-12 14:34

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/253857.html