- 简介本文聚焦于无监督学习任务中的知识迁移,与文献中的有监督学习任务相对应,转移学习在统计学界引起了极大的兴趣。在给定可转移的源种群的情况下,我们提出了一个两步转移学习算法,从多个源主成分分析(PCA)研究中提取有用信息,从而增强了目标PCA任务的估计精度。在第一步中,我们通过一种名为Grassmannian barycenter的方法整合了多个研究中的共享子空间信息,而不是直接在汇总数据集上执行PCA。所提出的Grassmannian barycenter方法在更一般的情况下具有鲁棒性和计算优势。然后,第一步得到的共享子空间的估计量被进一步用于估计第二步的目标私有子空间。我们的理论分析将PCA研究之间的知识转移收益归因于扩大的特征值间隔,这与现有的监督转移学习任务不同,其中稀疏性起着核心作用。此外,我们证明了经验谱投影器的双线性形式在较弱的特征值间隔条件下具有渐近正态性,当信息源集合未知时,我们通过在Grassmann流形上解决一个修正的优化问题来赋予我们的算法有用的数据集选择能力,从而导致一个计算友好的修正Grassmannian K-means过程。最后,我们报道了广泛的数值模拟结果和涉及活动识别的实际数据案例,以支持我们的理论论断并说明所提出的转移学习方法的实证有用性。
- 图表
- 解决问题提出了一个针对无监督学习任务的知识迁移算法,旨在从多个源主成分分析(PCA)研究中提取有用信息,从而增强目标PCA任务的估计精度。
- 关键思路算法分为两步:第一步是通过Grassmannian barycenter方法整合多个研究中的共享子空间信息,而不是直接在汇总数据集上执行PCA;第二步是利用第一步得到的共享子空间估计目标私有子空间。
- 其它亮点论文证明了知识迁移对PCA研究之间的增益归因于扩大的特征值间隙,与现有的监督学习任务不同;算法还具有数据集选择能力,并提出了一种基于Grassmann流形的K-means过程。论文通过大量数值模拟结果和实际数据案例展示了算法的实用性。
- 最近的相关研究包括基于深度学习的知识迁移、基于聚类的知识迁移等。
沙发等你来抢
去评论
评论
沙发等你来抢