强化学习之父在Nature发表持续学习新成果!《Nature》杂志最新刊登了一篇名为《Loss of plasticity in deep continual learning》的研究论文,标志着持续学习领域的一个新里程碑。这项研究提出了一种创新算法一一持续反向传播(Continual Backpropagation),它通过在训练过程中随机重置一小部分使用频率低的神经元,保持了网络的可塑性,这对于深度学习中的持续学习是一个重大进步。
论文作者Richard Sutton,作为强化学习领域的领军人物,被誉为“强化学习之父”。他的工作不仅在时间差分学习、策略梯度方法和 Dyna架构等方面有着深远影响,而且对整个人工智能领域都产生了广泛的影响。
我整理了一些时间序列【论文+代码】合集,需要的同学公人人人号
论文1
标题:
A Comprehensive Survey of Continual Learning: Theory, Method and Application持续学习:理论、方法与应用综述
方法:
-
提出了持续学习的基本框架,包括其在动态数据分布下的学习过程。
-
分析了持续学习中的典型场景,如任务增量学习、域增量学习、类增量学习等。
-
提供了评估持续学习性能的指标,如平均准确率、遗忘量度和前向转移量度。
-
深入讨论了持续学习的理论基础,包括稳定性-可塑性权衡和泛化能力。
-
总结了持续学习的代表性方法,如正则化方法、经验回放方法、优化方法、表示方法和架构方法,并详细分析了它们的动机、实现和性能。
创新点:
- 提供了持续学习的最新进展的全面概述,填补了现有综述的空白,为后续研究提供了宝贵的资源。
-
强调了在资源效率、模型更新和任务适应性方面对现有方法的改进,推动了持续学习领域的发展。
-
通过深入分析不同方法在不同场景下的性能,为实际应用中的持续学习提供了指导。
-
提出了持续学习的理论基础,为理解和设计新的持续学习算法提供了理论支持。
-
论文2
标题:
Achieving a Better Stability-Plasticity Trade-off via Auxiliary Networks in Continual
通过辅助网络在持续学习中实现更好的稳定性-可塑性权衡
方法:
-
提出了辅助网络持续学习(ANCL)框架,该框架通过引入一个额外的辅助网络来促进持续学习模型的可塑性。
-
ANCL框架通过正则化器自然地在稳定性和平滑性之间进行插值,超越了强大的基线方法。
-
通过权重距离、中心核对齐和平均准确率景观等分析方法,深入研究了ANCL解决方案中的稳定性-可塑性权衡。
创新点:
-
ANCL方法在任务增量和类增量场景下均优于现有的持续学习基线方法,性能提升显著。
-
通过实验验证,ANCL在CIFAR-100和Tiny ImageNet数据集上均表现出色,平均准确率提高了1-3%。
-
提供了对稳定性-可塑性权衡机制的深入分析,为理解持续学习中的交互机制提供了新的视角。
论文3
标题:
Boosting Continual Learning of Vision-Language Models via Mixture-of-Experts Adapters
通过专家混合适配器提升视觉-语言模型的持续学习能力
方法:
-
提出了一个参数高效的持续学习框架,通过在预训练的CLIP模型上动态扩展混合专家(MoE)适配器来应对大规模模型中的性能退化问题。
-
引入了分布判别自选择器(DDAS),自动将输入数据路由到MoE适配器或原始CLIP,以实现对已见数据和未见数据的有效预测。
-
通过增量激活-冻结策略,使专家能够同时获取任务内知识并参与任务间协作。
创新点:
-
在多任务和类增量学习场景中,该方法在保持零样本泛化能力的同时,显著减少了参数训练负担,减少了约60%。
-
在有限样本的持续学习中,该模型表现出色,平均准确率提高了3.6%,7.0%和4.2%。
-
通过实验验证,该方法在各种设置中均优于现有方法,包括动态扩展和CLIP基方法。
论文4
标题:
Computationally Budgeted Continual Learning: What Does Matter计算预算内的持续学习:什么才是关键
方法:
-
重新审视了持续学习问题,特别是在计算预算受限的设置下,分析了传统持续学习方法的性能。
-
通过大规模基准测试,评估了不同的持续学习采样策略、蒸馏损失和部分微调方法。
-
在ImageNet2K和Continual Google Landmarks V2等大规模数据集上,进行了数据增量、类增量和时间增量设置的实验。
创新点:
-
发现即使在计算受限的设置下,简单的最小基线方法(如均匀采样)也能胜过现有的持续学习方法。
-
证明了在计算预算受限的情况下,现有持续学习方法的性能普遍不佳,而简单的经验风险最小化方法在这些条件下表现更好。
-
通过实验验证,即使在不同的计算预算和时间步数下,这些结论仍然成立,为持续学习的实际应用提供了新的视角。