请注意,FSNet 不会明确检测概念漂移,而是始终改进当前样本的学习——无论它们是从当前固定分布、逐渐变化的分布,甚至是突然变化的分布生成的。
组件设计概述
图 2 概述了 FSNet 的组件。它解决了每层适快速适应问题,并通过稀疏联想记忆交互促进了循环模式的学习。
图 2. FSNet 概览。(a) 标准 TCN 主干网络(绿色)和 (b) 扩张卷积堆栈(蓝色)。(c) 卷积滤波器堆栈(黄色)。FSNet 中的每个卷积滤波器都配备了适配器和关联存储器,通过监控主干网络的梯度 EMA,可以快速适应新旧模式。
快速学习与慢速学习
让我们考虑一下 FSNet 遇到新数据点时的在线学习设置。
慢速学习指的是神经网络的标准权重更新,如图 2(c) 中的卷积滤波器及其右侧箭头所 电报数据库 示。如前所述,标准神经网络在每次仅使用一个样本进行更新时(在线流数据场景),收敛速度会很慢。
快速学习表示整个模块(适配器+内存),如图 2(c) 所示,左侧为蓝色箭头,直接生成基础模型参数的更新规则。
快速适配机制
最近的研究展示了一种由浅入深的原则,较浅的网络可以快速适应数据流的变化,或者在有限的数据下更有效地学习。因此,在这种情况下,先使用浅层网络进行学习,然后逐渐增加其深度会更有利。
受此启发,我们提出独立监控和修改每一层,以更好地学习当前的损失。具体来说,我们实现了一个适配器,将各层的近期梯度映射到一组更小、更紧凑的变换参数,以适应深度神经网络。