Continual Graph Convolutional Network for Text Classification
AAAI 2023

Authors: T. Wu, ..., Jiandong Ding, et al.
💡 针对流式文本数据,提出了一种具备“终身学习”能力的图卷积网络(Continual GCN)。在持续吸纳新领域知识的同时,完美克服了神经网络的灾难性遗忘现象。
🚨 1. The Problem: 神经网络的“阅后即焚”缺陷

在真实世界中(如新闻流、社交媒体监控),文本数据是持续涌现的,且类别不断膨胀。图卷积网络(GCN)在处理复杂文本结构时表现出色,但面临一个致命弱点:灾难性遗忘 (Catastrophic Forgetting)

核心痛点:昂贵的推翻重来
当 GCN 利用今天的新闻数据进行权重更新时,会迅速抹除掉其昨天学到的图拓扑特征。为了保证分类的准确率,工业界通常被迫每天将所有历史数据混合在一起从头训练(Retrain from scratch),这不仅浪费了海量的算力资源,更无法应对高频实时的数据流。
🚀 2. The Breakthrough: 拓扑感知的持续图学习

为了让模型拥有“历史记忆”,我们设计了 Continual GCN 架构:

  • 动态图扩展与保护: 模型能够根据源源不断的新文本序列,动态地向已有词图(Word Graph)中添加新节点与边。同时,引入了拓扑感知的正则化策略(Topology-aware Regularization),锁定或保护那些对旧任务至关重要的核心结构特征不被新梯度冲刷掉。
  • 抗遗忘的记忆重放: 结合情景记忆机制(Episodic Memory),在学习新任务时,极其轻量地回放少量高度浓缩的历史图结构信息,实现新旧知识的平滑融合。
📈 3. Key Results: 业务与实验价值
兼得快速适应与历史保鲜:
在多个序贯文本分类任务基准中,Continual GCN 在保持对新任务极速适应(Fast Adaptation)的同时,历史任务的准确率几乎未见衰减。这种设计极大地降低了流式自然语言处理系统的在线维护成本。