实验室博士生张岩作为第一作者的论文《Towards Macro-AUC Oriented Imbalanced Multi-Label Continual Learning》被人工智能领域顶级国际会议AAAI 2025录用。该论文由张岩、吴国强(通讯作者)、王丙正、庞腾、孙皓亮、尹义龙(通讯作者)共同完成。AAAI(Association for the Advancement of Artificial Intelligence)是人工智能领域顶级会议之一,被中国计算机学会(CCF)列为A类国际学术会议。
多标签持续学习(Multi-Label Continual Learning, MLCL)致力于让模型持续学习新增标签的同时避免遗忘历史知识。传统方法在处理实际场景(如医疗影像诊断、金融风控)时面临双重挑战:一是标签内不平衡(如罕见疾病的正样本极少),二是标签间不平衡(不同标签样本量差异悬殊)。这些失衡导致模型在关键评估指标Macro-AUC上表现受限,而现有方法未能针对性优化这一指标。为解决这一难题,本文创新提出重加权标签分布感知边际损失(RLDAM)与权重保留更新(WRU)策略的双引擎框架。RLDAM首次将重加权机制与标签分布感知边界结合:为样本稀少的标签分配更大分类边界,并差异化调节正负样本权重;理论证明其Macro-AUC泛化界显著优于主流损失函数。配套的WRU策略则通过动态保留历史数据中每个标签的原始正负样本比例,避免重播过程扭曲数据分布。实验验证:在PASCAL-VOC、MSCOCO等标准数据集上持续学习10个任务时,该方法以88.69%的Macro-AUC刷新纪录(超越基线9%),同时将灾难性遗忘率降至2.05%。研究成果为医疗系统中动态学习新增疾病标签、自动驾驶持续识别新型障碍物等场景提供了理论保障与技术支撑。