新闻动态

新闻动态 当前位置: 首页 >> 新闻公告 >> 新闻动态 >> 正文

祝贺TIME实验室博士生李文浩一篇论文被机器学习顶会ICLR录用

发布日期:2026-01-27作者:点击:

近日,TIME实验室2025级博士生李文浩一篇论文“DVLA-RL: Dual-Level VisionLanguage Alignment with Reinforcement Learning Gating for Few-Shot Learning” (作者:李文浩,孟宪静,王强昌,韩忠义,吴志宾,尹义龙)被International Conference on Learning RepresentationsICLR2026会议录用。ICLRNeurIPSICML并称“机器学习三大顶会”。

小样本学习(FSL)旨在使用少量样本泛化到新类别。近期方法引入大语言模型(LLMs),利用从类别名称的语义嵌入来丰富视觉表征。然而,它们忽视了从低层到高层语义的、渐进且自适应的视觉语言对齐,从而导致语义增益受限。为解决这些挑战,我们提出了基于强化学习门控的双层视觉语言对齐方法(DVLA-RL),其由双层语义构建(DSC)与RL 门控注意力(RLA)组成。具体而言,DSC LLM 以类别名称与支持样本为条件来生成具有判别性的属性,逐步选择其中最相关的属性,并进一步将其综合为连贯的类别描述。该过程提供互补的低层属性与高层描述,使得既能进行细粒度的语义落地,也能形成整体性的类别理解。为在视觉网络各层动态融合双层语义,RLA 将跨模态融合形式化为一个序列决策过程。一个使用情节式 REINFORCE 训练的轻量策略自适应地调整自注意力与交叉注意力的贡献,以融合文本与视觉 tokens。由此,浅层聚焦并细化局部属性,深层强调全局语义,从而实现更精确的跨模态对齐。这使得模型仅凭少量支持样本即可获得特定于类别的判别能力与泛化表征。DVLA-RL 在三种多样化的 FSL 场景下的九个基准上取得了新的最先进性能。