国产主播
麻仓优作品你的位置:国产主播 > 麻仓优作品 >

26XE 港大马毅团队等开源新作:用编码率正则化重构视觉自监督学习范式,“少即是多”

发布日期:2025-07-06 00:41    点击次数:120

  

26XE 港大马毅团队等开源新作:用编码率正则化重构视觉自监督学习范式,“少即是多”

最新开源的视觉预历练样子26XE,马毅团队、微软考虑院、UC 伯克利等谐和出品!

SimDINO和SimDINOv2,通过编码率正则化简化 DINO 和 DINOv2 模子历练经过得到的两个最新模子。

在当今视觉预历练界限,DINO 和 DINOv2 是最强视觉模子梯队选手,亦然当今最常用的样子。在多模态大模子火热确当下,DINOv2 也时常被用作 VLM 中的视觉编码器提供视觉特征。

此外,图灵奖得主、Meta 首席 AI 科学家杨立昆团队近期对于寰球模子的责任,也基于 DINOv2 而来。

(天然了,DINO 模子自己即是四年前 Meta AI 团队提议的)

但 DINO 系列当今仍然需要基于至极复杂的工程样子来收场。

而SimDINO 通已往除 DINO 中复杂的后处理关节等,贬责了 DINO 系列的历练勤劳。

更令东说念主惊喜的是,简化后的模子不仅历练更容易,性能反而更强。

莽撞这即是"爽脆即是好意思"的联想理念在深度学习中的伏击价值?(手动狗头)

马毅暗意:

咱们不是在修补 DINO,而是在从头发现视觉暗意学习的履行端正。

中枢样子:化繁为简

自监督学习(Self-Supervised Learning,SSL)在处理大限度未标记图像数据方面获得了显耀进展。

在 CV 界限,DINO 系列模子号称自监督学习的标杆选手。

这个无需东说念主工标注就能从海量图像中自主学习特征的模子,不仅不才游任务中屡创佳绩,更成为多模态大模子视觉编码器的标配。

然则,DINO 系列模子的强才气,伴跟着「需要被用心呵护」:

需要用心联想的温度调度战略(温度参数 τ 要精准到极少点后三位)

依赖复杂的中心化 - 锐化操作(堪比精密仪器的校准经过)

必须搭配高维原型投影层(特征维度动辄破万)

这些"保命安设"固然能防卫模子堕入特征崩溃,却让历练过程酿成了超参数调优的恶梦。而且当考虑东说念主员尝试改造模子架构或适配新界限时,经常牵一发而动全身,稍有失慎就会让通盘这个词系统停摆。

为了贬责这些问题,SimDINO 和 SimDINOv2 模子闪亮登场~

通过引入编码率正则化,简化历练经过,进步模子的鲁棒性和性能。

这俩模子的中枢念念想,是通过编码率正则化防卫暗意崩溃,从而去除原始 DINO 和 DINOv2 历练经过中好多耕作性联想组件。

具体样子包括:

移除耕作性组件:删除权重归一化的线性层、均衡操作(如中心化、锐化)以及多样超参数(如温度调度、中心化动量)等。

引入编码率正则化:在亏蚀函数中添加一个爽脆的编码率正则化项,以防卫暗意崩溃。

SimDINO 和 SimDINOv2 模子的主要革命点除了上述 2 种样子外,还有一丝,即简化的历练经过。

通过上述 2 种具体样子的改造,SimDINO 和 SimDINOv2 的历练经过愈加爽脆,减少了对超参数的依赖,进步了历练的结识性和后果。

引入编码率正则化,历练更结识、性能更强

总结自监督对比学习"同类相聚,异类相斥"的原始起点,考虑团队发现,DINO 中好多复杂联想(如输出层高维投影、进修集聚输出中心化 - 锐化操作、温度移动等)都是在迤逦地运用负样本信息来防卫模子习得的暗意"崩溃"。

而 SimDINO 系列考虑团队提议这一需求,不错转而使用马毅提议的数据编码率失真计算样子(可参考 MCR2 等系列责任),招揽自满度量模子表征的质地算作正则化项。

基于这一发现,考虑东说念主员提议了一个贬责决议:

引入编码率(coding rate)正则化,通过在亏蚀函数中添加一个显式的编码率正则项来幸免暗意崩溃。

这个爽脆的编削就能替代原来复杂的联想,将历练经过向勤俭集聚。

而简化的模子历练经过不错带来几个重要上风,即「更了了的优化看法、更少的组件依赖、更容易的表面分析、更好的可延迟性」。

具体而言,SimDINO 保留了 DINO 模子的 EMA 自蒸馏决议和多视图数据增强样子,但在对比学习决议上进行了修改。

湮灭输出层高维原型投影 + 交叉熵多分类,平直使用欧几里得距离 / 余弦不异度比较学生集聚(student network)和进修集聚(teacher network)生成的特征。

加入编码率正则化项促使模子学习到更具折柳性的暗意,移除进修集聚输出中心化 - 锐化操作、温度移动等幸免暗意崩溃的手段。

通过引入编码率正则化,SimDINO 能够灵验防卫特征崩溃,确保学习到的信息具有较大的信息熵,从而进步模子的泛化才气。

SimDINOv2 则进一步将 DINOv2 引入的 iBOT 机制进行替换。

它平直使用余弦不异度监督掩码区域 token 与进修集聚暗意间的对皆,而 Sinkhorn-Knopp centering、KoLeo 正则化等复杂联想也被简化移除。

比拟于原版 DINO, SimDINO 的历练经过更为爽脆,去除了好多繁琐的组件和超参数,裁减了模子历练的复杂度,使得考虑东说念主员和工程师更容易贯串和收场这些模子。

从实验角度看,这一系列操作不错让模子历练更结识,性能也更强。

多样评估均优于 DINO 系列

为了考证 SimDINO 和 SimDINOv2 的灵验性,考虑团队在多个数据集和任务上进行了世俗的实验评估,包括图像分类、看法检测、语义分割以及视频对象分割。

实验罢休标明,SimDINO 系列在规划后果、历练结识性和卑劣任务性能上均优于 DINO 系列。

ImageNet-1K 图像分类

SimDINO 和 SimDINOv2 在 ImageNet-1K 上进行了评估,包括 k-NN 分类和线性评估(linear probing)。

还与 DINO、DINOv2 进行了对比。

COCO val2017 无监督看法检测与实例分割

在看法检测任务中,考虑团队招揽 MaskCut 算作基础检测框架,并在 COCO val2017 数据集上进行了评估。

具体来说,主要对比了 AP50、AP75 和 AP 三个贪图:

ADE20K 语义分割和 DAVIS-2017 视频对象分割

在语义分割任务上,考虑团队招揽 linear head 并在 ADE20K 数据集上进行了评估。

这个任务上主要对比了 mIoU(平均交并比)和 mAcc(平均像素精度)。

至极要提到的是,SimDINO 还在 DAVIS-2017 上进行了评估,包括 ( J&F ) m、Jm 和 Fm 三个设施贪图。

罢休自满,它在定性的特征可视化分析上也展现出了 DINO 系列责任中阐述隆起的语义抒发才气清晰表象。

与此同期,SimDINO 和 SimDINOv2 对超参数和数据的变化更持重了。

其它

此外,神态论文中通过表面分析,提议了一个对于 SimDINO 超参数采用的表面:

若何均衡编码率正则化项和距离项的梯度范数。

通过表面推导,作家给出了一个对于超参数 γ 的采用样子,使得两个项的梯度范数在优化过程中保捏均衡。

下图自满的是在 SimDINO 和 DINO 下历练 ViT-B/16 的历练动态。

X 轴暗意历练周期(epochs),Y 轴暗意在 ImageNet-1K 上的 k-NN 评估性能。

其中,左图自满的是两个模子均在 ImageNet-1K 数据集上历练。

为更好地展示优化过程,考虑团队不祥了早期历练阶段的数据。

右图自满的是两个模子均在 COCO train2017 数据集(爽脆是 ImageNet-1K 的 1/10)上历练。

算作一个考阐述验,该罢休标明 SimDINO 需要更少的超参数调优,而且优化过程愈加爽脆。

考虑团队

SimDINO 系列由多所学校与机构的考虑者共同完成,包括 UC 伯克利、忆生科技、微软考虑院、香港大学等。

我的尤物老婆

一作是 UC 伯克利三年岁博士生吴梓阳,导师是马毅。

他主要考虑看法为表征学习与多模态学习,起劲于于通过数学与统计表面构建高效、可讲解注解的深度学习模子。

此前,吴梓阳本硕均就读于康奈尔大学。

在论文临了,SimDINO 考虑团队进一步提议和建议了 SimDINO 的几个潜在改造看法:

在 SimDINO 框架基础上进一步探索不需要自蒸馏优化的自监督看法。

简化后的框架为自监督学习的表面分析提供了更好的切入点。

将"显式化隐式联想采用"的范式实施到其他框架,启发并探索其他模子的简化改造样子。

论文地址:https://arxiv.org/abs/2502.10385

神态主页:https://robinwu218.github.io/SimDINO

GitHub:https://github.com/RobinWu218/SimDINO

—  完  —

学术投稿请于责任日发邮件到:

ai@qbitai.com

标题注明【投稿】,告诉咱们:

你是谁,从哪来,投稿内容‍

附上论文 / 神态主页衔接,以及关系面目哦

咱们会(尽量)实时恢复你

一键保养 � � 点亮星标

科技前沿进展逐日见

一键三连「点赞」「转发」「戒备心」

迎接在指摘区留住你的想法!26XE



Powered by 国产主播 @2013-2022 RSS地图 HTML地图

Copyright Powered by站群 © 2013-2024 版权所有