新闻首页 / “2025年10月27日”的新闻
3
0
数据集蒸馏,连发两篇顶会!10%样本实现全量性能,鲁棒不失真
新智元报道 编辑:LRST 数据集蒸馏是一种用少量合成数据替代全量数据训练模型的技术,能让模型高效又节能。WMDD 和 GUARD 两项研究分别解决了如何保留原始数据特性并提升模型对抗扰动能力的问题,使模型在少量数据上训练时既准确又可靠。 数据集蒸馏(Dataset Distillation,DD)

























