谷歌的EfficientNet进化之后,又刷新了ImageNet纪录。
这个叫Noisy Student的新模型,将ImageNet图像分类的top-1准确率提高到了87.4%,比此前最好的FixResNetXt-101 32×48d高出了1个百分点。
更令人惊叹的是,在ResNeXt-101 32×48d只达到了16.6%top-1准确率的ImageNet-A测试集上,Noisy Student一举将准确率提高到了74.2%。
新模型来自谷歌大脑首席科学家Quoc V. Le的团队,而论文第一作者,则是毕业于上海交大ACM班的谢其哲,目前正在CMU攻读博士,是谷歌大脑的学生研究员。
实现方法
提升如此明显,但方法却并不复杂。Noisy Student是站在了EfficientNet这位“名师”的肩膀上。
第一步,是用ImageNet中带标签的图像训练EfficientNet。
EfficientNet是谷歌开源的缩放模型,基于AutoML开发, 初登场就刷新了ImageNet的纪录,准确度为84.4%(top-1)和97.1%(top-5),并且模型更小更快,效率提升达10倍之多。
对于这一模型,量子位做过详细的解读:https://mp.weixin.qq.com/s/DCRpBUJE98ckZnrouuVo6Q
第二步,在一个更大规模的数据集上,用EfficientNet给无标签图片打上伪标签。
这一步中,研究人员选择的是谷歌的JFT数据集。这一数据集拥有300M图片,是ImageNet的300倍。
然后,将有标签的图像和被打上伪标签的图像组合起来,训练一个更大的学生模型。
新的学生模型又会成为新的老师,迭代这一过程。
在生成伪标签的过程中,教师模型不会被噪声干扰,以便提高伪标签的置信度。
但学生模型在训练的过程中,会面临来自随机深度、dropout和RandAugment带来的噪声干扰。这就迫使学生模型不得不从伪标签中进行学习。
在训练的过程中,EfficientNet也会不断更新。其中,最大的模型EfficientNet-L2需要在2048核的Cloud TPU v3 Pod上训练3.5天。
性能表现
开头已经提到,这个新的Noisy Student模型再一次刷新了ImageNet的纪录,现在来看看它的具体战绩:
在top-1准确率上,EfficientNet和Noisy Student的组合将最佳成绩提高了1个百分点,并且模型的参数规模远小于Facebook的FixResNetXt-101 32×48d。
而在更加严格测试集上,Noisy Student的进步更为显著。
ImageNet-A测试集包含7500个自然对抗样本,会导致SOTA模型的准确率大大下降。比如来自Facebook的知名选手ResNeXt-101 32×48d,就只能达到16.6%的top-1准确率。
在这个基准当中,Noisy Student一举将top-1准确率从16.6%提高到了74.2%。
Image-C和Image-P测试集则包含了模糊、雾化、旋转和缩放过的图像。换句话说,测试图像完全不同于模型的训练数据。
在ImageNet-C上,Noisy Student将平均错误率从45.7降到了31.2。
在ImageNet-P上,Noisy Student将平均翻转率从27.8降到了16.2。
也就是说,这个新模型不仅准确率又进一步,在鲁棒性上,更是实现了惊人的进步。
根据论文作者介绍,模型代码将尽快释出,不妨先mark一下~
传送门
论文地址:
https://arxiv.org/abs/1911.04252
— 完 —
“