每天一分钟,带你读遍机器人顶级会议文章
标题:No Fuss Distance Metric Learning using Proxies
作者:Yair Movshovitz-Attias, Alexander Toshev, Thomas K. Leung, Sergey Ioffe, Saurabh Singh
来源:International Conference on Computer Vision (ICCV 2017)
编译:博主
欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权


摘要

本文认为,距离度量学习(DML)问题可以定义成训练一个与语义相似度一致的距离。通常对于此类问题,监督分类可以表述成一组具有下述关系的点集:锚点x与正样本点Y相似而与负样本Z不相似,并且基于距离的损失函数最优。虽然损失函数的优化方法各有不同,本文将所有此类思路统称为Triplets,基于该思路的方法统称为Triplets-Based方法。众所周知,Tripets-Based方法的一个难点在于最优求解,其中一个主要原因是需要寻找有意义的Triplets。虽然目前有许多技巧能一定程度解决此问题,例如增加batch大小,严格/半严格Triplet检索等等,但是收敛的速度依然较慢。
本文从一种新的角度计算Triplets的损失,即计算锚点和学习到的代表点(proxy point)的相似和不相似程度,进而简化优化步骤。这些代表点与原始数据近似,因此基于代理点的Triplet的损失是原始损失的严格上界。经过试验验证,本文的算法在3个标准的zero-shot数据集上得到了比当前最优算法高出15%的结果,并且收敛速度比其他Triplet-Based方法快3倍。
下图展示了本文的一个主要思路,即通过使用代理点减少计算量进而加快迭代次数。其中左图是原始方法,右图是经过优化后本文的方法。
使用代表点优化的距离度量学习
下图展示了本文算法Proxy-NCA的计算效率。
使用代表点优化的距离度量学习

使用代表点优化的距离度量学习

相关文章: