triplet loss的BP的梯度咋算
分别对xa, xp, xn求导就可以了,求导公式具体如下图。截图中最后一项求错了,符号反了。【吐槽一下这是正式发表的cvpr论文。。截图的这个是用triplet loss来做索引的。具体可以看论文:http://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Lai_Simultaneous_Feature_Learning_2015_CVPR_paper.pdf
【triplet loss的BP的梯度咋算】
■网友
参加博文 triplet loss 原理以及梯度推导, 里面还有关于在caffe中实现的细节
推荐阅读
- 对稀疏大矩阵做奇异值分解的方法有哪些
- 梯度下降算法中求J(θ)的最小值时,θ0(常数项)的值怎样确定
- Myautotime|江淮思皓,或成为大众品牌梯度建设中的一枚重要棋子
- 为啥线性回的代价函数J(theta)可以用梯度算法找到全局最优解,梯度算法不是只能找到局部最优解么
- 用梯度下降解线性回归问题时,如果学习因子过大的话,训练过程就会发散,我的程序也证实了这一点,可是怎样从数学上理解呢
- 随机梯度下降法(SGD)怎样设置自适应步长
- 怎样解释梯度下降算法中的Proximal Gradient Descent和SubGradient?
- Python中算法训练关系图怎样实现
- 二维函数梯度下降法
- keras/theano训练速度为啥这么慢
