About 24 results
Open links in new tab
  1. 梯度(gradient)到底是个什么东西?物理意义和数学意义分别是 …

    在一元函数里,因为只有一个方向,所以直接使用导数就可以描述变化率了。而在多元函数里,就像在一开始的例子中,我们的小兔子是可以往东南西北甚至更多的方向蹦跶的,是个 3D 游戏 …

  2. 梯度(gradient)到底是个什么东西?物理意义和数学意义分别是 …

    为了降低随机梯度的方差,从而使得迭代算法更加稳定,也为了充分利用高度优化的矩阵运算操作,在实际应用中我们会同时处理若干训练数据,该方法被称为小批量梯度下降法 (Mini- Batch …

  3. 如何更好的理解共轭梯度方法? - 知乎

    看到了答案们清一色地都在推荐大名鼎鼎的An Introduction to the Conjugate Gradient Method Without the Agonizing Pain我就放心了。答主在ZJUCS的一门应用数学课程需要我们认真研习 …

  4. 哪里有标准的机器学习术语 (翻译)对照表? - 知乎

    梯度裁剪 (Gradient Clipping) 在应用梯度值之前先设置其上限。 梯度裁剪有助于确保数值稳定性以及防止梯度爆炸 [14]。 梯度下降法 (Gradient Descent) 一种通过计算并且减小梯度将损失降 …

  5. 如何理解随机梯度下降(stochastic gradient descent,SGD)?

    随机梯度下降 Stochastic Gradient Descent SGD (Vinilla基础法/Momentum动量法) 一开始SGD没有动量,叫做Vanilla SGD,也就是没有之前时刻的梯度信息。

  6. Gradient Reversal Layer指什么? - 知乎

    Gradient Reversal Layer指什么? Domain Adaption里面的GRL到底能发挥什么作用呢? 显示全部 关注者 308

  7. CNN卷积神经网络的始祖文是哪篇? - 知乎

    SmartKids Python Excle 关注 卷积神经网络(CNN)的开创性工作可以追溯到 Yann LeCun 在 1998 年发表的论文,论文题目为:“Gradient-based learning applied to document recognition” …

  8. 如何理解Adam算法 (Adaptive Moment Estimation)? - 知乎

    效果如下: 4.AdaGrad 全程为Adaptive Gradient,意思就是,学习参数的更新率要适当地根据每个参数的历史几率调整,怎么调整呢?

  9. 谁能解释一下密度泛函理论(DFT)的基本假设和原理么? - 知乎

    GGA (Generalized Gradient Approximation) 90 年代后,渐为化学界所接受,Kohn 因此1998年获诺贝尔化学奖。 思考:Kohn-Sham 方程与 Hartree-Fock 方程有什么本质的区别? 主要区别 …

  10. AMOS颜色确定不了? - 知乎

    请教:修改颜色之后没有确定按钮,怎么办?退也退不出来

Refresh