About 60,100,000 results
Open links in new tab
  1. 深度学习的loss一般收敛到多少? - 知乎

    看题主的意思,应该是想问,如果用训练过程当中的loss值作为衡量深度学习模型性能的指标的话,当这个指标下降到多少时才能说明模型达到了一个较好的性能,也就是将loss作为一 …

  2. 如何分析kaiming新提出的dispersive loss,对扩散模型和aigc会带 …

    Dispersive Loss 的目的: 是最大化表示的 分散性。 当不进行 \ell_2 归一化时,特征向量的 范数(长度) 是被允许自由变化的。 如果模型为了最小化 Dispersive Loss,它会倾向于让特征向 …

  3. 请问MSE loss 大小多少才表示模型优化效果好呢?0.01大概是什么 …

    不光是MSE loss, 任何loss只是优化的途径,并不是衡量模型好坏的唯一标准。 通常的做法是,建立一个baseline 模型,查看效果,这里的效果是你真正要优化的目标,比如precision, recall, …

  4. 深度学习中LOSS的设计思路是什么? - 知乎

    8本电子书免费送给大家,见文末。 常见的 Loss 有很多,比如平方差损失,交叉熵损失等等,而如果想有更好的效果,常常需要进行loss function的设计和改造,而这个过程也是机器学习中 …

  5. 深度学习的多个loss如何平衡? - 知乎

    多个loss引入 pareto优化理论,基本都可以涨点的。 例子: Multi-Task Learning as Multi-Objective Optimization 可以写一个通用的class用来优化一个多loss的损失函数,套进任何方法 …

  6. 使用diffusion model训练过程中step loss仍然部分很高,最终效果 …

    使用diffusion model训练过程中虽然总体epoch loss下降收敛,但step loss仍然部分很高。 归一化到0-1,采用L1+mse… 显示全部

  7. 关于不同量级的两个loss,如何让他们变成一个量级,从而使得两 …

    感觉像是两个问题,一个是如何均衡两个不同loss的量级,一个是如何在训练的不同阶段不同loss的权重不同。 均衡量级的话, 多任务学习 (Multi-task) 的文章有过一些研究,之前看过几 …

  8. 有哪些「魔改」loss函数,曾经拯救了你的深度学习模型? - 知乎

    类似的Loss函数还有IoU Loss。 如果说DiceLoss是一种 区域面积匹配度 去监督网络学习目标的话,那么我们也可以使用 边界匹配度去监督网络的Boundary Loss。 我们只对边界上的像素进 …

  9. 关于短语at a loss的用法? - 知乎

    牛津高阶上,给出的用法是be at a loss for words 和I'm at a loss what to do next. (后例也出现在…

  10. 损失函数|交叉熵损失函数 - 知乎

    对所有样本的loss求平均: 我们发现,MSE能够判断出来 模型2 优于 模型1,那为什么不采样这种损失函数呢?