当前位置:   article > 正文

24 优化算法

24 优化算法

  • 对于深度学习问题,通常会先定义损失函数,在有了损失函数之后,就可以使用优化算法来尝试最小化损失
  • 在优化中,损失函数通常被称为优化问题的目标函数
  • 大多数优化算法都关注的是最小化,如果需要最大化目标,只需要在目标函数前加负号就可以了

优化和深度学习

  • 尽管优化提供了一种最大限度减少深度学习损失函数的方法,但本质上优化和深度学习的目标是根本不同的

    • 优化主要关注的是最小化目标
    • 深度学习关注的是在给定有限数据量的情况下寻找合适的模型
  • 具体的区别例如训练误差和泛化误差

    • 优化算法的目标函数通常是基于训练数据集的损失函数,因此优化的目标是减少训练误差
    • 深度学习的目标是减少泛化误差,为了达到减小泛化误差的目的,除了使用优化算法来减少训练误差外,还需要注意过拟合
  • 经验风险和风险

    • **经验风险:**训练数据集的平均损失
    • **风险:**整个数据群的预期损失
    • 练数据集的最低经验风险可能和最低风险(泛化误差)不同
  • 优化问题的一般形式:

    • 在深度学习中,f(x) 是损失函数(给定一个输入,预测和真实标号之间的差距);x 是所有的超参数,不管矩
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/寸_铁/article/detail/1007079
推荐阅读
相关标签
  

闽ICP备14008679号