赞
踩
今天写了一篇关于基于树模型的集成学习中特征重要性的计算原理,见 机器学习 | 特征重要性判断 其中有一篇介绍GBDT的博文中,介绍了具体的例子来讲解GBDT,一开始不太理解,后来和同学讨论之后逐步了解了,记录一下!
首先上GBDT的数学原理,即算法过程:
参考资料:https://mp.weixin.qq.com/s/9SrciKW-nJJMA2BbTs5CLg
问题:第二棵树0样本的残差值为:-0.3375怎么得到的?
首先了解第一棵树-0.375怎么得到?
根据2.1的算法原理的第一步可以知道,残差 = 本轮实际值 - 上轮预测值
第一轮:
本轮实际值 = 1.1
上轮预测值 = 1.475【弱学习器1】
故残差为:1.1 - 1.475 = -0.375
第二轮:
本轮实际值 = 1.475 + (-0.375) = 1.1
上轮预测值 = 1.475 + 0.1 * (-0.375) = 1.4375 【弱学习器2】
故残差为 : 1.1 - 1.4375 = -0.3375
第三轮:
本轮实际值 = 1.4375 + (-0.3375) = 1.1
上轮预测值 = 1.4375 + 0.1 * (-0.3375) = 1.40375 【弱学习器3】
故残差为 : 1.1 - 1.40375 = -0.30375
GBDT的核心就在于:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。