赞
踩
信息增益表示得知特征A的信息而使得类Z的信息的不确定性减少的程度。
特征A对数据集D的信息增益 G(D,A),定义为集合的信息熵 H(D) 与特征A给定条件下D的信息条件熵 H(D|A) 之差,即公式为:
G
(
D
,
A
)
=
H
(
D
)
−
H
(
D
∣
A
)
G(D,A)=H(D)-H(D|A)
G(D,A)=H(D)−H(D∣A)
由贷款数据来看我们的公式:
信息熵的计算: H ( D ) = − ∑ k = 1 K ∣ C k ∣ ∣ D ∣ log 2 ∣ C k ∣ ∣ D ∣ H(D)=-\sum_{k=1}^{K}\frac{|C_k|}{|D|}\log_{2}\frac{|C_k|}{|D|} H(D)=−k=1∑K∣D∣∣Ck∣log2∣D∣∣Ck∣
条件熵的计算: H ( D ∣ A ) = ∑ i = 1 n ∣ D i ∣ ∣ D ∣ H ( D i ) = − ∑ i = 1 n ∣ D i ∣ ∣ D ∣ ∑ k = 1 K ∣ D i k ∣ ∣ D i ∣ log 2 ∣ D i k ∣ ∣ D i ∣ H(D|A)=\sum_{i=1}^{n}\frac{|D_i|}{|D|}H(D_i)=-\sum_{i=1}^{n}\frac{|D_i|}{|D|}\sum_{k=1}^{K}\frac{|D_{ik}|}{|D_i|}\log_{2}\frac{|D_{ik}|}{|D_i|} H(D∣A)=i=1∑n∣D∣∣Di∣H(Di)=−i=1∑n∣D∣∣Di∣k=1∑K∣Di∣∣Dik∣log2∣Di∣∣Dik∣
注: C k C_k Ck表示属于某个类别的样本数。
样本D如下(银行贷款数据):
序号 | 年龄 | 有工作 | 有自己的房子 | 信贷情况 | 类别 |
---|---|---|---|---|---|
1 | 青年 | 否 | 否 | 一般 | 否 |
2 | 青年 | 否 | 否 | 好 | 否 |
3 | 青年 | 是 | 否 | 好 | 是 |
4 | 青年 | 是 | 是 | 一般 | 是 |
5 | 青年 | 否 | 否 | 一般 | 否 |
6 | 中年 | 否 | 否 | 一般 | 否 |
7 | 中年 | 否 | 否 | 好 | 否 |
8 | 中年 | 是 | 是 | 好 | 是 |
9 | 中年 | 否 | 是 | 非常好 | 是 |
10 | 中年 | 否 | 是 | 非常好 | 是 |
11 | 老年 | 否 | 是 | 非常好 | 是 |
12 | 老年 | 否 | 是 | 好 | 是 |
13 | 老年 | 是 | 否 | 好 | 是 |
14 | 老年 | 是 | 否 | 非常好 | 是 |
15 | 老年 | 否 | 否 | 一般 | 否 |
样本信息熵:
H
(
D
)
=
−
(
9
15
log
2
9
15
+
6
15
log
2
6
15
)
=
0.97095
H(D)=-(\frac{9}{15}\log_{2}\frac{9}{15}+\frac{6}{15}\log_{2}\frac{6}{15})=0.97095
H(D)=−(159log2159+156log2156)=0.97095
求样本信息熵时,只看类别这一列。因为其他的列都是特征列,是决定类别的值的因素。
年龄的信息增益:
G
(
D
,
年
龄
)
=
H
(
D
)
−
H
(
D
∣
年
龄
)
G(D,年龄)=H(D)-H(D|年龄)
G(D,年龄)=H(D)−H(D∣年龄)
将数据代入计算:
G
(
D
,
年
龄
)
=
0.97095
−
(
5
15
H
(
青
年
)
+
5
15
H
(
中
年
)
+
5
15
H
(
老
年
)
)
G(D,年龄)=0.97095-(\frac{5}{15}H(青年)+\frac{5}{15}H(中年)+\frac{5}{15}H(老年))
G(D,年龄)=0.97095−(155H(青年)+155H(中年)+155H(老年))
解析:年龄一共有三类,总数是15,青年有5个,中年有5个,老年有5个
最终结果:G(D,年龄)=0.083
同理:
工作 | 房子 | 信贷 |
---|---|---|
G(D,工作)=H(D)-H(D/工作) | G ( D , 房 子 ) = H ( D ) − H ( D / 房 子 ) G(D,房子)=H(D)-H(D/房子) G(D,房子)=H(D)−H(D/房子) | G ( D , 信 贷 ) = H ( D ) − H ( D / 信 贷 ) G(D,信贷)=H(D)-H(D/信贷) G(D,信贷)=H(D)−H(D/信贷) |
G ( D , 工 作 ) = 0.97095 − ( 5 15 H ( 有 工 作 ) + 10 15 H ( 没 工 作 ) ) G(D,工作)=0.97095-(\frac{5}{15}H(有工作)+\frac{10}{15}H(没工作)) G(D,工作)=0.97095−(155H(有工作)+1510H(没工作)) | G ( D , 房 子 ) = 0.97095 − ( 6 15 H ( 有 房 子 ) + 9 15 H ( 没 房 子 ) ) G(D,房子)=0.97095-(\frac{6}{15}H(有房子)+\frac{9}{15}H(没房子)) G(D,房子)=0.97095−(156H(有房子)+159H(没房子)) | G ( D , 信 贷 ) = 0.97095 − ( 5 15 H ( 一 般 ) + 6 15 H ( 好 ) + 4 15 H ( 非 常 好 ) ) G(D,信贷)=0.97095-(\frac{5}{15}H(一般)+\frac{6}{15}H(好)+\frac{4}{15}H(非常好)) G(D,信贷)=0.97095−(155H(一般)+156H(好)+154H(非常好)) |
H ( 有 工 作 ) = − ( 5 5 log 2 5 5 + 0 5 log 2 0 5 ) = 0 H(有工作)=-(\frac{5}{5}\log_{2}\frac{5}{5}+\frac{0}{5}\log_{2}\frac{0}{5})=0 H(有工作)=−(55log255+50log250)=0 | H ( 有 房 子 ) = − ( 6 6 log 2 6 6 + 0 6 log 2 0 6 ) = 0 H(有房子)=-(\frac{6}{6}\log_{2}\frac{6}{6}+\frac{0}{6}\log_{2}\frac{0}{6})=0 H(有房子)=−(66log266+60log260)=0 | H ( 一 般 ) = − ( 1 5 log 2 1 5 + 4 5 log 2 4 5 ) H(一般)=-(\frac{1}{5}\log_{2}\frac{1}{5}+\frac{4}{5}\log_{2}\frac{4}{5}) H(一般)=−(51log251+54log254) |
H ( 没 工 作 ) = − ( 4 10 log 2 4 10 + 6 10 log 2 6 10 ) H(没工作)=-(\frac{4}{10}\log_{2}\frac{4}{10}+\frac{6}{10}\log_{2}\frac{6}{10}) H(没工作)=−(104log2104+106log2106) | H ( 没 房 子 ) = − ( 3 9 log 2 3 9 + 6 9 log 2 6 9 ) H(没房子)=-(\frac{3}{9}\log_{2}\frac{3}{9}+\frac{6}{9}\log_{2}\frac{6}{9}) H(没房子)=−(93log293+96log296) | H ( 好 ) = − ( 4 6 log 2 4 6 + 2 6 log 2 2 6 ) H(好)=-(\frac{4}{6}\log_{2}\frac{4}{6}+\frac{2}{6}\log_{2}\frac{2}{6}) H(好)=−(64log264+62log262) |
H ( 非 常 好 ) = − ( 4 4 log 2 4 4 + 0 4 log 2 0 4 ) = 0 H(非常好)=-(\frac{4}{4}\log_{2}\frac{4}{4}+\frac{0}{4}\log_{2}\frac{0}{4})=0 H(非常好)=−(44log244+40log240)=0 |
信息增益(Information Gain)的计算公式其实就是父节点的信息熵与其下所有子节点总信息熵之差。也就是以下代码的计算思路。
import numpy as np import pandas as pd def createDataset(): # 银行贷款数据 row_data = { '年龄': ['青年','青年','青年','青年','青年','中年','中年','中年','中年','中年','老年','老年','老年','老年','老年'], '有工作': ['否', '否', '是', '是', '否', '否', '否', '是', '否', '否', '否', '否', '是', '是', '否',], '有房子': ['否', '否', '否', '是', '否', '否', '否', '是', '是', '是', '是', '是', '否', '否', '否',], '信贷情况': ['一般','好','好','一般','一般','一般', '好', '好','非常好','非常好','非常好','好','好','非常好','一般'], '类型': ['否', '否', '是', '是', '否', '否', '否', '是', '是', '是', '是', '是', '是', '是', '否',] } dataset = pd.DataFrame(row_data) return dataset """ 函数功能:计算香农熵(信息熵):解决了对信息的量化度量问题 参数说明: dataSet:原始数据集 返回:ent:香农熵 """ def calEnt(dataSet): n = dataSet.shape[0] # 数据集总行数 iset = dataSet.iloc[:,-1].value_counts() # 标签的所有类别 p = iset/n # 每一类标签所占比 ent = (-p*np.log2(p)).sum() # 计算信息熵 return ent """ 函数功能:根据信息增益选择出最佳数据集切分的列 参数说明: dataSet:原始数据集 返回:axis:数据集各特征列的信息增益(字典形式,降序排序) """ def bestSplit(dataSet): baseEnt = calEnt(dataSet) # 原始信息熵 axis = {} # 存放对应列的序号,以及它的信息增益 for i in range(dataSet.shape[1]-1): # 对特征的每一列进行循环 levels= dataSet.iloc[:,i].value_counts().index # 提取出当前列的所有取值 ents = 0 for j in levels: childSet = dataSet[dataSet.iloc[:,i]==j] # 筛选dataframe ent = calEnt(childSet) ents += (childSet.shape[0]/dataSet.shape[0])*ent # 计算当前列的信息熵 # print(f'第{i}列的信息熵为{ents}') infoGain = baseEnt - ents # 计算当前列的信息增益 print(f'第{i}列的信息增益为{infoGain}') axis["第"+str(i)+"列"] = infoGain axis = sorted(axis.items(), key=lambda elem:elem[1], reverse=True) return axis DataSet = createDataset() h = calEnt(DataSet) dit = bestSplit(DataSet) print(f"样本的信息熵为:{h}") print(f"信息增益字典:{dit}") ''' 第0列的信息增益为0.08300749985576883 第1列的信息增益为0.32365019815155627 第2列的信息增益为0.4199730940219749 第3列的信息增益为0.36298956253708536 样本的信息熵为:0.9709505944546686 信息增益字典:[('第2列', 0.4199730940219749), ('第3列', 0.36298956253708536), ('第1列', 0.32365019815155627), ('第0列', 0.08300749985576883)] '''
海洋生物数据
序号 | no surfacing | flippers | fish |
---|---|---|---|
1 | 1 | 1 | yes |
2 | 1 | 1 | yes |
3 | 1 | 0 | no |
4 | 0 | 1 | no |
5 | 0 | 1 | no |
这是另一个不说人话的版本,但核心内容都差不多,官方解释都难理解:
假设离散属性a有V个可能的取值
{
a
1
,
a
2
,
.
.
.
,
a
V
}
\lbrace a^1,a^2,...,a^V \rbrace
{a1,a2,...,aV},若使用a对样本数据集D进行划分,则会产生V个分支节点。其中第v个分支节点包含了D中所有在属性a上取值为
a
v
a^v
av的样本,记为
D
v
D^v
Dv。我们可根据信息熵的计算公式计算出
D
v
D^v
Dv的信息熵,再考虑到不同的分支节点所包含的样本数不同,给分支节点赋予权重
∣
D
v
∣
∣
D
∣
\frac{|D^v|}{|D|}
∣D∣∣Dv∣。
所以信息增益的计算公式为: G a n i ( D , a ) = E n t ( D ) − ∑ v = 1 V ∣ D v ∣ ∣ D ∣ E n t ( D v ) Gani(D,a)=Ent(D)-\sum_{v=1}^{V}\frac{|D^v|}{|D|}Ent(D^v) Gani(D,a)=Ent(D)−v=1∑V∣D∣∣Dv∣Ent(Dv)
海洋生物数据集中第0列的信息增益: G a n i ( D , a ) = E n t ( D ) − ∑ v = 1 V ∣ D v ∣ ∣ D ∣ E n t ( D v ) Gani(D,a)=Ent(D)-\sum_{v=1}^{V}\frac{|D^v|}{|D|}Ent(D^v) Gani(D,a)=Ent(D)−v=1∑V∣D∣∣Dv∣Ent(Dv)
G
a
i
n
(
′
N
o
S
u
r
f
a
c
i
n
g
′
)
=
E
n
t
(
D
)
−
[
3
5
E
n
t
(
D
1
)
+
2
5
E
n
t
(
D
2
)
]
=
c
a
l
E
n
t
(
D
a
t
a
S
e
t
)
−
[
3
5
(
−
2
3
log
2
2
3
−
1
3
log
2
1
3
)
+
2
5
(
−
2
2
log
2
2
2
)
]
=
0.97
−
0.55
=
0.42
import numpy as np import pandas as pd def createDataset(): # 海洋生物数据集 row_data = { 'no surfacing': [1, 1, 1, 0, 0], 'flippers': [1, 1, 0, 1, 1], 'fish': ['yes', 'yes', 'no', 'no', 'no'] } dataset = pd.DataFrame(row_data) return dataset def calEnt(dataSet): n = dataSet.shape[0] # 数据集总行数 iset = dataSet.iloc[:,-1].value_counts() # 标签的所有类别 p = iset/n # 每一类标签所占比 ent = (-p*np.log2(p)).sum() # 计算信息熵 return ent def bestSplit(dataSet): baseEnt = calEnt(dataSet) # 原始信息熵 axis = {} # 存放对应列的序号,以及它的信息增益 for i in range(dataSet.shape[1]-1): # 对特征的每一列进行循环 levels= dataSet.iloc[:,i].value_counts().index # 提取出当前列的所有取值 ents = 0 for j in levels: childSet = dataSet[dataSet.iloc[:,i]==j] # 筛选dataframe ent = calEnt(childSet) ents += (childSet.shape[0]/dataSet.shape[0])*ent # 计算当前列的信息熵 # print(f'第{i}列的信息熵为{ents}') infoGain = baseEnt - ents # 计算当前列的信息增益 print(f'第{i}列的信息增益为{infoGain}') axis["第"+str(i)+"列"] = infoGain axis = sorted(axis.items(), key=lambda elem:elem[1], reverse=True) return axis DataSet = createDataset() h = calEnt(DataSet) dit = bestSplit(DataSet) print(f"样本的信息熵为:{h}") print(f"信息增益字典:{dit}") ''' 第0列的信息增益为0.4199730940219749 第1列的信息增益为0.17095059445466854 样本的信息熵为:0.9709505944546686 信息增益字典:[('第0列', 0.4199730940219749), ('第1列', 0.17095059445466854)] '''
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。