发布网友 发布时间:2023-06-25 00:39
共1个回答
热心网友 时间:2024-11-17 09:37
参考学习资料:菜鸟团生信专题
对统计学原理不太熟练的时候听到一个名词 随机森林 ,这是个什么鬼,这个森林里有啥,随机出现什么?这东西干啥的?啥也不知道啊,只好学习了。
根据搜到的结果终于知道了这个统计方法是怎么回事了。
果然是森林,由很多树组成的,很多什么树呢,决策树,厉害了,这个树是有决策能力的的,能预测森林的走向,那么怎么实现的呢,决策树又是怎么来的呢,是来源于一堆数据,理清楚了,就是一堆数据通过某种算法变成了由决策树的形式展现出来,然后很多树对这个数据进行了深度分析,然后形成了一个随机森林可以根据已有的这堆数据对某个现象或某个疾病的进展做一个预后的推测,通常情况下预测精度还是蛮精准的。
这不就是赋予机器以思想的过程吗,估计深度学习就是这么来的。高级!
以上是我脑补的,具体过程还请看前面的参考资料。
构建一个决策树是很简单的,分为3步:
决策树是一种有监督机器学习算法,所以需要一个已知数据用于计算,这种数据分为两部分:我们可以分别将其理解为“自变量”和“因变量”。
第一步——得到最佳的根节点
使用一种叫做 Gini 的方法, Gini 用于衡量每一个决策树的 impurity (不纯净度),Gini值越低越好,它的计算非常简单:
Gini impurity=1-(1-probability of "Yes")^2-(1-probability of "No")^2
第二步——限定根节点,同样方法找到最佳的内部节点
第三步——继续限定二级节点,完成最终的一侧分支
以此类推,直到完成全部的节点构建。(具体实例参考上述学习资料)
随机森林通过bootstrap和随机子集的方法可以产生大量的随机数据集,从而形成随机森林。而在bootstrap的过程中,由于是有放回的抽样,所以每一个boots数据集中绝大部分都会有重复样本,也就是说原始数据集中的一些样本不在bootstrap数据集中,这些样本称为 Out-of-bag Dataset 。
反过来说,假定一个随机森林有100个决策树,对于原始数据来说,每一个样本都有可能是某些树的 Out-of-bag 数据。
所以刚好就可以使用 Out-of-bag Dataset 数据集去评价随机森林的效果好坏。
具体如何评价呢?
方法就是将同 Out-of-bag 数据对应的决策树对 Out-of-bag 数据进行分类计算,看计算出来的分类结果和原始分类是否相符,计算不相符的 Out-of-bag Dataset 的比例,此比例就是随机森林的优劣程度评价。因此又叫做 Out-of-bag Error 。
由于我们已经知道了如何构建随机森林,也已经知道了随机森林的评价方法,所以寻找最优子集数目是一个非常简单的过程,多试试几个子集数目,寻找 Out-of-bag Error 最小的随机森林即可。
最优子集的选择是如下过程:
好,原理理清楚了,那就在R中进行随机森林的实践。
用到的R包为 ggplot2 、 randomForest 。
使用read.csv函数读取网络数据。
修改列名
修改数据格式
从官网可以知道14个数据变量的含义,他们分别是:
然后我们使用str(data)看一下此时的数据结构可以发现不规范的变量有,
按照上述情况,进行以下修改:
转换数据格式,这里注意 as. 的用法,以及函数 ifelse 的用法
填补缺失值
rfImpute 函数用于填补缺失值,随机森林的缺失值填补是根据相似度进行填补的一种迭代算法。
结果会输出每次迭代后的OOB值,越低越好。
构建随机森林
决策树的数量
默认是创建500棵决策树,此时的OOB(out of bag)值可以用于评价随机森林的模型如何。
我们可以看看此时从第1棵树到第500棵决策树时,OOB的变化趋势:
可以看出,大概从150以后的OOB的值趋于稳定了,默认的500是非常稳健的数值了。
我们可以改变不同的子集数目以确认最佳子集数目是多少,比如可以看一下子集数目分别为1-10时的结果:
可以发现最低的OOB确实是子集数目为3。