查看: 7770|回复: 26

[原创] 现代分类方法在医学诊断中的应用——基于R的实现

  [复制链接]
论坛徽章:
0
发表于 2012-4-20 12:50 | 显示全部楼层 |阅读模式
1.引言
随着统计科学的日益发展,其对其他学科的渗透作用日益增强,数据分析方法在医学、生物学、社会学等各个学科中得到了广泛的应用,本文试图对收集到的某个临床医学数据运用决策树、神经网络、支持向量机、随机森林等各种现代分类方法进行分析,以佐证数据挖掘对其他学科的重要意义;另一方面,就各种现代分类方法的实际效果进行对比。
笔者从网上收集到关于某个脊椎病变的临床医学数据,该数据集为真实公开的非人造数据,公布地址为:http://archive.ics.uci.edu/ml/datasets/Vertebral+Column。该数据集记录了病人的骨盆和形状位置特征,分别为盆腔炎的发病率,骨盆倾斜,腰椎前凸角度,骶骨倾斜,骨盆半径和品位滑脱(pelvic incidence, pelvic tilt, lumbar lordosis angle,sacral slope, pelvic radius and grade of spondylolisthesis),均为连续型变量。因变量为分类变量,用于甄别病人正常与不正常(Normal &Abnormal)。全数据集共包含310个样本,信息完整,无缺失值。
>weka2C<-read.csv("F:\\column_2C_weka.csv",header=TRUE)
>summary(weka2C)
2.现代分类方法分析
通过对数据集的观察,前210位病人均被检测为不正常(Abnormal),后100位病人被检测为正常(Normal)。为方便对模型效果进行评价并对不同的模型进行对比,本文将从两个群体中各随机抽取一半的样本作为训练集,另一半作为测试集。
>set.seed(2)
>samp<-c(sample(1:210,105),sample(211:310,50))
2.1 决策树算法
决策树是一种逼近离散函数值的典型分类算法,对于非离散变量,将连续型数据离散化同样可以进行决策树分析。决策树的本质是利用归纳算法生成可读的规则和决策树,然后使用决策对新数据进行分析。以下就运用决策树算法对原始临床数据进行分析。
>library(rpart)
>weka2C.rp<-rpart(class2~.,weka2C[samp,])
>plot(weka2C.rp,branch=1,margin=0.2,main="ClassificationTree")
>text(weka2C.rp,col="blue")
通过Plot函数可绘出训练的决策树模型。
                              
Tree.png
<span style="mso-bidi-font-family: Calibri; mso-bidi-theme-font: minor-latin;" p=""

>tabe(weka2C$class2[-samp],predict(weka2C.rp,weka2C[-samp,],type="class"))

tree1.png


>table(weka2C$class2[samp],predict(weka2C.rp,weka2C[samp,],type="class"))
通过的得到的决策树模型对测试集和训练集进行分类得到以下结果,测试集判错率为0.18709,训练集的判错率为0.10322。
2.2 bagging
Bagging利用了自助法(bootstrap)放回抽样。它对训练样本做许多次(比如k次)放回抽样,每次抽取和样本量同样的观测值,于是产生k个不同的样本。然后,对每个样本生成一个决策树。这样,每个树都对一个新的观测值产生一个预测,由这些树的分类结果的多数(“投票”)产生bagging的分类。
>library(adabag)
>ibrary(rpart)
>weka.bag=bagging(class2~.,data=weka2C[samp,],mfinal=25,control=rpart.control(maxdepth=5))
>weka.pred=predict.bagging(weka.bag,newdata=weka2C[-samp,])
>weka.pred[-1]
>weka.predt=predict.bagging(weka.bag,newdata=weka2C[samp,])
>weka.predt[-1]
最终得到bagging分类结果,其测试集判错率为0.15484,训练集判错率为0.09032
Bagging.png
同时我们可以得到分类过程中变量的重要性,可看出,品位滑脱(grade of spondylolisthesis)是最重要的影响变量。
>barplot(weka.bag$importance)
Bagging2.png
2.3 Adaboost
Adaboost是一种迭代分类算法,不断地通过加权再抽样改进分类器,每一次迭代时都针对前一个分类器对某些观测值的误分缺陷加以修正,通常是在(放回)抽取样本时对那些误分的观测值增加权重(相当于对正确分类的减少权重),这样就形成一个新的分类器进入下一轮迭代。在每轮迭代时都对这一轮产生的分类器给出错误率,最终结果由各个阶段的分类器的按照错误率加权投票产生。
以下通过Adaboost对临床数据集进行分析:
>library(mlbench)
>library(adabag)
>library(rpart)
>weka.adab=boosting(class2~.,data=weka2C[samp,],mfinal=15,control=rpart.control(maxdepth=5)
>weka.pred<-predict.boosting(weka.adab,newdata=weka2C[-samp,])
>weka.pred[-1]
>weka.predt<-predict.boosting(weka.adab,newdata=weka2C[samp,])
>weka.predt[-1]
得到模型对数据集的分类情况,测试集的判错率为0.14193,训练集无判错。
Adaboost.png
Bagging类似,可以输出模型训练过程中得到的变量重要性,大致结果与Bagging类似,品位滑脱(grade of spondylolisthesis)是最重要的影响变量。
>barplot(weka.adab$importance)
adaboost2.png
2.4 神经网络算法
人工神经网络(ArtificialNeural Networks)是对自然的神经网络的模仿;它可以有效地解决很复杂的有大量互相相关变量的回归和分类问题,我们同样可以用之建立脊椎病变临床数据集的分类模型。
>library(nnet)
>weka.nn1=nnet(class2~.,data=weka2C,subset=samp,size=10,rang=0.1,decay=5e-4,maxit=1000)
>table(weka2C$class2[-samp],predict(weka.nn1,weka2C[-samp,],type="class"))
>table(weka2C$class2[samp],predict(weka.nn1,weka2C[samp,],type="class"))
类似的,利用训练得到的神经网络模型对数据集重新进行分类,测试集判错率为0.13548
nn.png
2.5 k最近邻方法
K最近邻方法是经典的分类算法,其基本算法思想为以待测样本的k个最近距离的样本点的所属类别进行投票决定待分类样本点的类别。
>library(kknn)
>weka.knn<-kknn(class2~.,k=20,weka2C[samp,],weka2C[-samp,],distance=1,kernel="triangular")
>summary(weka.knn)
>fit<-fitted(weka.knn)
>table(weka2C[-samp,]$class2,fit)
k最邻近方法得到的预测类别结果显示判错率为0.18065
knn.png
2.6 随机森林方法
机器学习中,随机森林是一个包含多个决策树的分类器, 并且其输出的类别是由个别树输出的类别的众数而定。随机森林的重要优点是可以解决多变量样本不足的问题,尽管此次临床数据样本足够,可依然可以尝试用随机森林进行分类。
>library(randomForest)
>weka.rf=randomForest(class2~.,data=weka2C[samp,],importance=TRUE,proximity=TRUE)
>rf.pre<-
>table(weka2C[-samp,]$class2,predict(weka.rf,weka2C[-samp,]))
>table(weka2C[samp,]$class2,predict(weka.rf,weka2C[samp,])
通过得到的随机森林模型对测试集和训练集进行分类,测试集判错率为0.14193
rf.png
2.7 支持向量机
支持向量机是另一种现代分类方法,用支持向量机脊椎病变临床数据集进行分析基于R的实现代码如下:
>library(class)
>library(e1071)
>model<-svm(class2~.,data=weka2C[samp,],kernal="sigmoid")
>table(pred.train<-fitted(model),weka2C[samp,]$class2)
>table(predict(model,weka2C[-samp,-7]),weka2C[-samp,]$class2)
用得到模型对数据集进行分类,测试集判错率为0.18065,训练集判错率为0.13548。
svm.png
3.现代分类方法效果对比
为对以上的现代分类方法分类效果进行评价,重新对各个模型的预测情况进行整合。从每个模型的分类效果可以看出,Adaboost、神经网络和随机森林分类效果相对较好,测试集的准确率达到了85%以上。决策树、K最邻近方法、支持向量机的分类效果最差,但准确率也达到了80%以上,具有应用的价值。
com.png
4.结语
通过不同的分类方法建立不同的脊椎病变诊断模型,其准确均达到了80%以上,对临床医学上的诊断具有一定的参考价值,在一定程度上可以通过盆腔炎的发病率,骨盆倾斜,腰椎前凸角度,骶骨倾斜,骨盆半径和品位滑脱程度等信息对病人进行诊断,证实了数据挖掘对其他学科的重要意义,数据科学时代即将到来。
另一方面,选择分类模型的过程中需要根据数据集情况尝试运用不同的分类方法,并用交叉验证的方法对模型进行检测,最后选择兼具准确性和稳定性的分类模型,以实现数据的较高利用价值。
回复

使用道具 举报

论坛徽章:
0
 楼主| 发表于 2012-4-20 12:51 | 显示全部楼层
之前,格式出现问题,不死心重新发一遍。
回复 支持 反对

使用道具 举报

论坛徽章:
0
发表于 2012-4-20 15:37 | 显示全部楼层
看来得重新学习一下 Adaboost和Bagging
回复 支持 反对

使用道具 举报

论坛徽章:
6
R研习者中级
日期:2012-04-29 00:26:34SAS研习者初级
日期:2012-08-20 22:27:43Oracle研习者初级
日期:2012-10-11 01:39:11SAS研习者初级
日期:2012-11-18 23:07:49SAS研习者初级
日期:2013-08-25 13:46:06SAS研习者初级
日期:2013-12-08 12:33:27
发表于 2012-4-21 11:51 | 显示全部楼层
很清晰很强大,针对同一个问题用了n种方法。
深深感觉到还有很多要学习!
回复 支持 反对

使用道具 举报

论坛徽章:
1
R研习者中级
日期:2012-04-29 00:26:34
发表于 2012-4-22 08:50 | 显示全部楼层
用了很多种分类方法,感觉很全面!
回复 支持 反对

使用道具 举报

新浪微博达人勋 RAN 未实名认证
论坛徽章:
1
R研习者中级
日期:2012-04-29 00:26:34
发表于 2012-4-22 20:58 | 显示全部楼层
楼主好专业~~~
有几个分类方法没见过呢     随机森林方法?支持向量机?
回复 支持 反对

使用道具 举报

新浪微博达人勋 txyw 未实名认证
论坛徽章:
0
发表于 2012-8-26 18:02 | 显示全部楼层
好资料 谢谢
回复 支持 反对

使用道具 举报

论坛徽章:
8
R研习者初级
日期:2012-09-17 19:50:38SAS研习者初级
日期:2012-11-18 23:07:49python徽章
日期:2013-08-25 13:53:26Oracle研习者初级
日期:2014-09-19 14:07:02R研习者中级
日期:2014-09-19 14:20:23R研习者中级
日期:2014-09-19 14:21:06机器学习徽章
日期:2015-03-02 18:03:11
发表于 2012-11-29 14:22 | 显示全部楼层
谢谢楼主分享 收藏 学习了!
回复 支持 反对

使用道具 举报

论坛徽章:
5
R研习者初级
日期:2012-09-17 19:50:38Oracle研习者初级
日期:2013-04-18 13:19:15EBS财务徽章
日期:2013-05-09 13:13:47SAS研习者初级
日期:2013-08-25 13:46:06Oracle研习者高级
日期:2013-08-25 14:26:25
发表于 2013-1-16 13:23 | 显示全部楼层
感谢分享,不知道这种思路是否能被一线的医生接受?隐隐觉得这个和一线的坐诊医生的利益有冲突啊。。。
回复 支持 反对

使用道具 举报

论坛徽章:
0
发表于 2013-4-6 19:38 | 显示全部楼层
把数据归一化后,支持向量机可以达到0.129 0.122的较低错误率
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册 新浪微博登陆

本版积分规则

 

GMT+8, 2018-7-19 21:22 , Processed in 0.168336 second(s), 67 queries .