博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
XGBoost:在Python中使用XGBoost
阅读量:6957 次
发布时间:2019-06-27

本文共 3077 字,大约阅读时间需要 10 分钟。

原文:http://blog.csdn.net/zc02051126/article/details/46771793

在Python中使用XGBoost

下面将介绍XGBoost的Python模块,内容如下: 

*  
*  
*  
*  
*  

A  for UCI Mushroom dataset is provided.

安装

首先安装XGBoost的C++版本,然后进入源文件的根目录下的 wrappers文件夹执行如下脚本安装Python模块

python setup.py install
  • 1

安装完成后按照如下方式导入XGBoost的Python模块

import xgboost as xgb
  • 1

=

数据接口

XGBoost可以加载libsvm格式的文本数据,加载的数据格式可以为Numpy的二维数组和XGBoost的二进制的缓存文件。加载的数据存储在对象DMatrix中。

  • 加载libsvm格式的数据和二进制的缓存文件时可以使用如下方式
dtrain = xgb.DMatrix('train.svm.txt')dtest = xgb.DMatrix('test.svm.buffer')
  • 1
  • 2
  • 加载numpy的数组到DMatrix对象时,可以用如下方式
data = np.random.rand(5,10) # 5 entities, each contains 10 featureslabel = np.random.randint(2, size=5) # binary target dtrain = xgb.DMatrix( data, label=label)
  • 1
  • 2
  • 3
  • scipy.sparse格式的数据转化为 DMatrix格式时,可以使用如下方式
csr = scipy.sparse.csr_matrix( (dat, (row,col)) )dtrain = xgb.DMatrix( csr )
  • 1
  • 2
  • 将 DMatrix 格式的数据保存成XGBoost的二进制格式,在下次加载时可以提高加载速度,使用方式如下
dtrain = xgb.DMatrix('train.svm.txt')dtrain.save_binary("train.buffer")
  • 1
  • 2
  • 可以用如下方式处理 DMatrix中的缺失值:
dtrain = xgb.DMatrix( data, label=label, missing = -999.0)
  • 1
  • 当需要给样本设置权重时,可以用如下方式
w = np.random.rand(5,1)dtrain = xgb.DMatrix( data, label=label, missing = -999.0, weight=w)
  • 1
  • 2

参数设置

XGBoost使用key-value格式保存. Eg 

* Booster(基本学习器)参数

param = {
'bst:max_depth':2, 'bst:eta':1, 'silent':1, 'objective':'binary:logistic' } param['nthread'] = 4 plst = param.items() plst += [('eval_metric', 'auc')] # Multiple evals can be handled in this way plst += [('eval_metric', 'ams@0')]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 还可以定义验证数据集,验证算法的性能
evallist  = [(dtest,'eval'), (dtrain,'train')]
  • 1

=

训练模型

有了参数列表和数据就可以训练模型了 

* 训练

num_round = 10bst = xgb.train( plst, dtrain, num_round, evallist )
  • 1
  • 2
  • 保存模型 
    在训练完成之后可以将模型保存下来,也可以查看模型内部的结构
bst.save_model('0001.model')
  • 1
  • Dump Model and Feature Map 
    You can dump the model to txt and review the meaning of model
# dump modelbst.dump_model('dump.raw.txt')# dump model with feature mapbst.dump_model('dump.raw.txt','featmap.txt')
  • 1
  • 2
  • 3
  • 4
  • 加载模型 
    通过如下方式可以加载模型
bst = xgb.Booster({
'nthread':4}) #init modelbst.load_model("model.bin") # load data
  • 1
  • 2

=

提前终止程序

如果有评价数据,可以提前终止程序,这样可以找到最优的迭代次数。如果要提前终止程序必须至少有一个评价数据在参数evals中。 If there’s more than one, it will use the last.

train(..., evals=evals, early_stopping_rounds=10)

The model will train until the validation score stops improving. Validation error needs to decrease at least every early_stopping_rounds to continue training.

If early stopping occurs, the model will have two additional fields: bst.best_score and bst.best_iteration. Note that train() will return a model from the last iteration, not the best one.

This works with both metrics to minimize (RMSE, log loss, etc.) and to maximize (MAP, NDCG, AUC).

=

Prediction

After you training/loading a model and preparing the data, you can start to do prediction.

data = np.random.rand(7,10) # 7 entities, each contains 10 featuresdtest = xgb.DMatrix( data, missing = -999.0 )ypred = bst.predict( xgmat )
  • 1
  • 2
  • 3

If early stopping is enabled during training, you can predict with the best iteration.

ypred = bst.predict(xgmat,ntree_limit=bst.best_iteration)

转载于:https://www.cnblogs.com/zhizhan/p/5052019.html

你可能感兴趣的文章
如何查看CentOS版本方法
查看>>
puppet之master/agent模型详解
查看>>
我的友情链接
查看>>
JVM 数据存储介绍及性能优化
查看>>
Objective-C浅拷贝和深拷贝
查看>>
weblogic集群安装文档
查看>>
VMware SDS 之四:VSAN的技术细节
查看>>
Eager thick vs Lazy thick disk performance
查看>>
aix 主机信息的查看
查看>>
日志框架_Index
查看>>
java安全沙箱(一)之ClassLoader双亲委派机制
查看>>
我的友情链接
查看>>
关于HashMap详解。
查看>>
多线程环境下慎用静态变量
查看>>
话里话外:抓住核心,为推倒“部门墙” 寻找突破口
查看>>
删除此电脑下各种影视库
查看>>
python几个内置函数
查看>>
百度今天更新很大
查看>>
我的友情链接
查看>>
有线网络高可用项目实施方案(更新中)
查看>>