标签:提升 并行 center 最好 llb mat 构造 限制 stat
参数名 | 参数描述 | 可选值 |
---|---|---|
boosting_type | 模型提升方式 | ‘gbdt‘、‘dart‘、‘goss‘、‘rf‘ |
num_leaves | 每个基学习器的最大叶子 | 默认31 |
max_depth | 基学习器树的最大深度 | 默认-1,没有限制 |
learning_rate | boosting学习率 | 默认0.1 |
n_estimators | 基学习器的数量 | 默认10 |
max_bin | 特征值的分桶数 | 默认255 |
subsample_for_bin | 用于分箱的样本数 | 默认50000 |
objective | 学习任务和学习目标 | 默认regression对于LGBRegressor,LGBClassifier是‘binary‘,‘multiclass‘,LGBMRanker是‘lambdarank‘ |
min_split_gain | 在树的叶子节点上做进一步分区所需的最小损失减少 | 默认0,浮点数 |
min_child_weight | 子节点(叶节点)中所需要的最小实例权重(hessian)之和 | 默认1e-3 |
min_child_samples | 叶子所需要的最小数据 | 默认20 |
subsample | 训练样本的子样本比率 | 默认1,浮点数 |
subsample_freq | 子样本的频率 | 默认1,int |
colsample_bytree | 构造每棵树的子样本比率 | 默认1,浮点数 |
reg_alpha | L1正则化权重 | 默认0,浮点数 |
reg_lambda | L2正则化权重 | 默认0,浮点数 |
random_state | 随机数种子 | 默认为None |
n_jobs | 并行线程数 | 默认为-1,全线程 |
slient | 在运行提升时,是否打印消息 | 默认为True |
参数 | 参数描述 | 可选值 |
---|---|---|
X | 输入特征矩阵 | n_samples,n_features |
y | 标签 | n_samples |
sample_weight | 训练数据的权重 | 默认None |
init_score | 初始化训练数据得分 | 默认None |
group | 训练集的分组数据 | 默认None |
eval_set | 用作提前停止的验证集的(X, y) | 默认None |
eval_names | eval_set的名字 | 默认None |
eval_sample_weight | 验证集数据的权重 | 默认None |
eval_init_score | 验证集数据初始分数 | 默认None |
eval_group | 验证集的分组数据 | 默认None |
eval_metric | 字符串,它应该是一个内置的评估指标。如果是可调用的,它应该是一个定制的评估指标,请参阅注释以了解更多细节 | 默认None |
early_stopping_rounds | 激活早期停止。该模型将进行训练,直到验证分数停止改进。为了继续训练,验证错误需要至少每轮减少一次 | 默认None |
verbose | 如果为True并且使用了评估集,则写入评估进度 | 默认True |
feature_name | 特征名称,如果‘ auto ‘和data是 DataFrame,则使用数据列名称 | 默认auto |
categorical_feature | 分类功能,如果是int的列表,则解释为下标。如果字符串列表,解释为特性名称(也需要指定feature_name),如果‘ auto ‘和data是pandas DataFrame,则使用pandas分类列 | 默认auto |
callbacks | 在每次迭代中应用的回调函数列表 | 默认None |
参数 | 参数描述 | 可选值 |
---|---|---|
X | 输入特征矩阵 | n_samples,n_features |
raw_score | 是否预测原始分数 | 默认False |
num_iter_action | 预测中限制迭代次数;默认为0(使用所有树) | 默认0 |
得到拟合模型的特征个数
获得模型拟合的具体目标
返回标签的所有分类(仅限于分类问题)
返回标签的类别数量
返回模型的最好分数
指定了early_stopping_rounds时拟合模型的最佳迭代
模型的提升方式
如果已指定early_stopping_rounds,则计算结果
返回每个特征的特征重要性
标签:提升 并行 center 最好 llb mat 构造 限制 stat
原文地址:https://www.cnblogs.com/weibaohang/p/14702783.html