将参数从lightgbm转移到可微决策树!
treegrad的Python项目详细描述
#treegrad
“treegrad”实现了一种将梯度增强树模型转换为在线可训练模型的简单方法。它通过创建可微树模型来实现这一点,可通过自动可微框架学习树模型。` Treegrad实际上是Kontschieder、Peter等人的一个实现。”深度神经决策森林。“带有扩展名。
````
python setup.py install
`````
to do:将其放在“pypi”
please cite
````
@article{siu2019treegrad,
title={treegrad:transfer tree ensembles to neural networks},
author={siu,chapman},
journal={arxiv preprint arxiv:submit/2665625},
year={2019年}
```
`用法
``py
``py
streegrad as tgd进口
mod mod=tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd(num.树叶数=31,最大深度=1,学习率=0.1,学习率u config={refit_splits':false})
模式匹配(x,y)
模式部分匹配(x,y)
```
在“TeeEuTursL.Py”-挑战中,对象是以“ScKIT学习”接口的方式来执行这一工作。
*支持XGBOST/LITGBM附加的特征,如单调约束
*支持“RegressorMixin”BR/> BR/>结果:BR/> BR/>当决定拆分被重置时随后重新学习,treegrad可以在性能上与流行的实现竞争(尽管速度慢了一个数量级)。下表显示了增强集成模型(100棵树)UCI基准数据集上测试数据集的准确性
|0.874**
0.832<0.832<0.835<0.826
0.832<0.835<0.826
<0.874<0.874<0.874
0.766<0.813**<0.719<0.719<0.719
0.874个|0.866
大豆**0.936**0.936 0.917
酵母**0.591 0.573 0.542
将链接插入到ARXIV纸上,以及G.
BR/>为了理解“树”的实现,我们将决策树算法解释为三层神经网络,其层次如下:
BR/> 1。节点层,决定决策边界
2。路由层,该层确定用于路由到最终叶节点的节点
3。叶层,在节点层中决定最终预测
BR/>的层,决策边界可以从典型的线性分类器解释为轴-平行-决定边界;即,完全连接的密集层
路由层需要一个二进制路由矩阵,基本上应用全局产品路由
叶层是典型的完全连接的密集层。
深层神经决策森林。”
“treegrad”实现了一种将梯度增强树模型转换为在线可训练模型的简单方法。它通过创建可微树模型来实现这一点,可通过自动可微框架学习树模型。` Treegrad实际上是Kontschieder、Peter等人的一个实现。”深度神经决策森林。“带有扩展名。
````
python setup.py install
`````
to do:将其放在“pypi”
please cite
````
@article{siu2019treegrad,
title={treegrad:transfer tree ensembles to neural networks},
author={siu,chapman},
journal={arxiv preprint arxiv:submit/2665625},
year={2019年}
```
`用法
``py
``py
streegrad as tgd进口
mod mod=tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd.tgd(num.树叶数=31,最大深度=1,学习率=0.1,学习率u config={refit_splits':false})
模式匹配(x,y)
模式部分匹配(x,y)
```
在“TeeEuTursL.Py”-挑战中,对象是以“ScKIT学习”接口的方式来执行这一工作。
*支持XGBOST/LITGBM附加的特征,如单调约束
*支持“RegressorMixin”BR/> BR/>结果:BR/> BR/>当决定拆分被重置时随后重新学习,treegrad可以在性能上与流行的实现竞争(尽管速度慢了一个数量级)。下表显示了增强集成模型(100棵树)UCI基准数据集上测试数据集的准确性
|0.874**
0.832<0.832<0.835<0.826
0.832<0.835<0.826
<0.874<0.874<0.874
0.766<0.813**<0.719<0.719<0.719
0.874个|0.866
大豆**0.936**0.936 0.917
酵母**0.591 0.573 0.542
将链接插入到ARXIV纸上,以及G.
BR/>为了理解“树”的实现,我们将决策树算法解释为三层神经网络,其层次如下:
BR/> 1。节点层,决定决策边界
2。路由层,该层确定用于路由到最终叶节点的节点
3。叶层,在节点层中决定最终预测
BR/>的层,决策边界可以从典型的线性分类器解释为轴-平行-决定边界;即,完全连接的密集层
路由层需要一个二进制路由矩阵,基本上应用全局产品路由
叶层是典型的完全连接的密集层。
深层神经决策森林。”