草庐IT

随机森林算法及贝叶斯优化调参Python实践

1.随机森林算法1.1.集成模型简介集成学习模型使用一系列弱学习器(也称为基础模型或基模型)进行学习,并将各个弱学习器的结果进行整合,从而获得比单个学习器更好的学习效果。集成学习模型的常见算法有聚合法算法(Bagging)、提升算法(Boosting)和堆叠法(Stacking)Bagging算法的典型机器学习模型为随机森林模型,而Boosting算法的典型机器学习模型则为AdaBoost、GBDT、XGBoost和LightGBM模型。1.2.Bagging算法简介Bagging算法的原理类似投票,每个弱学习器都有一票,最终根据所有弱学习器的投票,按照“少数服从多数”的原则产生最终的预测结果

Hyperopt调参,返回值注意事项(坑),为什么num_leaves和max_depth会显示0?Python

关于Hyperopt的使用可以参考以下几篇文章,本文不做解释:(4条消息)Hyperopt入门_浅笑古今的博客-CSDN博客_hyperopt使用Hyperopt进行参数调优(译)-简书(jianshu.com)本文主要说明一下返回值的坑!调LightGBM的时候:fmin函数↓ 搜索空间↓ 坑来了!最终返回结果是这样(仅做示例):{'bagging_fraction':4,'feature_fraction':2,'max_depth':2,'min_child_samples':84,'num_leaves':2,'reg_alpha':156.09791414363687,'reg_la

Hyperopt调参,返回值注意事项(坑),为什么num_leaves和max_depth会显示0?Python

关于Hyperopt的使用可以参考以下几篇文章,本文不做解释:(4条消息)Hyperopt入门_浅笑古今的博客-CSDN博客_hyperopt使用Hyperopt进行参数调优(译)-简书(jianshu.com)本文主要说明一下返回值的坑!调LightGBM的时候:fmin函数↓ 搜索空间↓ 坑来了!最终返回结果是这样(仅做示例):{'bagging_fraction':4,'feature_fraction':2,'max_depth':2,'min_child_samples':84,'num_leaves':2,'reg_alpha':156.09791414363687,'reg_la

【智能车算法】电磁杆差比和差调参经验

差比和差前言在参加电磁循迹智能车竞赛的过程中,偶然间看到了卓晴大佬的差比和差算法,该算法能很好的实现对电磁赛道的数据整合,可惜调试时在网上找不到任何的调参资料,故在此处总结一下调参规律原理这是差比和差的公式err=(A(L−R)+B(LM−RM))/(A(L+R)+C∣LM−RM∣)err=(A(L-R)+B(LM-RM))/(A(L+R)+C|LM-RM|)err=(A(L−R)+B(LM−RM))/(A(L+R)+C∣LM−RM∣)它在差比和公式之上变化而来err=(A(L−R)/(A(L+R))=A((L−R)/(L+R))err=(A(L-R)/(A(L+R))=A((L-R)/(L+

【智能车算法】电磁杆差比和差调参经验

差比和差前言在参加电磁循迹智能车竞赛的过程中,偶然间看到了卓晴大佬的差比和差算法,该算法能很好的实现对电磁赛道的数据整合,可惜调试时在网上找不到任何的调参资料,故在此处总结一下调参规律原理这是差比和差的公式err=(A(L−R)+B(LM−RM))/(A(L+R)+C∣LM−RM∣)err=(A(L-R)+B(LM-RM))/(A(L+R)+C|LM-RM|)err=(A(L−R)+B(LM−RM))/(A(L+R)+C∣LM−RM∣)它在差比和公式之上变化而来err=(A(L−R)/(A(L+R))=A((L−R)/(L+R))err=(A(L-R)/(A(L+R))=A((L-R)/(L+

YOLOv8教程系列:一、使用自定义数据集训练YOLOv8模型(详细版教程,你只看一篇->调参攻略),包含环境搭建/数据准备/模型训练/预测/验证/导出等

【YOLOv8训练】使用自定义数据集训练YOLOv8模型(详细版教程,调参必看),包含环境搭建/数据准备/模型训练/预测/验证/导出等0.引言1.环境准备2.数据准备(1)指定格式存放数据集(2)按比例划分数据集(3)将xml文件转换成YOLO系列标准读取的txt文件(4)查看自定义数据集标签类别及数量(5)修改数据加载配置文件3.模型训练/验证/预测/导出(1)模型训练单卡训练多卡训练(2)模型验证(3)模型预测(4)模型导出0.引言YOLOv8随着2023一块来了~刚开赶紧打开仓库尝尝鲜,本次升级主要更新了如下部分:更友好的安装/运行方式速度更快、准确率更高新的backbone,将YOLO

YOLOv8教程系列:一、使用自定义数据集训练YOLOv8模型(详细版教程,你只看一篇->调参攻略),包含环境搭建/数据准备/模型训练/预测/验证/导出等

【YOLOv8训练】使用自定义数据集训练YOLOv8模型(详细版教程,调参必看),包含环境搭建/数据准备/模型训练/预测/验证/导出等0.引言1.环境准备2.数据准备(1)指定格式存放数据集(2)按比例划分数据集(3)将xml文件转换成YOLO系列标准读取的txt文件(4)查看自定义数据集标签类别及数量(5)修改数据加载配置文件3.模型训练/验证/预测/导出(1)模型训练单卡训练多卡训练(2)模型验证(3)模型预测(4)模型导出0.引言YOLOv8随着2023一块来了~刚开赶紧打开仓库尝尝鲜,本次升级主要更新了如下部分:更友好的安装/运行方式速度更快、准确率更高新的backbone,将YOLO

XGBoost模型调参:GridSearchCV方法网格搜索优化参数

文章目录一、前言二、数据处理三、XGBoost参数调优3.1常见可调参数3.2GridSearchCV调参函数3.3一般调参顺序3.4调参结果可视化四、总结一、前言本篇文章是继上一篇文章:使用K-Fold训练和预测XGBoost模型的方法,探讨对XGBoost模型调优的方法,所使用的代码和数据文件均是基于上一篇文章的,需要的小伙伴可以跳转链接自行获取。二、数据处理程序和上篇文章中的完全一致,不再赘述。importpandasaspdimportnumpyasnpfromsklearn.model_selectionimporttrain_test_splitfromxgboostimportX

XGBoost模型调参:GridSearchCV方法网格搜索优化参数

文章目录一、前言二、数据处理三、XGBoost参数调优3.1常见可调参数3.2GridSearchCV调参函数3.3一般调参顺序3.4调参结果可视化四、总结一、前言本篇文章是继上一篇文章:使用K-Fold训练和预测XGBoost模型的方法,探讨对XGBoost模型调优的方法,所使用的代码和数据文件均是基于上一篇文章的,需要的小伙伴可以跳转链接自行获取。二、数据处理程序和上篇文章中的完全一致,不再赘述。importpandasaspdimportnumpyasnpfromsklearn.model_selectionimporttrain_test_splitfromxgboostimportX

Python分类模型实战(KNN、逻辑回归、决策树、SVM)调优调参,评估模型——综合项目

目录一、技术原理逻辑回归k近邻法(k-nearestneighbor,k-NN)决策树SVM(SupportVectorMachine)模型评估二、数据探索与处理 2.1读取贷款违约数据集,在系统中可视化展示部分数据集2.2对违约情况进行饼图可视化,查看其占比情况 2.3对数据中的年龄情况进行可视化分析 2.4对数据中的工龄情况进行可视化分析 2.5对收入可视化分析 2.6对各负债情况进行可视化查看 2.7根据皮尔森系数,得到与违约相关性较高的特征如下表所示 2.8进一步探查负债率、信用卡负债、工龄这3类与违约的关系2.8.1负债率与违约关系2.8.2信用卡负债与违约关系2.8.3工龄与违约关