草庐IT

【李宏毅《机器学习》2022】作业1:COVID 19 Cases Prediction (Regression)

文章目录【李宏毅《机器学习》2022】作业1:COVID19CasesPrediction(Regression)作业内容1.目标2.任务描述3.数据4.评价指标代码1.下载数据2.导入软件包3.定义公用函数(这一部分不需要修改)4.数据集5.神经网络模型6.特征选择7.训练器8.超参数设置9.加载数据10.开始训练11.可视化训练过程12.保存测试集结果13.改进方案13.1.选择更有效的特征13.2.修改模型13.3.修改优化器14.测试结果【李宏毅《机器学习》2022】作业1:COVID19CasesPrediction(Regression)【作业1】来源作业内容1.目标Solvear

基于weka平台手工实现(LinearRegression | Ridge Regression,岭回归)

一、普通的线性回归线性回归主要采用最小二乘法来实现,主要思想如下:X=(x11x12⋯x1d1x21x22⋯51⋮⋮⋱⋮⋮xm1xm2⋯xmd1)X=\left(\begin{matrix}x_{11}&x_{12}&\cdots&x_{1d}&1\\x_{21}&x_{22}&\cdots&5&1\\\vdots&\vdots&\ddots&\vdots&\vdots\\x_{m1}&x_{m2}&\cdots&x_{md}&1\\\end{matrix}\right)X=​x11​x21​⋮xm1​​x12​x22​⋮xm2​​⋯⋯⋱⋯​x1d​5⋮xmd​​11⋮1​​X为一个m行d+1

Logistic Regression and its Maximum Likelihood Estimation

从LinearRegression到LogisticRegression给定二维样本数据集\(D=\left\{(\vec{x}_{1},y_{1}),(\vec{x}_{2},y_{2}),\ldots,(\vec{x}_{n},y_{n})\right\}\),其中\(\vec{x}_{1},\ldots,\vec{x}_{n}\inX\)为\(d\)维向量(即\(X\)的size为\(n\timesd\)),\(y_{1},\ldots,y_{n}\inY\)。我们希望得到一条直线\(Y=X\beta+\varepsilon\)来刻画\(X\)和\(Y\)之间的一般关系,由于真实数据集存

机器学习之线性回归算法Linear Regression(python代码实现)

        线性回归(LinearRegression)是一种非常简单、用处非常广泛、含义也非常容易理解的一类经典的算法,非常合适作为机器学习的入门算法。        线性回归就是拟合出一个线性组合关系的函数。要找一条直线,并且让这条直线尽可能地拟合所有数据点。即:试图找到一条直线,使所有样本到直线上的欧式距离之和最小。一元线性回归(LinearRegression)拟合出一个线性组合关系的函数:y=wx+b。 拟合图像:多元线性回归        多元线性回归比一元线性回归复杂,其组成的不是直线,而是一个多维空间中的超平面,数据点散落在超平面的两侧。求解方法:1、最小二乘法(least

机器学习之线性回归算法Linear Regression(python代码实现)

        线性回归(LinearRegression)是一种非常简单、用处非常广泛、含义也非常容易理解的一类经典的算法,非常合适作为机器学习的入门算法。        线性回归就是拟合出一个线性组合关系的函数。要找一条直线,并且让这条直线尽可能地拟合所有数据点。即:试图找到一条直线,使所有样本到直线上的欧式距离之和最小。一元线性回归(LinearRegression)拟合出一个线性组合关系的函数:y=wx+b。 拟合图像:多元线性回归        多元线性回归比一元线性回归复杂,其组成的不是直线,而是一个多维空间中的超平面,数据点散落在超平面的两侧。求解方法:1、最小二乘法(least

逻辑回归(Logistic Regression)原理及其应用

目录第一章:逻辑回归的应用场景第二章:逻辑回归的原理1.输入2.Sigmoid函数3.损失函数4.优化损失采用梯度下降:第三章逻辑回归应用案例1.数据集 2.具体流程1.读取数据 2.缺失值处理3.划分数据集4.标准化5.预估器流程6.模型评估7.结果展示第四章分类评估算法 1.分类的评估方法------精确率与召回率精确率:召回率:F1-score2.分类的评估方法------ROC曲线和AUC指标第一章:逻辑回归的应用场景广告点击率是否为垃圾邮件是否患病金融诈骗虚假账号看到上面的例子,我们可以发现其中的特点,那就是都属于两个类别之间的判断。逻辑回归就是解决二分类问题的利器。注意:逻辑回归虽

逻辑回归(Logistic Regression)原理及其应用

目录第一章:逻辑回归的应用场景第二章:逻辑回归的原理1.输入2.Sigmoid函数3.损失函数4.优化损失采用梯度下降:第三章逻辑回归应用案例1.数据集 2.具体流程1.读取数据 2.缺失值处理3.划分数据集4.标准化5.预估器流程6.模型评估7.结果展示第四章分类评估算法 1.分类的评估方法------精确率与召回率精确率:召回率:F1-score2.分类的评估方法------ROC曲线和AUC指标第一章:逻辑回归的应用场景广告点击率是否为垃圾邮件是否患病金融诈骗虚假账号看到上面的例子,我们可以发现其中的特点,那就是都属于两个类别之间的判断。逻辑回归就是解决二分类问题的利器。注意:逻辑回归虽

python 领先-滞后分析 lead-lag regression

理论格兰杰Granger因果关系检验只能得出两变量之间是否存在因果关系https://max.book118.com/html/2018/0613/172349596.shtm名字有误,并非因果这个例子揭示了GrangerCausality和因果关系的本质区别:前者说的是一种可预测性(forcasting),如果A事件对于预测B事件是有用的,那么我们就说:A是B的GrangerCausality(即:拒绝“A不是B的GrangerCausality”);https://www.zhihu.com/question/34787362p7格兰杰因果检验https://max.book118.com

python 领先-滞后分析 lead-lag regression

理论格兰杰Granger因果关系检验只能得出两变量之间是否存在因果关系https://max.book118.com/html/2018/0613/172349596.shtm名字有误,并非因果这个例子揭示了GrangerCausality和因果关系的本质区别:前者说的是一种可预测性(forcasting),如果A事件对于预测B事件是有用的,那么我们就说:A是B的GrangerCausality(即:拒绝“A不是B的GrangerCausality”);https://www.zhihu.com/question/34787362p7格兰杰因果检验https://max.book118.com

高斯过程回归(Gaussian Processes Regression, GPR)简介

高斯过程回归(GaussianProcessesRegression,GPR)简介一、高斯过程简介二、高斯分布1.一元高斯分布2.多元高斯分布三、高斯过程回归1.高斯过程2.高斯过程回归四、sklearn中高斯过程回归的使用1.核函数的选择2.sklearn中高斯过程回归的使用a.初始数据b.高斯过程回归拟合c.高斯过程回归后验结果分布d.不同核函数拟合结果对比一、高斯过程简介高斯过程是一种常用的监督学习方法,可以用于解决回归和分类问题。高斯过程模型的优点有:预测对观察结果进行了插值预测的结果是概率形式的通用性:可以指定不同的核函数(kernels)形式高斯过程模型的确定包括:它们不是稀疏的,