超详细——集成学习——Adaboost实现多分类——附代码

资料参考 

1.【集成学习】boosting与bagging_哔哩哔哩_bilibili

集成学习——boosting与bagging

强学习器:效果好,模型复杂

弱学习器:效果不是很好,模型简单

优点

        集成学习通过将多个学习器进行结合,常可获得比单一学习器显著优越的泛化性能。

集成学习算法需要关注的问题

        1、个体学习器如何训练得到?改变训练数据或概率分布如何改变?

        2、如何将个体学习器组合?

分类

        boosting

        个体学习器存在强依赖关系、必须串行生成序列化方法。

工作机制:

 一、提高那些在前一轮被弱分类器分错的样本权值,减小那些在前一轮被弱分类器分对的样本的权值,使误分的样本在后续受到更多的关注。体现了串行

 二、加法模型将弱分类器进行线性组合。

 举例:

        比如我们现在要去参加期末考,有三个科目。假设你有三个分身,分身A学习语文的成绩比较好,但是数学跟英语的学习比较差。这个时候我们就派分身B上场,我们可以减少他学习语文的时间,增加他学习英语数学的时间,但是我们又发现他数学学的不错,但是语文跟英语学的不好。所以这时候我们就用分身C,同样,我们加大其对英语的学习力度,减少其对语文数学的学习比重,所以学习出来就是英语学的比较好,等到我们期末考的时候我们再将其收回来也就是说组合起来再去参加期末考,这样一来语文数学英语都能得到比较高的分数。

所谓的加法模型其实就是给这些学习器附上一个相应的权重,通过相加让他们组合起来。

代表算法:

Adaboost

GBDT

XGBoost

LightGBM

bagging

个体学习器间不存在强依赖关系、可同时生成并行化方法。

        工作机制:
一、原始样本集中抽出k个训练集。
回答了我们上面所提到问题:改变训练数据或概率分布如何改变?

        意思就是假如我们这里有k个弱学习器,那我们就会抽取k个训练集

分配给这k个学习器去进行学习,他抽样过程中所采取的抽样方式是有放回抽样。

 1、有放回抽样:每轮从原始样本集中使用Bootstraping法(即自助法,是一种有放回的抽样方法可能抽到重复的样本)抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中.共进行k轮抽取,得到k个训练集.(k个训练集相互独立)

2、随机森林中,还会随即抽取一定数量的特征

 二、k个训练集分别训练,得到共k个模型体现了并行。

        

三、将上步得到的k个模型,通过一定方式组合起来。

        1、分类问题:将上步得到的k个模型采用投票的方式得到分类结果,因为我们每个人学到的东西都不一样,面对一个问题的时候,大家就需要通过投票去进行表决,有的人票权比较大 ,有的人票权就比较小,也是一种线性加权的方式组合起来。

        2、回归问题:

计算上述模型的均值作为最后的结果。

                举例:

我们上面提到我们需要给这个数据集有放回的进行采样,比如我们第一个数据集采的是第一个跟第三个样本,构建了我第一个数据集。

采样的时候他除了随机采样之外,他还会对特征进行采样,比如他随机采样了这两个特征。

最后我们的数据集拿到的是这四个格子组成的数据,也就是说他加上了对特征的随机采样。那这就是第一步,采集数据。

将我们这k个训练集分别训练,得到共k个模型,体现了并行,这几个学习器之间是互不影响的,我们可以去同时执行。这就解决了我们上面提到的第一个问题

代表:

随机森林

Adaboost

解决的是二分类问题

        数学表达:

首先其整体的模型采用的是加法模型

这里的G_{1}(X)G_{m}(X)都是弱分类器,也叫做基分类器 。

1、在每一轮中,分别记录好那些被当前弱分类器正确分类错误分类样本在下一轮训练时,提高错误分类样本的权值,同时降低正确分类样本的权值,用以训练新的弱分类器
这样一来,那些没有得到正确分类的数据,由于其权值加大,会受到后一轮的弱分类器的更大关注。

2、加权多数表决:加大分类误差率小的弱分类器的权值,使其在表决中起较大作用。减小分类误差率大的弱分类器的权值,在其表决中起较小的作用。



如何理解权值?

比如在这里我们这一开始三个样本的权值所占的比例都是一样的,都是1/3,假设经过第一轮的学习之后,其成功的将后面的(x_{2},y_{2}),(x_{3},y_{3})这两个样本进行了正确的分类,所以第二轮的时候我们就将第二轮的比例调为了1/6.学习错误的样本 ,我们就将其调整到2/3。也就调到了下面这样的样本。也就是说相当于我们改变了样本的数量,也就是我们将没有正确训练的样本的数量将其增多了。然后这两个正确分类的数量,占比就变少了。在学习的过程中,我们就会更关注被分类错误的样本。

再回到这里,我们的权值也会受到我们的分类误差率的影响,当我们的G_{m}\left ( X \right )分类误差率小的的时候就会给一个较大的权重\alpha _{m},这样做就会在最后做表决的时候起到的作用更大。

算法流程:

二分类训练数据集:

这个数据集就是T。这里面有N个训练样本。x就是我们的实例,也相当于我们的特征值。y指的是我们的标签值,因为我们这里做的是二分类,所以这里就只有两类,这里就分别为\left \{-1,+1 \right \}这两类。

定义基分类器(弱分类器)G_{\left (x \right )}

一般来讲我们这里的G_{1}\left ( x \right )G_{m}\left ( x \right )他们一般都属于同一种类型,我可以是逻辑回归,也可以是决策树。通常来讲,在你指定了基分类器具体是哪一个之后,G_{1}\left ( x \right )G_{m}\left ( x \right )用的就都是同一种。比如你这里G_{1}\left ( x \right )是逻辑回归了,那这里就都是逻辑回归了。

在我们的基分类器定下来之后,他的之后的随之的方法也就确定下来了,比如当我们的G_{}\left ( x \right )是逻辑回归的时候,我们就可以用交叉熵损失和梯度下降来进行训练,

,我们的书上也有这样一个最简单的二分类取值器,也就是说它只需要去给定一个阈值,当我们的X大于这个阈值的时候他就为1,小于这个值的时候就为-1.通过这个阈值来进行划分。这也是我们最简单的一种分类器了。

循环M次:

在上面两个都准备好了之后,我们就可以去训练我们的模型。

循环m次就是说,我们每一次去训练一个基分类器以及他的权重,然后我们有m个所以这里我们就循环m次。

1、初始化/更新当前训练数据的权值分布:

if初始化,初始化的时候我们就用D1这个权值来表示,

每一个样本我们都给其赋了权值,我们认为其是均匀的,1/N,

更新数据的权值分布:

之前我们是计算了G_{1}\left ( X \right ),之前的数据是进行了一个权值的初始化,之后我们的G_{2}\left ( X \right )需要用到的数据就不一样,我那么知道我们要提高前一轮“错误分类"的样本的权值,降低前一轮"正确分类"的样本的权值以此来构建我们的训练样本去训练我们G_{2}\left ( X \right ),如果我们不是第一次了我们就是执行我们样本更新。

这里我们D_{m}的这个m下标表示的就是第几个弱分类器训练样本的权值,然后我们这里有N个样本,每个样本都会有它的权值,这里的重点就是我们w_{m,i}这个权值的更新的这个公式,我们也可以清楚的看到这是一个递推公式,它的更新跟前一轮的权值是有关系的,看着比较复杂,但是目的就是为了满足我们下面绿色的那些字。

解释w_{m,i}

也就是说,当我们是正确分类的时候(假设为二分类问题,正确分类的标签值为1),我们的弱分类器G_{m-1}\left ( x_{i} \right )得出来的结果跟我们的标签值y_{i}是同号的,所以\frac{w_{m-1}}{Z_{m-1}}exp(-\alpha_{m-1} y_{i}G_{m-1}\left ( x_{i} \right ))=\frac{w_{m-1}}{Z_{m-1}}e^{-\alpha_{m-1} },如果是异号的那就是上图下面的结果。

我们也提到了我们的\alpha肯定也是大于0小于等于1/2的,

当我们分类正确时,当前面加了符号之后呢这个整体就是一个小于1大于0的数。

当我们分类错误时,这个整体就是大于1的

我们再来看我们的规范化因子

规范化因子

上图我们针对的是某一个样本,在下图我们针对的是所有的样本

在下图中我们将所有样本的分子部分加起来,本质上相当于是一个归一化的操作 

 其实 就是将我们下面红色部分映射到0到1之间的范围,也就相当于一个归一化的操作

2、训练当前基础分类器G_{m}\left (X \right )

紧接着我们就要拿训练的样本去训练,使用具有权值分布D_{m}的训练数据集学习,得到基分类器G_{m}\left (X \right ),那么我们应该如何训练呢,具体怎么训练就应该看我们当初选择的基分类器的类型是什么样的,如果我们用的是逻辑回归,那么我们用的就是交叉熵损失作为我们的损失函数,训练好了之后我们就要去计算我们的权值\alpha _{m}

3、计算当前基分类器的权值\alpha _{m}:

我们知道我们的\alpha _{m}由我们的分类误差率所决定,比如我我们的分类误差率比较大的话就得让我们的\alpha _{m}比较小,如果分类误差率比较小的话就说明比较准。

第一步:

所以我们先计算当前G_{m}\left ( X \right )在训练数据集上的分类误差率

这个就是我们的公式,当我们的G_{m}\left (x_{i} \right )的结果不等于我们真实值标签y_{i}的时候就说明我们分类错误了。这里面I的含义就是当括号里的条件满足的时候,这个I的值就是1,表达的意思就是在我们1到N那么多个样本里面,我们要找到他分类错误的这些点,然后让他们这些样本点的这些权值让他们加起来,这里的w_{mi}指的就是我们的权值,即样本数据的权值部分,如下图所示。所以进一步的可以写成我们最右边的那个式子。

代表的就是分类错误的那些点的权值给他进行一个相加求和。

但这里我们值得一提的是我们这里分类误差e_{m}的范围,其范围也是确定的。

这里我们的e_{m}>0我们不再解释,这里的≤0.5是如何来的呢,比如说当我们的G_{m}\left (X \right )训练出来的一个模型去做预测的时候,跟我们的的y呈现的是上图这样的关系,比如他预测的时候错了三个,只有一个是预测对了,又因为我们这里是二分类的问题,所以我们的G_{m}\left (X \right )不是-1就是1,所以我们只需要在G_{m}\left ( X\right )前面加一个负号就会从上面变换到下面的1,1,1。也就是说我们将从三个错误的结果当中变成了三个正确的一个错误的,也就是说我们 分类误差率从原本的3/4变到了1/4。也就是当我们的分类误差率大于0.5的时候就可以得到一个小于等于0.5的一个数,所以这个范围就是小于等于0.5。

将我们的分率误差率e_{m}计算出来就可以计算我们的\alpha _{m}

在这里我们对这个公式进行分析

我们画一下这个的函数图像,这里的e_{m}是未知数

然后我们又知道e_{m}是满足

故函数图像为,带入我们的e_{m}=1/2。得到他的值为1

,由上面e_{m}的定义域可以知道我们蓝色部分就是当前讨论函数的取值范围,然后我们继续探讨log的部分。

这个就是我们log的图像,然后我们的为大于等于1,所以我们的

log的部分就可以这样画。

所以他的值域就在上面的部分我们也知道\alpha _{m}就是大于等于0的。

故我们的图像也会往右边移动,所以我们的\alpha _{m}就会跟着变大

4、将\alpha _{m}G_{m}\left ( x \right )更新到加法模型f\left ( x \right )

5、判断是否满足循环退出条件:

分类器个数是否达到M:比如可以设置我们M的值,到达了循环三次,M为3,我们就退出。或者给定一个精度,当我们的准确率sign\left [ f\left ( x \right ) \right ]到达了多少的时候我们就去退出。

总分类器误差率是否低于设定的精度:因为我们这里的f\left ( x \right )他最终算出来的其实是一个数,他不是某一个类别,所以我们需要通过一个函数sign去转换到我们所需要的一个类别,比如说我们在这里sign\left [ f\left ( x \right ) \right ],它的f\left ( x \right )≥0的时候,那我们最终的结果就是1,当f\left ( x \right )<0的时候分配出来的结果就是-1。

假设我们这里循环退出的条件并没有达到,也就是说m=1的时候,那我们就接着进行第二次循环去计算G_{2}(X),我们回到上面的更新。

例题:

二分类训练数据集:

首先我们有一个二分类的训练数据集,我们需要去运用adaboost去训练出一个二分类的学习器,能够根据他给出的x能够去判断出他给出的y值是属于1还是-1

定义基分类器(弱分类器):

G\left ( X \right ),我们就采用这种最简单的二分类学习器,也就是给定义一个阈值,通过这个阈值去判断。

训练方法:

在x中划分出候选阈值,从中选出使得误差率e_{m}最小的,作为我们的最终阈值构建好G\left ( X \right )

循环M次:

m=1时:

1、初始化/更新当前[训练数据的权值分布]

if初始化:

D_{1}=\left ( w_{11}, w_{12},..., w_{110}\right )

看到我们的训练数据,可以肯定的是一个均值分布,所以是w_{1i}就是1/10

w_{1i}=0.1,i=1,2,...,10

if更新:

2、训练当前基分类器

使用具有权值分布D_{m}的训练数据集学习,得到基分类器G_{m}\left (X \right )

训练方法:在x中划分出各候选阈值,构建好各候选G_{m}\left ( X \right )。找到使误差率e_{m}最小的G_{m}\left (X \right ),作为本轮的基分类器

3、计算当前基分类器的权值

计算当前G_{m}\left ( X \right )在训练数据集上的[分类误差率]

根据这个表可以看出来,绿色部分就是我们分类错误的部分

根据分类误差率e_{m},计算基分类器G_{m}\left ( X \right )的权重系数

 

4、将\alpha _{m}G_{m}\left ( x\right )更新到加法模型f\left ( x \right )

5、判断是否满足循环退出条件

①分类器个数是否达到M

②总分类器误差率是否低于设定的精度

在这里我们使用第二个

因为这一题的最终答案是可以做到最终完全是零错误的,所以就还没有达到我们的精度要求,所以我们就继续进行下一个循环

m=2时:

1、初始化/更新当前[训练数据的权值分布]

if初始化:

将我们上一轮得到的\alpha还有G_{m}\left ( X \right )还有y_{i},还有上一轮样本数据的权值带入就可以的出来就可以得到D_{2}

if更新:

上图就是我们算出来的一个结果,就是这些

2、训练当前基分类器

使用具有权值分布D_{m}的训练数据集学习,得到基分类器G_{m}\left (X \right )

训练方法:在x中划分出各候选阈值,构建好各候选G_{m}\left ( X \right )。找到使误差率e_{m}最小的G_{m}\left (X \right ),作为本轮的基分类器

3、计算当前基分类器的权值

计算当前G_{m}\left ( X \right )在训练数据集上的[分类误差率]

我们G_{2}\left ( X \right )这个分类器还是存在着三个错误分类的点,然后我们将三个错误分类的点 三个权值给他加起来得到了e_{m}

 根据分类误差率e_{m},计算基分类器G_{m}\left ( X \right )的权重系数

4、将\alpha _{m}G_{m}\left ( x\right )更新到加法模型f\left ( x \right )

5、判断是否满足循环退出条件

①分类器个数是否达到M

②总分类器误差率是否低于设定的精度

在这里我们还是有三个错误分类的点,所以还是没有达到我们的要求,之前我们也说过这是可以达到我们的百分百分类的,所以我们继续进行循环。

m=3时:

跟上面的一样

1、初始化/更新当前[训练数据的权值分布]

2、训练当前基分类器

3、计算当前基分类器的权值

4、将\alpha _{m}G_{m}\left ( x\right )更新到加法模型f\left ( x \right )

5、判断是否满足循环退出条件

①分类器个数是否达到M

②总分类器误差率是否低于设定的精度

在这里我们还是有三个错误分类的点,所以还是没有达到我们的要求,之前我们也说过这是可以达到我们的百分百分类的,所以我们继续进行循环。

这个时候我们就发现完完全全都对的上了,就是没有错误分类的那些点了。

最终分类器

加法模型

预测函数

首先加法模型就是将很多学习器进行一个线性加权的组合,所以是一个累加的符号。

这里的b\left (x;y_{m} \right )指的就是我们Adaboost里的弱分类器,y_{m}指的就是我们弱分类器里面的训练参数

类比一下我们Adaboost的预测函数:可知道Adaboost就是一个加法模型当然他只包含线性的部分,不包含做决策的部分,因为我们最后还要通过Sign函数,唯一长得不太一样的地方就是其中的参数部分,只是我们省略没有写而已。

损失函数

自定义,y就是我们的label值(标签值),f(x)就是我们这里的加法模型

当我们面临

回归问题:我们可以使用MSE均方误差

分类问题:指数函数,交叉熵损失

损失函数我们需要看具体的情况来定,也可以定义属于自己的损失函数。

优化方法

像逻辑回归,FM,FFM等等用的就是梯度下降来优化损失函数来找到参数。

在这里我们的加法模型不太适合用梯度下降,而是适合用前向分布算法的方式。

梯度下降的缺点:整体损失极小化:

首先要把我们的目标函数写出来,所以我们需要我们的整体损失极小化,因此我们的损失函数指的是我们总体的一个损失,也就是从我们的1到M都加起来去求损失,这样一来我们的复杂度就高。

举例

假设我们的M再大一点比如说3,那我们就还要优化\beta _{3}\gamma _{3},就要同时优化3*M个参数,这也只是一个理想情况,\gamma _{1}这里只代表了一个参数,很多情况下\gamma _{1}代表的不只是一个参数,也很有可能表示的是一个向量,比如在逻辑回归里,这里代表的是很多个w,很多个特征权重值,需要同时优化的参数就非常多。

前向分布算法:

对比梯度下降(蓝色方框部分) ,我们就没有了累加的符号。

这样做会有什么效果呢?

我们刚刚说了,在我们的传统梯度下降当中,我们需要同时对β还有γ同时进行优化跟迭代。但是在我们的前向分布算法当中,我们会将这些参数进行分布的计算。比如我们会先计算\beta _{1}\gamma _{1},然后再计算\beta _{2}\gamma _{2},然后再计算\beta _{3}\gamma _{3},也就是对应了这里的循环m。也就是我们计算的时候只会拿到一个\beta一个\gamma

并且我们观察到,在这个式子里面,这个部分属于上一步得到的加法模型,上一步计算出来的东西在这一步已经是一个定值了,也就是说里面以及没有所谓的参数了,所以我们只需把精力集中在当前需要去优化的基分类器还有它的权重参数就可以了,这样也体现了一个串行的思想。

比如这个部分我们就代表了语文,我们语文已经学习的很好了,那我们下一步就是重点去学习我们其他的科目,y_{i}是标签值。

然后学完了之后我们就去更新,然后一步一步的去循环整个过程,直到把这M个给学到最后就可以得到我们总体的一个加法模型。

Adaboost算法原理解析

在讲完我们的加法模型之后,我们再来讲讲adaboost是如何利用加法模型还有前向分布算法来结合巧妙的构思从而去实现我们这两个要求的。

优化问题:二分类

二分类训练数据集,下图是其定义

在这里我们的类别标签分别用-1跟+1表示。在逻辑回归的时候,我们习惯性的用0跟1表示类别,但在Adaboost里面我们习惯性用-1跟+1表示类别。

模型:加法模型

最终分类器:

这里Sign函数的意思就是当我们上面的加法模型得到的f\left ( x\right ),当它的值是大于等于0的时候,G\left ( x \right )就属于1;当他小于0的时候,G\left ( x \right )就为-1,从而去把两个类给分开,所以我们这里的0来作为他分割类别的阈值。

损失函数:指数损失函数

二分类问题,使用指数损失函数:

,exp是以e的底的指数函数

y是标签值

当G(x)分类正确时,与y同号,L(y,f(x))≤1.

当G(x)分类错误时,与y异号,L(y,f(x))>1.

为什么不用交叉熵损失?

交叉熵损失是用极大似然估计去计算出来的一个表达式,它的分类是0跟1,不是我们的-1跟1

所以当我们标签值y为1的时候,当我们G(x)分类正确的时候,那我们对应的f(x)肯定也是一个大于等于0的一个数,故L(y,f(x))≤1,并且我们这个f(x)越大的话我们L的这个损失就会越小,反之亦然。

将损失函数视为训练数据的权值:

 这样的一个损失函数就非常适合在作为我们训练数据的权值

这个公式的意义就是我们第m轮训练数据的里面每一个训练数据的样本的权值就可以通过这个公式来进行计算。f_{m-1}\left (x_{i} \right )就是前一轮的。由这个公式就去更新我们训练数据的权重。

单个样本损失函数 

总体损失函数(把所有样本放进去)

我们有N个样本

优化方法:前向分布算法

算法流程我们之前讲加法模型的时候就讲过了

第m轮

我们将我们要极小化的损失函数放下来

L换成了exp指数函数。

式子变换:

推导过程:

求解

1、优化G_{m}\left ( X \right )

用构建好的训练样本去训练G_{m}\left ( X \right )的时侯,会得出分类误差率最小的一个效果,那就是最优的。

G_{m}\left ( X \right )本身的意义上来讲,最优的G_{m}\left ( X \right )当然要使得误差最小

当括号里面条件成立的时候I就是1,\bar{w}_{mi}指的就是样本的权重

2、优化\alpha _{m}

推导过程:

式子变换:

凸优化:

红色的部分就是我们的定值了,只有蓝色箭头的\alpha _{m}是一个变量,我们只需对这个函数的\alpha _{m}求导,让其导数等于0,就可以知道其最小值了。

导数为0

公式转换

这里我们分类误差率e_{m}就是所有分类错误的点除以样本点

3、前向更新f_{m}\left ( x \right )

4、更新训练数据权值\bar{w}_{m+1,i}

如果我们这里是第m轮的话,这里就是m+1轮

将第二个式子与我们之前的式子做对比,这个式子相比于上面的显然没有递推的关系,我们可以看一下其是如何推导出来的

注意事项

在我们的例题这里的分类误差率e_{m}跟我们算法原理解析不一样的原因是上图的w_{mi}其实是已经规范过了的,也就是说他已经将他已经映射到我们0到1之间的概率空间了,已经是一个概率了。而我们下图的\bar{w}_{mi}不是概率,而是损失。

如果要讨论这两个不同的地方,我们需要去看训练数据更新的他们的区别在哪里。分别对应的如下。

上图是例题的w_{mi},下图是算法原理里面的

我们可以看到他们之间的区别只是在于第一个他除了Z_{m-1},他的作用也只是说把其概率限制在了0到1之间,区别就是一个做了归一化一个没有做归一化,其凸优化求解过程都是一样的。

代码

资料参考:

import pandas as pd
from sklearn.ensemble import AdaBoostClassifier
from sklearn.tree import DecisionTreeClassifier
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score, confusion_matrix, recall_score, f1_score, precision_score
import seaborn as sns
import matplotlib.pyplot as plt

# 创建一些模拟的多类别数据集
X, y = make_classification(n_samples=1000, n_features=20, n_informative=2, n_redundant=0,
                            random_state=42, n_classes=3, n_clusters_per_class=1)

# 将数据集分割成训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建AdaBoost模型实例
# 使用决策树桩作为基本分类器
ada_clf = AdaBoostClassifier(
    DecisionTreeClassifier(max_depth=1), n_estimators=10,
    algorithm="SAMME", learning_rate=0.5, random_state=42)

# 训练AdaBoost模型
ada_clf.fit(X_train, y_train)

print("建立的弱分类器:", ada_clf.estimators_)
print("分类误差:", ada_clf.estimator_errors_)
print("分类器权重:", ada_clf.estimator_weights_)
print("迭代速率:", ada_clf.learning_rate)

# 进行预测
y_pred = ada_clf.predict(X_test)

print("\n---------- 模型评价 ----------")
cm = confusion_matrix(y_test, y_pred)  # 混淆矩阵
df_cm = pd.DataFrame(cm)  # 构建DataFrame
print("ConfusionMatrix", df_cm)
print('Accuracy score:', accuracy_score(y_test, y_pred))  # 准确率
print('Recall:', recall_score(y_test, y_pred, average='weighted'))  # 召回率
print('F1-score:', f1_score(y_test, y_pred, average='weighted'))  # F1分数
print('Precision score:', precision_score(y_test, y_pred, average='weighted'))  # 精确度

# 绘制混淆矩阵的热图
plt.figure(figsize=(8, 6))
sns.heatmap(df_cm, annot=True, fmt="d", cmap="Blues")
plt.title("Confusion Matrix")
plt.xlabel("Predicted label")
plt.ylabel("True label")
plt.show()

# 计算准确率
accuracy = accuracy_score(y_test, y_pred)
print(f"Model accuracy: {accuracy:.2f}")

参考资料

【集成学习系列教程1】AdaBoost分类算法原理及sklearn应用_adaboost sklearn-CSDN博客

Adaboost分类算法原理及代码实例 python_adaboost python-CSDN博客

集成学习算法:AdaBoost详解以及代码实现-CSDN博客

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/598976.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

程序员的实用神器:助力软件开发的利器 ️

程序员的实用神器&#xff1a;助力软件开发的利器 &#x1f6e0;️ 程序员的实用神器&#xff1a;助力软件开发的利器 &#x1f6e0;️引言摘要自动化测试工具&#xff1a;保障代码质量的利剑 &#x1f5e1;️编写高效测试用例 持续集成/持续部署工具&#xff1a;加速交付的利器…

MYSQL数据目录结构上篇-表在文件系统中表示

前言感悟:我个人是比较不喜欢只会用,不太懂为什么的这么用,而且有的时候很多官方术 语让人难以读懂, 这里我会用比较大白话的方式,让我自己也能让网友们更加理解,如果书写哪里有误,欢迎大家指出((,,•ω•)ノ"(っω•&#xff40;。)) 从入门开始啦推荐一个学习mysql的视频…

营销5.0时代,企业的痛如何解?

进入营销5.0阶段之后&#xff0c;许多企业都需解决连接客户效能低下的问题。针对这个问题&#xff0c;产品经理、软件开发公司包括个人开发者&#xff0c;要怎么找到有效的“解药”&#xff1f; 营销不仅每年都在变化&#xff0c;甚至每天都在变化。 ——现代营销学之父&…

我独自升级崛起下载方法分享 下载教程

《我独自升级&#xff1a;崛起》这款精彩绝伦的动作角色扮演游戏&#xff0c;灵感来源于大热网络漫画&#xff0c;让玩家亲自踏上主角程肖宇的征途&#xff0c;从觉醒初阶到实力飞跃&#xff0c;每一步成长都扣人心弦。值得注意的是&#xff0c;尽管全球正式发布日期定在了五月…

Linux下GraspNet复现流程

Linux&#xff0c;Ubuntu中GraspNet复现流程 文章目录 Linux&#xff0c;Ubuntu中GraspNet复现流程1.安装cuda和cudnn2.安装pytorch3.编译graspnetAPIReference &#x1f680;非常重要的环境配置&#x1f680; ubuntu 20.04cuda 11.0.1cudnn v8.9.7python 3.8.19pytorch 1.7.0…

PADS使用网表导入layout和使用ECO to PCB有什么不同?

网表导入总是不成功&#xff0c;先用ECO更新过去了

vue2结合element-ui实现TreeSelect 树选择功能

需求背景 在日常开发中&#xff0c;我们会遇见很多不同的业务需求。如果让你用element-ui实现一个 tree-select 组件&#xff0c;你会怎么做&#xff1f; 这个组件在 element-plus 中是有这个组件存在的&#xff0c;但是在 element-ui 中是没有的。 可能你会直接使用 elemen…

调用nvprof报错: No kernels were profiled. No API activities were profiled.

调用nvprof报错 1 nvprof介绍 nvprof 是 NVIDIA 提供的一款用于分析 CUDA 应用程序性能的命令行性能分析器。CUDA 是一种并行计算平台和编程模型&#xff0c;允许开发人员利用 NVIDIA GPU 进行通用处理。 nvprof 帮助开发人员分析其 CUDA 应用程序的性能&#xff0c;提供各种…

以gitee为例的git入门使用指北

安装git 在linux中我们首先需要使用 sudo apt install git来下载git 在windows中可以下载msysGit 链接&#xff1a;https://git-scm.com/download/win gitee准备 申请账号 建立仓库 ​ 点击新建仓库 这里一般是私有库&#xff0c;点击创建&#xff0c;这时你就拥有一个线上…

Freeswitch-mod开发

文章目录 一、Freeswitch-mod开发1.1 介绍1.2 实战1.2.1 新建一个mymod.c或者mymod.cpp1.2.2 新建一个Makefile1.2.3 编译 二、Freeswitch-mod-自定义Dialplan模块2.1 介绍2.2 实战2.2.1 改造mymod.c&#xff08;代码是完整的&#xff0c;自己做区别看一下&#xff09;2.2.2 编…

小白入门:创建一个SpringBoot项目

前言 我们在创建SpringBoot项目时候&#xff0c;会出现不确定和报错的情况很多&#xff0c;大家可以按照我的做法来简单创建一个SpringBoot项目 1.环境配置 下载安装并配置jdk1.8下载apache mavenidea软件 2.开始创建项目 Server URL&#xff1a;初始是start.spring.io,我…

ComfyUI中的图像稀释处理

用下面的节点对图片进行稀释处理&#xff0c;如下 为0表示不变&#xff0c;我设置大一点&#xff0c;设置为0.5看看&#xff0c;如下 图像就暗淡了一些&#xff0c;但是还是有一些彩色的&#xff0c;相当于把它放在水里浸泡了一样&#xff0c;掉色了&#xff0c;这就是稀释&…

美国访问学者J1签证申请,这些关键事项一定要注意!

美国访问学者准备踏上学术探索之旅&#xff0c;申请J1签证是决定性的一步。以下是美国J1签证申请的一些关键注意事项&#xff0c;帮助你顺利通过签证流程&#xff1a; 1、签证类型&#xff1a;确认J-1签证是适合您访问学者身份的正确签证类型。 2、DS-2019表&#xff1a;在申…

2024------MySQL数据库基础知识点总结

-- 最好的选择不是最明智的&#xff0c;而是最勇敢的&#xff0c;最能体现我们真实意愿的选择。 MySQL数据库基础知识点总结 一、概念 数据库&#xff1a;DataBase&#xff0c;简称DB。按照一定格式存储数据的一些文件的组合顾名思义: 存储数据的仓库&#xff0c;实际上就是一…

工业光源环形系列一高均匀条形光源特点

产品特点 ◆可以根据检测需求随意调整照射角度&#xff1a; ◆可以根据检测需求选择光源颜色&#xff1a; ◆多个条形光源可以自由组合&#xff1a; ◆使用贴片灯珠&#xff0c;均匀性更好。

ICDE2024 |VDTuner:向量数据库自动调优技术

在CodeFuse接入实际业务的过程中&#xff0c;大模型的推理成本以及生成内容的准确性是产品规模落地的两个核心考量因素。为了降低推理成本&#xff0c;我们研发了CodeFuse-ModelCache语义缓存加速功能&#xff0c;通过引入Cache机制&#xff0c;缓存已经计算的结果&#xff0c;…

Spring Security基础教程:从入门到实战

作者介绍&#xff1a;✌️大厂全栈码农|毕设实战开发&#xff0c;专注于大学生项目实战开发、讲解和毕业答疑辅导。 推荐订阅精彩专栏 &#x1f447;&#x1f3fb; 避免错过下次更新 Springboot项目精选实战案例 更多项目&#xff1a;CSDN主页YAML墨韵 学如逆水行舟&#xff0c…

Windows系统安装MySQL数据库详细教程

【确认本地是否安装mysql】 &#xff08;1&#xff09;按【winr】快捷键打开运行&#xff1b; &#xff08;2&#xff09;输入services.msc&#xff0c;点击【确定】&#xff1b; &#xff08;3&#xff09;在打开的服务列表中查找mysql服务&#xff0c;如果没有mysql服务&am…

【WEB前端2024】开源智体世界:乔布斯3D纪念馆-第16课-跳转私信

【WEB前端2024】开源智体世界&#xff1a;乔布斯3D纪念馆-第16课-跳转私信 使用dtns.network德塔世界&#xff08;开源的智体世界引擎&#xff09;&#xff0c;策划和设计《乔布斯超大型的开源3D纪念馆》的系列教程。dtns.network是一款主要由JavaScript编写的智体世界引擎&am…

猫咪没精神不吃饭?这招主食冻干喂养教你让猫咪恢复食欲

猫突然不吃东西没精神是生病了吗&#xff1f;当猫咪不吃东西、精神不振时&#xff0c;可能的原因有健康问题、环境因素或食物原因。首先应进行身体检查&#xff0c;观察是否有其他并发症&#xff0c;如无则可排除健康问题。还要给猫咪提供一个舒适的环境&#xff0c;多给它们一…
最新文章