机器学习 —— 自用整理期末复习笔记

一、绪论

机器学习术语

假设空间 p5

        监督学习(supervised learning)的任务是学习一个模型,使模型能够对任意给定的输入,对其相应的输出做出一个好的预测。模型属于由输入空间到输出空间的映射的集合,这个集合就是假设空间(hypothesis space)。

        

        【机器学习】假设空间与版本空间-CSDN博客


二、模型评估与选择

1、经验误差与过拟合

         

        

2、评估方法

2.1、留出法

        

        

2.2、交叉验证法

                        

        

                        

2.3、自助法

        

        

2.4、验证集

        训练集(Training Set):用于训练模型。

        验证集(Validation Set):用于调整和选择模型。

        测试集(Test Set):用于评估最终的模型。

        

        

3、性能度量

 3.1、错误率与精度

3.2、查准率与查全率(准确率与召回率)

        

以检测核酸为例:

        

        评价指标:

        

        F1 Score

        

        

3.3、ROC曲线

3.4、方差与偏差

         

         

        

        

        偏差:描述的是预测值(估计值)的期望与真实值之间的差距。偏差越大,越偏离真实数据。

        方差:描述的是预测值的变化范围,离散程度,也就是离其期望值的距离。方差越大,数据的分布越分散。

        偏差度量了学习算法期望预测与真实结果的偏离程度;即刻画了学习算法本身的拟合能力;

        方差度量了同样大小训练集的变动所导致的学习性能的变化;即刻画了数据扰动所造成的影响;

        噪声表达了在当前任务上任何学习算法所能达到的期望泛化误差的下界;即刻画了学习问题本身的难度。

        泛化误差=方差➕偏差➕噪声


 

 三、线性模型

1、线性回归模型

                线性回归、多项式回归多用于预测,逻辑回归多用于分类。

        https://katya.blog.csdn.net/article/details/135046372?ydreferer=aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NzE4NzE0Ny9jYXRlZ29yeV8xMjQ4NDI5Ni5odG1sP3NwbT0xMDAxLjIwMTQuMzAwMS41NDgy

         

        KNN算法:大老粗

                非参数模型,计算量大,好在数据无假设

        线性算法:头脑敏锐

                可解释性好,建模迅速,线性分布的假设

 

2、线性判别分析 LDA

        

        

         类内散度矩阵Sw 类间散度矩阵Sb。

3、多分类学习

         

         OVO(One vs One )Cn2个分类器

         OVR (One vs Rest ) n个分类器

        

        

        

         纠错输出码 距离最小。

 

4、类别不均衡问题

         类别不平衡就是指分类任务中不同类别的训练样例数目差别很大的情况。

        

         策略 —— 再缩放(再平衡)。

        再缩放的思想虽简单,但实际操作却并不平凡,主要因为“训练集是真实样本总体的无偏采样”这个假设往往并不成立,也就是说,我们未必能有效地基于训练集观测几率来推断出真实几率。

        现有技术大体上有三类做法:

        第一类是直接对训练集里的反类样例进行“欠采样”(undersampling),即去除一些反例使得正、反例数目接近,然后再进行学习;

        第二类是对训练集里的正类样例进行“过采样”(oversampling),即增加一些正例使得正、反例数目接近,然后再进行学习;

        第三类则是直接基于原始训练集进行学习,但在用训练好的分类器进行预测时,将式(3.48)嵌入到其决策过程中,称为“阈值移动”(threshold-moving)。

        欠采样法的时间开销通常远小于过采样法;因为前者丢弃了很多反例,使得分类器训练集远小于初始训练集,而过采样法增加了很多正例,其训练集大于初始训练集。

        需注意的是,过采样法不能简单地对初始正例样本进行重复采样,否则会招致严重的过拟合;另一方面,欠采样法若随机丢弃反例,可能丢失一些重要信息;

 


 

四、决策树

 

1、决策树学习模型

         

  • 特征选择、节点分类、阈值确定
?决策树算法流程

2、信息增益、增益率计算

        信息熵:

         熵本身代表不确定性,是不确定性的一种度量。熵越大,不确定性越高,信息量越高。

        

        为什么用log?—— 两种解释,可能性的增长呈指数型;log可以将乘法变为加减法。

        信息增益(互信息):代表了一个特征能够为一个系统带来多少信息。

        

        ID3决策树学习算法 —— 以信息增益为准则划分属性。

        增益率

        

        基尼指数

        

        

        基尼系数运算稍快;

        物理意义略有不同,信息熵表示的是随机变量的不确定度;

                基尼系数表示在样本集合中一个随机选中的样本被分错的概率,也就是纯度

                基尼系数越小,纯度越高。

        模型效果上差异不大。
 

 

4、剪枝 —— 对付过拟合

 

为什么要剪枝?

                复杂度过高。

                        预测复杂度:O(logm)

                        训练复杂度:O(n x m x logm)

                        logm为数的深度,n为数据的维度。

                容易过拟合。
 

         预剪枝是指在决策树生成过程中,对每个结点在划分前先进行估计,若当前结点的划分不能带来决策树泛化性能提升则停止划分,并将当前结点标记为叶结点;

        后剪枝是先从训练集生成一棵完整的决策树,然后自底向上地对非叶结点进行考察,若将该结点对应的子树替换为叶结点能带来决策树泛化性能提升,则将该子树替换为叶结点。

         

         

        

 

5、连续与缺失值

         二分法,对连续属性进行处理。

6、多变量决策树

        非叶节点不再是仅对某个属性,而是对属性的线性组合进行测试。


 

五、神经网络

 

1、感知机

 

         MP神经元

                 

         激活函数

                

        单层感知机

                

               

                

                

                 

                  wTx+b=0对应于特征空间一个超平面s,将空间分成两个部分,也称分离超平面。

                  单层感知机的学习能力非常有限, 只能解决线性可分问题。

                  

         多层感知机

                 

               多层前馈神经网络:只与下一层连接;同层或跨层不连接;

               前馈:正向

2、BP算法 / 误差逆传播算法

 

3、输出层节点 计算网络参数

4、训练法则

5、网络收敛性

 


 

六、SVM支持向量机

 

1、支持向量机概念 / 目标

        支持向量 support vector —— 距离决策边界最近的点,每个类别的极端数据点

        超平面 hyperplane —— “隔离带”中间的平分线

        间隔 margin —— 最大化margin

         

        优化目标:—— 最大化间隔margin 也就是 最大化距离 d,也就是点到超平面的垂直距离。

                注意此处的距离和线性模型中的距离不同,线性模型中的距离是 yhat-y (斜边)

        软间隔

         

         

        那么怎么保证 这个减去的值不能太大呢?

        

        也就是说尽量让所有数据容错值的和最小。让二者取一个平衡。

        C 就是一个新的超参数,用来调节两者的权重值。

        再看一下这个求和的形式,是不是特别像正则化?其实就可以看成正则化。

        正则化项是一次的,所以叫L1正则。这里省略了绝对值符号,因为其就是正数。

2、核函数原理及作用 —— 降低计算复杂度

        将样本从原始空间映射到一个更高维的特征空间。

        空间是有限维,即属性数有限,那么一定存在一个高维特征空间使样本可分。

        

        

        核函数:是映射关系的内积。

        映射函数本身仅仅是一种映射关系,并没有增加维度的特性,不过可以利用核函数的特性,构造可以增加维度的核函数,这通常是我们希望的。

        要注意,核函数和映射没有关系。核函数只是用来计算映射到高维空间之后的内积的一种简便方法!

        

        

           线性组合、直积仍是核函数。

        

 

3、支持向量机的应用

 


 

七、贝叶斯分类器

 

        监督式模型分为判别式模型和生成式模型。 

        

        判别模型和生成模型的区别:

                判别式模型:输入一个特征X可以直接得到一个y。

                生成式模型:上来先学习一个联合概率分布 p(x,y),

                                        再用他根据贝叶斯法则求条件概率密度分布。

                                        —— 没有决策边界的存在

        判别式数据对于数据分布特别复杂的情况,比如文本图像视频;

        而生成式模型对于数据有部分特征缺失的情况下效果更好,

        而且更容易添加数据的先验知识 p(x)
        

1、贝叶斯决策论

         

        

        则

        建立了四个概率分布之间的关系,已知变量 X 和 未知变量(模型参数)w 之间的计算关系。

        假定 X 表示数据,W 表示模型的参数。

        Likelihood翻译成可能性或者是似然函数,最大似然估计指的就是这个。

        

 

2、极大似然估计

        根据事件 x 的观察结果 c ,推断 θ 为多少时,x 最有可能发生。

        

        

 

3、朴素贝叶斯条件 / 概念

        

        

        p152 例子

         

        能不能直接根据这些经验(上面的数据),来判断一个境外人员有没有得新冠呢?

        即求解:

        

         比较难求的显然就是 Likelihood,所以朴素贝叶斯假设特征之间相互独立。

        

        根据中心极限定理,频率就等于概率,虽然这里数据没有那么多,也一样可以这么算。

        

        

 

4、EM算法 

        期望最大化算法,Expectation Maximization

         目的:使得似然函数最大化

        引入 隐变量(未观测变量)

         先猜一个 z 的分布,就是蓝色的分布,然后用它来逼近。

         

        

        利用Jensen不等式:期望的函数 ≥ 函数的期望,

        函数就是log函数,后面的一坨是期望,把q看成一个分布,分式看成z的函数。

        现在就可以通过不断改变 z,q来搜索L(θ),从而找到他的最大值。

 

        

        

         

 

EM算法步骤

        1、E步骤,先固定q分布不变(θ值不变),使用MLE来最大化z。

                 沿着固定的θ值,向上搜索,碰到红线之后就停止。

                

        2、M步骤,固定z不变,让q最大化寻优。

                 

        重复这个步骤,反复迭代,直到找到最优的θ*。

                

        注意虽然EM的迭代一定会收敛,但是不一定收敛到最优的参数值,可能陷入局部最优,所以结果很受初始值的影响。

 

5、分类器怎么计算

6、估计后验概率策略

 


 

八、集成学习

 

1、集成原理

         集成学习通过构建并结合多个学习器来完成学习任务。

         也被称为 多分类器系统、基于委员会的学习等。

        根据个体学习器的生成方式,目前的集成学习方法大致可分为两大类,即

        个体学习器间存在强依赖关系、必须串行生成的序列化方法 —— Boosting

        个体学习器间不存在强依赖关系、可同时生成的并行化方法 ——  Bagging和“随机森林”(Random Forest)

 

2、Boosting算法

基本思想

         

         每个子模型在训练过程中更加关注上一个模型中表现不好的样本点,以此来提高模型效果。

 

AdaBoost

3、Bagging与随机森林

 

4、多样性

 

算法步骤

(9)聚类学习:聚类原理、性能度量、距离计算;圆形聚类 kmeans密度聚类dcan层次聚类 连接行层次聚类 ;算法步骤

(10)降维与度量学习:降维思想、k近邻学习、主成分分析

监督学习和无监督学习

各个算法基本思想,课本上的基本概念,以及针对不同机器算法的简单拓展应用

 

01.3 神经网络的基本工作原理 - AI-EDU

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/307515.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

shader技巧

数学函数: abs():绝对值函数。 acos():反余弦函数。 asin():反正弦函数。 atan():反正切函数。 ceil():向上取整函数。 cos():余弦函数。 cross():向量叉积函数。 distance()&#x…

Cesium笔记 viewer控件隐藏

Cesium初始化后,场景中会有时间轴,动画,home等控件显示,需要将这些控件隐藏,如下: init() {let viewer new Cesium.Viewer("cesiumContainer", {fullscreenButton: false, // 隐藏界面右下角全…

PLECS如何下载第三方库并导入MOSFET 的xml文件,xml库路径添加方法及相关问题

1. 首先xml库的下载,PLECS提供了一个跳转的链接。 https://www.plexim.com/download/thermal_models 2. 下载一个库(以最后一个Wolfspeed为例,属于CREE的SiC MOSFET) 下载这个就行,都包含了。不信自己可以试试再下载…

arthas 内存占用过大排查

使用经验分享 线上故障排查思路: 1、紧急处理,优先保障服务可用(如切换vip,主备容灾) 2、保留第一现场,通过jstack -l {pid} > jvmtmp.txt ,打印栈信息 (后续可以在gceasy官网上…

vagrant 用户名密码登录

正常登录后 sudo -i 切换到root权限 vim /etc/ssh/vim sshd_config 将PasswordAuthentication no设置 为yes 重启sshd.service服务 systemctl restart sshd.service

Apache Doris (六十二): Spark Doris Connector - (2)-使用

🏡 个人主页:IT贫道-CSDN博客 🚩 私聊博主:私聊博主加WX好友,获取更多资料哦~ 🔔 博主个人B栈地址:豹哥教你学编程的个人空间-豹哥教你学编程个人主页-哔哩哔哩视频 目录 1. 将编译jar包加入本地Maven仓库

Vue3:使用解构赋值来读取对象里的键-值对(值也是对象)

一、前言 在Vue3中,想要读取一个对象的“键—值”对(值也是一个对象),数据格式如下: {1:{courseName: 课程1, study: 951526, visit: 3785553},2:{courseName: 课程2, study: 181630, visit: 380830}&…

goland报错:The selected directory is not a valid home for Go SDK

原因: IDEA / goland无法识别到GO语言SDK版本 解决办法: 打开GO的安装目录下的src\runtime\internal\sys\zversion.go文件,添加一行(我的go版本是1.18.10) const TheVersion go1.18.10 重启goland再选择试试 最后…

基于大数据机器学习TF-IDF 算法+SnowNLP的智慧旅游数据分析可视化推荐系统

文章目录 基于大数据机器学习TF-IDF 算法SnowNLP的智慧旅游数据分析可视化推荐系统一、项目概述二、机器学习TF-IDF 算法什么是TF-IDF?TF-IDF介绍名词解释和数学算法 三、SnowNLP四、数据爬虫分析五、项目架构思维导图六、项目UI系统注册登录界面各省份热门城市分析…

光缆通信有什么特点?

光缆由一个或多个光纤组成,每个光纤由一个非常纤细的玻璃或塑料纤维组成,可以传输光信号的高速数据。光缆通信具有以下特点: 1. 高带宽:光缆通信可以提供非常高的带宽,远远超过传统的铜缆通信。光纤的宽带特性使其能够…

echarts使用之柱状图

一、引入Echarts npm install eacharts --save 二、选择一个Echarts图 选择创建一个柱状图 option { // x轴参数的基本配置xAxis: {type: category,data: [Mon, Tue, Wed, Thu, Fri, Sat, Sun] //X轴数据}, // y轴参数的基本配置yAxis: {type: value}, // series:[{data: …

第一次面试总结 - 迈瑞医疗 - 软件测试

🧸欢迎来到dream_ready的博客,📜相信您对专栏 “本人真实面经” 很感兴趣o (ˉ▽ˉ;) 专栏 —— 本人真实面经,更多真实面试经验,中大厂面试总结等您挖掘 注:此次面经全靠小嘴八八,没…

golang并发安全-select

前面说了golang的channel, 今天我们看看golang select 是怎么实现的。 数据结构 type scase struct {c *hchan // chanelem unsafe.Pointer // 数据 } select 非默认的case 中都是处理channel 的 接受和发送,所有scase 结构体中c是用来存储…

在AWS云上面创建Developers用户组

问题 需要给开发人员创建一个专门的Developers用户组,保证开发人员只能够尽兴相关操作。注意,我这里使用的AWS国际版。 创建Developers用户组 打开用户组页面,点击用户组,创建组,进行用户组创建,如下图&…

哪种台灯适合备考用?2024值得入手的护眼台灯推荐

现在孩子的近视率越来越高了,也有很多家长开始意识到孩子用眼健康的重要性。而台灯作为守护孩子用眼环境的必备用品,很多家长想给孩子购置一款护眼灯,却看见市面琳琅满目的款式根本不知道怎么购买,害怕买到劣质的护眼台灯&#xf…

SpringBoot+SSM项目实战 苍穹外卖(09) day9作业

继续上一节的内容,本节是作业课,要求独立完成:用户端历史订单模块、商家端订单管理模块相关业务新功能开发和已有功能优化。 目录 作业要求用户端历史订单模块查询历史订单查询订单详情取消订单再来一单 商家端订单管理模块订单搜索各个状态的…

每天刷两道题——第十一天

1.1滑动窗口最大值 给你一个整数数组 nums,有一个大小为 k 的滑动窗口从数组的最左侧移动到数组的最右侧。你只可以看到在滑动窗口内的 k 个数字。滑动窗口每次只向右移动一位。返回滑动窗口中的最大值 。 输入:nums [1,3,-1,-3,5,3,6,7], k 3 输出&…

爆肝整理,性能测试-场景设计/性能调优总结,一篇概全...

目录:导读 前言一、Python编程入门到精通二、接口自动化项目实战三、Web自动化项目实战四、App自动化项目实战五、一线大厂简历六、测试开发DevOps体系七、常用自动化测试工具八、JMeter性能测试九、总结(尾部小惊喜) 前言 1、性能测试场景设…

密钥管理机制如何进行工作

密钥管理机制是信息安全领域中一个至关重要的环节,其目标是确保密钥的安全传输、存储和使用,从而保障整个系统的安全性和可靠性。在实际工作中,密钥管理机制涉及到多个方面的技术和方法,下面将详细介绍其工作原理和过程。 密钥管理…