使用PyTorch实现L1, L2和Elastic Net正则化

在机器学习中,L1正则化、L2正则化和Elastic Net正则化是用来避免过拟合的技术,它们通过在损失函数中添加一个惩罚项来实现。

正则化介绍

L1 正则化(Lasso回归)

L1 正则化通过向损失函数添加参数的绝对值的和来实施惩罚,公式可以表示为:

其中 L0 是原始的损失函数,λ 是正则化强度,wi是模型参数。

L1 正则化的特点是它可以产生稀疏模型,即许多模型参数会被设置为零。这种特性使得L1正则化不仅可以防止过拟合,还可以进行特征选择。

L2 正则化(Ridge回归)

L2 正则化通过添加参数的平方和来施加惩罚,公式为:

λ 控制着正则化的强度。

L2 正则化倾向于让参数值趋近于零但不会完全为零,这有助于处理参数值过大的问题,从而减少模型在训练数据上的过拟合。

Elastic Net 正则化

Elastic Net 正则化是L1和L2正则化的组合,它在损失函数中同时添加了L1和L2惩罚项,公式为:

这种方法结合了L1和L2的优点,既可以产生稀疏模型,也可以平滑模型参数。

在实际应用中,Elastic Net特别适合于那些特征数量多于样本数量,或者特征之间高度相关的情况。

在sklearn中,我们可以使用内置的回归函数来实现

Lasso回归是应用L1正则化的典型模型。它可以通过

Lasso

类实现;Ridge回归使用L2正则化。它可以通过

Ridge

类来实现;Elastic Net回归结合了L1和L2正则化。它通过

ElasticNet

类实现

Pytorch代码实现

但是这些都是最简单的线性回归的扩展,通过上面的介绍,我们看到这些正则化的方式都是通过修改模型本身的权重来实现的,所以我们可以在MLP上也使用这些正则化的方法,下面我们将使用Pytorch来演示这个步骤

首先我们看下L1

 importos
 importtorch
 fromtorchimportnn
 fromtorchvision.datasetsimportMNIST
 fromtorch.utils.dataimportDataLoader
 fromtorchvisionimporttransforms
 
 classMLP(nn.Module):
   '''
     Multilayer Perceptron.
   '''
   def__init__(self):
     super().__init__()
     self.layers=nn.Sequential(
       nn.Flatten(),
       nn.Linear(28*28*1, 64),
       nn.ReLU(),
       nn.Linear(64, 32),
       nn.ReLU(),
       nn.Linear(32, 10)
     )
 
 
   defforward(self, x):
     '''Forward pass'''
     returnself.layers(x)
   
   defcompute_l1_loss(self, w):
       returntorch.abs(w).sum()
   
   
 if__name__=='__main__':
   
   # Set fixed random number seed
   torch.manual_seed(42)
   
   # Prepare CIFAR-10 dataset
   dataset=MNIST(os.getcwd(), download=True, transform=transforms.ToTensor())
   trainloader=torch.utils.data.DataLoader(dataset, batch_size=10, shuffle=True, num_workers=1)
   
   # Initialize the MLP
   mlp=MLP()
   
   # Define the loss function and optimizer
   loss_function=nn.CrossEntropyLoss()
   optimizer=torch.optim.Adam(mlp.parameters(), lr=1e-4)
   
   # Run the training loop
   forepochinrange(0, 5): # 5 epochs at maximum
     
     # Print epoch
     print(f'Starting epoch {epoch+1}')
     
     # Iterate over the DataLoader for training data
     fori, datainenumerate(trainloader, 0):
       
       # Get inputs
       inputs, targets=data
       
       # Zero the gradients
       optimizer.zero_grad()
       
       # Perform forward pass
       outputs=mlp(inputs)
       
       # Compute loss
       loss=loss_function(outputs, targets)
       
       # Compute L1 loss component
       l1_weight=1.0
       l1_parameters= []
       forparameterinmlp.parameters():
           l1_parameters.append(parameter.view(-1))
       l1=l1_weight*mlp.compute_l1_loss(torch.cat(l1_parameters))
       
       # Add L1 loss component
       loss+=l1
       
       # Perform backward pass
       loss.backward()
       
       # Perform optimization
       optimizer.step()
       
       # Print statistics
       minibatch_loss=loss.item()
       ifi%500==499:
           print('Loss after mini-batch %5d: %.5f (of which %.5f L1 loss)'%
                 (i+1, minibatch_loss, l1))
           current_loss=0.0
 
   # Process is complete.
   print('Training process has finished.')

我们在本身的一个简单的MLP中增加了一个

compute_l1_loss

方法,在我们计算完基本的损失后,还会计算模型参数的L1 损失,然后与基本损失相加,最后使用这个最终损失来进行反向传播。

L2正则化也很容易。我们不取权重值的绝对值,而是取它们的平方。

 importos
 importtorch
 fromtorchimportnn
 fromtorchvision.datasetsimportMNIST
 fromtorch.utils.dataimportDataLoader
 fromtorchvisionimporttransforms
 
 classMLP(nn.Module):
   '''
     Multilayer Perceptron.
   '''
   def__init__(self):
     super().__init__()
     self.layers=nn.Sequential(
       nn.Flatten(),
       nn.Linear(28*28*1, 64),
       nn.ReLU(),
       nn.Linear(64, 32),
       nn.ReLU(),
       nn.Linear(32, 10)
     )
 
 
   defforward(self, x):
     '''Forward pass'''
     returnself.layers(x)
   
   defcompute_l2_loss(self, w):
       returntorch.square(w).sum()
   
   
 if__name__=='__main__':
   
   # Set fixed random number seed
   torch.manual_seed(42)
   
   # Prepare CIFAR-10 dataset
   dataset=MNIST(os.getcwd(), download=True, transform=transforms.ToTensor())
   trainloader=torch.utils.data.DataLoader(dataset, batch_size=10, shuffle=True, num_workers=1)
   
   # Initialize the MLP
   mlp=MLP()
   
   # Define the loss function and optimizer
   loss_function=nn.CrossEntropyLoss()
   optimizer=torch.optim.Adam(mlp.parameters(), lr=1e-4)
   
   # Run the training loop
   forepochinrange(0, 5): # 5 epochs at maximum
     
     # Print epoch
     print(f'Starting epoch {epoch+1}')
     
     # Iterate over the DataLoader for training data
     fori, datainenumerate(trainloader, 0):
       
       # Get inputs
       inputs, targets=data
       
       # Zero the gradients
       optimizer.zero_grad()
       
       # Perform forward pass
       outputs=mlp(inputs)
       
       # Compute loss
       loss=loss_function(outputs, targets)
       
       # Compute l2 loss component
       l2_weight=1.0
       l2_parameters= []
       forparameterinmlp.parameters():
           l2_parameters.append(parameter.view(-1))
       l2=l2_weight*mlp.compute_l2_loss(torch.cat(l2_parameters))
       
       # Add l2 loss component
       loss+=l2
       
       # Perform backward pass
       loss.backward()
       
       # Perform optimization
       optimizer.step()
       
       # Print statistics
       minibatch_loss=loss.item()
       ifi%500==499:
           print('Loss after mini-batch %5d: %.5f (of which %.5f l2 loss)'%
                 (i+1, minibatch_loss, l2))
           current_loss=0.0
 
   # Process is complete.
   print('Training process has finished.')

最终的计算过程和L1正则化一样,只不过是计算附加损失的方法不同。

对于L2的正则化Pytorch的Adam优化器有一个官方的参数,叫做权重衰减 weight_decay

 optimizer = torch.optim.Adam(mlp.parameters(), lr=1e-4, weight_decay=1.0)

你可能不知道他和L2的关系,但是你一定用到过,所以我们这样一解释就非常明白了对吧

最后就是Elastic Net (L1 + L2)

 classMLP(nn.Module):
   '''
     Multilayer Perceptron.
   '''
   def__init__(self):
     super().__init__()
     self.layers=nn.Sequential(
       nn.Flatten(),
       nn.Linear(28*28*1, 64),
       nn.ReLU(),
       nn.Linear(64, 32),
       nn.ReLU(),
       nn.Linear(32, 10)
     )
 
 
   defforward(self, x):
     '''Forward pass'''
     returnself.layers(x)
   
   defcompute_l1_loss(self, w):
       returntorch.abs(w).sum()
   
   defcompute_l2_loss(self, w):
       returntorch.square(w).sum()
   
   
 if__name__=='__main__':
   
   # Set fixed random number seed
   torch.manual_seed(42)
   
   # Prepare CIFAR-10 dataset
   dataset=MNIST(os.getcwd(), download=True, transform=transforms.ToTensor())
   trainloader=torch.utils.data.DataLoader(dataset, batch_size=10, shuffle=True, num_workers=1)
   
   # Initialize the MLP
   mlp=MLP()
   
   # Define the loss function and optimizer
   loss_function=nn.CrossEntropyLoss()
   optimizer=torch.optim.Adam(mlp.parameters(), lr=1e-4)
   
   # Run the training loop
   forepochinrange(0, 5): # 5 epochs at maximum
     
     # Print epoch
     print(f'Starting epoch {epoch+1}')
     
     # Iterate over the DataLoader for training data
     fori, datainenumerate(trainloader, 0):
       
       # Get inputs
       inputs, targets=data
       
       # Zero the gradients
       optimizer.zero_grad()
       
       # Perform forward pass
       outputs=mlp(inputs)
       
       # Compute loss
       loss=loss_function(outputs, targets)
       
       # Specify L1 and L2 weights
       l1_weight=0.3
       l2_weight=0.7
       
       # Compute L1 and L2 loss component
       parameters= []
       forparameterinmlp.parameters():
           parameters.append(parameter.view(-1))
       l1=l1_weight*mlp.compute_l1_loss(torch.cat(parameters))
       l2=l2_weight*mlp.compute_l2_loss(torch.cat(parameters))
       
       # Add L1 and L2 loss components
       loss+=l1
       loss+=l2
       
       # Perform backward pass
       loss.backward()
       
       # Perform optimization
       optimizer.step()
       
       # Print statistics
       minibatch_loss=loss.item()
       ifi%500==499:
           print('Loss after mini-batch %5d: %.5f (of which %.5f L1 loss; %0.5f L2 loss)'%
                 (i+1, minibatch_loss, l1, l2))
           current_loss=0.0
 
   # Process is complete.
   print('Training process has finished.')

也非常的简单,并且我们可以设置两个权重,就是L1和L2的占比,使用不同的加权,可以获得更好的结果。

总结

这篇文章是要是为了介绍L1, L2和Elastic Net (L1+L2)正则化在理论上是如何工作的。并且我们也在PyTorch中使用了L1, L2和Elastic Net (L1+L2)正则化。这三种正则化方法在不同的情况和数据集上有不同的效果,选择哪种正则化方法取决于具体的应用场景和数据特性。

https://avoid.overfit.cn/post/c99ec105e41c4a71a0a1a29735245944

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/609409.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

JavaScript异步编程——07-Promise实例的方法【万字长文,感谢支持】

Promise 实例的方法简介 Promise 的 API 分为两种: Promise 实例的方法(也称为:Promis的实例方法) Promise 类的方法(也称为:Promise的静态方法) Promise 实例的方法:我们需要实…

Go 单元测试完全指南(一)- 基本测试流程

为什么写单元测试? 关于测试,有一张很经典的图,如下: 说明: 测试类型成本速度频率E2E 测试高慢低集成测试中中中单元测试低快高 也就是说,单元测试是最快、最便宜的测试方式。这不难理解,单元…

游戏工作室如何利用惯性动作捕捉技术制作动画?

随着动捕设备不断进步和游戏行业的发展,惯性动作捕捉技术在游戏开发领域逐渐普及。惯性动作捕捉技术,可以精准捕捉现实世界中的真人动作,并将其精准应用于虚拟角色上,使游戏中的角色动作可以呈现出更写实、逼真和沉浸感&#xff0…

【机器学习300问】80、指数加权平均数是什么?

严格讲指数加权平均数并不是机器学习中的专有知识,但他是诸多梯度下降优化算法的基础,所有我打算专门写一篇文章来介绍这种计算平均数的方法。还是老规矩,首先给大家来两个例子感受一下什么是指数加权平均数。 一、两个例子感性理解什么是指…

【Spring源码分析】ResolvableType

【Spring源码分析】ResolvableType 参考 目录 文章目录 【Spring源码分析】ResolvableType一、ParameterizedType 参数化类型&#xff0c;即泛型&#xff1b;例如&#xff1a;List< T>、Map< K,V>等带有参数化的对象;二、GenericArrayType—— 泛型数组 泛型数组…

竖排文字识别原理与实践操作方法

在当今数字化时代&#xff0c;OCR&#xff08;Optical Character Recognition&#xff0c;光学字符识别&#xff09;技术已经广泛应用于各个领域&#xff0c;特别是在文档处理方面&#xff0c;OCR软件能够帮助用户快速将纸质文档转化为可编辑的电子文档。然而&#xff0c;对于竖…

day-31 给植物浇水 II

思路 用两个变量start和end记录浇水位置&#xff0c;当前剩余水量大于需要浇水量时&#xff0c;进行浇水并前进一步&#xff0c;否则需要返回加水&#xff08;即重新灌满水罐的次数1&#xff09; 解题方法 用while&#xff08;start<end&#xff09;进行上述循环&#xff0…

【Spark】Spark编程体验,RDD转换算子、执行算子操作(六)

Spark编程体验 项目依赖管理 <dependencies><dependency><groupId>org.scala-lang</groupId><artifactId>scala-library</artifactId><version>2.12.10</version></dependency><dependency><groupId>org.ap…

数据库干货:推荐一款非常好用的 SQL Server管理工具

目录 2.1 SQL 编码辅助 2.2 表设计器 2.3 数据库设计器 2.4 模式比较 2.5 文档生成工具 2.6 数据导出和数据导入 2.7 源代码控制 2.8 监控工具 2.9 索引管理器 2.10 T-SQL 调试器 2.11 单元测试 一、软件简介 dbForge Studio 2019-2022 for SQL Server是针对SQL Serv…

Codeforces Round 943 (Div. 3)----B题题解

本题是很显然的双指针算法&#xff0c;一直移动&#xff0c;直达不匹配为止 #include <iostream> #include <vector> #include <string> #include <algorithm> using namespace std;const int N 200010; int t,n,m; char a[N],b[N];int main(void) {…

【国产SSL】哪家SSL证书可以保证数据不出境,是在国内验签

随着网络安全的重视&#xff0c;网站安装SSL证书已经是标配了。但是为什么目前常见的SSL证书都是国外的&#xff1f;数据受国外掌控&#xff0c;安全吗&#xff1f;那么哪家国产品牌是可以保证数据不出境的呢&#xff1f; 为什么目前常见的SSL证书都是国外的&#xff1f; 原因…

AI图书推荐:给自媒体创作者的ChatGPT使用指南

你是否厌倦了花费数小时盯着空白屏幕&#xff0c;努力为你的内容想出新鲜点子&#xff1f;想要将你的写作提升到下一个水平&#xff1f;有了ChatGPT&#xff0c;你可以告别写作障碍、无休止的修订和浪费的时间。 在这本全面的指南中&#xff0c;你将学到关于ChatGPT你需要知道…

BigInteger和BigDecimal类

BigInteger 和 BigDecimal 介绍 应用场景 BigInteger适合保存比较大的整型BigDecimal适合保存精度更高的浮点型&#xff08;小数&#xff09; BigInteger 和 BigDecimal 常见方法 1&#xff0c;add 加2&#xff0c;subtract 减3&#xff0c;multiply 乘4&#xff0c;divide…

2024年人工智能威胁态势报告:有关AI系统及AI应用的安全风险与安全防护全景

HiddenLayer公司最新发布的《2024年AI威胁场景报告》中&#xff0c;研究人员阐明了AI相关漏洞及其对组织的影响&#xff0c;并为应对这些挑战的IT安全和数据科学领导者提供了指导建议。最后&#xff0c;报告还揭示了各种形式的AI安全控制的前沿进展。 关键数据 平均而言&#x…

1. 介绍 Matplotlib

目录 1. Matplotlib 介绍 2. Matplotlib 安装介绍 3. Matplotlib 使用介绍 本专栏想分享一下最近学到的深度学习知识&#xff0c;前期需要一些 Python 知识和数据分析知识&#xff0c;如果有同学没有了解&#xff0c;请先看下面两个专栏&#xff0c;谢谢&#xff01; Pytho…

Ubuntu 网卡启动及配置

文章目录 问题分析查看网卡信息启动网卡 配置网卡应用更改 参考 问题分析 打开虚拟机后发现没有网卡网络。 查看网卡信息 sudo ip link set ens33 up得到本机的所有网卡信息&#xff0c;例如我这边网卡为ens33 启动网卡 启动网卡后发现依然网卡没有IP地址。 配置网卡 u…

【异常检测】新版异常检测库anomalib的使用

every blog every motto: There’s only one corner of the universe you can be sure of improving, and that’s your own self. https://blog.csdn.net/weixin_39190382?spm1010.2135.3001.5343 0. 前言 异常检测库anomalib的使用 1. 前提 1.1 数据组织形式 说明&#…

畅享清凉乐趣,气膜水上乐园的五大优点—轻空间

夏日的到来&#xff0c;让我们一同探索气膜水上乐园所带来的独特魅力。这里有着不同于传统水上乐园的五大优点&#xff0c;让您尽情享受清凉乐趣&#xff0c;感受畅游的无限畅快&#xff01; 1. 全年无休&#xff0c;尽享水上乐趣 气膜水上乐园的特殊建造材料和创新设计&#x…

qml 调用 C++函数

1、新建一个类 1)继承自QObject类&#xff08;记得添加QObject头文件&#xff09; 2)增加Q_OBJECT宏 3&#xff09;在需要调用的类成员函数前添加Q_INVOKEABLE声明 注意1&#xff1a;如果没有2&#xff09;和3&#xff09;&#xff0c;运行后提示函数类型错误 注意2&#…