深度学习(23):SmoothL1Loss损失函数
时间:2024-04-08 12:30:41 来源:网络cs 作者:付梓 栏目:监控软件 阅读:
0. 基本介绍
SmoothL1Loss是一种常用的损失函数,通常用于回归任务中,其相对于均方差(MSE)损失函数的优势在于对异常值(如过大或过小的离群点)的惩罚更小,从而使模型更加健壮。
SmoothL1Loss的公式为:
l o s s ( x , y ) = { 0.5 ( x − y ) 2 if ∣ x − y ∣ < 1 ∣ x − y ∣ − 0.5 otherwise loss(x,y) = \begin{cases} 0.5(x-y)^2 & \text{if } |x-y| < 1 \\ |x-y| - 0.5 & \text{otherwise} \end{cases} loss(x,y)={0.5(x−y)2∣x−y∣−0.5if ∣x−y∣<1otherwise
其中,x和y分别为模型的输出和标签,|x-y|表示它们之间的差异。当|x-y|小于1时,采用平方误差;否则采用线性误差。这使得SmoothL1Loss相比于MSE更加鲁棒,即对于异常值的响应更加平缓。
在PyTorch中,可以使用nn.SmoothL1Loss()函数来构建SmoothL1Loss损失函数。
1. 绘制SmoothL1Loss
函数
通过修改torch.linspace
中的参数,可以改变图像的横坐标范围;通过修改torch.zeros
中的参数,可以改变图像的高度和形状。
import torch.nn as nnimport matplotlib.pyplot as pltimport torch# 定义函数和参数smooth_l1_loss = nn.SmoothL1Loss(reduction='none')x = torch.linspace(-1, 1, 10000)y = smooth_l1_loss(torch.zeros(10000), x)# x2 = 1e3*x# y2 = 1e-3*smooth_l1_loss(torch.zeros(10000), x2)# 绘制图像plt.plot(x, y)# plt.plot(x, y2)plt.xlabel('x')plt.ylabel('SmoothL1Loss')plt.title('SmoothL1Loss Function')plt.show()
2. 移动SmoothL1Loss公式的临界点
移动临界点是为了在不尽兴其他操作的情况下,放大模型的损失
移动到0.1
import torch.nn as nnimport matplotlib.pyplot as pltimport torch# 定义函数和参数smooth_l1_loss = nn.SmoothL1Loss(reduction='none')x = torch.linspace(-1, 1, 10000)y = smooth_l1_loss(torch.zeros(10000), x)x2 = 1e1*xy2 = 1e-1*smooth_l1_loss(torch.zeros(10000), x2)# 绘制图像plt.plot(x, y)plt.plot(x, y2)plt.xlabel('x')plt.ylabel('SmoothL1Loss')plt.title('SmoothL1Loss Function')plt.show()
如下,箭头处保持玩弯曲
移动到0.01
如下,箭头处还可以看到弯曲
import torch.nn as nnimport matplotlib.pyplot as pltimport torch# 定义函数和参数smooth_l1_loss = nn.SmoothL1Loss(reduction='none')x = torch.linspace(-1, 1, 10000)y = smooth_l1_loss(torch.zeros(10000), x)x2 = 1e2*xy2 = 1e-2*smooth_l1_loss(torch.zeros(10000), x2)# 绘制图像plt.plot(x, y)plt.plot(x, y2)plt.xlabel('x')plt.ylabel('SmoothL1Loss')plt.title('SmoothL1Loss Function')plt.show()
本文链接:https://www.kjpai.cn/news/2024-04-08/155419.html,文章来源:网络cs,作者:付梓,版权归作者所有,如需转载请注明来源和作者,否则将追究法律责任!
下一篇:返回列表