当前位置:首页 » 《随便一记》 » 正文

损失函数(lossfunction)的全面介绍(简单易懂版)

11 人参与  2022年11月08日 15:21  分类 : 《随便一记》  评论

点击全文阅读


一:什么是损失函数:

简单的理解就是每一个样本经过模型后会得到一个预测值,然后得到的预测值和真实值的差值就成为损失(当然损失值越小证明模型越是成功),我们知道有许多不同种类的损失函数,这些函数本质上就是计算预测值和真实值的差距的一类型函数,然后经过库(如pytorch,tensorflow等)的封装形成了有具体名字的函数。

二:为什么需要损失函数:

我们上文说到损失函数是计算预测值和真实值的一类函数,而在机器学习中,我们想让预测值无限接近于真实值,所以需要将差值降到最低(在这个过程中就需要引入损失函数)。而在此过程中损失函数的选择是十分关键的,在具体的项目中,有些损失函数计算的差值梯度下降的快,而有些下降的慢,所以选择合适的损失函数也是十分关键的。

三:损失函数通常使用的位置:

在机器学习中,我们知道输入的feature(或称为x)需要通过模型(model)预测出y,此过程称为向前传播(forward pass),而要将预测与真实值的差值减小需要更新模型中的参数,这个过程称为向后传播(backward pass),其中我们损失函数(lossfunction)就基于这两种传播之间,起到一种有点像承上启下的作用,承上指:接収模型的预测值,启下指:计算预测值和真实值的差值,为下面反向传播提供输入数据。

四:常用的损失函数(基于pytorch):

1:L1Loss函数:

(1):数学本质:

ps:1:带小帽子的y(y_hat)表示的是经过模型的预测值,y可以表示真实值。

     2:图中的m指的是一行数据中的m列(下面证明中展现的更加清晰)

(2):证明:

我们首先先引用一下函数先计算一个结果:

import torch as thimport torch.nn as nnloss=nn.L1Loss()input=th.Tensor([2,3,4,5])target=th.Tensor([4,5,6,7])output=loss(input,target)outputtensor(2.)

我们可以用手动计算来验证数学本质正不正确(数学本质中的m在文中具体数值为4):

output=(|2-4|+|3-5|+|4-6|+|5-7|)/4=2

ps:因为我们函数的“reduction”(l1loss函数的参数)选择的是默认的"mean"(平均值),所以还会在除以一个"4",如果我们设置“loss=L1Loss(reduction='sum')则不用再除以4。

2:MSELoss函数:

(1):数学本质:

 

 ps:在此数学公式中的参数含义与L1Loss函数参数意义相同

(2):证明:

我们首先先引用一下函数先计算一个结果:

import torch as thimport torch.nn as nnloss=nn.MSELoss()input=th.Tensor([2,3,4,5])target=th.Tensor([4,5,6,7])output=loss(input,target)outputtensor(4.)

我们可以用手动计算来验证数学本质正不正确:

output=[(2-4)^2+(3-5)^2+(4-6)^2+(5-7)^2  ]/4=4

3:CrossEntropyLoss函数(交叉熵函数)

    因为此函数涉及到的知识内容很多,此文就不介绍此函数,在下文参考链接中我会提供详细描述此函数的文章,以供大家参考。

    在读文章之前,先补充几个知识点,以便读者更好地看懂文章:

(1):CrossEntropyLoss函数主要用于分类项目中运用

  (2)   :one-hot(独热)编码:

one-hot
1100
2010
3001

ps:最左边的一列1,2,3代表样本属于猫,狗,兔中的某一种,最上面一行是分类(图中猫,狗,兔三类属于三分类问题,当然在编码过程中种类是用数字来代替的),如图,1这一行在猫下有1(表示属于猫),在狗和兔下为0(表示1样本不属于狗和兔)以此类推,分类数据这样编写让样本与样本的欧式距离一致(根据离散特征的某个取值对应欧式空间的某一点)

(3)函数的理解:

关于图中公式的理解,此变换是softmax函数变换具体表达方式如下:

假设输入的y_hat=[1,2,3,4]

则经过图中函数变换输出的值=[e^1/(e^1+e^2+e^3+e^4),e^2/(e^1+e^2+e^3+e^4),e^3/(e^1+e^2+e^3+e^4),e^4/(e^1+e^2+e^3+e^4)]

五:参考资料:

(1):CrossEntropyLoss函数的详细介绍:

https://blog.csdn.net/weixin_41940752/article/details/93159710

(2):其他损失函数:

https://blog.csdn.net/weixin_41122036/article/details/103270152

(3):CrossEntropyLoss函数怎么得来的:

https://www.bilibili.com/video/BV15V411W7VB?spm_id_from=333.1007.top_right_bar_window_history.content.click


 


点击全文阅读


本文链接:http://m.zhangshiyu.com/post/47490.html

<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

最新文章

  • (番外)+(全书)爱若有天意,兜转终可回全书+后续+结局(宋清澜萧沉)_爱若有天意,兜转终可回全书+后续+结局列表_笔趣阁(爱若有天意,兜转终可回全书+后续+结局)
  • [繁花盛意难平]小说节选推荐_陆依霜轩辕翊陆青仪节选推荐
  • [纵她追悔,爱已成荒芜]小说精彩节选推荐_「苏萌林澈白月光」小说精彩节选试读
  • [老婆让我别拦着她嫁豪门]小说节选免费试读_[屈英哲韩海雪温文尔雅]精彩章节分享
  • 青梅诱人竹马男主轻点宠(许嘉易顾思瑜)全书浏览_青梅诱人竹马男主轻点宠全书浏览
  • 阮雾梨闻砚辞人面桃花长相忆结局+番外(阮雾梨闻砚辞)_人面桃花长相忆结局+番外阮雾梨闻砚辞列表_笔趣阁(阮雾梨闻砚辞)
  • 人面桃花长相忆闻砚辞结局+番外+续集(阮雾梨闻砚辞)结局_(阮雾梨闻砚辞人面桃花长相忆闻砚辞结局+番外+续集全书结局)结局(阮雾梨闻砚辞)
  • 日暮青山绿渐隐老书虫(许星森纪冰雪)全书浏览_日暮青山绿渐隐老书虫全书浏览
  • 被网暴包女大后,施暴者倾家荡产全文在线阅读_[鹿晓南妹妹张脸]小说节选推荐
  • 日暮青山绿渐隐+全书+番外(许星森纪冰雪)列表_日暮青山绿渐隐+全书+番外(许星森纪冰雪)结局篇+番外在线
  • 梧桐叶落尽,再回来爱你番外+(霍云琛林思雨)列表_梧桐叶落尽,再回来爱你番外+(霍云琛林思雨)梧桐叶落尽,再回来爱你番外+在线
  • 爱恨缠绵,花心愁欲断,顾墨琛虞梵音_爱恨缠绵,花心愁欲断,顾墨琛虞梵音

    关于我们 | 我要投稿 | 免责申明

    Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1