当前位置:首页 > 编程笔记 > 正文
已解决

深度学习_8_对Softmax回归的理解

来自网友在路上 153853提问 提问时间:2023-11-05 09:14:48阅读次数: 53

最佳答案 问答题库538位专家为你答疑解惑

回归问题,例如之前做房子价格预测的线性回归问题

而softmax回归是一个分类问题,即给定一个图片,从猫狗两种动物类别中选出最可靠的那种答案,这个是两类分类问题,因为狗和猫是两类

在这里插入图片描述

上述多个输出可以这样理解,假设一个图片让机器辨别这个图片的类别,假设是三类分类问题,分别是猫,狗,鸟,那么机器对图片分析假设会得出这样一个置信度的输出即[0.6, 0.3, 0.1]可以看出猫的置信度比较高为0.6,那么机器会判别这个图片为猫

在这里插入图片描述
继续拿上述猫狗鸟进行举例,那么y(注意这里不是小写y)可以是 [猫, 狗, 鸟]

假设上述让机器检测的图片就是猫,那么y1 = 1,其他都是0

即[1, 0, 0]

在这里插入图片描述
这其中的y就是被检测图片真实类别的标号

在这里插入图片描述

机器能对图片真实类别检测生成的置信度高于其他类别生成的置信度即可,朴素的来讲,只要机器识别这个图片是猫的概率比识别为其他动物的概率高即可
在这里插入图片描述

这里的exp是e的意思,即指数能化负数为正数,且这样算最后所有概率的和为1即上述0.6 + 0.3 + 0.1 =1
在这里插入图片描述

为什么要用这个交叉熵损失呢,好处在哪呢?

例如:

在这里插入图片描述

那么梯度是如何求出来的呢?

在这里插入图片描述
求法如下:

由于:

在这里插入图片描述
所以:

在这里插入图片描述
求偏导oj如下:

注:exp是以e为底的意思,log在计算机中一般都是以e为底

在这里插入图片描述

一些理解:

对于不同的损失函数其梯度也会有所差异:

对于均方误差其梯度与预测值真实值的区别为:

梯度的方向总是指向减小损失的方向,即使是小步骤的调整也可以减小误差。

所以,均方误差的梯度告诉我们如何调整模型的预测值,以使损失函数减小,即更接近真实值。

对于交叉熵损失函数:

梯度是真实概率和预测概率之间的区别

查看全文

99%的人还看了

猜你感兴趣

版权申明

本文"深度学习_8_对Softmax回归的理解":http://eshow365.cn/6-32590-0.html 内容来自互联网,请自行判断内容的正确性。如有侵权请联系我们,立即删除!