当前位置:首页 > 编程笔记 > 正文
已解决

吃瓜教程2|线性模型

来自网友在路上 164864提问 提问时间:2023-10-25 00:39:48阅读次数: 64

最佳答案 问答题库648位专家为你答疑解惑

线性回归

“广义的线性模型”(generalized linear model),其中,g(*)称为联系函数(link function)。

线性几率回归(逻辑回归)

线性判别分析

想让同类样本点的投影点尽可能接近,不同类样本点投影之间尽可能远,即:让各类的协方差之和尽可能小,不用类之间中心的距离尽可能大。基于这样的考虑,LDA定义了两个散度矩阵。

  • 类内散度矩阵(within-class scatter matrix)

Image Name

  • 类间散度矩阵(between-class scaltter matrix)

Image Name

因此得到了LDA的最大化目标:“广义瑞利商”(generalized Rayleigh quotient)。

Image Name

从而分类问题转化为最优化求解w的问题,当求解出w后,对新的样本进行分类时,只需将该样本点投影到这条直线上,根据与各个类别的中心值进行比较,从而判定出新样本与哪个类别距离最近。求解w的方法如下所示,使用的方法为λ乘子。

Image Name


若将w看做一个投影矩阵,类似PCA的思想,则LDA可将样本投影到N-1维空间(N为类簇数),投影的过程使用了类别信息(标记信息),因此LDA也常被视为一种经典的监督降维技术。

 类别不平衡问题

类别不平衡(class-imbanlance)就是指分类问题中不同类别的训练样本相差悬殊的情况,例如正例有900个,而反例只有100个,这个时候我们就需要进行相应的处理来平衡这个问题。常见的做法有三种:

  1. 在训练样本较多的类别中进行“欠采样”(undersampling),比如从正例中采出100个,常见的算法有:EasyEnsemble。
  2. 在训练样本较少的类别中进行“过采样”(oversampling),例如通过对反例中的数据进行插值,来产生额外的反例,常见的算法有SMOTE。
  3. 直接基于原数据集进行学习,对预测值进行“再缩放”处理。其中再缩放也是代价敏感学习的基础。
查看全文

99%的人还看了

猜你感兴趣

版权申明

本文"吃瓜教程2|线性模型":http://eshow365.cn/6-23737-0.html 内容来自互联网,请自行判断内容的正确性。如有侵权请联系我们,立即删除!