机器学习技术栈—— 概率学基础
最佳答案 问答题库898位专家为你答疑解惑
机器学习技术栈—— 概率学基础
- 先验概率、后验概率、似然概率
- 总体标准差和样本标准差
先验概率、后验概率、似然概率
首先
p ( w ∣ X ) = p ( X ∣ w ) ∗ p ( w ) p ( X ) p(w|X) =\frac{ p(X|w)*p(w)}{p(X)} p(w∣X)=p(X)p(X∣w)∗p(w)
也就有
p ( w ∣ X ) ∝ p ( X ∣ w ) ∗ p ( w ) p(w|X) \propto p(X|w)*p(w) p(w∣X)∝p(X∣w)∗p(w)
p ( w ) p(w) p(w)是先验(prior)概率,即先入为主,基于历史规律或经验,对事件 w w w做出概率为 p ( w ) p(w) p(w)的判断,而非基于客观事实。
p ( w ∣ X ) p(w|X) p(w∣X)是后验(posterior)概率,即马后炮,基于事实的校验,对事件 w w w做出一定条件下的概率判断。
p ( X ∣ w ) p(X|w) p(X∣w)是似然(likelihood)概率,似然,即似乎会这样,也就是事件 w w w发生时,发生 X X X的概率似乎是 p ( X ∣ w ) p(X|w) p(X∣w)这么大,是一个根据数据统计得到的概率,这一点性质和先验是一样的。
如何科学的马后炮得到后验概率呢?就要先依托历史规律,然后摆数据,历史规律+实事求是的数据就是科学的马后炮。后验概率,是在有数据后,对先验概率进行纠偏的概率。
总体标准差和样本标准差
样本标准差(sample standard deviation): S = ∑ ( X i − X ˉ ) 2 n − 1 S =\sqrt{ \frac{\sum(X_i - \bar X)^2}{n-1}} S=n−1∑(Xi−Xˉ)2
总体标准差(population standard deviation): σ = ∑ ( X i − X ˉ ) 2 n \sigma =\sqrt{ \frac{\sum(X_i - \bar X)^2}{n}} σ=n∑(Xi−Xˉ)2,population也有全体的意思
99%的人还看了
相似问题
- 人工智能基础_机器学习044_使用逻辑回归模型计算逻辑回归概率_以及_逻辑回归代码实现与手动计算概率对比---人工智能工作笔记0084
- 基于人工大猩猩部队算法优化概率神经网络PNN的分类预测 - 附代码
- 人工智能基础_机器学习046_OVR模型多分类器的使用_逻辑回归OVR建模与概率预测---人工智能工作笔记0086
- 基于混沌博弈算法优化概率神经网络PNN的分类预测 - 附代码
- 机器学习技术栈—— 概率学基础
- 大数据HCIE成神之路之数学(3)——概率论
- 人工智能基础_机器学习044_逻辑回归代码实现与手动计算概率---人工智能工作笔记0084
- 基于供需算法优化概率神经网络PNN的分类预测 - 附代码
- 基于适应度相关算法优化概率神经网络PNN的分类预测 - 附代码
- n-gram语言模型——句子概率分布计算与平滑
猜你感兴趣
版权申明
本文"机器学习技术栈—— 概率学基础":http://eshow365.cn/6-41142-0.html 内容来自互联网,请自行判断内容的正确性。如有侵权请联系我们,立即删除!