Bayes theorem

[[Bayesian]]概率:概率很难求,求反概率就很容易。

P(θX)=P(Xθ)P(θ)P(X)P(\theta|X) = \frac{P(X|\theta)P(\theta)}{P(X)}

  • posterior=likehoodpriorevidenceposterior = \frac{likehood * prior}{evidence}

  • posterior 后验概率 P(θX)P(\theta|X) :<-> 通过样本 X 得到 theta 的概率

  • likehood 似然函数 P(Xθ)P(X|\theta) :<-> 通过参数 theta 得到样本 X 的概率

  • prior [[先验概率]] P(θ)P(\theta) :<-> 在试验尚未发生前,对参数 θ\theta 的估计

    • 客观先验概率 :<-> 利用过去历史资料计算出来得到的先验概率
    • 主观先验概率 :<-> 凭主观经验来判断而得到的先验概率
  • evidence :<-> 样本 x 发生的概率
    [[极大似然估计]]

  • 核心思想:当前发生的事件是概率最大的事件,给定数据集,使得该数据集发生的概率最大求模型中的参数。

    • 最大化似然函数 p(Xθ)=x1xnp(xiθ)p(X \mid \theta)=\prod_{x_1}^{x_n} p(x_i \mid \theta)

    • 对似然函数取对数变成对数似然函数方便计算

  • 计算似然估计只关注当前的样本(当前已经发生的事情,不考虑事情的先验情况)

[[最大后验估计]]

贝叶斯估计

See

Ref

作者

Ryen Xiang

发布于

2024-10-05

更新于

2025-02-10

许可协议


网络回响

评论