Cyan's Blog

Search

Search IconIcon to open search

Bayesian Decision Theory - Part1

Last updated Dec 21, 2021 Edit Source

# 贝叶斯决策论 - Part1

2021-12-21

Tags: #MachineLearning #Bayes

# Intro

# A Sad Case

# More Information

# 已知的信息不重要

# 加入风险

# 例子: 二分类问题

二分类问题两个决策的代价可以表示如下: $$\begin{aligned} &R\left(\alpha_{1} \mid \mathbf{x}\right)=\lambda_{11} P\left(\omega_{1} \mid \mathbf{x}\right)+\lambda_{12} P\left(\omega_{2} \mid \mathbf{x}\right) \\ &R\left(\alpha_{2} \mid \mathbf{x}\right)=\lambda_{21} P\left(\omega_{1} \mid \mathbf{x}\right)+\lambda_{22} P\left(\omega_{2} \mid \mathbf{x}\right) \end{aligned}$$

# 误差率

# 例子: 最小误差率分类

# 先验概率未知: Minimax Criterion

下面我们证明likelihood不变的情况下, 模型的表现随先验概率呈线性变化.

# 对风险有约束: Neyman-Pearson准则

有时候我们需要在某个约束条件下最小化总风险, 比如我们做某个决策的资源是一定的, 就有约束:$$\int R\left(\alpha_{i} \mid \mathbf{x}\right) d \mathbf{x}<\text { constant for some particular } i .$$ 在这个情况下的贝叶斯决策需要满足Neyman-Pearson准则, 我们通常用多次调节决策边界的方法来达到目的.