Part.19_Regularized_Linear_Regression(ML_Andrew.Ng.)
# Regularization & Linear Regression
Tags: #MachineLearning #Regularization #GradientDescent #LinearRegression #NormalEquation
# Regularization & Gradient Descent
添加了正则项之后有两点需要注意:
- 需要单独处理 (不需要正则约束, 损失函数不一样)
- 因为需要正则化, 损失函数发生了变化, 梯度需要重新计算
- 正则项不影响线性回归损失函数的凸性
正则项不影响线性回归损失函数的凸性
正则项不影响线性回归损失函数的凸性 2021-09-10 Tags: #MachineLearning #Regularization #GradientDescent #LinearRegression #ConvexOptimization Question: 加上正则项以后函数还是凸的吗? 梯度下降还适用吗? 还是适用的, 证明如下 首先, 如何证明一个函数为凸函数? 如果是二阶可微的,那么如果的定义域是凸集,并且,那么 就是一个凸函数. 严格凸函数则要求二阶导数恒大于零 意指函数的定义域(Domian) 我们首先证明没有正则项的是凸的 $$\begin{aligned} \frac{\partial}{\partial \theta_{j}} J(\theta) &=\frac{1}{2...
同时考虑上面两点, 梯度下降更新公式变为了:
\begin{aligned} Re&peat\space {\\ &\theta_{0}:=\theta_{0}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right) x_{0}^{(i)} \\ &\theta_{j}:=\theta_{j}-\alpha\left[ \frac{1}{m} \sum_{i=1}^{m} \left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right) x_{j}^{(i)}+\frac{\lambda}{m} \theta_{j}\right] \quad\quad j \in{1,2 \ldots n} \\ } \end{aligned} 要是把方括号打开, 第二行的更新公式可以变为: 因为一定小于1, 所以这个更新公式每次都会缩小一点点, 而公式的后半部分和没有正则化的公式是完全一样的.
# Regularization & Normal Equation
^72311a
的第一个0可以理解为不用正则化