Part.15_Advanced_Optimization(ML_Andrew.Ng.)
# Advanced Optimization
2021-08-19
Tags: #Octave #MachineLearning #GradientDescent #LinearRegression #LogisticRegression
- More sophisticated, faster way to optimize parameters:
- Conjugate gradient
- BFGS
- L-BFGS
Link:其他Gradient_Descent Different_Gradient_Descent_Methods
在 Octave里面, 只需要写出怎么计算$J(\theta)$, $\frac{\Large\partial}{\Large\partial \Large\theta_{j}} J(\theta)$即可调用内置的库函数快速计算参数值.
|
|
|
|
- MATLAB里面是
optimoptions
函数 - 在第二次作业(Logistic Regression)里面有对这个方法更具体的介绍.