Tag: MachineLearning
D2L-10-小批量随机梯度下降
D2L-10-小批量随机梯度下降
小批量随机梯度下降(Mini-Batch)是深度学习默认的求解方法 2022-02-02 Tags: #MachineLearning #GradientDescent #DeepLearning #Optimization DifferentGradientDescent_Methods 注意有两个点: 小批量(Mini-Batch), 随机(Stochastic) 梯度下降 其中: 小批量是因为在整个数据集上面训练一次又慢又贵 同时小批量还能从多个相似的数据点中选一个代表来计算, 节约了计算资源 但是样本不能太小, 太小的样本不适合用GPU并行计算 随机是选取小样本的方法: 随机选取 ...
Bayesian_Estimation(Inference)贝叶斯估计
Bayesian_Estimation(Inference)贝叶斯估计
贝叶斯估计 2021-12-27 Tags: #Bayes #MachineLearning 贝叶斯估计 有点难, 还要进一步学习 贝叶斯估计是一种参数估计方法, 不只局限于设计贝叶斯分类器 贝叶斯估计的核心在于用新的样本来更新旧的Prior, 一起得到一个PostPrior的参数的概率分布, 合并的过程利用的是贝叶斯分布. 贝叶斯估计和极大似然估计的最大不同就是贝叶斯估计的是参数可能的概率分布, 而不是一个确定的值. 通过对这个概率分布进行积分, 我们可以平均地得到所有情况下最可能出现的参数. 这两篇文章写的很好: Conjugate Prior Explained. With examples & proofs...
Maximum_Likelihood_Estimation-极大似然估计
Maximum_Likelihood_Estimation-极大似然估计
极大似然估计 MLE 2021-12-25 Tags: #MachineLearning #Math/Statistics Links: Likelihood_Function-似然函数 假设样本 服从已知的概率分布(比如正态分布) 极大似然估计就是要找一个参数 , 使似然函数 取得最大值$$i.e.\quad \hat{\theta}=\operatorname{argmax}_{\theta \in \Theta} \mathcal{L}(\theta...
Cross Validation
Cross Validation
Cross Validation 2021-12-19 Tags: #MachineLearning 交叉验证是一种评价模型好坏的方法. 设置验证集的目的在于减少样本给模型带来的Bias, 即我们想要找到一个普遍适用的模型, 而不是只在训练集上表现很好的模型. 交叉验证是一种增大验证集, 充分利用数据的方法. 交叉验证的方法 Cross-validation (statistics) - Wikipedia#k-fold_cross-validation) Machine Learning Fundamentals: Cross Validation - YouTube 简单的来说, 交叉验证会把训练集随机分成几个部分. 每次选一小部分当作测试集(Validation Set)....
Johnson Lindenstrauss Lemma - Publish Version
Johnson Lindenstrauss Lemma - Publish Version
Johnson Lindenstrauss Lemma 2021-12-03 Tags: #MachineLearning #Math 对于高维数据,我们能够在降维的过程中保留其大部分的几何特征,即使降维的幅度非常大。 这是徐亦达老师让我们学习的第一个主题 Study Materials MIT 6.854 Spring 2016 Lecture 5: Johnson Lindenstrauss Lemma and Extensions PDF(zotero://select/items/@mcnally2021RethinkingKeypoint) MIT 6.854...