标签:htm tag sum canonical 生成 adb logs 汇总 选择
最近在开始找工作,顺便复习一下之前学习的机器学习知识点,从而对机器学习和深度方面有一个比较系统的了解,还有机器学习和深度学习优化过程中出现的技术。
推荐的博客:https://www.cnblogs.com/jerrylead/tag/Machine%20Learning/
该博客列表如下:
偏最小二乘法回归(Partial Least Squares Regression)
典型关联分析(Canonical Correlation Analysis
增强学习(Reinforcement Learning and Control
因子分析(Factor Analysis)
线性判别分析(Linear Discriminant Analysis)(一)
线性判别分析(Linear Discriminant Analysis)(二)
ICA扩展描述
独立成分分析(Independent Component Analysis)
主成分分析(Principal components analysis)-最小平方误差解释?
主成分分析(Principal components analysis)-最大方差解释
主成分分析(Principal components analysis)-最大方差解释
在线学习(Online Learning)
(EM算法)The EM Algorithm
混合高斯模型(Mixtures of Gaussians)和EM算法
K-means聚类算法
规则化和模型选择(Regularization and model selection)
支持向量机SVM(一)
支持向量机SVM(二)
支持向量机(三)核函数
支持向量机(四)
支持向量机(五)SMO算法
判别模型、生成模型与朴素贝叶斯方法
对线性回归,logistic回归和一般回归的认识
机器学习知识点补充:
参见链接:https://github.com/HuiZhou-xmu/Machine-Learning-Deep-Learning-Summary
朴素贝叶斯方法
决策树
随机森林
bagging和boost算法
adboost算法
激活函数
过拟合
贝叶斯定理以及贝叶斯网络
参考博客:https://blog.csdn.net/v_JULY_v/article/details/40984699
机器学习优化方法
参考博客:https://zhuanlan.zhihu.com/p/22252270
可以参考:半监督学习方法
参考邱锡鹏教授第九章书籍:神经网络与深度学习第九章
参考邱锡鹏教授第十四章书籍:神经网络与深度学习第十四章
参考机器之心博客:迁移学习
当然迁移各家都有自己的看法,这一部分没有固定的知识点,很灵活,最终的目的都是要最大可能的优化和提升模型的计算速度和准确度
参考邱锡鹏教授第十一章书籍:神经网络与深度学习第十一章
本博客主要是对现在网络上的机器学习和深度学习以及相关的优化方法进行系统性的汇总,从而让自己的知识形成体系,原则上自己只书写少量知识点,主要内容来自其他网络作者,相当于文献中的综述吧,也希望能够给别人带来方便。
标签:htm tag sum canonical 生成 adb logs 汇总 选择
原文地址:https://www.cnblogs.com/univeryinli/p/13189608.html