标签:blog title 类别 ima water 大量 基础 参数 性能
目录
@(Python机器学习及实践-----从零开始通往Kaggle竞赛之路)
机器学习模型按照使用的数据类型,可分为监督学习和无监督学习两大类。
线性:假设特征与分类结果存在线性关系,使用sigmoid函数映射到0~1,适合处理具有线性关系的数据。
在科学研究与工程实践中可把线性分类器的表现作为基准。lr使用精确解析,SGD使用随机梯度上升估计模型参数,耗时短,准确率略低
支持向量机:精妙的模型假设,线性假设,只用考虑两个空间间隔最小的两个不同类别的数据点。可以在高维数据中选择最为有效的少数训练样本。这样不仅节省了模型学习所需要的内存,而且也提高了模型的预测性能,但付出了计算资源和时间的代价。
朴素贝叶斯 (naive bayes )基于贝叶斯理论。前提:各个维度上的特征被分类的条件概率之间互相独立。
k近邻:不需要参数训练,其属于无参数模型。非常高的计算复杂度(平方级)和内存消耗。
决策树:推断逻辑直观,有清晰的可解释性,也方便模型的可视化,易描述非线性关系。模型在学习的时候,需要考虑特征节点的选取顺序。
常用的度量方式包括信息熵和基尼不纯性。并不懂。。
集成模型: 有代表性的随机森林,同时搭建多个决策树模型,开始投票。
决策树可以随机选取特征构建节点(随机森林),或者按次序搭建分类模型(梯度提升决策树GTB)
特点:训练耗费时间,但是往往有更好的表现性能和稳定性。
我看分类这边都在用线性的度量指标。
只是评估指标变了,在回归中有R^2^,MS(平方)E 均方误差,MA(绝对)E平方绝对误差。
R^2^用来衡量模型回归结果的波动可被真实值验证的百分比,也暗示了模型在数值回归方面的能力。
主流的k-means采用的迭代算法,直观易懂并非常实用。
需要预先设定簇的数量
可使用“肘部”观察法粗略地预估相对合理的类簇个数。
主成分分析(PCA principal component analysis)
相较于损失的少部分模型性能。维度压缩能够节省大量模型训练时间。
明天开始进阶篇
隐隐约约感觉不太对,这个没啥 基础啊 全是调用
标签:blog title 类别 ima water 大量 基础 参数 性能
原文地址:https://www.cnblogs.com/love-study-chase/p/12287401.html