机器学习算法与自然语言处理出品@公众号原创专栏作者huybery学校|东北大学关于自监督学习,知乎上已经有了一些资源,比如师兄@bingo的两篇介绍[2][3]、@NaiyanWang大佬之前做的survey[4]、还有最新的@Sherlock[5]。本来我的这篇分享是准备叫「Self-SupervisedLearning入门介绍」,可惜在写作的过程中@Sherlock老哥抢先一步,所以只能叫「再
分类:
其他好文 时间:
2020-11-26 14:38:02
阅读次数:
6
Kaggle入门: https://zhuanlan.zhihu.com/p/80182734 精读论文: 精读深度学习论文(23) MTCNN https://zhuanlan.zhihu.com/p/38520597 人脸识别入门: https://www.zhihu.com/question/ ...
分类:
其他好文 时间:
2020-04-13 11:57:08
阅读次数:
71
《机器学习入门》本书通过通俗易懂的语言,丰富的图示和经典的案例,让广大机器学习爱好者轻松入门机器学习MachineLearning,有效地降低了学习的门槛。本书共分11章节,覆盖的主要内容有机器学习概述、数据预处理、K近邻算法、回归算法、决策树、K-means聚类算法、随机森林、贝叶斯算法、支持向量机、神经网络(卷积神经网络、Keras深度学习框架)、人脸识别入门等。从最简单的常识出发来切入AI领
分类:
编程语言 时间:
2020-03-15 10:04:46
阅读次数:
77
MNIST数据集获取 MNIST数据集是入门机器学习/模式识别的最经典数据集之一。最早于1998年Yan Lecun在论文: Gradient-based learning applied to document recognition. 中提出。经典的LeNet-5 CNN网络也是在该论文中提出的 ...
分类:
编程语言 时间:
2020-02-05 09:46:53
阅读次数:
305
机器学习的算法分为两大类:监督学习和无监督学习。 监督学习即在机器学习的过程中提供对错指示。一般是在数据组中包含最终结果(0,1),通过算法让机器减少误差。这一类学习主要应用于分类与预测(Regression & Classify)。监督学习从给定的训练数据集中学习出一个目标函数,当新的数据到来时, ...
分类:
系统相关 时间:
2020-02-01 12:42:08
阅读次数:
85
机器学习中的HelloWorld项目 这个项目是针对鸢尾花(Iris Flowers)进行分类的一个项目,数据集是含鸢尾花的三个亚属得分类信息,通过机器学习算法生成一个模型,自动分类新数据到这三个亚属的某一个中。项目中使用的鸢尾花数据集是一个非常容易理解的数据集,这个数据集具有以下特点: 所有的特征 ...
分类:
系统相关 时间:
2020-02-01 12:24:18
阅读次数:
86
阅读 0 编辑文章 大家好,欢迎来到久违的机器学习系列,这是「美团」算法工程师带你入门机器学习 专栏的第一篇文章,不会太长,一半聊想法,一半聊干货。熟悉我的朋友可能知道,我以前的文章比较随意,涉及的内容极广,包括但不限于Python/Java/C/C++,网络编程,Hadoop等,但主要核心还是机器 ...
分类:
其他好文 时间:
2019-12-30 14:22:47
阅读次数:
96
机器学习 正则化+回归与分类辨析 这篇文章是对 "自己早期一篇讲正则化和回归的" 补充。当时写作那篇文章的时候自己还刚刚入门机器学习,许多知识是理解了,但是缺少从一定的高度上的总结。结合这篇来看原来的那篇,不容易乱。 首先要明确,正则化不是回归的专利,回归和分类都是可以使用的。在回归中使用正则化就是 ...
分类:
其他好文 时间:
2019-12-26 22:51:58
阅读次数:
161
Python3入门机器学习经典算法与应用学习 资源 datasets可以用来加载真实数据进行模型训练的测试 model_selection模块提供了模型选择的相关操作 preprocessing模块提供了数据预处理的相关操作 neighbors模块提供了近邻相关的算法实现 metrics模块提供了数 ...
分类:
编程语言 时间:
2019-10-14 23:43:24
阅读次数:
213
邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样 ...
分类:
编程语言 时间:
2019-09-25 12:29:33
阅读次数:
97