【机器学习】算法原理详细推导与实现(六):k means算法 之前几个章节都是介绍有监督学习,这个章节介绍无监督学习,这是一个被称为 的聚类算法,也叫做 k均值聚类算法 。 聚类算法 在讲监督学习的时候,通常会画这样一张图: 这时候需要用 回归或者 将这些数据分成正负两类,这个过程称之为 监督学习 ...
分类:
编程语言 时间:
2020-02-23 11:14:20
阅读次数:
85
本篇内容包括,tf.norm(张量的范数)、tf.reduce_min/max(最大最小值)、tf.argmax/argmin(最大最小值的位置)、tf.equal(张量的比较)、tf.unique(张量的独特值) 1.tf.norm · 二范数 ||x||2 = (Σxk2)1/2 · 一范数 | ...
分类:
其他好文 时间:
2020-01-23 00:14:09
阅读次数:
122
numpy.sort()函数 该函数提供了多种排序功能,支持归并排序,堆排序,快速排序等多种排序算法 使用numpy.sort()方法的格式为: + a:要排序的数组 + axis:沿着排序的轴,axis=0按照列排序,axis=1按照行排序。 + kind:排序所用的算法,默认使用快速排序。常用的 ...
分类:
编程语言 时间:
2020-01-21 13:16:03
阅读次数:
77
拖了好久,选择的第一篇英语论文是2016年的,而这里面所涉及到的知识点大部分与之前的博客内容重合,这篇文章还是对之前的探讨的论文的一个补充,一节一节看下来,需要更得东西好像也不怎么多,就不发短的博客,而是总结节数,探讨一些节里面可能存在的问题。 英文论文的头疼之处在于翻译的地方,有一些逻辑不通的地方 ...
分类:
其他好文 时间:
2020-01-18 12:20:30
阅读次数:
80
根据已知特征值X和标签结果Y,我们利用线性回归模型(为了简化,作者以一元线性回归为例说明)可以得出 yi^=wxi+b。 损失函数:loss=Σ(yi-yi^)2 ,为了得到更加准确的拟合模型,我们的目标就转化为使损失函数loss最小,即: argmin loss=argmin Σ(yi-yi^)2 ...
分类:
其他好文 时间:
2020-01-11 14:57:31
阅读次数:
154
1 # 在numpy 里面有统计分析, 对数值型数据进行统计指标 2 # np.max np.min np.mean np.std‘ 3 4 import pandas as pd 5 import numpy as np 6 7 # 1、加载数据 8 detail = pd.read_excel( ...
分类:
其他好文 时间:
2019-12-29 20:30:58
阅读次数:
70
1 import numpy as np 2 3 # 创建一个数组 4 arr = np.array([[1, 2],[3, 4]]) 5 print("arr: \n", arr) 6 7 # 对数组进行统计分析 8 # sum mean std var min max argmin argmax ...
分类:
编程语言 时间:
2019-12-29 18:50:55
阅读次数:
90
索引 argmin 最小值索引,argmax 最大值索引 4.736102442527367 258131 4.736102442527367 4.788201736638607 24635 4.788201736638607 排序和索引 array([ 0, 1, 2, 3, 4, 5, 6, 7 ...
分类:
其他好文 时间:
2019-12-12 22:26:39
阅读次数:
148
转自https://morvanzhou.github.io/tutorials/data-manipulation/np-pd/2-1-np-attributes/ numpy 的属性: 使用numpy首先要导入模块 import numpy as np #为了方便使用numpy 采用np简写 列 ...
分类:
其他好文 时间:
2019-10-31 17:59:25
阅读次数:
75
a = np.arange(9).reshape((3,3)) 变换维度 np.max(a) 全局最大,也可以加参数,找某个维度最大的 print(np.max(a,axis=0)) #每列最大 print(np.max(a,axis=1)) #每行最大 print(np.where(a==np.m ...
分类:
其他好文 时间:
2019-09-12 09:44:01
阅读次数:
85