转自:http://sofasofa.io/forum_main_post.php?postid=1000539 1.概念 硬聚类就是把数据确切地分到某一类中,比如K-Means。 硬就是说“强硬”,是属于A类就是A类,不会跑到B类。 软聚类就是把数据以一定的概率分到各类中,比如高斯混合模型(GMM ...
分类:
其他好文 时间:
2020-12-19 13:23:07
阅读次数:
1
面向对象中 这一章主要涉及面向对象的三大特征,包括封装、继承、多态、(抽象)。 封装 程序设计追求“高内聚,低耦合”: 高内聚 :类的内部数据操作细节自己完成,不允许外部干涉; 低耦合 :仅对外暴露少量的方法用于使用。 通俗的说,把该隐藏的隐藏起来,该暴露的暴露出来,这就是封装性的设计思想。 通过将 ...
分类:
编程语言 时间:
2020-12-18 13:03:02
阅读次数:
3
class pattern: x=0 y=0 def __init__(self,x,y): self.x=x self.y=y def dis(a,b): return ((a.x-b.x)*(a.x-b.x)+(a.y-b.y)*(a.y-b.y))**0.5 eps=0.00001 maxn= ...
分类:
编程语言 时间:
2020-12-14 12:59:58
阅读次数:
4
阿里云机器学习PAI介绍Summer久石譲-「菊次郎の夏」オリジナル?サウンドトラック机器学习大致可以分三类:有监督学习:指每个样本都有对应的期望值,通过模型搭建,完成从输入的特征向量到目标值的映射,典型的例子是回归和分类问题,例如:逻辑回归、随机森林、决策树。无监督学习:指在所有的样本中没有任何目标值,期望从数据本身发现一些潜在的规律,例如一些简单的聚类K-means、DBSCAN等。增强学习:
分类:
其他好文 时间:
2020-11-16 13:20:47
阅读次数:
4
K-means1、K-means是非监督学习,解决的是聚类问题,k表示聚成k类; KNN 是一种监督学习算法,解决的是分类问题,K表示K个邻居。2、K-means的工作原理 1)选取K个点作为初始类中心点,这些点一般是随机抽取的 2)将每个点分配到最近的类中心点,这样就形成了K个类,然后重新计算每个 ...
分类:
其他好文 时间:
2020-11-04 19:02:16
阅读次数:
16
本文主要讲解余弦相似度的相关知识点。相似度计算用途相当广泛,是搜索引擎、推荐引擎、分类聚类等问题的核心点。为了理解清楚余弦相似度的来龙去脉,本文从最简单的初中数学入手,介绍余弦公式的推导过程,然后基于余弦公式串讲一些实践的例子,最后给出余弦相似度在开源搜索引擎中的使用。 ...
分类:
其他好文 时间:
2020-11-04 17:35:35
阅读次数:
22
金融风控基础知识整理 评分卡模型、风控指标体系 Posted by Jiayue Cai on July 12, 2020 风控是互联网金融公司开展业务的底层基石,是一块值得精细耕耘的领域。模型方面从早期偏特征工程的风险画像、风险聚类、特征推荐,发展到时序预测(ARIMA、GARCH、Holt-Wi ...
分类:
其他好文 时间:
2020-10-18 16:17:02
阅读次数:
36
封装 封装,顾名思义,就是把东西封存起来,不让每个人都能操作。 通常情况下,应该禁止直接访问一个对象中数据的实际表示,而应该通过操作接口来访问。这称为信息的隐藏。 程序设计的要追求"高内聚,低耦合"。高内聚:类的内部数据局操作细节自己完成,不允许外部干涉;低耦合:仅暴露少量的方法给外部使用。 熟记这 ...
分类:
编程语言 时间:
2020-10-05 22:31:58
阅读次数:
61
1.原理 K-Means算法的思想很简单,对于给定的样本集,按照样本之间的距离大小,将样本集划分为K个簇。让簇内的点尽量紧密的连在一起,而让簇间的距离尽量的大。 2、api 3、性能评估 越接近1越好,一般不超过0.7 4、优缺点 优点 1)原理比较简单,实现也是很容易,收敛速度快。 2)聚类效果较 ...
分类:
编程语言 时间:
2020-10-05 22:22:47
阅读次数:
31
一、elasticsearch - 分析过程 前言 现在,我们已经了解了如何建立索引和搜索数据了。 那么,是时候来探索背后的故事了!当数据传递到elasticsearch后,到底发生了什么? 分析过程 当数据被发送到elasticsearch后并加入到倒排索引之前,elasticsearch会对该文 ...
分类:
其他好文 时间:
2020-09-12 21:49:09
阅读次数:
50