import tensorflow as tf import numpy as np x = np.array([1, 2, 3, 4]) y = np.array([0,0,1,1]) w = tf.Variable(1.) b = tf.Variable(1.) sigmodX = 1 / (1 ...
分类:
其他好文 时间:
2020-08-04 16:42:00
阅读次数:
91
SVM现在主流的有两个方法。一个是传统的推导,计算支持向量求解的方法,一个是近几年兴起的梯度下降的方法。 梯度下降方法的核心是使用了hinge loss作为损失函数,所以最近也有人提出的深度SVM其实就是使用hinge loss的神经网络。 本文的目的是讲解传统的推导。 SVM的超平面 SVM模型的 ...
分类:
其他好文 时间:
2020-07-22 20:16:36
阅读次数:
68
转自:https://www.zhihu.com/question/269698662/answer/352279936 做了部分修改 1. 为什么类别不平衡会影响模型输出? 大部分模型的默认阈值为输出值的中位数。比如逻辑回归的输出范围为[0,1],当某个样本的输出大于0.5就会被划分为正例,反之为 ...
分类:
其他好文 时间:
2020-07-21 22:13:04
阅读次数:
162
numpy、tensorflow手写SkipGram(没有negative sampling)和cbow: http://www.claudiobellei.com/2018/01/07/backprop-word2vec-python/ 这两种实现都需要动手算梯度,手动实现梯度下降,且不没有使用n ...
分类:
其他好文 时间:
2020-07-10 18:47:16
阅读次数:
53
文件读取 import pandas as pd import matplotlib.pyplot as plt import numpy as np %matplotlib inline #由于数据太多,只读取前1000行 data = pd.read_csv("creditcard.csv",n ...
分类:
其他好文 时间:
2020-07-04 20:32:07
阅读次数:
98
不积跬步无以至千里,不积小流无以成江海!每天一点点,以达到积少成多之效! word2vec 概念,数学原理理解 1.数据集 Kaggle上的电影影评数据,包括unlabeledTrainData.tsv,labeledTrainData.tsv,testData.tsv三个文件 Strange th ...
分类:
其他好文 时间:
2020-06-24 23:51:31
阅读次数:
72
Factorization Machines (FM) 首先这种算法是一种有监督的机器学习模型,既可以用在分类问题也可以用在回归问题当中,它是一种非线性的模型,相比逻辑回归具备了二阶交叉特征表达能力(不易拓展到三阶以上)。可以通过stochastic(随机) gradient descent (SG ...
分类:
系统相关 时间:
2020-06-22 22:48:15
阅读次数:
86
最近一个月项目好忙,终于挤出时间把这篇 BP 算法基本思想写完了,公式的推导放到下一篇讲吧。 一、神经网络的代价函数 神经网络可以看做是复杂逻辑回归的组合,因此与其类似,我们训练神经网络也要定义代价函数,之后再使用梯度下降法来最小化代价函数,以此来训练最优的权重矩阵。 1.1 从逻辑回归出发 我们从 ...
分类:
编程语言 时间:
2020-06-20 00:46:05
阅读次数:
98
SmartbiMining通过深度数据建模,为企业提供预测能力支持文本分析、五大类算法和数据预处理,并为用户提供一站式的流程式建模、拖拽式操作和可视化配置体验。SmartbiMining算法丰富,而且可扩展SmartbiMining数据挖掘平台支持多种高效实用的机器学习算法,包含了分类、回归、聚类、预测、关联,5大类机器学习的成熟算法。其中包含了多种可训练的模型:逻辑回归、决策树、随机森林、朴素贝
分类:
其他好文 时间:
2020-06-19 16:04:38
阅读次数:
182
什么是监督学习?什么是无监督学习? 监督学习:有目标y值,如线性回归,分类算法 无监督学习:无目标y值,如聚类 逻辑回归是分类算法,不要被名字误导,得到的是离散值 引入逻辑回归 逻辑回归主要用于二分类 在线性回归中:Y=W1X1+W2X2+W3X3 +...+b=WT*X 在逻辑回归中,习惯用Z表示 ...
分类:
其他好文 时间:
2020-06-17 01:18:52
阅读次数:
55