临时表概念 临时表就是用来暂时保存临时数据(亦或叫中间数据)的一个数据库对象,它和普通表有些类似,然而又有很大区别。它只能存储在临时表空间,而非用户的表空间。ORACLE临时表是会话或事务级别的,只对当前会话或事务可见。每个会话只能查看和修改自己的数据。临时表语法临时表分类ORACLE临时表有两种类...
分类:
数据库 时间:
2015-04-17 17:45:15
阅读次数:
225
一:背景:当给出我们一些样本点,我们可以用一条直接对其进行拟合,如y= a0+a1x1+a2x2,公式中y是样本的标签,{x1,x2,x3}是特征,当我们给定特征的大小,让你预测标签,此时我们就需要事先知道参数{a1,a2}。而最小二乘法和最大似然估计就是根据一些给定样本(包括标签值)去对参数进行估计参数估计的方法>。
二:最小二乘法:
基本思想:
简单地说,最小二乘的思想就是要使得观...
分类:
其他好文 时间:
2015-04-13 22:58:32
阅读次数:
173
牛顿方法本次课程大纲:1、牛顿方法:对Logistic模型进行拟合2、指数分布族3、广义线性模型(GLM):联系Logistic回归和最小二乘模型复习:Logistic回归:分类算法假设给定x以为参数的y=1和y=0的概率:求对数似然性:对其求偏导数,应用梯度上升方法,求得:本次课程介绍的牛顿方法是...
分类:
其他好文 时间:
2015-04-11 14:49:46
阅读次数:
166
之前学习了贝叶斯分类器的构造和使用,其中核心的部分是得到事件的先验概率并计算出后验概率 ,而事实上在实际使用中,很多时候无法得到这些完整的信息,因此我们需要使用另外一个重要的工具——参数估计。参数估计是在已知系统模型结构时,用系统的输入和输出数据计算系统模型参数的过程。...
分类:
其他好文 时间:
2015-04-06 11:31:17
阅读次数:
219
Maximum Likelihood 最大似然估计这个算法解决的问题是,当我们知道一组变量的密度分布函数与从总体采样的个体的时候,需要估计函数中的某些变量。假设概率密度函数如下:一般来说,为了计算的方便性,我们会采取对数的方式现在的目标是要使得上面函数取最大值,自变量为Θ,并且可以是一个向量。求上面...
分类:
其他好文 时间:
2015-04-01 23:13:56
阅读次数:
178
因子荷载举证A和特性方差举证D的方法有主成分法,主是因子发和极大似然法 因子荷载矩阵:各元使变量因子表达式的艺术,表达提取的公因子对原始变量的影响程度 作用:通过因子荷载矩阵可以获取原始指标变量的线性组合; 示例:如X1=a11*F1+a12*F2+a13*F3,其中X1为指标变量1,...
分类:
其他好文 时间:
2015-03-19 06:16:50
阅读次数:
204
本节知识点: 贝叶斯统计及规范化 在线学习 如何使用机器学习算法解决具体问题:设定诊断方法,迅速发现问题 贝叶斯统计及规范化(防止过拟合的方法) 就是要找更好的估计方法来减少过度拟合情况的发生。 回顾一下,线性回归中使用的估计方法是最小二乘法,logistic 回归是条件概率的最大似然估计,朴素贝叶...
分类:
其他好文 时间:
2015-03-13 22:08:45
阅读次数:
417
这种算法用于含有隐变量的概率参数模型的最大似然值估计或极大后验概率估计。第一步是计算期望(E),利用对隐藏变量的现有估计值,计算其最大似然估计值;第二步是最大化(M),最大化在 E 步上求得的最大似然值来计算参数的值。M 步上找到的参数估计值被用于下一个 E 步计算中,这个过程不断交替进行。本人不太...
分类:
编程语言 时间:
2015-03-13 18:06:26
阅读次数:
120
下面是转载的内容,主要是介绍逻辑回归的理论知识,先总结一下自己看完的心得
简单来说线性回归就是直接将特征值和其对应的概率进行相乘得到一个结果,逻辑回归则是这样的结果上加上一个逻辑函数
这里选用的就是Sigmoid函数,在坐标尺度很大的情况下类似于阶跃函数
在确认特征对应的权重值也就是回归系数的时候
最常用的方法是最大似然法,EM参数估计,这个是在一阶导数能够有解的前提下
如果一阶导数无法...
分类:
其他好文 时间:
2015-03-06 15:58:28
阅读次数:
59135
区别于线性回归,不是把每个特征直接乘以系数,而是用一个S型函数(Logistic函数)。如下:
使用这种形式函数的原因(概率、求导)。
代价函数,也不是线性回归中的误差平方和,而是基于对数似然函数,如下:
单个样本的后验概率为:(y = 0, 1) 类似于二项分布的概率密度函数。
整个样本集的后验概率:
对数似然函数对于代价函数,如下:
梯度下降法...
分类:
编程语言 时间:
2015-03-05 10:52:23
阅读次数:
239