3、 多维随机变量的分布 (1)多项分布 可参见https://blog.csdn.net/jteng/article/details/54632311 多项分布是对二项分布的扩展,二项分布是单变量分布,而多项分布式多变量分布。 二项分布每次试验试验只有两种结果,而多项分布每次试验则会有多种可能性, ...
分类:
其他好文 时间:
2020-03-29 18:18:04
阅读次数:
92
[toc] 第2节 单变量分析 2.1 征信矢量 不管是一代还是二代征信报告,其包含的信息都是繁多且复杂的,并且无法直接使用原始数据进行CA分析和建模,为了快速、准确、全面地获取征信信息,需要对征信进行矢量提取,得到征信矢量。 提取征信矢量原则 : 内容:涵盖个人信息、信贷记录、逾期记录、查询记录、 ...
分类:
其他好文 时间:
2020-03-13 18:58:29
阅读次数:
103
4.1 面向对象程序设计的基本特点 4.4.1 抽象 抽象是对具体对象(问题)进行概括,抽出这一类对象的公共性质并加以描述的过程。首先注意的是问题的本质及描述,其次是解决问题的具体过程对一个问题的抽象应该包括两个方面:数据抽象和行为抽象(或称为功能抽象、代码抽象) 数据抽象:描述某类对象的属性或状态 ...
分类:
编程语言 时间:
2020-03-02 01:03:09
阅读次数:
122
单变量线性回归 单变量线性回归指的是只有一个自变量; 线性回归是一种有监督学习,解决的是自变量和因变量之间的关系; 回归指的是因变量是连续性的,而如果因变量是离散型的,则是分类问题。 监督学习算法的工作方式可以用如下这张图表示: 将训练集喂给机器学习算法,输出一个假设函数 h,然后新输入一个自变 x ...
分类:
其他好文 时间:
2020-02-26 16:54:55
阅读次数:
80
通过对代价函数的理解,了解了以下几个点: 1.单变量线性回归:h(x)=&+kx 2.参数:hypothesis 3.代价函数 4.建模误差 这个就是单变量线性回归的h(x),还有代价函数转换后与建模误差的直观体现,在途中我们也看到了函数的最低点也就是代价函数中的J(x)的最小值,直观体现在这两个坐 ...
分类:
其他好文 时间:
2020-02-22 00:20:01
阅读次数:
80
要想使用遗传算法,首要任务是定义DNA编码。 传统的 GA 中, DNA 我们能用一串二进制来表示, 比如: DNA1 = [1, 1, 0, 1, 0, 0, 1] DNA2 = [1, 0, 1, 1, 0, 1, 1] 这里,我们仍然使用二进制编码,但是如何与我们的问题对应起来呢? 我们知道二 ...
分类:
编程语言 时间:
2020-01-29 16:29:35
阅读次数:
148
1.模型描述 拟合函数 $h_{\theta}(x)=\theta_{0}+\theta_{1} x$ $x=(x^{(1)},x^{(2)}...x^{(m)})$训练集 $h=(h^{(1)},h^{(2)}...h^{(m)})$训练集 共m个样本 参数 $\theta_{0}$是回归系数 $ ...
分类:
其他好文 时间:
2020-01-22 18:17:19
阅读次数:
88
很多场合下,我们感兴趣的试验进行了很多次,但其中成功的却发生的相当稀少。例如一个芯片的生厂商想要把生产出的芯片做一番检测后再出售。每个芯片都有一个不能正常工作的微小概率p,在数量为n的一大批芯片中,出现r个故障芯片的概率是多少? 相关阅读 单变量微积分30——幂级数和泰勒级数 概率统计13——二项分 ...
分类:
其他好文 时间:
2020-01-20 21:07:03
阅读次数:
87
一、Model Representation 还是以房价预测为例,一图胜千言: 表示一个从 到`y`的函数映射。 二、Cost Function 因为是单变量线性回归,所以假设函数是: $$h_{\theta}(x)=\theta_0+\theta_1x$$ 所以接下来的问题是怎样确定参数$\the ...
分类:
其他好文 时间:
2020-01-01 23:56:29
阅读次数:
131