码迷,mamicode.com
首页 >  
搜索关键字:概率论    ( 637个结果
《高等数学第七版》《线性代数(第六版)》《概率论与数理统计(浙大四版)》全套考研教材及解析PDF
资源链接:https://pan.baidu.com/s/1bxEFcGAqAx2iBA9dxKyr5Q考研数学全套基础教材及习题全解数学备考建议:推荐直接看《张宇36讲》,然后结合基础教材《概率论与数理统计(浙大四版)》《同济高等数学第七版》以及《同济线性代数(第六版)》进行理解。看张宇的视频是必不可少的,近三年的均可,因为基础内容是一样的。王式安的红皮复习全书可读性有点差,李正元的复习全书又太
分类:其他好文   时间:2018-11-22 00:28:47    阅读次数:739
均值(average)与期望(mean)
显然二者不是同一个东西。 平均值属于《数理统计》的范畴,期望属于《概率论》的范畴。英语中平均值写作average,均值写作mean。 期望的描述引述陈希孺院士《概率论与数理统计》如下: 数学期望常称为“均值”,即“随机变量取值的平均值”之意,当然这个平均,是指以概率为权的加权平均。……数学期望是由随 ...
分类:其他好文   时间:2018-11-22 00:09:19    阅读次数:1667
概率论基础教程(中文版.原书第9版)[美]SheldonM.Ross
概率论基础教程(中文版.原书第9版)[美]SheldonM.Ross华章数学译丛最新,2014年的版本链接:https://pan.baidu.com/s/1rVdfA1YX8c1g18ejvIn_pQ如下:
分类:其他好文   时间:2018-11-20 20:16:37    阅读次数:1101
数学期望、方差与矩
数学期望的定义 在概率论和统计学中,数学期望是试验中每次可能结果的概率乘以其结果的总和,是最基本的数学特征之一。 离散型随机变量X的取值为 , 为X对应取值的概率,可理解为数据 出现的频率 ,则: 设连续性随机变量X的概率密度函数为f(x),若积分绝对收敛,则称积分的值 为随机变量的数学期望,记为E ...
分类:其他好文   时间:2018-11-14 01:02:52    阅读次数:930
考研数学基础教材免费分享
考研数学基础教材免费分享整理了《概率论与数理统计(浙大四版)》《同济高等数学(第七版)》《同济线性代数(第六版)》三本书的教材和配套习题全解!资源链接:https://pan.baidu.com/s/1nicM7Pq9QguszuuMJCCOxA
分类:其他好文   时间:2018-11-13 00:06:19    阅读次数:188
人工智能学习
第一阶段:数学高等数学/线性代数/概率论 第二阶段:编程python工具库实战/python网络爬虫 第三阶段:机器学习机器学习入门/机器学习提升 第四阶段:数据挖掘实战数据挖掘入门/数据分析实战 第五阶段:深度学习深度学习网络与框架/深度学习项目实战 https://blog.csdn.net/B ...
分类:其他好文   时间:2018-11-08 23:13:54    阅读次数:199
数学期望
数学期望 + X 为 随机变量 ,它不会出现在函数的具体表示中,而是在抽象的表示中,也就是说会出现在$E(X)$,这个X不会出现在$E(X) = $的右侧,在右侧中X要对应的使用x来替代。在P,E中放的一定是随机变量,是大写的字母,这才符合概率论。 + 密度函数对R的积分为1。 + 离散的情况不会使 ...
分类:其他好文   时间:2018-11-08 00:26:55    阅读次数:171
没有基础可以学习大数据吗?0基础怎么学习大数据?给初学者支几招
小白如何学习大数据技术?大数据怎么入门?怎么做大数据分析?数据科学需要学习那些技术?大数据的应用前景等等问题,已成为热门大数据领域热门问题,以下是对新手如何学习大数据技术问题的解答~ 大数据开发学习可以按照以下内容进行学习 第一阶段:JavaSE+MySql+Linux 学习内容:Java 语言入门 ...
分类:其他好文   时间:2018-11-07 13:16:07    阅读次数:184
Make your own neural network(Python神经网络编程)一
这本书应该算我第一本深度学习的代码入门书了吧,之前看阿里云云栖社和景略集智都有推荐这本书就去看了, 成功建立了自己的第一个神经网络,也了解一些关于深度学习的内容,再加上这学期的概率论与数理统计的课, 现在再来看李大大的机器学习课程,终于能看懂LogisticsRegression概率那部分公式!不至 ...
分类:编程语言   时间:2018-11-07 00:47:36    阅读次数:253
KL散度(KL divergence, JS divergence)
在信息论和概率论中,KL散度描述两个概率分布$P$和$Q$之间的相似程度。 定义为: $$ D(p||q)=\sum\limits_{i=1}^np(x)\log\frac{p(x)}{q(x)}. $$ ...
分类:Web程序   时间:2018-10-27 21:08:12    阅读次数:467
637条   上一页 1 ... 17 18 19 20 21 ... 64 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!