自然语言处理的预备知识 熟练掌握Python 微积分,线性代数 (MATH 51, CME 100) 基本的概率论和统计(CS109) 机器学习基础(CS229) 自然语言处理参考书 Dan Jurafsky and James H. Martin. Speech and Language Proc ...
分类:
编程语言 时间:
2017-02-26 17:42:15
阅读次数:
289
梯度下降机器学习优化 什么是梯度下降法梯度下降(Gradient Descent)是最基础的优化算法。在微积分中,梯度表示函数增长速度最快的方向。在机器学习问题中,我们的目标常常是求极大值或者极小值。梯度下降法就是沿着梯度的不断走的方法,当求极小值时沿与梯度相反的方向用通俗的话说,梯度下降法就像下山... ...
分类:
其他好文 时间:
2017-02-26 13:43:01
阅读次数:
242
本篇口胡写给我自己这样的东西都忘光的残废选手 以及暂时还不会自然数幂和的人… 这里大概给出最简单的几种方法:扰动法(化为递推式),斯特林数(离散微积分),高阶差分(牛顿级数),伯努利数(指数生成函数)… 不同方法的思维难度、普适程度、实现难度、时间复杂度上面都有差异…同时自然数幂和是探究各种求和方法 ...
分类:
其他好文 时间:
2017-02-17 23:34:58
阅读次数:
251
分布式缓存框架: Microsoft Velocity:微软自家分布式缓存服务框架。 Memcahed:一套分布式的高速缓存系统,目前被许多网站使用以提升网站的访问速度。 Redis:是一个高性能的KV数据库。 它的出现很大程度补偿了Memcached在某些方面的不足。 EnyimMemcached ...
分类:
Web程序 时间:
2017-02-06 15:00:05
阅读次数:
244
【题目分析】 求二次函数和一次函数围成的面积。 先解方程求出一次函数和二次函数。 然后积分。 现在还是不会积分。 【代码】 ...
分类:
其他好文 时间:
2017-02-01 20:45:22
阅读次数:
220
概率论(https://ruanx.pw/post/%E6%A6%82%E7%8E%87%E8%AE%BA.html) 这东西并不难学。这片博客主要介绍离散概率、连续概率、期望与微积分…… 这东西并不难学。这片博客主要介绍离散概率、连续概率、期望与微积分…… 这东西并不难学。这片博客主要介绍离散概率 ...
分类:
其他好文 时间:
2017-02-01 10:54:37
阅读次数:
232
Unity下GL没有画圆的函数,只能自己来了。 如果能帮到大家,我也很高兴。 虽然没有画圆的函数,但是能画直线,利用这一点,配合微积分什么的,就可以画出来了。反正就是花很多连在一起的直线,每条直线足够短的时候,就足够圆了 参数分别为: x,y,z 中心点三维坐标, r 圆的半径, accuracy ...
分类:
编程语言 时间:
2017-01-23 18:55:03
阅读次数:
174
刚刚讲完了以费马小定理为基础的Miller-Rabin,现在该膜拜一下费马了。 皮埃尔·德·费马,法国律师和业余数学家。他在数学上的成就不比职业数学家差,他似乎对数论最有兴趣,亦对现代微积分的建立有所贡献。被誉为“业余数学家之王”。费马,是当今常见译法,80年代的书籍文章也多见译为“费尔玛”的情况, ...
分类:
其他好文 时间:
2016-12-05 19:42:22
阅读次数:
127
1、两个重要极限 \[\lim_{x\rightarrow0}\frac{sin\left ( x \right )}{x}=1\] \[\lim_{n\rightarrow 0}\left ( 1+\frac{1}{n} \right )^{^{n}}=1\] 2、计算导数的方法:y=f(x) ( ...
分类:
其他好文 时间:
2016-11-06 19:52:07
阅读次数:
326
在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。这里就对梯度下降法做一个完整的总结。 1. 梯度 在微积分里面,对多元函数的参数求?偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数 ...
分类:
其他好文 时间:
2016-10-18 01:40:45
阅读次数:
349