局部线性嵌入(Locally Linear Embedding,以下简称LLE)也是非常重要的降维方法。和传统的PCA,LDA等关注样本方差的降维方法相比,LLE关注于降维时保持样本局部的线性特征,由于LLE在降维时保持了样本的局部特征,它广泛的用于图像图像识别,高维数据可视化等领域。下面我们就对L... ...
                            
                            
                                分类:
其他好文   时间:
2019-07-19 18:41:00   
                                阅读次数:
107
                             
                         
                    
                        
                            
                            
                                    Linear algebra is the branch of mathematics concerning vector spaces and linear mappings between such spaces. It includes the study of lines, planes, ... ...
                            
                            
                                分类:
其他好文   时间:
2019-07-19 18:29:32   
                                阅读次数:
103
                             
                         
                    
                        
                            
                            
                                    1、线性回归 假设线性函数如下: 假设我们有10个样本x1,y1),(x2,y2).....(x10,y10),求解目标就是根据多个样本求解theta0和theta1的最优值。 为了解决这个问题,我们需要引入误差分析预测值与真实值之间的误差为最小。 2、梯度下降算法 梯度下降的场景: 梯度下降法的基 ...
                            
                            
                                分类:
编程语言   时间:
2019-07-17 18:38:52   
                                阅读次数:
175
                             
                         
                    
                        
                            
                            
                                一.安装目前用了tensorflow、deeplearning4j两个深度学习框架, tensorflow 之前一直支持到python 3.5,目前以更新到3.6,故安装最新版体验使用。 慢慢长征路:安装过程如下 WIN10: anaconda3.5: PYTHON3.6: tensorflow1. ...
                            
                            
                                分类:
其他好文   时间:
2019-07-14 13:17:19   
                                阅读次数:
101
                             
                         
                    
                        
                            
                            
                                    1.为什么不用Regression? 用Regression显然会得到紫色线,而不是绿线 2.定义Loss Function 即分类不正确的样本个数 3.求每个元素在某个类别的概率 p(class1|x) = p(x|class1)p(class1) / [p(x|class1)p(class1)  ...
                            
                            
                                分类:
其他好文   时间:
2019-07-12 14:25:07   
                                阅读次数:
86
                             
                         
                    
                        
                            
                            
                                    from sklearn.linear_model import LinearRegression,Lasso,Ridge from sklearn.datasets import load_boston import matplotlib.pyplot as plt boston=load_bos... ...
                            
                            
                                分类:
其他好文   时间:
2019-07-11 11:13:07   
                                阅读次数:
138
                             
                         
                    
                        
                            
                            
                                # -*- coding: utf-8 -*- number_list = [0, 1, 2, 3, 4, 5, 6, 7] def linear_search(value, iterable): for index, val in enumerate(iterable): if val == va... ...
                            
                            
                                分类:
编程语言   时间:
2019-07-10 23:14:23   
                                阅读次数:
232
                             
                         
                    
                        
                            
                            
                                    一、文本颜色渐变 <gradient> :可以应用在所有接受图像的属性上,允许使用简单的语法实现颜色渐变,以便UA在渲染页面自动生成图像。 语法:<gradient> = linear-gradient() | repeating-linear-gradient() | radial-gradien ...
                            
                            
                                分类:
Web程序   时间:
2019-07-10 18:31:07   
                                阅读次数:
163
                             
                         
                    
                        
                            
                            
                                    1. Gauss Elimination Method $(1\times 1)$ $ax_1=b$ $\rightarrow$ $x_1=\frac{b}{a}$ $(2 \times 2)$ $\begin{cases}a_{11}x_1+a_{12}x_2=b_1 \\ a_{21}x_1+a ...
                            
                            
                                分类:
其他好文   时间:
2019-07-10 15:02:28   
                                阅读次数:
87