为什么要用神经网络? 为了获得非线性假设空间,我们引入神经网络模型。之前文章提到,对于分类问题,对数几率回归结合多项式特征可以得到非线性决策边界;而将多项式特则与线性回归结合也可以拟合非线性函数。既然我们已经可以得到非线性假设空间,为什么还要引入神经网络模型呢?这是因为当数据集特征数$d$增大时,高 ...
分类:
其他好文 时间:
2020-01-28 17:43:20
阅读次数:
61
基本概念 对数几率回归(Logistic Regression,又称逻辑回归)可以用来解决二分类和多分类问题。分类问题中,输出集合不再是连续值,而是离散值,即$\mathcal{Y}\in \{0,1,2,\cdots\}$。以二分类问题为例,其输出集合一般为$\mathcal{Y}\in \{0, ...
分类:
其他好文 时间:
2020-01-23 21:23:06
阅读次数:
103
基本概念 机器学习模型面临的两个主要问题是欠拟合与过拟合。 欠拟合 ,即模型具有较高的 偏差 ,说明模型没有从数据中学到什么,如下左图所示。而 过拟合 ,即模型具有较高的 方差 ,意味着模型的经验误差低而泛化误差高,对新数据的泛化能力差,如下右图所示。 通常,欠拟合是由于模型过于简单或使用数据集的特 ...
分类:
其他好文 时间:
2020-01-23 21:16:34
阅读次数:
135
战果: D1:rk3,7(1296)(未参赛) D2:rk20,5(554) D3:rk58,3(算不了) D4:休息 D5:rk7,5(878) D6:rk6,9(1008) D7:rk10,6(1012) 总结: 来之前预计我们队应该在rk10附近,总的来说还是打出了水平,除了D2,D3在自闭之 ...
分类:
其他好文 时间:
2020-01-19 09:55:33
阅读次数:
92
如何了解当前目录下还有多大空间? 这个问题值得好好说道说道。在公司里,经常会向/system/bin目录下推一些文件,有时候就会失败,说是空间不够,然而这个空间不够只是不能往这个目录下推,但是 往其它目录下推是可以的。请问,这是什么原因?进一步的,这个空间不够指的是什么? 首先,du -h . 只能 ...
分类:
系统相关 时间:
2020-01-19 00:15:07
阅读次数:
102
美院学生自发组团参与百度刘超HCI公益课 2020年1月11日,由前百度总监刘超老师组织的HCI讲堂的“互联网设计之星” 训练营活动圆满举行。天津美院的同学们利用课余时间前来HCI讲堂赴约聚会,并与刘超老师的优秀学生、天津美院优秀毕业生学长,共同度过了一个收获满满的美好周日时光。让我们看看他们今天做 ...
分类:
其他好文 时间:
2020-01-16 12:36:43
阅读次数:
84
最大的敌人其实是自己 最近报了极客时间的21天打卡,今天是第七天周日,感觉周六的时候是最难坚持的,因为自己想要利用这个打卡复习一下算法训练营的内容,虽然参加了,并且最后毕业了,但是自己还是感觉对常用的算法和数据结构一知半解,一知半解的评价都有点高,应该是不怎么解,所以要复习和巩固一下 从递归开始,递 ...
分类:
其他好文 时间:
2020-01-12 13:10:13
阅读次数:
89
河工大学生集体自发参加百度刘超互联网公益课 2019年12月28日,数十名河北工业大学的同学们冒着恶劣的天气来到天津艺术设计类大学生社会实践基地(HCI讲堂)参加前百度总监刘超老师的“互联网设计之星”周末公益训练营活动。 刘超毕业于清华大学美术学院,历任百度、宇龙酷派、中国移动研究院、NOKIA、中 ...
分类:
其他好文 时间:
2020-01-02 14:16:41
阅读次数:
112
一、正则化与偏差-方差分解 Regularization:减少方差的策略 误差可分解为:偏差,方差与噪声之和,即误差 = 偏差 + 方差 + 噪声之和 偏差:度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力 方差:度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画 ...
分类:
其他好文 时间:
2019-11-21 23:19:49
阅读次数:
224
第一阶段 机器学习基础与凸优化 【核心知识点】 - KNN,Weighted KNN、近似KNN - KD树,近似KD树、哈希算法、LSH - 岭回归、LASSO、ElasticNet - 正则:L1, L2, L-inifity Norm - LR、GD、SGD、小批量SGD - 凸集,凸函数、判 ...
分类:
其他好文 时间:
2019-11-12 16:14:59
阅读次数:
168