标签:
Getting and Cleaning Data是Coursera数据科学专项的第三门课,有中文翻译。但是由于中文区讨论没有英文区热闹,以及资料积累,强烈建议各位同时选报中文项目和英文项目,可以互相匹配学习。
Week1的课程概括下来,主要介绍了getting and cleaning data的目的,即从不同数据源里获得整洁数据集(Tidy Data),以及其方法。
包括
#path是一段网址,csv格式 path<-"data.csv" download.file(path,destfile="F:/test1.csv") #需要用read.csv再读入数据库里,这里要指定位置
library(XML) #用xmlTreeParse读入xml数据。这里如果不用useInternalNodes的话,bc内会出来两个list,估计其中一个是数据的特殊储存,如元数据一样的东西? bc<-xmlTreeParse("F:/getdata-data-restaurants.xml",useInternalNodes = FALSE) bc1<-xmlTreeParse("F:/getdata-data-restaurants.xml",useInternalNodes = TRUE) bcnote<-xmlRoot(bc) class(bc) class(bc1) class(bcnote) #通过class可以看到,跟直接读入的bc数据集不同,在xmlRot后,增加了新的类型数据。 #在这里,讲义里介绍的内容是,用xpathSApply来获得新的数据集【认真看讲义和视频有惊喜 d<-xpathSApply(bcnote,"//neighborhood",xmlValue)
XML包的介绍,使我们初步掌握了网页抓取技术的方法。
在英文讨论区里,有人分享了一些关于XML深入学习的知识,先暂时记下链接,以后应该会有用:)
在这段时间的学习里,工具上有了新的变化
开始使用R markdown来写blog,认识与入门 Markdown
学习ggplot2,看完了半本ggplot2的制图书。打算结合经典图表系列,一个个仿造这些图。必须感慨一下,开发ggplot2的Hadley Wickham真的太牛了!当你深入学习R的时候,你会很惊讶的发现Hadley无处不在……无论是制图(ggplot2),数据整理(dplyr,plyr,reshape2),甚至是GUI(RStudio),哪里都是他,哪里有牛包,哪里就有他
在Coursera讨论区看到一个几乎称得上爷爷辈的人在学R。他头像里都有白胡子了,自称在IT做了很多年,但是从来不会停止学习的脚步,现在在跟我们一起学coursera
有句话说得好,不怕你聪明,就怕比你聪明的人在拼命的,持续不断的努力。各位互勉。
Coursera-Getting and Cleaning Data-week1-课程笔记
标签:
原文地址:http://www.cnblogs.com/weibaar/p/4217495.html