码迷,mamicode.com
首页 >  
搜索关键字:诸葛io 数据运营 数据分析    ( 5723个结果
php脚本超时时间设置
设置PHP脚本执行超时的时间有下面这样一些方法:php.ini 中缺省的最长执行时间是 30 秒,这是由 php.ini 中的 max_execution_time 变量指定,倘若你有一个需要颇多时间才能完成的工作,例如要发送很多电子邮件给大量收件者,或者要进行繁重的数据分析工作,服务器会在 30 ...
分类:Web程序   时间:2014-10-17 16:53:39    阅读次数:193
安装和使用 Elasticsearch
安装和使用ElasticsearchElasticsearch是开源搜索平台的新成员,实时数据分析的神器,发展迅猛,基于Lucene、RESTful、分布式、面向云计算设计、实时搜索、全文搜索、稳定、高可靠、可扩展、安装+使用方便,介绍都说的很好听,好不好用拿出来遛一遛。做了个简单测试,在两台完..
分类:其他好文   时间:2014-10-17 15:45:22    阅读次数:222
想涨薪?想跳槽?程序员必知互联网薪资数据分析
本人 程序员一枚,没有从生到死稳重型的待在一家公司,也不是三天两头的跳槽乱入阵营,年轻气盛的乱跳槽的事也不爱干,奉劝同行的新入行的菜鸟们,选工作需慎重,跳槽更需慎重,入职也要做个多线程的程序员。知乎上看到一个关于互联网薪资数据分析的报告,拿来分享,大家共睹。  图片资料来源于100offer程序员拍卖网站。 欢迎大家吐槽,想公布自己薪资,想炫富的程序员们可以列队开始了。...
分类:其他好文   时间:2014-10-17 12:02:49    阅读次数:112
SQL Server 触发器
触发器(trigger)是SQL server 提供给程序员和数据分析员来保证数据完整性的一种方法,它是与表事件相关的特殊的存储过程,它的执行不是由程序调用,也不是手工启动,而是由事件来触发,比如当对一个表进行操作( insert,delete, update)时就会激活它执行。触发器经常用于加强数...
分类:数据库   时间:2014-10-16 13:17:52    阅读次数:325
linux awk命令详解
简介awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在其对数据分析并生成报告时,显得尤为强大。简单来说awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行各种分析处理。awk有3个不同版本: awk、nawk和gawk,未作特别说明,一般指gawk,g...
分类:系统相关   时间:2014-10-16 00:05:01    阅读次数:415
大数据分析- 基于Hadoop/Mahout的大数据挖掘
随着互联网、移动互联网和物联网的发展,我们已经切实地迎来了一个大数据的时代。大数据是指无法在一定时间内用常规软件工具对其内容进行抓娶管理和处理的数据集合,对大数据的分析已经成为一个非常重要且紧迫的需求。目前对大数据的分析工具,首选的是Hadoop平台。Hadoop在可..
分类:其他好文   时间:2014-10-15 21:41:12    阅读次数:350
Oracle 11g闪回归档技术
闪回数据归档 使用闪回数据归档功能可以自动跟踪和归档启用了闪回数据归档的表中的数据。这可确保闪回查询能够获得对数据库对象版本的 SQL 级别访问权限,而不会出现快照太旧的错误。   利用闪回数据归档功能,可以在“跟踪的”表的整个生命期内跟踪并存储对该表的所有事务处理更改。不再需要将此智能功能内 置到应用程序中。闪回数据归档功能对于遵守规定、审计报告、数据分析和决策支持系统非常有用。闪...
分类:数据库   时间:2014-10-14 14:27:28    阅读次数:310
软考(4)——数据库
拿第一个问题举例,书上说,触发器提供给程序员和数据分析员来保证数据完整性的一种方法。确实,如果你没有用过触发器的话,就真的是把知识硬装进脑子里的。个人重构的时候尝试用了用触发器,用过之后就真的是深有体会了。当时间过短或目前无法一个个去动手实践时,你就要从概念入手了,简单的说,要么都执行,要么都不执行。...
分类:数据库   时间:2014-10-13 17:32:22    阅读次数:174
利用大数据分析解决北京雾霾污染危机
10月11日早上,北京城区笼罩在雾霾之中。当日,北京持续出现雾霾天气。预计此次雾霾过程将持续至11日晚上。北京市气象局9日10时45分更新发布霾橙色预警信号。8日17时,北京市空气重污染应急指挥部办公室发布了今年“空气重污染黄色预警”,为今年下半年首次。此前,北京市气象台于9时发布“霾黄色预警信.....
分类:其他好文   时间:2014-10-13 14:17:29    阅读次数:230
hadoop数据容易出现错误的地方
最近在搞关于数据分析的项目,做了一点总结。下图是系统的数据流向。容易出现错误的地方。1、数据进入hadoop仓库有四种来源,这四种是最基本的数据,简称ods,original data source,后续 的数据都是有这些组合而来a、日志文件b、http接口c、DB查询d、建表指向最后数据都是以ha...
分类:其他好文   时间:2014-10-11 21:06:06    阅读次数:242
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!