标签:3.4 通过 stage 效果 选择 demo 完成 范围 windows
大数据圈里的一位扫地僧
说明:这篇文章很早就想写了,但是切入点一直拿捏不准,要讲的内容比较大众化,却又是重中之重。
构建业务模型,在确定特征向量以后,都需要准备特征数据在线下进行训练、验证和测试。同样,部署发布离线场景模型,也需要每天定时跑P加工模型特征表。
而这一切要做的事,都离不开数据清洗,业内话来说,也就是ETL处理(抽取Extract、转换Transform、加载Load),三大法宝。
来自于百度百科
在大数据圈里和圈外,很多朋友都整理过数据,我们这里称为清洗数据。
不管你是叱咤风云的Excel大牛,还是玩转SQL的数据库的能人,甚至是专注HQL开发ETL工程师,以及用MapReduce\Scala语言处理复杂数据的程序猿。(也许你就是小白一个)
我想说的是,解决问题的技术有高低,但是解决问题的初衷只有一个——把杂乱的数据清洗干净,让业务模型能够输入高质量的数据源。
不过,既然做的是大数据挖掘,面对的至少是G级别的数据量(包括用户基本数据、行为数据、交易数据、资金流数据以及第三方数据等等)。那么选择正确的方式来清洗特征数据就极为重要,除了让你事半功倍,还至少能够保证你在方案上是可行的。
你可别告诉我,你仍然选择用Excel,那我选择狗带。
在大数据生态圈里,有着很多开源的数据ETL工具,每一种都私下尝尝鲜也可以。但是对于一个公司内部来说,稳定性、安全性和成本都是必须考虑的。
就拿Spark Hive和Hive来说,同样是在Yarn上来跑P,而且替换任务的执行引擎也很方便。
修改任务执行引擎
的确,Spark的大多数任务都会比MapReduce执行效率要快差不多1/3时间。但是,Spark对内存的消耗是很大的,在程序运行期间,每个节点的负载都很高,队列资源消耗很多。因此,我每次提交Spark离线模型跑任务时,都必须设置下面的参数,防止占用完集群所有资源。
spark-submit --master yarn-cluster --driver-memory 5g --executor-memory 2g --num-executors 20
其中:
单独的提交Spark任务,优化参数还可以解决大部分运行问题。但是完全替换每天跑P加工报表的执行引擎,从MapReduce到Spark,总会遇到不少意想不到的问题。对于一个大数据部门而言,另可效率有所延迟,但是数据稳定性是重中之重。
Spark运行Stage
所以,大部分数据处理,甚至是业务场景模型每天的数据清洗加工,都会优先考虑Hive基于MapRedcue的执行引擎,少部分会单独使用编写MapReduce、Spark程序来进行复杂处理。
这节要介绍的内容其实很多,单独对于Hive这方面,就包括执行计划、常用写法、内置函数、一些自定义函数,以及优化策略等等。
幸运的是,这方面资源在网上很全,这是一个值得欣慰的点,基本遇到的大多数问题都能够搜到满意答案。
因此,文章这个版块主要顺着这条主线来——(我在大数据挖掘实践中所做的模型特征清洗),这样对于大数据挖掘的朋友们来说,更具有针对性。
(这里不扩展数据源的抽取和行为数据的埋点)
大数据平台的数据源集中来源于三个方面,按比重大小来排序:
60%来源于关系数据库的同步迁移: 大多数公司都是采用MySQL和Oracle,就拿互联网金融平台来说,这些数据大部分是用户基本信息,交易数据以及资金数据。
30%来源于平台埋点数据的采集:渠道有PC、Wap、安卓和IOS,通过客户端产生请求,经过Netty服务器处理,再进Kafka接受数据并解码,最后到Spark Streaming划分为离线和实时清洗。
10%来源于第三方数据:做互联网金融都会整合第三方数据源,大体有工商、快消、车房、电商交易、银行、运营商等等,有些是通过正规渠道来购买(已脱敏),大部分数据来源于黑市(未脱敏)。这个市场鱼龙混杂、臭气熏天,很多真实数据被注入了污水,在这基础上建立的模型可信度往往很差。
得数据,得天下?
看过我以前文章集的朋友都知道一点,我致力于做大数据产品。
在之前开发数据产品的过程中,有一次规划了一个页面——用户关系网络,底层是引用了一个组合模型。
简单来说是对用户群体细分,判断用户属于那一类别的羊毛党群体,再结合业务运营中的弹性因子去综合评估用户的风险。
截图的原型Demo
大家看到这幅图会有什么想法?
简单来说,原型展示的是分析两个用户之间在很多维度方面的关联度
当时这个功能在后端开发过程中对于特征数据的处理花了很多时间,有一部分是数据仓库工具HQL所不能解决的,而且还需要考虑完整页面(截图只是其中一部分)查询的响应时间,这就得预先标准化业务模型的输出结果。
我可以简单描述下需求场景:
简单来说,IP地址只是一个媒介,连接着不同用户。——你中有我,我中有你。
雪花状
有了上面的背景描述,那么就需要每个读者都去思考下这三个问题:
问题一、如何先通过某个用户最近30天的IP列表去找到使用相同IP频数最多的那一批用户列表呢?
问题二、如何结合关系网络的每个维度(IP、设备指纹、身份证、银行卡和加密隐私等等),去挖掘与该用户关联度最高的那一批用户列表?
问题三、如何对接产品标准化模型输出,让页面查询的效应时间变得更快些?
思考就像吃大理核桃般,总是那么耐人寻味。
对于70%的数据清洗都可以使用Hive来完美解决,而且网络参考资料也很全,所以大多数场景我都推荐用它来清洗。——高效、稳定
一只小蜜蜂呀,飞到花丛中
不过在使用过程中,我有两点建议送给大家,就当作鸡年礼物吧。
第一点建议:要学会顾全大局,不要急于求成,学会把复杂的查询拆开写,多考虑集群整个资源总量和并发任务数。
第二点建议:心要细,在线下做好充足的测试,确保安全性、逻辑正确和执行效率才能上线。
礼物也送了,继续介绍
对于上述的用户关系网络场景,这里举IP维度来实践下,如何利用Hive进行数据清洗。
下面是用户行为日志表的用户、IP地址和时间数据结构。
用户、IP和时间
回到上面的第一个思考, 如何先通过某个用户最近30天的IP列表去找到使用相同IP频数最多的那一批用户列表呢?
清洗IP对应的用户列表
这里解释三个内置函数concat_ws、collect_set和cast,先更了解必须去亲自实践:
果然很方便吧,下面是第一个步骤的执行结果。
IP马赛克
清洗用户在IP媒介下的关联用户集
最终对于IP媒介清洗的数据效果如下所示:
用户ID、IP关联的用户集
同理对于其他维度的媒介方法一样,到这一步,算是完成Hive阶段的初步清洗,是不是很高效。
最终结果的样式
但是对于分析用户细分来说,还需要借助MapReduce,或者Scala来深层次处理特征数据。
对于使用Spark框架来清洗数据,我一般都是处于下面两个原因:
对于部署本机的大数据挖掘环境,可以查看这两篇文章来实践动手下:
工欲善其事,必先利其器。有了这么好的利器,处理复杂的特征数据,那都是手到擒来。
借助于Hive清洗处理后的源数据,我们继续回到第二个思考—— 如何结合关系网络的每个维度,去初步挖掘与该用户关联度最高的那一批用户列表?
看到这个问题,又产生了这几个思考:
如果才刚刚处理大数据挖掘,遇到这样的问题的确很费神,就连你们常用的Python和R估计也难拯救你们。但是如果实战比较多,这样的独立任务,完全可以并发到每台计算节点上去每行单独处理,而我们只需要在处理每行时,单独调用清洗方法即可。
这里我优先推荐使用Spark来清洗处理(后面给一个MapReduce的逻辑),整个核心过程主要有三个板块
核心就在这两处
核心在这三处
第二个阶段清洗结果
得到上面清洗结果,我们才能更好的作为模型的源数据输出,感觉是不是很费神,所以才印证了这句话——做Data Mining,其实大部分时间都花在清洗数据
针对上述的数据清洗,同样可以MapReduce来单独处理。只是开发效率和执行效率有所影响。
当然也不排除适用于MapReduce处理的复杂数据场景。
对于在本地Windows环境写MapRecue代码,可以借鉴上述文章中部署的数据挖掘环境,修改下Maven工程的pom.xml文件就可以了。
在pom.xml文件添加hadoop依赖
而我在以往做大数据挖掘的过程里,也有不少场景需要借助MR来处理,比如很早的一篇文章《一种新思想去解决大矩阵相乘》,甚至是大家比较常见的数据倾斜——特别是处理平台行为日志数据,特别容易遇到数据倾斜。
这里提供一个上述Spark清洗数据的MR代码逻辑,大家可以对比看看与Spark代码逻辑的差异性。
逻辑思路
Reduce阶段的框架
驱动阶段的配置
上面这三个阶段就是MR任务常规的流程,处理上述问题的思路其实和Spark逻辑差不多。只是这套框架性代码量太多,有很多重复性,每写一个MR任务的工作量也会比较大,执行效率我并没有去测试作比较。
如果Spark跑线上任务模型会出现不稳定的话,我想以后我还是会迁移到MapReduce上去跑离线模型。拭目以待吧!
说到这里,整篇文章概括起来有三点:
但是,还是那么一句话——使用什么技术不在乎,我更迷恋业务场景驱动下的技术挑战。
与你沟通最关键的,也许会是直属领导,也许会是业务运营人员,甚至是完全不懂技术的客户。他们最关心的是你在业务层面上的技术方案能否解决业务痛点问题。
所以,做大数据挖掘要多关心业务,别一味只谈技术。
汪榕,3年场景建模经验,曾累计获得8次数学建模一等奖,包括全国大学生国家一等奖,在国内期刊发表过相关学术研究。两年电商数据挖掘实践,负责开发精准营销产品中的用户标签体系。发表过数据挖掘相关的多篇文章。目前在互联网金融行业从事数据挖掘工作,参与开发反欺诈实时监控系统。微博:乐平汪二。
标签:3.4 通过 stage 效果 选择 demo 完成 范围 windows
原文地址:http://www.cnblogs.com/stevendes1/p/7476555.html