标签:
本文主要是转载的,但有些地方,原作者没有说的够详细,我加以补充发到这里。
-----------------------------------------------------------------------------------------------------------------------------
在许多不需要实时而具有海量或需要足够灵活的分析模型中,ssas比传统的sql有很大的优势,比如性能和用户可定制性。性能上的优势体现在mdx语句对比大数据量sql聚合函数上;而可定制性,这里指的是在有对于mdx来说,开发一个适合各类用户自由分析统计数据的展示工具比用sql语句成本要小的多。
mdx的中文意思是多维表达式,从设计上就是用来做数据分析的。
如果你有项目适合上述特点的话,真的需要考虑来过度到SSAS,来OLAP一下了。下面用一个实例来展示一下他的一个简单应用,可以让没有接触过的人来简单了解一下。
今天在论坛上看到这么一个需求,是分析web日志的,比如PV之类的,还要分日期来做比较。一般此类源数据量很大,如果用sql语句的case when配合聚合函数,加上复杂的行列转换和透视语句运行起来会比较吃力,一个SSAS模型就可以轻松解决问题。
我们来做个测试的数据库环境
sTime是开始访问时间,sLeaveTime是最后访问时间,sCount是这个IP访问页面数量:
-- 建立测试环境
create database TestSSAS
go
use TestSSAS
go
-- 事实表
create table Logs( sId varchar ( 20), sWebsiteId varchar ( 20), sTime datetime ,sLeaveTime datetime , sIp varchar ( 20), sCount int )
insert into Logs select ‘1‘ , ‘542‘ , ‘2008-11-18 09:18:35.000‘ , ‘2008-11-18 14:51:29.000‘ , ‘61.183.248.218‘ , ‘87‘
insert into Logs select ‘2‘ , ‘542‘ , ‘2008-11-18 09:38:36.000‘ , ‘2008-11-18 17:04:23.000‘ , ‘61.144.207.115‘ , ‘128‘
insert into Logs select ‘3‘ , ‘543‘ , ‘2008-11-18 09:42:35.000‘ , ‘2008-11-18 10:36:46.000‘ , ‘61.183.248.218‘ , ‘5‘
insert into Logs select ‘4‘ , ‘552‘ , ‘2008-11-18 16:45:19.000‘ , ‘2008-11-18 16:45:21.000‘ , ‘61.144.207.115‘ , ‘4‘
insert into Logs select ‘5‘ , ‘551‘ , ‘2008-11-18 16:45:54.000‘ , ‘2008-11-18 16:45:55.000‘ , ‘61.144.207.115‘ , ‘5‘
insert into Logs select ‘7‘ , ‘549‘ , ‘2008-11-18 16:46:58.000‘ , ‘2008-11-18 16:46:59.000‘ , ‘61.144.207.115‘ , ‘3‘
insert into Logs select ‘8‘ , ‘548‘ , ‘2008-11-18 16:47:15.000‘ , ‘2008-11-18 16:47:16.000‘ , ‘61.144.207.115‘ , ‘4‘
insert into Logs select ‘5‘ , ‘551‘ , ‘2008-11-19 16:45:54.000‘ , ‘2008-11-19 16:45:55.000‘ , ‘61.144.207.115‘ , ‘15‘
insert into Logs select ‘7‘ , ‘549‘ , ‘2008-11-19 16:46:58.000‘ , ‘2008-11-19 16:46:59.000‘ , ‘61.144.207.115‘ , ‘13‘
insert into Logs select ‘8‘ , ‘548‘ , ‘2008-11-19 16:47:15.000‘ , ‘2008-11-19 16:47:16.000‘ , ‘61.144.207.115‘ , ‘14‘
go
-- 事实表对应视图
create view v_Fac_logs as
select sid, swebsiteid, convert ( varchar ( 10), stime, 120) as date, sIP, sCount fromLogs
go
-- 维度表
create table dim_datetime ( date varchar ( 10))
insert dim_datetime
select ‘2008-11-15‘ union
select ‘2008-11-16‘ union
select ‘2008-11-17‘ union
select ‘2008-11-18‘ union
select ‘2008-11-19‘
go
-- 事实表抽取的维度,这里用视图实现
create view dim_Ip as
select distinct sip from Logs
--------------------------------------------------------------------------------------------------------------
创建完的表
-------------------------------------------------------------------------------------------------------
----------------------------------------------------------------------------------------------------------------------
对于前面的 Logs表部分是测试数据,和普通的sql环境一样,后面的事实和维度部分是为了ssas模型做准备的,说的简单点,就是把需要group by的字段拎出来,作为单独的维度表存在,他们和事实表(这里是 v_Fac_logs视图 )做主从关系。
然后我们用一些纯UI上的功夫来生成一个SSAS的多维数据集。
1、打开SQLServer2008自带的SQL Server Business Intelligence Development Studio
文件==》新建==》项目 如下图
2,在解决方案资源管理器上面,右键单击“数据源”新建数据源:
如果数据连接窗口里没有可用的,那么说明还没有发现,需要手动新建一个,新建的时候如下图,测试连接成功即可。
注意,要使用服务账户。之后点击完成即可。
3、新建一个数据源视图,选择事实表和维度表,注意这里选择了v_Fac_logs作为事实表而不是Logs。
建立维度和事实之间的逻辑关系,就是主外键关系,事实表必须制定逻辑主键。这个不需要在sqlserver的真实环境中设定,只要这里设定了就可以了。
分别在图形上点击相应的,设置主键。然后新建关系,如上图所示。
4,新建一个多维数据集,注意标题与维度值组表,与维度表,
5、配置一个角色,这个角色日后用在登录ssas服务器的认证,这里用系统管理员.注意,设置完后,要保存。
6,简单的模型建立好了,然后就是部署和数据处理,默认部署在自己的服务器Localhost。
7\处理的时候可以更改设置,并忽略错误,ssas处理会因为一些逻辑上的或者数据上的错误导致失败,如果忽略错误的话,只跳过单条记录(continue),否则整个过程就会退出(break),然后点击运行。
忽略错误的方法,点击更改设置
处理成功的结果
8\\\现在一个可用的多维数据集就做好了,我们可以用我们的建模工具来浏览数据。选择多维数据集结构===>浏览器,如下图
只要把Dim相关的维度拖到上图的对应维度区域(这里的行和列都是维度)中,然后把Measures对应的度量拖到上图的数据区,就可以看到数据了。
行列互换,拖一下就可以了,可以看到,很明了的结果,确实不错。一旦数据量大的时候,这个功能就应该体现出他的威力了。
本片文章只是我们过渡到SSAS的BI项目的第一步,一个简单
的模型,接下来我们会围绕这个模型来讨论如何部署到web服务器供其他客户端,比如SQL Server Management Studio、.Net客户端等来访问、以及如何使用Mdx语句来做分析统计,如果遇到庞大的项目、比如需要分析的数据来源复杂的,如何做资源整合以及ETL数据清理。
http://blog.csdn.net/jinjazz/article/details/4058368
根据作者的文章,终于实验成功
把多维数据集展开,在Test SSAS 上点右键"浏览",然后把相应的元素拖到界面上即可。
excel连接
标签:
原文地址:http://www.cnblogs.com/hrbadmin/p/4276340.html