多维分析后台实践 2:数据类型优化

【摘要】
用实例、分步骤,详细讲解多维分析(OLAP)的实现。点击了解多维分析后台实践 2:数据类型优化

实践目标

本期目标是练习将数据库读出的数据,尽可能转换为有利于性能优化的数据类型,例如:小整数和浮点数。

实践的步骤:

1、 准备基础宽表:修改上期的代码,完成数据类型优化存为组表文件。

2、 访问基础宽表:修改上期的代码,在传入参数保持不变的前提下,查询数据转换之后的组表文件,结果集也要返回原有的数据显示值。对于这个要求,SQL 是无法实现传入参数和结果集的转换的,所以访问宽表的代码以 SPL 为例。

 

本期样例宽表不变,依然为 customer 表。从 Oracle 数据库中取出宽表数据的 SQL 语句是 select * from customer。执行结果如下图:

 ..

其中字段包括:

CUSTOMER_ID NUMBER(10,0), 客户编号

FIRST_NAME VARCHAR2(20), 名

LAST_NAME VARCHAR2(25), 姓

PHONE_NUMBER VARCHAR2(20), 电话号码

BEGIN_DATE DATE, 开户日期

JOB_ID VARCHAR2(10), 职业编号

JOB_TITLE VARCHAR2(32), 职业名称

BALANCE NUMBER(8,2), 余额

EMPLOYEE_ID NUMBER(4,0), 开户雇员编号

DEPARTMENT_ID NUMBER(4,0), 分支机构编号

DEPARTMENT_NAME VARCHAR2(32), 分支结构名称

FLAG1 CHAR(1), 标记 1

FLAG2 CHAR(1), 标记 2

FLAG3 CHAR(1), 标记 3

FLAG4 CHAR(1), 标记 4

FLAG5 CHAR(1), 标记 5

FLAG6 CHAR(1), 标记 6

FLAG7 CHAR(1), 标记 7

FLAG8 CHAR(1), 标记 8

 

多维分析计算的目标也不变,用下面 Oracle 的 SQL 语句表示:

select department_id,job_id,to_char(begin_date,'yyyymm') begin_month ,sum(balance) sum,count(customer_id) count

from customer

where department_id in (10,20,50,60,70,80)

and job_id in ('AD_VP','FI_MGR','AC_MGR','SA_MAN','SA_REP')

and begin_date>=to_date('2002-01-01','yyyy-mm-dd')

and begin_date<=to_date('2020-12-31','yyyy-mm-dd')

and flag1='1' and flag8='1'

group by department_id,job_id,to_char(begin_date,'yyyymm')

准备宽表

一、数值整数化

在 customer 表中有些字段本身就是整数,比如:CUSTOMER_ID、EMPLOYEE_ID、DEPARTMENT_ID。

处理方法:

l  如果从数据库中导出的是整型,就可以直接存储到组表中。

l  如果从数据库中导出的不是整型,要用类型转换函数强制转换为整型。

l  要注意尽量让整数值小于 65536,这样性能最好。如果原字段值被人为的转换成较大的整数,例如:所有的数值都加上了一个 100000,变成 100001、100002…,就要去掉前面的 1。

二、字符串整数化

FLAG1 到 FLAG8 是字符串,但是存储的依然是整型数据,可以用类型转换函数转为整型。

JOB_ID 字段也是字符串,取值是 jobs 维表的主键,属于枚举类型。我们可以用 jobs 表中的序号代替 JOB_ID 字段,实现整数化。

jobs 表结构和样例数据如下:

..

处理方法:

l  取出 jobs 中的 JOB_ID,排好序后构成一个序列 job。customer 宽表中增加 JOB_NUM 字段存储 JOB_ID 在序列 job 中的序号。

三、日期整数化

大多数情况下,日期型数据只是用来比较,并不需要计算间隔,所以也可以用小整数来存储。在多维分析计算中,按照年、月来计算的情况比较常见。小整数化之后的日期,要求能很方便的把年、月拆分出来。

处理方法:

l  我们可以计算出 BEGIN_DATE 字段值与一个日期起点的间隔月数,乘以 100 后加上 BEGIN_DATE 的日值,来代替日期型数据存入组表。起点日期根据日期数据的特征来确定,值越大越好。

例如:我们发现所有的 BEGIN_DATE 都在 2000 年之后,则可以确定日期起点为 2000-01-01。

确定日期起点后,就可以转化 customer 宽表中的 BEGIN_DATE 字段值了。例如:BEGIN_DATE 为 2010-11-20,先计算出和 2000-01-01 相差的整月数是 130,乘以 100 后加上日值 20 即可得到小整数 13020。

以 2000-01-01 为日期起点,BEGIN_DATE 小于 2050 年时,整数化之后的值都小于 65536。可以看到,在业务数据允许的前提下,日期起点尽量晚,可以更大程度避免出现宽表中的日期超出小整数范围的情况。

四、无法整数化的情况

必须用字符串表示的字段,如 FIRST_NAME、JOB_TITLE 等;

必须用浮点数表示的字段,如金额、折扣率等有小数部分的字段;

必须用字符串加整数一起表示的字段,如国际电话号码等。

处理方法:

l  保持字段原值不动。

 

根据以上要求,改写 etl.dfx,从数据库中取出数据,类型转化后,生成组表文件,存储基础宽表。代码示例如下:


A

B

1

=connect@l("oracle")

=A1.cursor@d("select   * from customer")

2

=A1.query@d("select   job_id from jobs order by job_id")

=file("data/job.btx").export@z(A2)  

3

=A2.(job_id)

=date("2000-01-01")

4

=B1.new(int(customer_id):customer_id,first_name,last_name,phone_number,int(interval@m(B3,begin_date)*100+day(begin_date)):begin_date,A3.pos@b(job_id):job_num,job_title,float(balance):balance,int(employee_id):employee_id,int(department_id):department_id,department_name,int(flag1):flag1,int(flag2):flag2,int(flag3):flag3,int(flag4):flag4,int(flag5):flag5,int(flag6):flag6,int(flag7):flag7,int(flag8):flag8)

5

=file("data/customer.ctx").create@y(customer_id,first_name,last_name,phone_number,begin_date,job_num,job_title,balance,employee_id,department_id,department_name,flag1,flag2,flag3,flag4,flag5,flag6,flag7,flag8)  

6

=A5.append(A4)

>A5.close(),A1.close()

A1:连接预先配置好的数据库 oracle,@l 是指取出字段名为小写。注意这里是小写字母L

B1:建立数据库游标,准备取出 customer 表的数据。customer 是事实表,实际应用中一般都比较大,所以用游标方式,避免内存溢出。游标的 @d 选项是将 oracle 的 numeric 型数据转换成 double 型数据,而非 decimal 型数据。decimal 型数据在 java 中的性能较差。

A2:从数据库中读 jobs 表,只读取 JOB_ID 字段并排序。jobs 是维表,一般都比较小,所以直接读入到内存中。

B2:将 A2 的数据存储成集文件,待后面使用。

A3:将 A2 转化为序列。

B3:定义日期 2000-01-01。

A4:用 new 函数定义三种计算。

1、  CUSTOMER_ID 等确定是整数的数值,从 double 或者 string 转换为 int。方法是直接用 int 函数做类型转换。注意 int 不能大于 2147483647,对于数据量超过这个数值的事实表,序号主键要用 long 型。

2、  将 JOB_ID 从字符串转化为整数,提高计算性能。方法是用 pos 函数找到 job_id 在 A3 中的序号,定义为 JOB_NUM 字段。

3、  用 interval 计算 begin_date 和 2000-01-01 之间相差的整月数,乘以 100 加上 begin_date 的日值,用 int 转换为整数存储为新的 begin_date。

A5:定义列存组表文件。字段名和 A4 完全一致。

A6:边计算游标 A4,边输出到组表文件中。

B6:关闭组表文件和数据库连接。

 

数据量为一千万,导出组表文件约 344MB。和第一期未做数据类型优化的文件比较如下:

期数

文件大小

说明

备注

第一期

3.5GB

直接从数据库导出,未做优化


第二期

3.0GB

完成数据类型优化


 

从上表可以看出,完成数据类型优化之后,文件大小减少了 12%(49M)。文件变小,能减少磁盘读取数据量,有效提高性能。

访问宽表

如上所述,后台组表的很多字段已经优化转换,没有办法用原来的 SQL 进行查询了。我们采用执行脚本的方式,提交过滤条件、分组字段等参数,后台将参数值转换成优化后的数据类型,再对组表进行计算。这样做,可以保证通用多维分析前端传入的参数保持不变。最后,计算结果也需要转换为对应的显示值。

例如:传入的参数 flag1='1',需要转换为 flag1=1;计算结果中的 job_num 和 begin_date,还要从整数转换为字符串 job_id 和日期。

为了实现这个计算,要先在节点服务器主目录中编写 init.dfx 文件,预先加载全局变量 job,用于后续的转换计算。

init.dfx 代码如下:


A

B

1

=file("data/job.btx").import@ib()

=env(job,A1)

A1:取出集文件中的数据,@i 表示只有一列时读成序列。

B1:存入全局变量 job。

写好的 init.dfx 要放入节点机主目录,启动或重启节点机时会被自动调用。

 

按照数据类型优化要求改写 olap-spl.dfx,用 SPL 代码访问宽表并进行过滤和分组汇总计算。

定义网格参数,将文件名、部门编号、工作编号、标志位、日期范围、分组字段、聚合表达式分别传入。

参数设置窗口如下,和第一期完全一致:

..

参数值样例:

filename="data/customer.ctx"

arg_department_id ="10,20,50,60,70,80"

arg_job_id="AD_VP,FI_MGR,AC_MGR,SA_MAN,SA_REP"      

arg_begin_date_min = "2002-01-01"

arg_begin_date_max ="2020-12-31"

arg_flag ="flag1==\"1\"&& flag8==\"1\" "

group="department_id,job_id,begin_yearmonth"

aggregate="sum(balance):sum,count(customer_id):count"

说明:group 中如果是 begin_date 则按照日期分组,如果是 begin_yearmonth 则按照年月分组。对于多维分析前端来说,可以认为有两个字段。

 

SPL 代码示例如下:


A

B

1

=file(arg_filename).open()  

=date("2000-01-01")

2

=int(interval@m(B1,arg_begin_date_max)*100+day(arg_begin_date_max))

=int(interval@m(B1,arg_begin_date_min)*100+day(arg_begin_date_min))

3

=arg_job_id.split@c().(job.pos@b(~))

=arg_department_id.split@c().(int(~))

4

=replace(arg_flag,"\"","")

=replace(arg_group,"job_id","job_num")

5

=replace(B4,"begin_yearmonth","begin_date\\100:begin_yearmonth")

6

=A1.cursor@m(;B3.contain(department_id)   && A3.contain(job_num) && begin_date>=B2 && begin_date<=A2   && ${A4};2)

7

=A6.groups(${A5};${arg_aggregate})


8

=A7.fname()

=A8(A8.pos("job_num"))="job(job_num):job_id"

9

=A8(A8.pos("begin_yearmonth"))="month@y(elapse@m(B4,begin_yearmonth)):begin_yearmonth"

10

=A8(A8.pos("begin_date"))="elapse@m(B4,begin_date\\100)+begin_date%100-1:begin_date"

11

=A7.new(${A8.concat@c()})


12

return A11


A1:打开组表对象。B1:定义起点日期 2000-01-01 用于参数和结果中的日期值转换。

A2、B2:将传入日期参数按照前面介绍的方法转化为整数。

A3:将传入的逗号分隔字符串 job_id 转换为在全局变量 job 序列中的位置,也就是 job_num 整数序列。

B3:将传入的逗号分隔字符串 department_id 用 int 函数转换为整数序列。

A4:将传入的 flag 条件中的双引号去掉,变为整数条件。

B4:将传入的分组字段中的 job_id 替换为 job_num。

A5:将传入的分组字段中的 begin_yearmonth,替换为 begin_date\100。begin_date 的字段值除以 100 取整,就是实际日期和起点日期相差的月数。

A6:定义带过滤条件的游标。

A7:对游标计算小结果集分组汇总。

A8:将 A7 结果的字段名形成序列。

B8: 字段名中如果有 job_num,就替换成转换语句。语句的作用是:将分组结果中的 job_num 转换为 job_id。

A9:字段名中如果有 begin_yearmonth,替换为转换语句,作用是:将分组字段中的月差值 begin_yearmonth 从整数转化为 yyyymm。

A10:字段名中如果有 begin_date,替换为转换语句,作用是:将分组字段中的整数化日期值转换为日期型。

A11:将替换之后的 A8 重新用逗号连接成字符串,并对 A7 循环计算,完成字段类型和显示值的转换。

A12:返回 A11 结果集。

 

执行结果如下图:

..

 

olap-spl.dfx 编写好之后,可以在多维分析中作为存储过程调用,Java 代码和第一期相同。如下:

public void testOlapServer(){

       Connection con = null;

       java.sql.PreparedStatement st;

       try{

              // 建立连接

              Class.forName("com.esproc.jdbc.InternalDriver");

              // 根据 url 获取连接

              con= DriverManager.getConnection("jdbc:esproc:local://?onlyServer=true&sqlfirst=plus");

              // 调用存储过程,其中 olap-spl 是 dfx 的文件名

st =con.prepareCall("call olap-spl(?,?,?,?,?,?,?,?)");

st.setObject(1, "data/customer.ctx");//arg_filename

st.setObject(2, "10,20,50,60,70,80");//arg_department_id

st.setObject(3, "AD_VP,FI_MGR,AC_MGR,SA_MAN,SA_REP");//arg_job_id      

st.setObject(4, "2002-01-01");//arg_begin_date_min

st.setObject(5, "2020-12-31");//arg_begin_date_max

st.setObject(6, "flag1==\"1\"&& flag8==\"1\" ");//arg_flag

st.setObject(7, "department_id,job_id,begin_yearmonth");//arg_group

st.setObject(8, "sum(balance):sum,count(customer_id):count");//arg_aggregate

// 执行存储过程

st.execute();

// 获取结果集

ResultSet rs = st.getResultSet();

// 继续处理结果集,将结果集展现出来

             

       }

       catch(Exception e){

              out.println(e);

       }

       finally{

              // 关闭连接

              if (con!=null) {

                     try {con.close();}

                     catch(Exception e) {out.println(e);       }

              }

       }

}

 

Java 代码加上后台计算返回结果总的执行时间,和第一期比较如下:

期数

单线程

二线程并行

备注

第一期

120

75


第二期

59 秒

36 秒


如上期所述,表中的执行时间硬件配置相关,其绝对数值并不重要。重要的是,通过上表的对比可以看出,数据类型优化有效提高了计算性能。