多维分析后台实践 2:数据类型优化
实践目标
本期目标是练习将数据库读出的数据,尽可能转换为有利于性能优化的数据类型,例如:小整数和浮点数。
实践的步骤:
1、 准备基础宽表:修改上期的代码,完成数据类型优化存为组表文件。
2、 访问基础宽表:修改上期的代码,在传入参数保持不变的前提下,查询数据转换之后的组表文件,结果集也要返回原有的数据显示值。对于这个要求,SQL 是无法实现传入参数和结果集的转换的,所以访问宽表的代码以 SPL 为例。
本期样例宽表不变,依然为 customer 表。从 Oracle 数据库中取出宽表数据的 SQL 语句是 select * from customer。执行结果如下图:
其中字段包括:
CUSTOMER_ID NUMBER(10,0), 客户编号
FIRST_NAME VARCHAR2(20), 名
LAST_NAME VARCHAR2(25), 姓
PHONE_NUMBER VARCHAR2(20), 电话号码
BEGIN_DATE DATE, 开户日期
JOB_ID VARCHAR2(10), 职业编号
JOB_TITLE VARCHAR2(32), 职业名称
BALANCE NUMBER(8,2), 余额
EMPLOYEE_ID NUMBER(4,0), 开户雇员编号
DEPARTMENT_ID NUMBER(4,0), 分支机构编号
DEPARTMENT_NAME VARCHAR2(32), 分支结构名称
FLAG1 CHAR(1), 标记 1
FLAG2 CHAR(1), 标记 2
FLAG3 CHAR(1), 标记 3
FLAG4 CHAR(1), 标记 4
FLAG5 CHAR(1), 标记 5
FLAG6 CHAR(1), 标记 6
FLAG7 CHAR(1), 标记 7
FLAG8 CHAR(1), 标记 8
多维分析计算的目标也不变,用下面 Oracle 的 SQL 语句表示:
select department_id,job_id,to_char(begin_date,'yyyymm') begin_month ,sum(balance) sum,count(customer_id) count
from customer
where department_id in (10,20,50,60,70,80)
and job_id in ('AD_VP','FI_MGR','AC_MGR','SA_MAN','SA_REP')
and begin_date>=to_date('2002-01-01','yyyy-mm-dd')
and begin_date<=to_date('2020-12-31','yyyy-mm-dd')
and flag1='1' and flag8='1'
group by department_id,job_id,to_char(begin_date,'yyyymm')
准备宽表
一、数值整数化
在 customer 表中有些字段本身就是整数,比如:CUSTOMER_ID、EMPLOYEE_ID、DEPARTMENT_ID。
处理方法:
l 如果从数据库中导出的是整型,就可以直接存储到组表中。
l 如果从数据库中导出的不是整型,要用类型转换函数强制转换为整型。
l 要注意尽量让整数值小于 65536,这样性能最好。如果原字段值被人为的转换成较大的整数,例如:所有的数值都加上了一个 100000,变成 100001、100002…,就要去掉前面的 1。
二、字符串整数化
FLAG1 到 FLAG8 是字符串,但是存储的依然是整型数据,可以用类型转换函数转为整型。
JOB_ID 字段也是字符串,取值是 jobs 维表的主键,属于枚举类型。我们可以用 jobs 表中的序号代替 JOB_ID 字段,实现整数化。
jobs 表结构和样例数据如下:
处理方法:
l 取出 jobs 中的 JOB_ID,排好序后构成一个序列 job。customer 宽表中增加 JOB_NUM 字段存储 JOB_ID 在序列 job 中的序号。
三、日期整数化
大多数情况下,日期型数据只是用来比较,并不需要计算间隔,所以也可以用小整数来存储。在多维分析计算中,按照年、月来计算的情况比较常见。小整数化之后的日期,要求能很方便的把年、月拆分出来。
处理方法:
l 我们可以计算出 BEGIN_DATE 字段值与一个日期起点的间隔月数,乘以 100 后加上 BEGIN_DATE 的日值,来代替日期型数据存入组表。起点日期根据日期数据的特征来确定,值越大越好。
例如:我们发现所有的 BEGIN_DATE 都在 2000 年之后,则可以确定日期起点为 2000-01-01。
确定日期起点后,就可以转化 customer 宽表中的 BEGIN_DATE 字段值了。例如:BEGIN_DATE 为 2010-11-20,先计算出和 2000-01-01 相差的整月数是 130,乘以 100 后加上日值 20 即可得到小整数 13020。
以 2000-01-01 为日期起点,BEGIN_DATE 小于 2050 年时,整数化之后的值都小于 65536。可以看到,在业务数据允许的前提下,日期起点尽量晚,可以更大程度避免出现宽表中的日期超出小整数范围的情况。
四、无法整数化的情况
必须用字符串表示的字段,如 FIRST_NAME、JOB_TITLE 等;
必须用浮点数表示的字段,如金额、折扣率等有小数部分的字段;
必须用字符串加整数一起表示的字段,如国际电话号码等。
处理方法:
l 保持字段原值不动。
根据以上要求,改写 etl.dfx,从数据库中取出数据,类型转化后,生成组表文件,存储基础宽表。代码示例如下:
A | B | |
1 | =connect@l("oracle") | =A1.cursor@d("select * from customer") |
2 | =A1.query@d("select job_id from jobs order by job_id") | =file("data/job.btx").export@z(A2) |
3 | =A2.(job_id) | =date("2000-01-01") |
4 | =B1.new(int(customer_id):customer_id,first_name,last_name,phone_number,int(interval@m(B3,begin_date)*100+day(begin_date)):begin_date,A3.pos@b(job_id):job_num,job_title,float(balance):balance,int(employee_id):employee_id,int(department_id):department_id,department_name,int(flag1):flag1,int(flag2):flag2,int(flag3):flag3,int(flag4):flag4,int(flag5):flag5,int(flag6):flag6,int(flag7):flag7,int(flag8):flag8) | |
5 | =file("data/customer.ctx").create@y(customer_id,first_name,last_name,phone_number,begin_date,job_num,job_title,balance,employee_id,department_id,department_name,flag1,flag2,flag3,flag4,flag5,flag6,flag7,flag8) | |
6 | =A5.append(A4) | >A5.close(),A1.close() |
A1:连接预先配置好的数据库 oracle,@l 是指取出字段名为小写。注意这里是小写字母L。
B1:建立数据库游标,准备取出 customer 表的数据。customer 是事实表,实际应用中一般都比较大,所以用游标方式,避免内存溢出。游标的 @d 选项是将 oracle 的 numeric 型数据转换成 double 型数据,而非 decimal 型数据。decimal 型数据在 java 中的性能较差。
A2:从数据库中读 jobs 表,只读取 JOB_ID 字段并排序。jobs 是维表,一般都比较小,所以直接读入到内存中。
B2:将 A2 的数据存储成集文件,待后面使用。
A3:将 A2 转化为序列。
B3:定义日期 2000-01-01。
A4:用 new 函数定义三种计算。
1、 CUSTOMER_ID 等确定是整数的数值,从 double 或者 string 转换为 int。方法是直接用 int 函数做类型转换。注意 int 不能大于 2147483647,对于数据量超过这个数值的事实表,序号主键要用 long 型。
2、 将 JOB_ID 从字符串转化为整数,提高计算性能。方法是用 pos 函数找到 job_id 在 A3 中的序号,定义为 JOB_NUM 字段。
3、 用 interval 计算 begin_date 和 2000-01-01 之间相差的整月数,乘以 100 加上 begin_date 的日值,用 int 转换为整数存储为新的 begin_date。
A5:定义列存组表文件。字段名和 A4 完全一致。
A6:边计算游标 A4,边输出到组表文件中。
B6:关闭组表文件和数据库连接。
数据量为一千万,导出组表文件约 344MB。和第一期未做数据类型优化的文件比较如下:
期数 | 文件大小 | 说明 | 备注 |
第一期 | 3.5GB | 直接从数据库导出,未做优化 | |
第二期 | 3.0GB | 完成数据类型优化 |
从上表可以看出,完成数据类型优化之后,文件大小减少了 12%(49M)。文件变小,能减少磁盘读取数据量,有效提高性能。
访问宽表
如上所述,后台组表的很多字段已经优化转换,没有办法用原来的 SQL 进行查询了。我们采用执行脚本的方式,提交过滤条件、分组字段等参数,后台将参数值转换成优化后的数据类型,再对组表进行计算。这样做,可以保证通用多维分析前端传入的参数保持不变。最后,计算结果也需要转换为对应的显示值。
例如:传入的参数 flag1='1',需要转换为 flag1=1;计算结果中的 job_num 和 begin_date,还要从整数转换为字符串 job_id 和日期。
为了实现这个计算,要先在节点服务器主目录中编写 init.dfx 文件,预先加载全局变量 job,用于后续的转换计算。
init.dfx 代码如下:
A | B | |
1 | =file("data/job.btx").import@ib() | =env(job,A1) |
A1:取出集文件中的数据,@i 表示只有一列时读成序列。
B1:存入全局变量 job。
写好的 init.dfx 要放入节点机主目录,启动或重启节点机时会被自动调用。
按照数据类型优化要求改写 olap-spl.dfx,用 SPL 代码访问宽表并进行过滤和分组汇总计算。
定义网格参数,将文件名、部门编号、工作编号、标志位、日期范围、分组字段、聚合表达式分别传入。
参数设置窗口如下,和第一期完全一致:
参数值样例:
filename="data/customer.ctx"
arg_department_id ="10,20,50,60,70,80"
arg_job_id="AD_VP,FI_MGR,AC_MGR,SA_MAN,SA_REP"
arg_begin_date_min = "2002-01-01"
arg_begin_date_max ="2020-12-31"
arg_flag ="flag1==\"1\"&& flag8==\"1\" "
group="department_id,job_id,begin_yearmonth"
aggregate="sum(balance):sum,count(customer_id):count"
说明:group 中如果是 begin_date 则按照日期分组,如果是 begin_yearmonth 则按照年月分组。对于多维分析前端来说,可以认为有两个字段。
SPL 代码示例如下:
A | B | |
1 | =file(arg_filename).open() | =date("2000-01-01") |
2 | =int(interval@m(B1,arg_begin_date_max)*100+day(arg_begin_date_max)) | =int(interval@m(B1,arg_begin_date_min)*100+day(arg_begin_date_min)) |
3 | =arg_job_id.split@c().(job.pos@b(~)) | =arg_department_id.split@c().(int(~)) |
4 | =replace(arg_flag,"\"","") | =replace(arg_group,"job_id","job_num") |
5 | =replace(B4,"begin_yearmonth","begin_date\\100:begin_yearmonth") | |
6 | =A1.cursor@m(;B3.contain(department_id) && A3.contain(job_num) && begin_date>=B2 && begin_date<=A2 && ${A4};2) | |
7 | =A6.groups(${A5};${arg_aggregate}) | |
8 | =A7.fname() | =A8(A8.pos("job_num"))="job(job_num):job_id" |
9 | =A8(A8.pos("begin_yearmonth"))="month@y(elapse@m(B4,begin_yearmonth)):begin_yearmonth" | |
10 | =A8(A8.pos("begin_date"))="elapse@m(B4,begin_date\\100)+begin_date%100-1:begin_date" | |
11 | =A7.new(${A8.concat@c()}) | |
12 | return A11 |
A1:打开组表对象。B1:定义起点日期 2000-01-01 用于参数和结果中的日期值转换。
A2、B2:将传入日期参数按照前面介绍的方法转化为整数。
A3:将传入的逗号分隔字符串 job_id 转换为在全局变量 job 序列中的位置,也就是 job_num 整数序列。
B3:将传入的逗号分隔字符串 department_id 用 int 函数转换为整数序列。
A4:将传入的 flag 条件中的双引号去掉,变为整数条件。
B4:将传入的分组字段中的 job_id 替换为 job_num。
A5:将传入的分组字段中的 begin_yearmonth,替换为 begin_date\100。begin_date 的字段值除以 100 取整,就是实际日期和起点日期相差的月数。
A6:定义带过滤条件的游标。
A7:对游标计算小结果集分组汇总。
A8:将 A7 结果的字段名形成序列。
B8: 字段名中如果有 job_num,就替换成转换语句。语句的作用是:将分组结果中的 job_num 转换为 job_id。
A9:字段名中如果有 begin_yearmonth,替换为转换语句,作用是:将分组字段中的月差值 begin_yearmonth 从整数转化为 yyyymm。
A10:字段名中如果有 begin_date,替换为转换语句,作用是:将分组字段中的整数化日期值转换为日期型。
A11:将替换之后的 A8 重新用逗号连接成字符串,并对 A7 循环计算,完成字段类型和显示值的转换。
A12:返回 A11 结果集。
执行结果如下图:
olap-spl.dfx 编写好之后,可以在多维分析中作为存储过程调用,Java 代码和第一期相同。如下:
public void testOlapServer(){
Connection con = null;
java.sql.PreparedStatement st;
try{
// 建立连接
Class.forName("com.esproc.jdbc.InternalDriver");
// 根据 url 获取连接
con= DriverManager.getConnection("jdbc:esproc:local://?onlyServer=true&sqlfirst=plus");
// 调用存储过程,其中 olap-spl 是 dfx 的文件名
st =con.prepareCall("call olap-spl(?,?,?,?,?,?,?,?)");
st.setObject(1, "data/customer.ctx");//arg_filename
st.setObject(2, "10,20,50,60,70,80");//arg_department_id
st.setObject(3, "AD_VP,FI_MGR,AC_MGR,SA_MAN,SA_REP");//arg_job_id
st.setObject(4, "2002-01-01");//arg_begin_date_min
st.setObject(5, "2020-12-31");//arg_begin_date_max
st.setObject(6, "flag1==\"1\"&& flag8==\"1\" ");//arg_flag
st.setObject(7, "department_id,job_id,begin_yearmonth");//arg_group
st.setObject(8, "sum(balance):sum,count(customer_id):count");//arg_aggregate
// 执行存储过程
st.execute();
// 获取结果集
ResultSet rs = st.getResultSet();
// 继续处理结果集,将结果集展现出来
}
catch(Exception e){
out.println(e);
}
finally{
// 关闭连接
if (con!=null) {
try {con.close();}
catch(Exception e) {out.println(e); }
}
}
}
Java 代码加上后台计算返回结果总的执行时间,和第一期比较如下:
期数 | 单线程 | 二线程并行 | 备注 |
第一期 | 120秒 | 75秒 | |
第二期 | 59 秒 | 36 秒 |
如上期所述,表中的执行时间硬件配置相关,其绝对数值并不重要。重要的是,通过上表的对比可以看出,数据类型优化有效提高了计算性能。