多行日志合并处理的内外存方法

【摘要】         你还在使用文本软件的搜索功能在查找日志么?这个操作已经 Out 啦,将日志转换为结构化后的文本,一句 SQL 就查询出来了。那要如何转换呢?去乾学院看个究竟:多行日志合并处理的内外存方法!

上一讲中,我们介绍了如何用SPL将一行日志结构化为一条记录,今天则要说一下多行日志对应一条记录的情况,我们称之为不定行日志。

事实上,集算器自己的输出日志就是这种不定行日志,我们来看一下集算器节点机下的一个日志文件rqlog. log,同样摘录两段日志:

[2018-05-14 09:20:20]

DEBUG: 临时文件过期时间为:12小时。

 

[2018-05-14 09:20:20]

DEBUG: Temporary file directory is:

D:\temp\esProc\nodes\127.0.0.1_8281\temp.

Files in temporary directory will be deleted on every 12 hours.

简单分析一下这两段日志,每一段第一行都是方括号中的时间,紧接着第二行是用冒号分隔的日志类型和日志内容,随后各行都是日志内容的补充,直至遇到下一个方括号中的时间行。由此可以确定,结构化后的字段应该有三个:日志时间日志类型日志内容

对于这种不定行的日志,最直接的结构化思路就是逐行加载,并根据条件拼接成相应的字段。但这里有个麻烦,由于每条记录对应的行数不确定,所以需要另外通过条件判断来识别每条记录的起始行。另一个问题就是当使用游标分析比较大的文件时,由于每次fetch的行数不可能总是刚好断在一条记录的末尾,所以在fetch的块与块之间还要考虑衔接问题。

所以,对于这种类型的日志,最理想的方法,是应该能把每一块日志与其它块自动分开。这样,就可以直接将每一块日志解析到一条记录,而不需要考虑读取的行应该属于上一条记录还是下一条记录。

SPL中就有这样的分组方式,形如A.group@i(exp),只不过其中的分组表达式exp不能返回枚举值,而应该返回布尔值。而i选项则表示根据相邻行计算exp,如果返回true就表示建立一个新组,其后面连续返回false的行都归于这个组。

有了这样的分组方式,我们只要写出能解析记录第一行的exp就可以了。本例中,记录第一行是以方括号“[”开始的一个日期时间,如果能够确定后面的内容中不会有以“[”开始的行,那么分组表达式只需判断每一行的第一个字符是否为‘[’就可以了。

下面是实现的脚本文件convertlog.dfx


A

B

C

D

1

=create(日志时间, 日志类型, 日志内容 )

=now()



2

=file@s(fileName:"UTF-8")

=A2.read@n()

=B2.select(~!="")

=C2.group@i(pos(~,"[")==1)

3

=A2.name()

=filename@d(A3)

=filename@n(A3)


4

=outFile=B3+"\\"+C3+".btx"

=file(outFile)

>movefile(B4)


5





6

for D2

=0



7


for A6

>B6=B6+1


8



if B6==1

=mid(B7,2,19)

9




>A5=datetime(D8,"yyyy-MM-dd   HH🇲🇲ss")

10




next

11



if B6==2

>B5=substr@l(B7,":")

12




>C5=C5|substr(B7,":")

13




next

14



>C5=C5|B7


15


>A1.record([A5:C5])

>C5=[]


16


if A1.len()>99999


17



>B4.export@ab(A1)

18



>D4=D4+A1.len()

>output("转换完成:"/D4)

19



>A1.reset()


20

>D4=D4+A1.len()

>B4.export@ab(A1)

>output("转换完成:"/D4)


21

=now()

=interval@ms(B1,A21)

Return


22

>output("转换为 "+outFile+" 成功。耗时 "/B21+" 毫秒。")

表(1

脚本仍然是一次性将文件全部读入,只是在分析过程中,每凑够十万行就将其追加到输出文件。下面是重点代码的解析:

1)         C2过滤空行,日志的块与块之间可能有很多空行,此处用select函数选出非空行。

2)         D2是本例的重点,按照每一行是否由‘[’开头来进行分组,分组后的结果是每一块对应一个序列,再由这些块序列组成一个大的序列。

3)         5行空了出来,其实是预留A5C5来容纳解析后的3个字段。

4)         由于D2返回的序列已经是按照记录对应的块做好分组了,所以只需在A6中对D2序列循环即可。

5)         B7C14将每一块日志结构化到各个字段。

6)         A20C20将最后一段不够十万行的数据,写到文件。

 

下面是当前代码的执行结果:

                                              undefined

图(1

 

上面这个例子介绍了如何用分组来结构化不定行的日志。不过,分析前仍然导入了整个文件,占用的内存较大。为了减少内存占用,我们可以使用游标来处理。和上面这个例子非常类似,从文件得到游标后,紧接着的是和序列几乎一样的过滤、分组方法。细微的区别是由于游标中返回的分组是序表,而不再是序列,因此需要用字段名‘_1’来引用各行的值。另外,使用游标后,每次fetch得到的是一个序表的序列,因此相对于全文导入,要多一层循环处理。

下面是实现的脚本文件convertLogCursor.dfx


A

B

C

D

E

1

=create(日志时间, 日志类型, 日志内容 )

=now()




2

=file@s(fileName:"UTF-8")

=A2.cursor@s()

=B2.select(_1!="")

=C2.group@i(pos(_1,"[")==1)


3

=A2.name()

=filename@d(A3)

=filename@n(A3)



4

=outFile=B3+"\\"+C3+".btx"

=file(outFile)

>movefile(B4)



5






6

for C2,10000

for A6

=0



7



for B6

>C6=C6+1


8




if C6==1

=mid(C7._1,2,19)

9





>A5=datetime(E8,"yyyy-MM-dd   HH🇲🇲ss")

10





next

11




if C6==2

>B5=substr@l(C7._1,":")

12





>C5=C5|substr(C7._1,":")

13





next

14




>C5=C5|C7._1


15



>A1.record([A5:C5])

>C5=[]


16



if A1.len()>99999


17




>B4.export@ab(A1)


18




>D4=D4+A1.len()

>output("转换完成:"/D4)

19




>A1.reset()


20

>D4=D4+A1.len()

>B4.export@ab(A1)

>output("转换完成:"/D4)


21

=now()

=interval@ms(B1,A21)



22

>output("转换为 "+outFile+" 成功。耗时 "/B21+" 毫秒。")

表(2

可以看到,除了用游标时,表达式中需要使用缺省字段名‘_1’,以及多了一层循环取数,这个脚本和前面全部读入文件的方式完全一致。执行后可以看到结果也跟convertLog.dfx完全一样。

         看到这里,细心的读者可能会想到,是不是也可以像上一讲一样,使用多路游标来提升性能?答案是肯定的,不过需要调整一下方法。如果只是简单使用cursor@m返回多路游标的话,由于线程游标是由SPL自动创建的,每个游标会被自动分配一段属于自己的数据,这就有可能会将本来属于同一条记录的数据块,分配给了两个线程,从而造成线程内部难以处理数据缺失的部分。如果不介意部分数据不完整,那么可以稍稍调整一下脚本,直接跳过残缺的记录。而如果对数据的完整性要求很严格的话,就需要将不完整的记录头和记录尾返回给主程序,让主程序来集中处理了。但要注意的是多路游标的各线程游标是自动创建的,线程之间的顺序不好确定,所以主程序拿到这些不完整的记录头和记录尾,也会因为次序没法确定而无法正确衔接。因此,这时就需要改用 fork to(n)语句来主动创建顺序线程了。fork语句所在的格子值就是当前线程的序号,然后在代码段中创建局部游标,并加载相应的数据段就可以了。 不过,无论如何都会麻烦一些,因不是很常见,这里也就不再举例了,有兴趣的同学可以将它作为一个练习题。

最后总结一下,不定行日志的处理关键是确定几行日志可以“凑”成一条记录。而利用集算器SPLgroup函数的@i选项,就可以定义日志块的分隔条件,从而简洁方便地“庖丁解牛”了。