enableTablePersistence

语法

enableTablePersistence(table, [asynWrite=true], [compress=true], [cacheSize], [retentionMinutes=1440], [flushMode=0],[cachepurgeTimeColumn],[cachePurgeInterval],[cacheRetentionTime])

参数

table 是一个空的流数据表。

asynWrite 是一个布尔值,表示是否异步持久化数据到磁盘。默认值为 true,流数据写入内存即为写入成功,持久化到磁盘的操作将会由另一个线程执行。
注:
持久化数据到磁盘包含两个步骤:
  • 写内存数据到操作系统缓存

  • 写缓存数据到磁盘(是否开启同步刷盘由参数 flushMode 决定)

compress 是一个布尔值。可选参数,表示是否以压缩模式模式保存至磁盘。默认值为 true。

cacheSize 整数,可选参数,表示流数据表在内存中最多保留多少行。如果它为0或者没有指定,所有记录行都会保存在内存中。默认值为-1。
注:
  • 如果 cacheSize 设置为小于 1000 的正整数,它会被自动调整为 1000。

  • 如果 cacheSize 大于 1000:
    • 每次 append 的数据都不超过 cacheSize 时,内存中的数据量不会大于 cacheSize 的 1.5 倍。
    • 否则,当 append 的数据超过 cacheSize 时,内存中的数据量不会超过最大追加行数的 2 倍。

retentionMinutes 是一个整数,表示保留大小超过 1GB 的 log 文件的时间(从文件的最后修改时间开始计算),单位是分钟。默认值是 1440,即一天。

flushMode 是一个整数,表示是否开启同步刷盘,取值只能为 0 或 1。默认值是 0,表示异步刷盘,内存中的流数据写入操作系统缓存即为写入成功,并进行下一批数据的写入。 若为 1,则表示同步刷盘,当前批次的流数据必须落盘完成,才会进行下一批数据的写入。

cachePurgeTimeColumn 字符串标量,需要指定为持久化流表中的时间列名称。

cachePurgeInterval DURATION 类型标量,表示触发清理内存中数据的时间间隔。

cacheRetentionTime DURATION 类型标量,表示内存中数据的最长保留期限。

详情

该命令将共享的流计算表保存到磁盘上。

为保证该命令能够正常执行,需要在配置文件中(单节点:dolohindb.cfg,集群:cluster.cfg)指定配置参数 persistenceDir,配置参考 功能配置。流数据表在磁盘上的存储目录是 <PERSISTENCE_DIR>/<TABLE_NAME>。目录包含两种类型的文件:数据文件(名称类型 data0.log, data1.log...)和索引文件 index.log 。把这些数据保存到磁盘后,如果重启系统,该命令会把磁盘中的数据加载到内存中。

参数 asynWrite 会告知系统是否以异步模式保存表。在异步模式中,追加的数据会被放进队列,之后用于保存的工作线程把数据写入磁盘。在同步模式中,表的追加数据操作直到追加数据被保存到磁盘中才完成。该参数的默认值是 true,即为异步模式。通常情况下,异步模式实现更高的吞吐量,但是如果服务器崩溃,可能会丢失最后追加的行。在异步模式中,保存表的工作是由单个工作线程完成,并且一个工作线程可能处理多个表。如果只保存一个表,增加工作线程的数量并不会提升性能。

默认情况下,流数据表将所有数据保存在内存中。如果流数据表太大,系统可能会出现内存不足的情况。为了避免内存不足的问题,可以通过以下两种方式之一来清理内存中的数据:

  • 配置 cacheSize 参数,设置内存中最多保留的记录数。如果流数据表的行数达到 cacheSize 设置的阈值,则系统会自动清理当前内存中 50% 的旧记录行。

  • 同时配置 cachePurgeTimeColumn, cachePurgeIntervalcacheRetentionTime,系统将根据时间列清理数据。每次插入新数据时,系统会计算新数据与内存中第一条数据的时间戳差值,当差值大于等于 cachePurgeInterval 时,系统仅保留时间戳与新数据时间戳差值小于等于 cacheRetentionTime的数据,清理其它数据。

注:
  • 如果手动重启 server,建议调用 fflush 函数先把缓存区的数据写入磁盘再使用 kill -15 命令终止进程。

  • 如果设置 flushMode=0,则 server 发生 crash 时可能会丢失一部分数据。

例子

例1.

colName=["time","x"]
colType=["timestamp","int"]
t = streamTable(100:0, colName, colType);
share t as st

enableTablePersistence(table=st, cacheSize=1200000)

for(s in 0:200){
  n=10000
  time=2019.01.01T00:00:00.000+s*n+1..n
  x=rand(10.0, n)
  insert into st values(time, x)
}

getPersistenceMeta(st);

/* output: 
persistenceDir->/data/ssd/DolphinDBDemo/persistence3/st
retentionMinutes->1440
hashValue->0
asynWrite->true
diskOffset->0
sizeInMemory->800000
compress->1
memoryOffset->1200000
totalSize->2000000
sizeOnDisk->2000000
*/
注:

以上代码先使用 share 命令共享流数据表,再通过 enableTablePersistence 命令持久化流数据表。我们推荐使用 enableTableShareAndPersistence 函数将共享和持久化组织成原子性操作。

例2. 本例将说明 cachePurgeTimeColumn, cachePurgeIntervalcacheRetentionTime 的使用方法。

colName=["time","x"]
colType=["timestamp","int"]
t1 = streamTable(100:0, colName, colType);
share t1 as st1

enableTablePersistence(table=st,cachePurgeTimeColumn = `time, cachePurgeInterval = duration("7H"),cacheRetentionTime = duration("2H"))

time=2019.01.01T00:00:00.000
for(s in 0:6000){
  time = temporalAdd(time,1,"m");
  x=rand(10.0, 1)
  insert into st values(time, x)
}

getPersistenceMeta(st1);

//通过查看流数据表的元数据,看到该表中的总记录数是 6000 行,系统根据时间列的自动清理内存后,在内存中仅保留了 300 行数据。

/* output:
lastLogSeqNum->-1
sizeInMemory->300
totalSize->6000
asynWrite->true
compress->true
raftGroup->-1
memoryOffset->5700
retentionMinutes->1440
sizeOnDisk->6000
persistenceDir->/data/ssd/DolphinDBDemo/persistence3/st1
hashValue->0
diskOffset->0
*/