1.30.19
1.30.19.4
新增功能
流订阅指定 batchSize 为小数时增加报错提示。
功能优化
-
流订阅指定 msgAsTable = True 且指定 batchSize 为正整数时,将基于消息块处理记录。
-
python API 最高支持 NumPy 1.23.4 和 pandas 1.5.2。
-
优化上传数据报错信息。
-
优化 Mac python API 报错信息。
故障修复
-
修复下载的数据中时间戳小于1970时,会报错的问题。
-
修复通过
tableAppender
,tableUpsert
,PartitionedTableAppender
写入包含 INT128, IPADDR, UUID, BLOB 类型列时,写入失败的问题。 -
修复通过
s.dropPartition
删除分区,或通过s.loadTable
加载表时,由于创建的临时 database handle 和 table handle 未销毁而造成 server 内存泄漏的问题。
1.30.19.3
新增功能
-
session
类新增setTimeOut
方法,用于设置 TCP 连接的 TCP_USER_TIMEOUT 选项。仅 Linux 系统生效。 -
createPartitionedTable
新增参数 sortKeyMappingFunction ,支持对 sortKey 降维。
功能优化
DataFrame 在指定 __DolphinDB_Type__
属性后,可以按照指定类型上传。
故障修复
修复 Python API 上传 object 类型的 Bool 数据时出现数值错误的问题。
1.30.19.2
新增功能
-
为函数添加注解,支持在调用函数时提示函数用法。
-
Windows 系统下,Python API 新增支持官网 Python3.8, Python3.9。
-
DBConnectionPool 的 runTaskAsync 函数支持上传数据。
-
session 增加 enableJobCancellation 方法,仅支持 Linux 系统,通过 Ctrl+C 取消进程中所有正在执行的 session.run() 的任务。
-
Linux aarch64 系统下,Python API 支持 conda 环境的 Python3.7-Python3.9。
故障修复
解决了 Table 对象被删除后,服务器端不会自动释放资源的问题。
1.30.19.1
新增功能
-
新增系统变量 version,通过 dolphindb.__version__ 可以查看 API 的版本号。
-
tableAppender
支持写入 array vector 类型数据。 -
session.connect
支持 reconnect 参数,实现非高可用场景下,自动重连节点。 -
新增
streamDeserializer
类,实现对异构流数据表的解析,同时,subscribe
函数新增 streamDeserializer 参数,接收经streamDeserializer
解析后的数据。 -
API 端支持返回
s.run
的 print 结果。 -
(1) 新增
tableUpsert
对象,(2)MultithreadedTableWriter
新增参数 mode 和 modeOption ,均可实现对索引内存表、键值内存表,或者 DFS 表通过upsert
方式进行更新。 -
支持上传或读取 INT128, UUID, IP 类型的数组向量,但上传或读取这些类型的数组向量时需设置 enablePickle =false。
功能优化
-
规范 API 空值处理方式。
-
session
对象 enableASYN 参数名调整为 enableASYNC。 -
通过 API 连接集群服务器时,实现请求的负载均衡。
-
MultithreadedTableWriter
对象写入内存表时,参数 dbPath 和 tableName 的设置发生改变: dbPath 需设置为空,tableName 需为内存表表名。
故障修复
-
解决通过 API 查询到的数据存在乱码时,无法下载数据的问题。
-
解决 session 关闭后,端口没有及时释放的问题。