【发布时间】:2016-02-19 09:53:23
【问题描述】:
返回 9000 个数据点的 json 需要 6 秒。 我在 x.open、x.close 等 12 个指标中有大约 10GB 的数据...
数据存储模式:
指标:x.open
标签:符号
tagv : 字符串值
指标:x.close
标签:符号
tagv : 字符串值
我的配置在集群设置上如下
节点 1:(Real 16GB ActiveNN)JournalNode、Namenode、Zookeeper、RegionServer、HMaster、DFSZKFailoverController、TSD
节点 2:(VM 8GB StandbyNN)JournalNode、Namenode、Zookeeper、RegionServer
节点 3:(实际 16GB)Datanode、RegionServer、TSD
节点 4:(VM 4GB)JournalNode、Datanode、Zookeeper、RegionServer 该设置用于 POC/Dev 而非生产。
时间戳的宽度就像是,从 1980 年到今天,在 easch 度量下,每个符号每天都有一个数据点。
如果上述陈述令人困惑(我的 12 个指标每天连续运行添加 3095 个数据点,每个符号一个。)
基数当前场景中的标签值是 3095+ 个符号
查询示例: http://myIPADDRESS:4242/api/query?start=1980/01/01&end=2016/02/18&m=sum:stock.Open{symbol=IBM}&arrays=true
调试器结果: 8.44 秒;检索到的数据点 8859;数据大小:55kb
数据写入速度也很慢,写入220万个数据点需要6.5小时。 我在配置的某个地方错了还是期望很高?
写法:通过Http的Json对象
启用加盐:尚未
【问题讨论】:
标签: hadoop hbase time-series database-performance opentsdb