Cassandra:nodetool状态在插入几乎相同数量的数据2独立时间后,给出了太过不同的数据大小

2022-10-10 10:38:40标签databasecassandra
提问

我在16个节点的cassandra ring中插入了几乎相同数量的数据,大小的差异太大了! 根据nodetool状态的第一次,每个节点上有5Gb左右,表是: 在第2次,我运行一个截断t1然后删除表t1,然后在每个节点上删除一个nodetool -h localhost -p 7199 clear快照。我创建了新的表,上面有更多的列(varchar),就像下面(这是一个转换的UUID到字符串),我以同样的方式插入数据。 在这两个时期,行数是相同的(~ 11亿行)。然而,现在的数量大约是每个节点的17Gb。没有待机的保险丝,我也会完全修理。 你知道为什么会这样吗? 可能是一些压实没有发生吗?

CREATE TABLE t1(
id varchar,
c2 text,
c3 float,
c4 float,
c5 float,
c6 text,
c7 text,
c8 text,
PRIMARY KEY ((id),c2, c3, c4, c5, c6, c7, c8)
);

CREATE TABLE t1(
id varchar,
extraid varchar,
c2 text,
c3 float,
c4 float,
c5 float,
c6 text,
c7 text,
c8 text,
PRIMARY KEY ((id),extraid)
);

▼版权说明

相关文章也很精彩
推荐内容
更多标签
相关热门
全站排行
随便看看

错说cuoshuo.com——程序员的报错记录

部分内容根据CC版权协议转载,如果您希望取消转载请发送邮件到cuoshuo8@163.com

辽ICP备19011660号-5