cassandra-2.1相关内容

最大限度.宽行的大小?

理论上,Cassandra 允许在宽行中最多包含 20 亿列. 我听说实际上高达 50.000 cols/50 MB 就可以了;50.000-100.000 cols/100 MB 可以,但需要一些调整;并且每行的列数不应超过 100.000/100 MB.原因是这会给堆带来压力. 这有什么道理吗? 解决方案 在 Cassandra 中,最大单元格数单个分区中(行 x 列)为 ..
发布时间:2021-12-31 18:10:31 其他开发

cassandra 中的时间序列建模(带有开始和结束日期)

我正在做时间序列数据建模,其中有事件的开始日期和结束日期.我需要查询该数据模型,如下所示: Select * from tablename where startdate>'2012-08-09' and enddate 我参考了以下关于 cql where 子句 但我无法做到这一点.有没有办法做到这一点?我还可以更改数据模型或任何 cql 调整.我使用的是 Cassandra 2.1. ..
发布时间:2021-12-31 17:58:11 其他开发

Cassandra 从 2.0.x 升级到 2.1.x 或 3.0.x

我已经搜索过这个问题的先前版本,但似乎没有一个适合我的情况.我有一个运行 2.0.x 的现有 Cassandra 集群.我被分配了新的虚拟机,所以我不想升级我现有的 Cassandra 节点 - 我想迁移到 a) 新虚拟机和 b) Cassandra 的更新版本. 我知道就地升级,我会先升级到最新的 2.0.x,然后再升级到最新的 2.1.x.AFAIK,这里没有 SSTable 不一致.如 ..

如何防止 Cassandra 提交日志填满磁盘空间

我正在 AWS 上运行一个两节点 Datastax AMI 集群.昨天,Cassandra 开始拒绝与所有事物建立联系.系统日志什么也没显示.经过很多的修补,我发现提交日志已经填满了分配安装上的所有磁盘空间,这似乎导致了连接拒绝(删除了一些提交日志,重新启动并可以连接). 我使用的是 DataStax AMI 2.5.1 和 Cassandra 2.1.7 如果我决定从头开始擦除并重新 ..

阅读&使用 apache flink Java API 将数据写入 cassandra

我打算使用 apache flink 使用 flink 将数据读/写到 cassandra 中.我希望使用 flink-connector-cassandra,我没有找到关于连接器的好的文档/示例. 能否请您指出使用 Apache Flink 从 cassandra 读取和写入数据的正确方法.我只看到纯粹用于写入的接收器示例?apache flink 是否也用于从类似于 apache spa ..
发布时间:2021-11-12 00:57:09 其他开发

Cassandra Python 驱动程序 OperationTimedOut 问题

我有一个 python 脚本,用于通过 datastax python 驱动程序与 cassandra 交互> 从 2016 年 3 月 14 日开始运行,直到今天都没有问题. 2016-06-02 13:53:38,362 ERROR('无法连接到任何服务器',{'172.16.47.155':OperationTimedOut('errors=超时创建连接(5秒),last_host=没有 ..
发布时间:2021-06-26 20:02:20 其他开发

日期列,它是Cassandra ..中的文本类型,因此我需要UDF将文本转换为时间戳,以便可以在该列上查询

我已经编写了类似belo的代码,但出现如下错误:- InvalidRequest:服务器错误:code = 2200 [Invalid query] message ="Java源代码编译失败:第1行:java.util.String无法解析为类型第1行:令牌"Date"上的语法错误,@预期的第4行:SimpleDateFormat无法解析为类型 CREATE FUNCTION saum ..
发布时间:2021-04-21 19:38:53 其他开发

Cassandra Java驱动程序协议版本和连接限制不匹配

我正在使用Java驱动程序版本:2.1.4 Cassandra版本:dsc-cassandra-2.1.10 cql的输出给出以下内容 cqlsh 5.0.1 |卡桑德拉2.1.10 | CQL规范3.2.1 |原生协议v3 我是协议V3。但是,当我尝试将其设置为每个连接超过128个请求时,它将引发异常。这似乎是V2中的限制。解释如下: 以下代码块: ..
发布时间:2020-09-29 21:39:07 Java开发

升级Cassandra的最佳做法

我从pyspark连接到cassandra时遇到错误,因为看来我使用的是旧的cassandra: [idf @ node1 python] $ nodetool -h本地主机版本 ReleaseVersion:2.0.17 [idf @ node1 python] $ [idf @ node1 cassandra] $ java --version 无法识别的选 ..
发布时间:2020-09-29 21:35:36 其他开发

我从3.0降级到2.1.7后无法看到C * 2.1.7中的所有键空间

我一直在使用Cassandra 2.1.7,由于某种原因,我升级到3.0.12,后来意识到一些依赖的应用程序不能在3.0.12上运行,所以我降级了,并像以前一样使用C * 2.1.7使用之前。但是现在我看不到C *中的键空间。 (仅供参考:两个C * yaml文件中的数据目录都相同) 我需要进行任何更改吗? 感谢您的帮助。 解决方案 如果您尚未备份,则无需担心,因为C * 3. ..
发布时间:2020-09-29 20:55:39 其他开发

Cassandra中的4节点设置与3节点设置相同

我在Cassandra中有一个4节点设置,并决定采用以下配置,但是ppl表示这将与3节点设置相同,所以有人可以告诉我为什么, 节点= 3,复制因子= 2,写一致性= 2,读一致性= 1 节点= 4,复制因子= 3,写一致性= 3,读一致性= 1 根据我的理解,节点= 4,请提供这两个节点故障,将RF设置为'3'是有益的,但是ppl表示在4节点设置中RF = 2与RF = ..

Cassandra复制因子大于节点数

我正在使用用于Apache Cassandra(2.1.9版)的datastax Java驱动程序,并且我想知道将Replication_factor设置为大于节点数时会发生什么。我已经读过Cassandra允许进行此操作的地方,但是当我尝试保存一些数据时应该会失败(当然,这取决于写一致性级别,但是我的意思是ALL)。 问题是,即使我尝试保存数据,也可以正常工作,不会引发任何异常。为什么? ..
发布时间:2020-09-29 20:09:00 Java开发

分层压缩策略如何确保90%的读取来自一个稳定状态

我试图了解Cassandra中的 Leveled Compacting Strategy 如何工作,以确保单个sstable可以满足所有读取的90%。 从DataStax Doc: 将新的稳定表添加到第一层L0,并立即用L1中的稳定表进行压缩。当L1填满时,额外的稳定级将提升为L2。 L1中生成的后续sstable将与L2中与其重叠的sstable压缩。 解决方案 Levele ..
发布时间:2020-09-29 19:50:18 其他开发

阅读和使用apache flink Java API将数据写入cassandra

我打算使用apache flink通过flink将数据读/写到cassandra中.我希望使用 flink-connector-cassandra ,我找不到该连接器的优质文档/示例. 能否请您指出使用Apache Flink从cassandra读取和写入数据的正确方法.我只看到纯粹用于写的接收器示例吗? apache flink是否也想从cassandra中读取数据,类似于apache s ..
发布时间:2020-09-03 06:58:54 其他开发

Cassandra从2.0.x升级到2.1.x或3.0.x

我已经搜索了该问题的早期版本,但似乎没有一个适合我的情况.我有一个运行2.0.x的现有Cassandra群集.我已经分配了新的VM,所以我不想升级现有的Cassandra节点-而是想迁移到a)新的VM和b)Cassandra的最新版本. 我知道就地升级,我会先升级到最新的2.0.x,然后再升级到最新的2.1.x. AFAIK,这里没有SSTable不一致.如果我通过添加新节点走这条路线,我假 ..

删除/更改集合数据类型的cassandra列的最佳实践是什么?

在我们的Cassandra表中,每次更改"collection-type"列的数据类型时,它都会引起问题.例如: 要将数据类型从text更改为Map,请执行以下操作: 删除现有列 等待卡桑德拉吸收这一变化. 添加列(名称相同),但数据类型不同. 这在所有节点上都很好,但是Cassandra日志在压缩期间开始抱怨: RuntimeException ..
发布时间:2020-07-19 22:55:19 其他开发