cassandra-2.1相关内容
我试图了解 Cassandra 中的 Leveled Compaction Strategy 是如何工作的,该策略可以保证 90% 的读取都将从单个 sstable 中得到满足. 来自 DataStax 文档: 新的 sstables 添加到第一级 L0,并立即与 L1 中的 sstables 压缩.当 L1 填满时,额外的 sstable 被提升到 L2.在 L1 中生成的后续 ss
..
理论上,Cassandra 允许在宽行中最多包含 20 亿列. 我听说实际上高达 50.000 cols/50 MB 就可以了;50.000-100.000 cols/100 MB 可以,但需要一些调整;并且每行的列数不应超过 100.000/100 MB.原因是这会给堆带来压力. 这有什么道理吗? 解决方案 在 Cassandra 中,最大单元格数单个分区中(行 x 列)为
..
我正在做时间序列数据建模,其中有事件的开始日期和结束日期.我需要查询该数据模型,如下所示: Select * from tablename where startdate>'2012-08-09' and enddate 我参考了以下关于 cql where 子句 但我无法做到这一点.有没有办法做到这一点?我还可以更改数据模型或任何 cql 调整.我使用的是 Cassandra 2.1.
..
我已经搜索过这个问题的先前版本,但似乎没有一个适合我的情况.我有一个运行 2.0.x 的现有 Cassandra 集群.我被分配了新的虚拟机,所以我不想升级我现有的 Cassandra 节点 - 我想迁移到 a) 新虚拟机和 b) Cassandra 的更新版本. 我知道就地升级,我会先升级到最新的 2.0.x,然后再升级到最新的 2.1.x.AFAIK,这里没有 SSTable 不一致.如
..
我在网上找不到这个.如何在 cassandra 中创建自定义用户定义函数? 例如: CREATE OR REPLACE FUNCTION customfunc(custommap map)调用空输入返回地图LANGUAGE java AS 'return MyClass.mymethod(custommap);'; “MyClass"是我可以在类路径中注册的类吗? 解决方案 我也
..
我正在 AWS 上运行一个两节点 Datastax AMI 集群.昨天,Cassandra 开始拒绝与所有事物建立联系.系统日志什么也没显示.经过很多的修补,我发现提交日志已经填满了分配安装上的所有磁盘空间,这似乎导致了连接拒绝(删除了一些提交日志,重新启动并可以连接). 我使用的是 DataStax AMI 2.5.1 和 Cassandra 2.1.7 如果我决定从头开始擦除并重新
..
我打算使用 apache flink 使用 flink 将数据读/写到 cassandra 中.我希望使用 flink-connector-cassandra,我没有找到关于连接器的好的文档/示例. 能否请您指出使用 Apache Flink 从 cassandra 读取和写入数据的正确方法.我只看到纯粹用于写入的接收器示例?apache flink 是否也用于从类似于 apache spa
..
我有一个 python 脚本,用于通过 datastax python 驱动程序与 cassandra 交互> 从 2016 年 3 月 14 日开始运行,直到今天都没有问题. 2016-06-02 13:53:38,362 ERROR('无法连接到任何服务器',{'172.16.47.155':OperationTimedOut('errors=超时创建连接(5秒),last_host=没有
..
我已经编写了类似belo的代码,但出现如下错误:- InvalidRequest:服务器错误:code = 2200 [Invalid query] message ="Java源代码编译失败:第1行:java.util.String无法解析为类型第1行:令牌"Date"上的语法错误,@预期的第4行:SimpleDateFormat无法解析为类型 CREATE FUNCTION saum
..
我正在使用Java驱动程序版本:2.1.4 Cassandra版本:dsc-cassandra-2.1.10 cql的输出给出以下内容 cqlsh 5.0.1 |卡桑德拉2.1.10 | CQL规范3.2.1 |原生协议v3 我是协议V3。但是,当我尝试将其设置为每个连接超过128个请求时,它将引发异常。这似乎是V2中的限制。解释如下: 以下代码块:
..
我从pyspark连接到cassandra时遇到错误,因为看来我使用的是旧的cassandra: [idf @ node1 python] $ nodetool -h本地主机版本 ReleaseVersion:2.0.17 [idf @ node1 python] $ [idf @ node1 cassandra] $ java --version 无法识别的选
..
我一直在使用Cassandra 2.1.7,由于某种原因,我升级到3.0.12,后来意识到一些依赖的应用程序不能在3.0.12上运行,所以我降级了,并像以前一样使用C * 2.1.7使用之前。但是现在我看不到C *中的键空间。 (仅供参考:两个C * yaml文件中的数据目录都相同) 我需要进行任何更改吗? 感谢您的帮助。 解决方案 如果您尚未备份,则无需担心,因为C * 3.
..
我在Cassandra中有一个4节点设置,并决定采用以下配置,但是ppl表示这将与3节点设置相同,所以有人可以告诉我为什么, 节点= 3,复制因子= 2,写一致性= 2,读一致性= 1 节点= 4,复制因子= 3,写一致性= 3,读一致性= 1 根据我的理解,节点= 4,请提供这两个节点故障,将RF设置为'3'是有益的,但是ppl表示在4节点设置中RF = 2与RF =
..
是@UDT( http: // Spring-data-Cassandra 1.3.2支持的//docs.datastax.com/zh-CN/developer/java-driver/2.1/java-driver/reference/mappingUdts.html )。如果没有,我如何为此添加解决方案 谢谢 解决方案 在此处查看详细信息: https://jira.spri
..
我在网上找不到任何东西。如何在cassandra中创建自定义用户定义的函数?。 对于Ex: 创建或替换功能customfunc(custommap map) 在空输入上调用 返回map 语言java AS‘返回MyClass.mymethod(custommap);’; “ MyClass”是可以在类路径中注册的类吗?
..
我正在使用用于Apache Cassandra(2.1.9版)的datastax Java驱动程序,并且我想知道将Replication_factor设置为大于节点数时会发生什么。我已经读过Cassandra允许进行此操作的地方,但是当我尝试保存一些数据时应该会失败(当然,这取决于写一致性级别,但是我的意思是ALL)。 问题是,即使我尝试保存数据,也可以正常工作,不会引发任何异常。为什么?
..
我试图了解Cassandra中的 Leveled Compacting Strategy 如何工作,以确保单个sstable可以满足所有读取的90%。 从DataStax Doc: 将新的稳定表添加到第一层L0,并立即用L1中的稳定表进行压缩。当L1填满时,额外的稳定级将提升为L2。 L1中生成的后续sstable将与L2中与其重叠的sstable压缩。 解决方案 Levele
..
我打算使用apache flink通过flink将数据读/写到cassandra中.我希望使用 flink-connector-cassandra ,我找不到该连接器的优质文档/示例. 能否请您指出使用Apache Flink从cassandra读取和写入数据的正确方法.我只看到纯粹用于写的接收器示例吗? apache flink是否也想从cassandra中读取数据,类似于apache s
..
我已经搜索了该问题的早期版本,但似乎没有一个适合我的情况.我有一个运行2.0.x的现有Cassandra群集.我已经分配了新的VM,所以我不想升级现有的Cassandra节点-而是想迁移到a)新的VM和b)Cassandra的最新版本. 我知道就地升级,我会先升级到最新的2.0.x,然后再升级到最新的2.1.x. AFAIK,这里没有SSTable不一致.如果我通过添加新节点走这条路线,我假
..
在我们的Cassandra表中,每次更改"collection-type"列的数据类型时,它都会引起问题.例如: 要将数据类型从text更改为Map,请执行以下操作: 删除现有列 等待卡桑德拉吸收这一变化. 添加列(名称相同),但数据类型不同. 这在所有节点上都很好,但是Cassandra日志在压缩期间开始抱怨: RuntimeException
..