cassandra-3.0相关内容
我使用此链接获得了有关 Cassandra 中的本地传输请求的一些观点:WhatCassandra 中的本地传输请求是什么? 根据我的理解,我在 Cassandra 中执行的任何查询都是本地传输请求. 我经常在 Cassandra 中收到 Request Timed Out 错误,我在 Cassandra 调试日志 以及使用 nodetool tpstats 时观察到以下日志 /va
..
我在 cassandra 的 debug.log 中不断看到这个错误, WARN [SharedPool-Worker-2] 2018-05-16 08:33:48,585 BatchStatement.java:287 - [test, test1] 的一批准备好的语句的大小为 6419,超过了指定的阈值 5120到 1299 年. 在这个 其中,6419 - 输入有效载荷大小(批处理)
..
来自 如何删除数据?> Cassandra 允许您为整个表设置 default_time_to_live 属性.用常规 TTL 标记的列和行按上述方式处理;但是当记录超过表级 TTL 时,Cassandra 会立即将其删除,而不会进行墓碑删除或压缩. 这也在这里 得到解答 如果表上有 default_time_to_live,则超过此时间限制的行将立即删除,而不会写入逻辑删除.
..
我有一个如下所示的数据模型, 创建表 appstat.nodedata (节点文本,时间戳时间戳,flashmode 文本,物理使用整数,readbw int,readiops int,总容量 int,writebw int,writeiops int,writelatency int,PRIMARY KEY(节点IP,时间戳)) 与聚类顺序 BY (时间戳 DESC) 其中,nodeip -
..
我在我的单节点 Cassandra 设置中使用了身份验证和授权,但我经常在 Cassandra 服务器日志中收到以下错误, ERROR [SharedPool-Worker-71] 2018-06-01 10:40:36,661 ErrorMessage.java:338 - 请求期间出现意外异常java.lang.RuntimeException: org.apache.cassandra.e
..
我有一个 5 节点的 Cassandra 集群,每个节点上有大约 650 GB 的数据,涉及 3 的复制因子.我最近开始在/var/log/cassandra/system.log 中看到以下错误. INFO [ReadStage-5] 2017-10-17 17:06:07,887 NoSpamLogger.java:91 - 达到最大内存使用量 (1.000GiB),无法分配 1.000Mi
..
我有一个 Java 客户端,可以将 (INSERT) 记录批量推送到 Cassandra 集群.批处理中的元素都具有相同的行键,因此它们都将放置在同一个节点中.此外,我不需要事务是原子的,所以我一直在使用未记录的批处理. 每个批次中 INSERT 命令的数量取决于不同的因素,但可以是 5 到 50000 之间的任何值.首先,我只是在一个批次中放入尽可能多的命令并提交.这引发了 com.dat
..
我每天从某处获取数据并将其插入到 cassandra 中然后我需要从 cassandra 检索整周的数据并进行一些处理并将结果插入回 cassandra. 我有很多记录,每条记录执行以下大部分操作. 为此,我编写了一个程序,其工作正常,但我收到警告,并且根据 API 文档不应多次使用 prepare 语句其降低性能. 请告诉我如何避免这种情况以提高性能或建议我在 Scala 中实
..
我们通过从分区键中删除一列来更改其中一张表的分区键.该表中的每条记录也都有 TTL.现在我们想用 TTL 保留该表中的数据.我们该怎么做? 我们可以创建具有所需架构的新表,然后将数据从旧表复制到新表.然而,我们在这个过程中失去了 TTL. 欲知更多信息 - 此 Cassandra 表由 Apache Storm 应用程序填充,该应用程序从 Kafka 读取事件.我们可以重新水合 Kaf
..
我正在研究 SPARK-SQL 2.3.1 和我正在尝试在创建会话时启用 hiveSupport,如下所示 .enableHiveSupport().config("spark.sql.warehouse.dir", "c://tmp//hive") 我在命令下运行 C:\Software\hadoop\hadoop-2.7.1\bin>winutils.exe chmod 777 C:\t
..
我有以下方法可以在一段时间内写入 cassandra,这样可以很好地保存数据.当我再次运行它时,有时它会抛出 NullPointerException不知道这里出了什么问题......你能帮帮我吗. '@throws(classOf[IOException])def writeDfToCassandra(o_model_family:DataFrame, keyspace:String, col
..
我们通过从分区键中删除一列来更改其中一张表的分区键.该表中的每条记录也有 TTL.现在我们想用 TTL 保留该表中的数据.我们该怎么做? 我们可以创建具有所需架构的新表,然后将数据从旧表复制到新表.然而,我们在这个过程中失去了 TTL. 欲知更多信息 - 此 Cassandra 表由 Apache Storm 应用程序填充,该应用程序从 Kafka 读取事件.我们可以重新水合 Kafk
..
我们通过从分区键中删除一列来更改其中一张表的分区键.该表中的每条记录也有 TTL.现在我们想用 TTL 保留该表中的数据.我们该怎么做? 我们可以创建具有所需架构的新表,然后将数据从旧表复制到新表.然而,我们在这个过程中失去了 TTL. 欲知更多信息 - 此 Cassandra 表由 Apache Storm 应用程序填充,该应用程序从 Kafka 读取事件.我们可以重新水合 Kafk
..
根据此答案,建议在 Cassandra 中使用单表. 卡桑德拉 3.0 我们正在计划以下架构: 第二个表有复合键.PK(domain_id, item_id).所以,domain_id 是分区键 &item_id 将是聚类键. GET 请求处理程序将访问(读取)两个表 POST 请求处理程序将访问(写入)到两个表中 PUT 请求处理程序将访问(写入)详细信息表(
..
我正在通过 json 消息以 base64 格式发送图像 image:["data:image/png; base64,iVBORw ...","data:image/png; base64,idfsd ..."] 我想将此图像存储在 Cassandra 中.此 json 作为 Array [String] - 映射到我的模型 案例类ImageArray(图片:Array [Str
..
在了解了可用的不同负载平衡策略之后( https://datastax.github.io/cpp-driver/topics/configuration/),在我看来,为了获得最佳性能,尤其是在多数据中心集群中,应将令牌感知和延迟感知策略一起使用(“性能上述文章的“提示"部分. 根据我的理解(假设复制因子> 1),当我们将这两个策略一起使用时,客户端将计算查询中使用的主键的哈希值,然后基于
..
我有多个DC的大型Cassandra群集.有时,我在带有213个内部节点和514个交叉节点的debug.log中收到有关Drop读取和删除突变的INFO消息.但是,应用程序不受影响.根据我的理解,实际的请求没有失败,但是某些副本没有响应协调器,如果实现了一致性,则请求成功.请澄清我是否有误会. 解决方案 如果满足请求的一致性级别,则应用程序不会从协调器收到错误.您提到该应用程序没有受到影响
..
我已经编写了类似belo的代码,但出现如下错误:- InvalidRequest:服务器错误:code = 2200 [Invalid query] message ="Java源代码编译失败:第1行:java.util.String无法解析为类型第1行:令牌"Date"上的语法错误,@预期的第4行:SimpleDateFormat无法解析为类型 CREATE FUNCTION saum
..
编辑:尽管yukim的解决方法确实有效,但我发现通过将JDK 8u251与8u261降级,sigar lib可以正常工作. Windows 10 x64 Pro 卡桑德拉3.11.7 注意:我将JDK 11.0.7作为主要JDK,所以我在批处理文件中为Cassandra覆盖了JAVA_HOME和PATH. 打开管理员提示,然后... java -version jav
..
场景:我有一个问题,我需要一个一个地调用处理器类,这是用户输入提供程序所必需的,如果未提供,则应该调用其中的所有处理器类和process()方法. 代码: OneProcessor类{}ClassTwoProcessor {}类 为此,我正在考虑创建Map [String,instanceOfClass],即: val instanceMap:Map [String,Class]
..