log4j相关内容
我有 Firefox 11 或 Windows XP 版本的 IE - 浏览器有jre6我有一个使用了 6 个月的 jsdk,但浏览器没有在运行时使用它. 如果日志窗口有历史记录和滚动条,如果有很多打印,那就太好了.我正在使用 log4j 进行打印. 谢谢. 解决方案 我希望我能正确理解您的问题,我认为您正在寻找的是“Java 控制台".以下是有关如何找到它以及如何在禁用
..
我想创建一个自定义的 log4j2 滚动文件附加程序.我需要创建这个自定义 appender,因为我想用我的应用程序独有的一些信息来包装 log4j 日志事件.例如userId,托管应用程序名称. 我有一个扩展 Log4jLogEvent 实现 LogEvent 的类.这个类有我需要用日志事件包装的信息.请参阅此代码: public class CustomLogEvent extends
..
我正在使用 Jetty 8 和 ZooKeeper 3.4.5.当我连接到 ZooKeeper 时,jetty 不断生成 DEBUG 级别的消息.怎么压制? 16:54:56.757 [main-SendThread(127.0.0.1:2181)] DEBUG o.a.z.client.ZooKeeperSaslClient - 无法检索登录配置:java.lang.SecurityExc
..
在我的 zookeeper/conf/log4j.properties 文件中,我将 zookeeper.log.dir 设置为 $HOME/zklogs 当我使用 zkServer.sh 时,它不使用该目录.相反,它使用 ${ZOO_LOG_DIR} ,当我回应它时,它会出现“." 我不明白如何解决这个问题,我在任何地方都没有看到 ${ZOO_LOG_DIR} 设置.我不确定它是如何
..
我尝试在 Storm 集群上运行一个 Storm 拓扑拓扑 jar 是由提供的创建的.在拓扑螺栓内部,我想从 MyIgniteCache 模块读取数据,但出现以下错误.我认为依赖项(:/usr/hdp/2.6.0.3-8/storm/lib/log4j-slf4j-impl-2.8.jar:/usr/hdp/2.6.0.3-8/storm/lib/log4j-core-Storm-core 的 2
..
我目前正在使用以下命令通过我的 Java 应用程序以编程方式提交 Storm 拓扑: Nimbus.Client 客户端 = NimbusClient.getConfiguredClient(stormConfigProvider.getStormConfig()).getClient();client.submitTopology(this.topologyID.toString(),Stor
..
我已经配置了我的机器 zookeeper、nimbus、supervisor 运行正常并且我的拓扑在 LocalCluster 中工作 LocalCluster cluster = new LocalCluster();cluster.submitTopology("SendPost", conf, builder.createTopology());Utils.sleep(1000000000
..
我在 Storm 中使用 log4j 登录到文件时遇到了一些问题. 在提交我的拓扑之前,即在我的主要方法中,我写了一些日志语句并使用: PropertyConfigurator.configure(myLog4jProperties) 现在,当我在 Eclipse 中使用 可执行 jar 运行拓扑时 -它的工作正常,并且正在按预期创建日志文件. 或 当我使用“java -jar My
..
当我们从本地集群运行时,我想关闭默认提供的日志记录功能.目前它在控制台上记录了这么多信息. 下面是日志的例子: 261 [main] INFO backtype.storm.daemon.task - 关闭任务 Getting-Started-Toplogie-1-1376388324:22261 [main] INFO backtype.storm.daemon.task - 关闭任务
..
在执行器上使用 pyspark 访问 Spark 的 log4j 记录器的正确方法是什么? 在驱动程序中这样做很容易,但我似乎无法理解如何访问执行器上的日志记录功能,以便我可以在本地登录并让 YARN 收集本地日志. 有没有办法访问本地记录器? 标准日志记录程序是不够的,因为我无法从执行程序访问 spark 上下文. 解决方案 您不能在执行程序上使用本地 log4j 记录
..
我想停止在 spark shell 上发送各种消息. 我尝试编辑 log4j.properties 文件以阻止这些消息. 这里是log4j.properties 的内容 # 使用appender文件定义根记录器log4j.rootCategory=警告,控制台log4j.appender.console=org.apache.log4j.ConsoleAppenderlog4j.a
..
我已经在网上搜索了这里的答案,但我无法得到任何结果,所以也许有人会有新的观点. 我正在尝试从 Apache Spark 2.2 内部将日志写入 Kafka 主题应用. 因为 Spark 仍然使用 Log4j v1,所以我必须尝试获取v1 Kafka appender 工作,而不是能够使用Log4j v2 提供的默认 Kafka appender. 我可以使用以下库(来自 build.
..
我的配置: kafka-rest-1:图片:confluentinc/cp-kafka-rest:6.2.1主机名:kafka-rest-1容器名称:kafka-rest-1取决于:- 动物园管理员-1- 经纪人 1端口:- “8082:8082"环境:KAFKA_REST_HOST_NAME:kafka-rest-1KAFKA_REST_LISTENERS:http://0.0.0.0:80
..
您如何控制 Kafka 生产者或消费者的控制台日志记录级别?我在 Scala 中使用 Kafka 0.9 API. 每次调用 KafkaProducer 上的 send 时,控制台都会给出如下输出.这是否表明我没有正确设置 KafkaProducer,而不仅仅是日志记录过多的问题? 17:52:21.236 [pool-10-thread-7] INFO o.a.k.c.producer.
..
我是 apache Kafka 和 log4j 的新手.我正在尝试将我的日志消息发送到 Kafka.这是我的 log4j 属性文件 log4j.rootLogger=INFO,标准输出log4j.appender.stdout=org.apache.log4j.ConsoleAppenderlog4j.appender.stdout.layout=org.apache.log4j.Pattern
..
我正在运行 http://www.javaworld.com/article/3060078/big-data/big-data-messaging-with-kafka-part-1.html?page=2,并且 kafkaconsumer 正在根据需要从主题中消费,但每次轮询都会导致打印(到标准输出)许多调试日志,这是我不想要的. 我尝试将 /config/log4j.propertie
..
我正在使用 Kafka 生产者客户端,我的项目中没有任何 log4j 配置. 在运行时,程序打印了很多我真的不想要的 Kafka 调试日志. 因此,我尝试添加 log4j.properties 以将日志级别设置为 ERROR,如下所示,这似乎不起作用: log4j.rootLogger=错误 如何更改 Kafka 日志级别? 解决方案 在运行客户端时使用命令行标志 -Dlo
..
我的配置: kafka-rest-1:图片:confluentinc/cp-kafka-rest:6.2.1主机名:kafka-rest-1容器名称:kafka-rest-1取决于:- 动物园管理员-1- 经纪人 1端口:- “8082:8082"环境:KAFKA_REST_HOST_NAME:kafka-rest-1KAFKA_REST_LISTENERS:http://0.0.0.0:80
..
有人问我如何从作为 Java 操作从 Oozie 运行的 Spring Boot 应用程序中捕获日志输出. 我最初的想法是可以编辑一些 log4j 属性来捕获 YARN 或 Oozie 中的应用程序日志.然后我突然想到,对于在各种集群节点上运行的特定应用程序,Kafka 将是一种更容易捕获和聚合日志消息的方法.通过订阅主题来监控分布式系统比通过日志文件钓鱼要容易得多. 我注意到 Kaf
..
Java 有很多框架/API 可以帮助您在应用程序中进行日志记录: Java API 具有 java.util.logging 包. Apache 的 Log4j. Apache 的公共日志记录. SLF4J(登录 Facade). jLo.还有更多…… 我一直使用 log4j 库,我发现它在大多数情况下已经足够了,并且在我需要更多控制时可以扩展. 谁有使用过一个以上框架
..