kerberos相关内容
如何解决产生此错误的问题: WARN [NIOServerCxn.Factory:0.0.0.0/0.0.0.0:2181:ZooKeeperServer@1040] - 客户端未能通过 SASL 身份验证:javax.security.sasl.SaslException:GSS 启动失败 [由 GSSException 引起:失败在 GSS-API 级别未指定(机制级别:校验和失败)]jav
..
我正在向连接到安全 hbase 集群的 YARN(在 spark 2.1.1 + kafka 0.10.2.1 上)提交作业.当我在“本地"模式(spark.master=local[*])下运行时,这项工作执行得很好. 但是,一旦我以 YARN(并将部署模式作为客户端)提交作业,我就会看到以下错误消息 - Caused by: javax.security.auth.login.Logi
..
为了在我的项目中使用结构化流,我正在 hortonworks 2.6.3 环境中测试 spark 2.2.0 和 Kafka 0.10.1 与 Kerberos 的集成,我在示例代码下运行以检查集成.我能够在 Spark 本地模式下在 IntelliJ 上运行以下程序而没有任何问题,但是当在 Hadoop 集群上移动到纱线集群/客户端模式时,相同的程序会抛出以下异常. 我知道我可以为 gro
..
如何使用来自 kafka(0.10 版)服务器的已发布消息,该服务器是 kerberos 授权的,因为正在使用身份验证密钥表文件. 我尝试了以下命令,但没有显示任何输出. bin/kafka-console-consumer.sh --bootstrap-server :9092 --topic --from-beginning 解决方案 启用 Kerberos 的集群有时会带
..
在 kerberosed 环境中向 kafka 主题发送消息时出错.我们在 hdp 2.3 上有集群 我关注了这个http://henning.kropponline.de/2016/02/21/secure-kafka-java-producer-with-kerberos/ 但是对于发送消息,我必须先明确地执行 kinit,然后才能向 kafka 主题发送消息.我试图通过 java
..
我在使用简单的 Kafka 消费者程序时遇到了一些问题: 18/06/04 18:13:49 ERROR/log/log.txt: org.apache.kafka.common.KafkaException: 无法构建 kafka 消费者org.apache.kafka.common.KafkaException:无法构建 kafka 消费者在 org.apache.kafka.clients
..
我对卡夫卡很陌生,所以请多多包涵.这是我的设置.我在 unix 机器上托管了 kafka.集群.在域中说 B.客户端在 Windows 上.我正在尝试使用域 A 连接到托管在 B 上的 kafka.我有密钥表.和 krb5.这两个都是在envt中设置的.krb5.ini(并设置为envt变量KRB5_CONFIG) [记录]默认值 = 控制台admin_server = 控制台kdc = 控制
..
我在 Kerberized Hadoop 集群中尝试使用 Spark Streaming 应用程序使用来自 Kafka 的消息时遇到了一些问题.我尝试了两种方法 此处列出: 基于接收器的方法:KafkaUtils.createStream 直接方法(无接收器):KafkaUtils.createDirectStream 基于接收器的方法 (KafkaUtils.createStrea
..
我的 HTTPClient Kerberos 身份验证设置类似于 这个.我的 login.conf 看起来像这样: com.sun.security.jgss.login {需要 com.sun.security.auth.module.Krb5LoginModuleuseTicketCache=true使用KeyTab = true商店密钥=真keyTab=委托人=;};com.su
..
我有一个独立的 Flink 安装,我想在其上运行一个将数据写入 HDFS 安装的流作业.HDFS 安装是 Cloudera 部署的一部分,需要 Kerberos 身份验证才能读取和写入 HDFS.由于我没有找到有关如何使 Flink 与受 Kerberos 保护的 HDFS 连接的文档,因此我不得不对该过程进行一些有根据的猜测.这是我到目前为止所做的: 我为我的用户创建了一个密钥表文件.
..
假设我对 Kerberos 知之甚少 - 只是基础知识. 我有... Debian Linux 2.6 网络服务器 Apache 2.2 mod_auth_kerb/5.3 PHP/5.2 一个(工作)Kerberos 领域 Windows 客户端 火狐 3 MIT 网络身份管理器中的登录身份“user@EXAMPLE.COM" 如何在 PHP 脚本中使用此信息
..
我正在尝试使用 Ansible 1.9.0.1 来配置使用域用户名的 Windows 服务器.我已经成功设置了 Linux Ansible 控制盒,并且能够使用基本身份验证来运行 ansible/ansible-playbook 播放.但是,与域用户一起运行失败.Kerberos 在 Windows 节点上启用: winrm 获取 winrm/config/client/auth认证基本=真
..
我开始学习 Ansible,但文档不是很有帮助. 我已经在 RHEL 上安装了控制机器并创建了必要的 hosts 文件和 windows.yml. 但是在尝试连接到远程 Windows 服务器以获取回球时,我收到以下错误: [root@myd666 ansible_test]# ansible windows -i hosts -m win_ping主机名 |无法访问!=>{“改变"
..
我开始学习 Ansible,但文档不是很有帮助. 我已经在 RHEL 上安装了控制机器并创建了必要的 hosts 文件和 windows.yml. 但是在尝试连接到远程 Windows 服务器以获取回球时,我收到以下错误: [root@myd666 ansible_test]# ansible windows -i hosts -m win_ping主机名 |无法访问!=>{“改变"
..
我开始学习 Ansible,但文档不是很有帮助. 我已经在 RHEL 上安装了控制机器并创建了必要的 hosts 文件和 windows.yml. 但是在尝试连接到远程 Windows 服务器以获取回球时,我收到以下错误: [root@myd666 ansible_test]# ansible windows -i hosts -m win_ping主机名 |无法访问!=>{“改变"
..
我在 Linux 容器中运行 ASP.NET Core Web 应用程序.我需要为我的应用程序提供 Windows 身份验证.如何实施? 我认为可以使用可以通过 Kerberos 进行身份验证的反向代理服务器来解决该问题. 解决方案 从 ASP.NET Core 3.0 开始,现在可以通过添加 Microsoft.AspNetCore.Authentication.Negotiate
..
我们有 Python3 应用程序可以连接到 Hbase 并获取数据. 连接在 Kerberos Hbase Thrift 二进制协议(在 TSocket 中)运行良好,直到 Hadoop 团队将 Hadoop 系统移至 Cloudera 和 Cloudera 管理器,后者以 HTTPS 模式启动 Kerberos Hbase Thrift. 现在协议从 TSocket 更改为 HTTP
..
我正在尝试创建一个非常简单的Python脚本,以下载位于我公司防火墙内并使用kerberos进行身份验证的公司内部服务的内容. 当我安装了requests_kerberos模块时,我首先在其中编辑了 import kerberos 以使用 import kerberos_sspi作为kerberos ,而在安装 kerberos_sspi 之后模块. 因此我有以下Python脚本 导
..
我们正尝试使用talend批处理(spark)作业来访问Kerberos群集中的配置单元,但出现以下“无法获取主Kerberos主体作为更新程序"错误. 当我们从没有数据的表中选择count(*)时,它将返回"NULL",但如果Hdfs(table)中存在某些数据,则失败并显示错误“无法获取主Kerberos主体用作更新程序". 我不确定是什么原因导致了令牌问题.有人可以帮助我们知道根
..
我在一个flink作业中有两个单独的Kerberos kafka数据流.从一个Kafka集群读取源数据流,然后将其发送到另一个.Kerberos不相互信任.Flink是否可以完成此任务?预先感谢. 解决方案 在krb5.conf的领域域下添加两个Kerberos领域: [领域]HADOOP1.COM = {kdc = 172.20.18.1管理员服务器= 172.20.18.1}HAD
..