load-balancing相关内容
我正在尝试在 Traefik 后面配置一个 Kafka 集群,但我的生产者和客户端(在 kubernetes 之外)没有连接到引导服务器.他们一直在说: “给定的 url 中没有可解析的 boostrap 服务器" 实际上这里是 Traefik 入口: {"apiVersion": "扩展/v1beta1","kind": "入口",“元数据":{"name": "nppl-ingr
..
我有一个由 3 台在 AWS 上运行的机器组成的 kafka 集群:卡夫卡1到卡夫卡3 我正在使用新样式的 kafka 消费者 (>0.8). 我知道 kafka 客户端连接到其中一台 kafka 服务器,获取服务器元数据,然后直接连接到代理. 我想确保在代理失败的情况下,客户端仍然能够获取元数据. 为此,我有一个具有以下配置的 HAProxy 负载均衡器: 听卡夫卡绑定
..
我正在尝试在多个 spout 之间共享任务.我有一种情况,我一次从外部来源获取一个元组/消息,并且我想要一个 spout 的多个实例,背后的主要目的是分担负载并提高性能效率. 我可以用一个 Spout 本身做同样的事情,但我想在多个 Spout 之间分担负载.我无法获得分散负载的逻辑.因为直到特定的 spout 完成消耗部分(即基于缓冲区大小设置)才会知道消息的偏移量. 任何人都可以对
..
我有一个应用程序部署在集群上.根据环境,集群可能有 2 或 4 个 JVM.该应用程序具有我们在所有 JVM 上部署的相同 CamelContext.因此,所有 JVM 都有相同的路由.对于 FTP 路由,这很好,因为它具有竞争力,并且只有 1 个 JVM 获取文件.但是,在使用基于计时器的操作从数据库中获取数据时,我发现所有 JVM 都读取相同的记录集并执行相同的工作.我想要的是,如果一条路线捡
..
首先,我只是想让你知道我是 Camel 的新手,最近我掌握了它的主要概念. 我正在尝试创建一个基本的工作示例,使用 Apache-Camel 和 ActiveMQ 作为代理,并使用 jms-component 作为使用故障转移构造的负载均衡器的客户端.所有这些都仅使用 Java DSL 完成(如果可能). 该示例包含 4 个主要应用,分别称为 MyApp-A、MyApp-B、MyApp
..
我正在寻找有关如何对 ServiceMix 解决方案进行集群的一些初始指示.基本上我需要的是: 有 2 个(或更多)ServiceMix 实例来满足我的路由需求并分担负载 如果一个实例失败,其他实例会继续服务 如果失败的人复活了,它就会加入派对 搜索信息让我很困惑 一些参考资料(例如 http://trenaman.blogspot.fi/2010/04/four-thing
..
我使用前面的 apache 和 mod_jk 作为连接器为两个 tomcat 配置集群.我尝试了一个测试应用程序来检查配置,它工作正常.正在成功复制会话并且成功检测到故障转移.但是当我为我的实际应用尝试这个时,它不起作用.我在 httpd.conf 中进行了相应且非常仔细的修改.没有例外,日志中没有错误.我无法跟踪问题.最初我为特定的类获取 NotSerializableException 并且我
..
我正在 JBoss EAP 7 上认证我的应用程序.我的应用程序在独立模式下工作,但在集群模式下,我的应用程序已部署但我无法登录.我再次重新路由到登录网址. 我已经使用 mod_cluster 设置了集群. 负载均衡服务器日志中没有错误日志,也没有在集群的各个节点上. 在我的测试环境中,我的负载均衡器和 2 个服务器节点在同一台机器上.我为 JBoss 节点提供了不同的端口和实例 ID
..
什么是负载均衡器? 负载平衡改善了跨多个工作负载的分布计算资源,例如计算机、计算机集群、网络链接、中央处理器或磁盘驱动器 节点端口 NodePort 不是负载均衡器.(我知道 kube-proxy 一旦流量进入集群内部就会在 pod 之间负载平衡流量)我的意思是,最终用户点击 http://NODEIP:30111(例如)访问应用程序的 URL.即使流量在 POD 之间进行了负载
..
我正在尝试在 2 个不同的任务上部署 2 个容器(每个任务 1 个容器),一个是我的前端,另一个是我的后端服务器.我想弄清楚如何配置它们之间的通信. 我看到服务中的负载均衡器是一个不错的选择.但是,我应该为前端服务器配置负载均衡器,为后端配置另一个负载均衡器吗?意思是每次我有面向公众的服务和私有服务时,我都需要 2 个负载平衡器? 我只想将我的前端公开给公共互联网,而我的后端将保持私有
..
我给了一个在我的应用程序中使用 nginx 和 pm2 的任务.我应该如何在以集群模式使用 pm2 运行的 nodejs 应用程序前面使用 nginx? 还了解到pm2本身自带负载均衡器,那我为什么要用nginx呢? 解决方案 如果您使用 Nginx 的唯一原因是负载平衡,那么您可以忽略它.但我必须警告你,与 Nginx 相比,pm2 崩溃更多. 就我个人而言,我建议您坚持使用
..
我的网站架构如下: internet --> loadbalancer --> webserver/api 因此,负载均衡器机器上有一个 nginx 设置为负载均衡器,并且 webserver/api 节点上也有一个 nginx 充当反向代理.Web 服务器服务器接收来自浏览器的请求(通过负载均衡器),通过 HTTP 访问 api 并将页面呈现给浏览器.webserver 和 api
..
我正在尝试启动Octavia负载均衡器,以平衡5个运行Web应用程序的服务器上的用户请求.我一直在寻找关于此的教程,因为OpenStack API没有提供详细的指导原则. 我当前的OpenStack设置的简要背景.我们已经使用juju安装了OpenStack,同时也使用juju安装了Octavia,此链接 https://jaas.ai/octavia/15 ,这是
..
我们有10个Tomcat实例都运行同一个Web应用程序.我们使用硬件负载平衡器,它将请求转发到任意服务器.在这种情况下,如何在所有Tomcat实例之间维护会话? 解决方案 您需要使用Tomcat的群集在节点之间提供会话复制. 您还应该考虑使用粘性会话,因为将每个请求定向到任意服务器需要每个服务器始终具有最新的会话数据.这在时间,网络带宽和服务器内存上都很昂贵.还有一个问题,许多客户端
..
我有一个位于硬件负载平衡器后面的Java servlet.负载平衡器仅允许https请求.问题是,当我在servlet中获得请求时,我只能看到http,看来它在到达servlet时已经被解密了,这是有道理的,因为servlet不必担心安全性.但是,当我要在servlet中发送重定向时,该请求将被负载均衡器阻止,因为它将是一个http请求. 我了解了一些解决方案,它们都类似于这一个.基本上,人
..
我的网站架构如下: 互联网->负载平衡器-> webserver/api 因此,在负载平衡器计算机设置上有一个nginx作为负载平衡器,并且在webserver/api节点上也有一个nginx充当反向代理.Web服务器服务器(通过负载平衡器)接收来自浏览器的请求,通过HTTP访问api,并将页面呈现给浏览器.Web服务器和api都是nodejs应用. nginx负载均衡器具有We
..
我正在使用Node.js来实现Websocket客户端,该客户端订阅来自多个Websocket服务器的数据馈送. foo = new WebSocket('ws://foo.host ...')bar =新的WebSocket('ws://barhost ...')baz = new WebSocket('ws://baz.host ...')qux = new WebSocket('ws:/
..
我正在尝试建立一个能够平衡UDP流量的负载平衡解决方案.就我而言,我有几台不同的服务器,它们将UDP程序包发送到负载均衡器.在每个UDP包主体中,都有一个MSG-ID字段.理想情况下,我想基于该MSG-ID对一组服务器的UDP流量进行负载平衡.换句话说,应该将具有相同MSG-ID的两个UDP包发送到同一台服务器(因为我要组装具有相同MSG-ID的两个UDP包,以形成一个完整的包以进行进一步处理).
..
我是Nginx的新手.我有两个服务器serverA和serverB.我希望有75%的请求转到serverA,其余25%的请求转到serverB.这可能吗? 解决方案 使用nginx加权路由: stream {上游stream_backend {服务器srv1.example.com重量= 75;服务器srv2.example.com重量= 25;}服务器 {听80;proxy_pass
..
假设我具有以下实体: 公共类帐户{私有字符串ID;私有列表主持人;}公共课程主持人{私有字符串名称;private int percentLoad;} 我有一个Web应用程序,其中只有一个端点/check ,其中 accountId 作为请求参数. 请求的示例可以是: localhost:8080/check?accountId = 123456 . 该服务必须验证 ac
..