fiware-cosmos相关内容
我正在尝试通过Hive JDBC驱动程序将SpagoBI连接到Cosmos. 连接有效,但是我需要添加jar(json-serde-1.3.1-SNAPSHOT-jar-with-dependencies.jar)以便在查询时执行map reduce. 问题在于spago bi不支持对数据集的定义进行多个查询,因此我无法在执行实际选择之前添加jar(分号被解释为jar路径的一部分) 我
..
我想安装Cosmos. 我已经在单个节点上安装了Apache-Hadoop 2.6,下一步是安装cosmos-gui. 因此,我遵循官方安装指南- https://github.com/telefonicaid/fiware-cosmos/blob/develop/cosmos-gui/README.md#installation ,但npm start命令不起作用. 错误: f
..
我对PEP代理文件有疑问. 我的梯形失真校正服务正在192.168.4.33:5000上运行. 我的Horizon Service在192.168.4.33:443上运行. 我的WebHDFS服务在192.168.4.180:50070上运行 我打算在192.168.4.180:80上运行PEP代理 但是我没有得到的是我应该用什么代替config.account_host? 在用于
..
我最近发现FIWARE Lab中对Cosmos的WebHDFS的访问已受到OAuth2的保护.我知道我必须在请求中添加OAuth2令牌才能继续使用WebHDFS,但是: 如何获取令牌? 如何将令牌添加到请求中? 没有令牌,API始终返回: $ curl -X GET "http://cosmos.lab.fi-ware.org:14000/webhdfs/v1/user/gto
..
我们已经安装了Orion,Cygnus和Cosmos,并正在尝试使它们之间的连接正常工作:通过代理,Orion消息将转发到Cygnus,后者又将这些消息写入Cosmos数据库. 我们知道Orion正常工作(之前已经过测试和使用),并且已经使用测试python脚本测试了Cygnus(如 1)我们如何配置Cygnus/,需要设置哪些参数,以便获得从Orion通过Cygnus到Cosmos的最简单
..
我在问题"Cygnus无法在Cosmos全局实例上保留数据" .但是,看完之后我没有找到解决方法. 如今,我最近在FILAB中部署了两个虚拟机(两个VM都包含Orion ContextBroker 0.26.1和Cygnus 0.11.0). 当我尝试通过天鹅座将数据持久存储在Cosmos上时,出现以下错误消息(在两个VM中相同): 2015-12-17 19:03:00,221
..
当尝试将一个实体从Cygnus持久化到Cosmos全局实例时,它会失败. 在查看日志文件时,我看到了类似的内容: 2015 15:31:50,006 DEBUG [SinkRunner-PollingRunner-DefaultSinkProcessor] (org.apache.http.impl.conn.DefaultClientConnection.sendRequestHea
..
我已在FILAB中部署了Orion实例,并配置了Cygnus inyector,以便将信息存储在Cosmos中. 但是...让我们想象一下这样一种场景,其中实体的数量急剧增加.在这种假设的情况下,仅Orion GE的一个实例是不够的,因此有必要部署更多实例. 将执行什么比例程序?考虑到最大配额为: VM实例:5 VCPU:10个 硬盘:100 GB 内存:10240 MB 公用I
..
自从宣布在FIWARE Lab中访问Cosmos的WebHDFS受到OAuth2的保护以来,Cygnus(版本0.8.1)无法将Orion的上下文数据保留在Cosmos HDFS中: 15/07/09 08:45:21 INFO handlers.OrionRestHandler: Starting transaction (1436424291-649-0000000000) 15/07/
..
我使用的是 Fiware Cosmos 的共享实例(意思是我不喜欢没有root权限)。直到今天,我一直使用jdbc和Hive CLI成功地在hive中成功处理和管理表。 但是现在我在启动Hive CLI时出现这个错误: log4j:错误无法实例化class [org .apache.hadoop.hive.shims.HiveEventCounter。 java.lang.Runti
..
我有一个Hive客户端(使用Java编写),在FIWARE实验室的Cosmos全球实例中工作得很好。但是,它不再工作,看起来客户端无法连接(超时)。 服务器端有任何更改吗? 解决方案 这是因为FIWARE实验室的Cosmos全球实例已经升级,现在HiveServer2正在Hive的服务器端运行。因此,除了以下内容,代码中的所有内容仍然有效: 加载 org.apache.hive
..
我遵循此指导Hadoop / FIWARE-Cosmos,我对Hive部分有疑问。 我可以访问旧集群( cosmos.lab.fiware .org )通过SSH的headnode,但是我不能为新的集群做。我尝试了 storage.cosmos.lab.fiware.org 和 computing.cosmos.lab.fiware.org 并且失败连接。 我试图通过SSH连接的意图是
..