spark-java相关内容
我正在尝试使用 sparkjava.com 框架为我的 apache spark 作业构建一个 web api.我的代码是: @Override公共无效初始化(){得到(“/你好",(req, res) ->{String sourcePath = "hdfs://spark:54310/input/*";SparkConf conf = new SparkConf().setAppName("
..
我正在使用 Java Spark 构建 REST 服务器,我想知道以下两种定义路径参数的语法之间的区别,使用 :path-parameter 与 {路径参数}: path("/containers/:container-id", () -> { ...} )path("/shipments/{shipment-id}", () -> { ... } ) 有一次,当查询路径/{handler-i
..
我正在做一个使用 Spark Java 的项目.在服务器端,创建了一些图像,我希望它们在客户端中可用.由于我有一个静态内容目录,在服务器端创建图像后,我将其放在该目录中.但是,除非我重新启动服务器,否则此文件不可用.我想必须有一种方法可以在运行时刷新 Spark Java 的静态目录文件,以便可以满足运行时创建的图像的请求.对吗? 谢谢! 解决方案 我已经解决了这个问题,将 png
..
我想写一个简单的rest api来下载文件. 我找不到有关它的文档,因为我知道我需要设置 mimetype='application/zip' 以进行响应,但不清楚如何返回流. http://sparkjava.com/ 更新:在此处解决示例代码: public static void main(String[] args) {//设置端口(8080);get("/hello"
..
是否有使用Java Spark Framework设置到特定静态文件的路由的简单方法? 我正在设置要从Java Spark服务器提供服务的Angular(1.5)应用程序.我已经设置了提供静态文件的一般方法: staticFiles.location("/public"); 该应用将具有多个角度路线,例如/start,/config,/live等. 当index.html和js
..
使用SpringBoot,您具有@SpringBootApplication批注,但是与整洁的Java Spark框架等效吗? IntelliJ创建了一个Maven项目,我添加了spark依赖项,但是运行安装目标,我得到了一个5 KB的jar,没有清单.不是可执行的jar. 到目前为止创建的pom.xml如下:
..
我正在使用HttpURLConnection向本地部署并使用JAVA Spark创建的本地服务发出POST请求. 当我使用HttpURLConnection进行POST调用时,我想在请求正文中发送一些数据,但是每次JAVA Spark中的请求正文为空时.下面是我正在为此使用的代码 Java Spark POST服务处理程序 post("/", (req, res) -> { Sys
..
我的本地Web应用程序(使用java spark框架)创建了一个Html5报告,并且某些页面包含可以播放的音频文件. 最初,这完全是通过HTML来完成的,例如
..
我使用以下方法从数据库返回了数据(方法来自 spark-java框架 ): get("/data_on_page_load", "application/json", (Request request, Response response) -> { List list = Post.findAll(); // NEED TO SERIALIZE THE RESPONSE
..
在我的spark-java项目中,我将css文件和js文件放入src/main/resources中的文件夹static中.我使用Spark.staticFileLocation("/static")设置静态文件路径. 当我使用get("/posts", (req, res) ->{...})时,css和js文件可以正确加载.路径为http://0.0.0.0:4567/css/style.
..
我正在玩 Spark (Java Web框架,而不是Apache Spark)。 我发现定义路由和过滤器确实非常容易,但是我想将本机servlet过滤器应用于路由,但似乎找不到 更具体地说,我想使用 Jetty的DoSFilter ,它是一个servlet过滤器(与Spark Filter定义相反)。由于Spark使用的是嵌入式Jetty,因此我没有web.xml来注册DoSFilte
..
以下代码从镶木地板文件读取Spark DataFrame并将其写入另一个镶木地板文件.将DataFrame写入新的Parquet文件后,将更改ArrayType DataType中的可为空文件. 代码: SparkConf sparkConf = new SparkConf(); String master = "local[2]"; sparkConf.setMas
..
我必须读取客户端使用Spark(Java框架)发送的一些数据. 这是客户发帖请求的代码.我正在使用jQuery. $.post("/insertElement", {item:item.value, value: value.value, dimension: dimension.value }); 服务器代码: post(new Route("/insertElement
..
我是sparkjava的新手,总体上喜欢它。但是,是否必须在main方法中定义新的路由/端点?对于任何重要的Web应用程序,这将导致非常长的main方法,或者我需要多个main方法(因此,需要在多个实例之间分配服务器资源)。 这两个sparkjava文档页面似乎在主要方法中定义了路由: http://sparkjava.com/documentation.html#routes 和此处 ht
..
我正在将NGINX和sparkjava用于我的Web应用程序.我确定我已正确启用所有CORS标头.不过,我仍然得到"XMLHttpRequest无法加载 http://localhost:3003/platformAPI/login 无效的HTTP状态代码404"错误.下面分别是我的extjs和spark java的客户端和服务器方法.我已经检查了浏览器的“网络"标签,以获取发送的响应和请求标头.
..
我想使用spark从html表单上载文件.以下是我的Java函数来处理发布路线: Spark.post("/upload", "multipart/form-data", (request, response) -> { String location = "temporary"; // the directory location where files
..
我在ftl中有以下代码: ${name} ${name!"print if null"}
..
我正在使用 spark 开发Web应用程序;我要上传文件时会发生问题: public final class SparkTesting { public static void main(final String... args) { Spark.staticFileLocation("/site"); Spark.port(8080);
..
我正在试图弄清楚如何测试用 Java Spark 编写的Web / rest服务,并且没有很多教程如何做到这一点。由于 Apache Spark 和 Java Spark 之间的混淆,找到答案很棘手。 我遇到了这个资源但是,我无法按照我的预期工作。还有这个资源和 Java中的示例Spark github 但他们都可能使用嵌入式服务器。 无论如何,假设我有以下服务 公共课RestS
..
我正在使用使用Jetty 9.0.2的SparkJava 2.2。 我得到Jetty抛出的“Form too large”异常。如果我直接使用Jetty,我已经知道如何解决这个问题: 表单太大例外 http://www.eclipse.org/jetty/documentation/current/setting-form-size.html 问题: 现在我需要找到一
..