sbt-assembly相关内容
我正在尝试在GitLab中构建一个项目. 在gitlab-ci.yml中,我运行了sbt程序集并遇到了令人讨厌的异常. [error] (soda/*:assembly) deduplicate: different file contents found in the following: [error] /root/.ivy2/cache/io.netty/netty-buffer/ja
..
我需要从最终组装jar中排除spark和test依赖项。我尝试使用 provider ,但无法正常工作。 libraryDependencies ++ = Seq(“ org.apache.spark”%“ spark-core_2.11”%“ 2.0.1 “%”提供“) 并执行 sbt汇编。 请帮助我解决此问题。 解决方案 使用直接名称或包含条件的程序
..
我在我的Scala项目的 sbt 版本中遇到问题(重复项: META-INF / MANIFEST.MF )和以下几行代码解决了该问题: assemblyMergeStrategy in assembly: = {{ case PathList(“ META-INF”,xs @ _ *)=> (xs map {_.toLowerCase})match { case(“ manifes
..
tl; dr:此处是包含该问题的存储库。 / h1> Cassandra和HDFS都在内部使用番石榴,但是由于各种原因,它们都不遮蔽依赖关系。由于番石榴的版本不兼容二进制文件,因此我在运行时发现 NoSuchMethodError s。 我尝试着色番石榴自己在我的 build.sbt 中: val HadoopVersion =“ 2.6.0- cdh5.11.0”;
..
我正在开发使用xgboost4j的spark应用程序. https://github.com/dmlc/xgboost/tree/master/jvm-包 由于jar的本地C依赖性,需要将该程序包编译为本地体系结构.但是群集的架构与开发笔记本电脑不同.通过集群中的一个运行sbt程序集时,如何替换该程序包?还是建议您通过%“提供"来解决此问题? 解决方案 为(提供/编译)的lib使用后
..
我正在使用sbt程序集创建一个可以在spark上运行的胖罐.依赖于grpc-netty. spark上的Guava版本比grpc-netty所要求的版本旧,并且我遇到此错误:如果我错了,请更正我,但是据我了解,如果正确着色,我不必将userClassPathFirst设置为true.这是我现在做底纹的方法: assemblyShadeRules in assembly := Seq( S
..
我正在Scala中构建一个Apache Spark应用程序,并且正在使用SBT来构建它.这是东西: 在IntelliJ IDEA下进行开发时,我希望Spark依赖项包含在类路径中(我正在使用主类启动常规应用程序) 当我打包应用程序(由于sbt-assembly)插件时,我不希望将Spark依赖项包含在我的胖JAR中. 当我通过sbt test运行单元测试时,我希望Spark依赖项包含在类
..
我正在使用spark(在Java API中),并且需要可以将其推送到集群的单个jar,但是jar本身不应该包含spark.当然,部署作业的应用程序应该包含spark. 我想要: sbt运行-所有内容都应编译并执行 sbt smallAssembly-创建一个没有火花的罐子 sbt组装-创建包含所有内容(包括spark)的uber jar,以便于部署. 我有1.和3.工作.关于
..
我正在尝试运行类似我的代码是 package io.boontadata.spark.job1 import org.apache.spark.sql.SparkSession object DirectKafkaAggregateEvents { val FIELD_MESSAGE_ID = 0 val FIELD_DEVICE_ID = 1 val FIELD_TIMES
..
如何以编程方式删除java或scala注释? 当前项目的可交付成果之一是我的代码,以及我的代码所依赖的所有依赖项,它们都是uber-jar.我们正在构建一个SDK,因此需要重命名所有包含的依赖项,以免干扰SDK客户端的依赖项(这意味着如果我们使用的是apache commons版本X,而他们使用的是版本Y,则没有冲突).我们使用sbt-assembly重命名了代码所依赖的包.例如org.ap
..
我使用package任务(来自 xsbt-web-plugin )进行打包一个战争项目,并执行assembly任务(来自 sbt-assembly )来打包该项目到一个罐子里. 我有一个多模块构建,有的模块打包成war,有的打包成jar. 我想设置构建以执行assembly任务,并且: Jar模块打包到jar文件中 战争模块打包到战争文件中 在执行assembly任务时如
..
我正在通过sbt& xsbt-web-plugin. 我想将所有资源(模板,css,js)打包到一个jar中. 在带有sbt-assembly插件的sbt中,assembly命令使单个jar包含项目的所有依赖项. $ java -jar myproject.jar 然后在浏览器中打开它 无法加载资源:[/WEB-INF/views/index.scaml];您确定它在
..
我实现了Scalatra servlet,现在想创建一个可执行jar,就像本教程中所述: http://www.scalatra.org/2.2/guides/deployment/standalone.html 我将IntelliJ IDEA与Scala插件一起用于开发和sbt来构建和运行我的servlet(我使用sbt-idea生成了项目文件). 我的问题是,当我尝试编译项目时,找不到本
..
我有反引号用于保留关键字.案例类的一个示例如下: case class IPC( `type`: String, main: Boolean, normalized: String, section:String, `class`:
..
我正在尝试建立一个简单的akka-http 2.4.2项目以对其进行测试,但是我没有这样做。 我的build.sbt: import NativePackagerHelper._ lazy val akkaVersion =“ 2.4.2” lazy val root =(项目在file(“。”)中)。 设置( 名称:=“ akkTest”, 版本:=“ 0.1
..
我有一个正在使用的Play网络应用,我希望能够使用sbt程序集将其部署为胖子.在调试中运行该应用程序时,因为它已添加到我的build.sbt文件:libraryDependencies += guice中,所以guice库没有被识别的问题.我已经创建了sbt程序集MergeStrategy配置并运行sbt程序集,并成功编译了该项目的jar文件,但是,当我尝试运行jar时,在控制台中出现以下异常:
..
我有使用YARN的Spark安装程序的较旧版本,我不想删除,但仍想使用较新的版本.我找到了 很多这样 但是,我不知道我是否真的需要一个插件,如果需要的话,究竟该选择哪个插件以及如何精确使用它.我尝试使用'build/mvn'和'build/sbt'直接编译github源,但是'spark-assembly_2.11-2.0.2.jar'文件只有283个字节. 我的目标是以此处所述的类似方式
..
标题也可以是: Maven和SBT程序集插件之间有什么区别. 在将项目从Maven迁移到SBT时,我发现这是一个问题. 为了描述这个问题,我创建了一个示例项目,该项目依赖于构建工具,而我发现它们的行为有所不同. https://github.com/atais/mvn-sbt-assembly 唯一的依赖项是(sbt样式) "com.netflix.astyanax
..
我有一个非常漂亮的Scalatra项目,它使用Logback进行记录. 在 logback手册之后,我为开发配置添加了logback-test.xml(调试日志),同时保持生产logback.xml. 但是,在开发中,使用xsbt-web-plugin来运行容器并重新加载代码时,我的应用似乎只能使用logback.xml. 如何获得所需的行为?: 在开发模式(./sbt c
..
我想创建一个大的Jar文件.试图使用 SBT ASSEMBLY 的用户.我从 GitHub 安装了sbt-assembly和这个java.lang.RuntimeException: deduplicate: different file contents found in the following: /home/UserName/.ivy2/cache/org.eclipse.jetty.or
..