sbt相关内容
当我使用 sbt 运行 spark 作业时遇到问题,我已经完成编译,但是当我运行命令 run 时,我遇到了以下问题 [error] (run-main-0) java.lang.NoSuchMethodError: scala.collection.immutable.HashSet$.empty()Lscala/collection/immutable/HashSet;java.lang.N
..
我编写了一个名为 sbt-jumi 的 sbt 插件,它为 如果您希望使用的版本低于默认依赖项,那么您将需要以不同方式覆盖.一种方法是强制依赖: libraryDependencies += "fi.jumi" % "jumi-launcher" % "0.4.350" force() 另一种方法是使用 dependencyOverrides 设置: dependencyOverrides
..
当我尝试使用 scalatest 在 SBT 窗口上对我的 spark 流代码执行单元测试时遇到异常. sbt testOnly > * * * * * * 2018-06-18 02:39:00 错误执行程序:91 - 阶段 3.0 (TID 11) 中的任务 1.0 异常java.lang.NoSuchMethodError: net.jpo
..
我想向一个仅用于编译的 sbt 项目添加一个依赖项.它也不应该在运行时类路径上,也不应该在已发布的 POM 中以任何形式可见. 这个想法是添加一个仅存根的库(OrangeExtensions),以便项目可以在任何平台上编译,而不仅仅是操作系统十. 有没有可能是这样的: libraryDependencies += "com.yuvimasory" % "orange-extensio
..
我有一个使用 build.scala 文件用 sbt 构建的 scala 项目.我可以使用 sbt-assembly 从该项目生成单个可执行 jar 文件,而不会出现问题.现在我想生成多个可执行的 jar 文件,其中每个文件都包含一组公共的内部和外部基本依赖项以及不同的外部依赖项. 当前版本的 sbt-assembly 可以做到这一点吗?在 maven 中这很容易,因为可以在 pom 中定义
..
我正在使用 SBT + Idea 13.1.1,我的所有 SBT 文件都是红色的: name := "变形金刚"版本:=“1.0"libraryDependencies ++= Seq("com.github.scopt" %% "scopt" % "3.2.0",“org.scalatest"%“scalatest_2.10"%“2.1.0"%“测试") 这是说 无法解析符号名称/版本
..
我希望我正在构建的程序能够在运行时报告它自己的版本(例如 scala myprog.jar --version).传统上,在 maven 项目中,我会使用资源过滤(pom.xml -> file.properties -> 在运行时读取值).我知道有 sbt-filter-plugin 来模拟这个功能,但我很好奇是否有在 SBT 中执行此操作的更标准/首选/聪明的方式. tl;dr 如何在运
..
SBT 每次在 clean 之后都会运行依赖解析,即使项目依赖管理配置没有更改.在 CI 服务器上运行时,这很耗时. 但是文档 说: 通常情况下,如果自上次成功解析后没有更改依赖管理配置并且检索到的文件仍然存在目前,sbt 不要求 Ivy 执行解析. 每次我使用 sbt clean publish-local 构建项目时,如何阻止 sbt 进行依赖解析? 更新 我发现
..
我尝试在我的 macbook 上安装 SBT.当我运行它时,它不会询问我任何项目定义(例如标题),只是说 [info] 将当前项目设置为默认值(在构建文件中:/Users/qui/Documents/Programming/test2/) 然后转到看起来像 sbt 解释器的地方. 当我查看“test2"内部时,有一个项目和目标目录,但我没有看到可以使用的 src 目录 很明显,我在
..
我正在使用 Scala 构建一个 Apache Spark 应用程序,并且我正在使用 SBT 来构建它.事情是这样的: 当我在 IntelliJ IDEA 下开发时,我希望将 Spark 依赖项包含在类路径中(我正在启动一个带有主类的常规应用程序) 当我打包应用程序(感谢 sbt-assembly)插件时,我确实不希望 Spark 依赖项包含在我的胖 JAR 中 当我通过 sbt tes
..
我今天在使用 SBT 时遇到了错误.最好使用 sbt sbt-version 命令显示: 于 2017 年 5 月 29 日运行: eric@linux-x2vq:~$ sbt sbt-versionJava HotSpot(TM) 64-Bit Server VM 警告:忽略选项MaxPermSize=256M;在 8.0 中删除了支持[信息] 将当前项目设置为 eric(在构建文件:/
..
当我编译 Scala 代码时,通过运行 sbt compile, SBT 说: $ sbt 编译...[警告] 有 5 个弃用警告;使用 -deprecation 重新运行以获取详细信息... 我该怎么做?(来自 SBT 内部?) 解决方案 sbt shell 在 sbt shell 中(如果您不想更改 build.sbt): $ sbt>设置 ThisBuild/scalac
..
这是一个让我非常头疼的问题.我正在为 焊工证明助手 写证明.我在没有 IDE 帮助的情况下这样做,并遵循基于 SBT 的构建方法.这是构建文件: name := "proofs"scalaVersion := "2.11.8"懒惰的 val 焊工 = RootProject(uri("git://github.com/epfl-lara/welder.git#2b9dd10a7a751777cc
..
我正在尝试将 JasperReports 的依赖项添加到我的项目(尝试过 SBT 和 Maven),但似乎有一个依赖项已损坏.我正在使用来自 maven repo 的最新版本 6.1.0(也使用以前的版本和相同的问题进行了测试). 我还添加了 Jasper 存储库,因为需要从那里获取 itext 库. 但我不断收到以下错误:[信息] 解决 org.codehaus.castor#cas
..
Spark对json4s 3.2.10有依赖,但是这个版本有几个bug,我需要使用3.2.11.我在 build.sbt 中添加了 json4s-native 3.2.11 依赖,一切都编译得很好.但是当我提交我的 JAR 时,它为我提供了 3.2.10. build.sbt 导入 sbt.Keys._名称:=“sparkapp"版本:=“1.0"scalaVersion := "2.10
..
我在 build.sbt 中有这样的命令 run
..
我在 Scala 2.10 和 IntelliJ IDEA 12.x 中使用最后一个稳定的 SBT 和最后一个 Scala 插件.并且有非常简单的测试 Scala 项目. 我有 specs2 测试,我想从哪里开始调试.有几个断点,我期待越过行,(从一个断点到另一个断点 - 在我的测试和我的代码中),但相反:调试器在库类中的某个地方停止,向我展示了一些奇怪的来源. 这一直是可重现的,我必
..
当我尝试使用 sbt 0.13.5(和 Java 1.7.0_45)运行 sbt test 时遇到以下错误: [错误] (test:executeTests) java.lang.NoSuchMethodError:scala.Predef$.ArrowAssoc(Ljava/lang/Object;)Ljava/lang/Object; 这是我使用的 build.sbt: 版本 :
..
现在我不知何故弄乱了我的全局 sbt 插件 (~/.sbt/plugins/build.sbt).Scala 2.9.1 似乎是 sbt 0.11.3 想要的版本,并且所有插件(sbt-gpg-plugin、sbt-idea-plugin)都是针对 2.9.1 发布的. 现在无论我做什么,它都会不断尝试找到它们是针对 2.9.2 构建的: [warn] 注意:一些未解决的依赖项有额外的属性
..
我试过 nohup "sbt run" & returns : nohup: failed to run command ‘sbt run’: No such file or directory 并尝试过: nohup sbt run &[2] 7897# nohup:忽略输入并将输出附加到“nohup.out" 当我回车期望进程继续运行时,我收到: [2]+ 停止 nohup
..