sbt相关内容
..
如何在经过身份验证的代理后使用 sbt 的类似问题?.我尝试了给定的答案,问题仍然存在. 当我在终端中运行 sbt 时,它会显示并停留在: 获取 org.scala-sbt sbt 0.13.6 ... 附加信息: sbt --versionsbt 启动器版本 0.13.6 我该如何解决? 解决方案 这是相当老的帖子,我的回答可能并不完全相关.但这是我的经验: 我正在
..
我已将 IntelliJ 从 CE 2017.2.5 升级到版本 CE 2017.3,现在我无法构建我的 sbt 项目.构建卡在第一步: "构建:同步MyProjName:正在同步...从 sbt 转储项目结构" 我已删除 .idea 目录和 MyProjName/project/target 目录.我从命令行做了一个 sbt 构建,它有效.然后我再次启动 IntelliJ 并尝试将 MyPr
..
我正在研究 Scala 并注意到了 sbt.我对 Java/groovy 项目中的 Gradle 非常满意,而且我知道 Gradle 有一个 scala 插件. 在 Scala 项目中偏爱 sbt 而不是 Gradle 的充分理由是什么? 解决方案 请注意,SBT 和 Gradle 之间的一个关键区别是其依赖管理: SBT: Ivy,带有一个修订版本,可以作为固定版本(例如 1
..
build.sbt: val sparkVersion = "2.1.1";libraryDependencies += "org.apache.spark" %% "spark-core" % sparkVersion % "provided";libraryDependencies += "org.apache.spark" %% "spark-sql" % sparkVersion % "
..
./build/sbt 清理包给出以下错误: 解决 org.fusesource.jansi#jansi;1.4 ...[警告] ::::::::::::::::::::::::::::::::::::::::::::::[警告] :: 未解决的依赖关系 ::[警告] ::::::::::::::::::::::::::::::::::::::::::::::[警告] :: ml.dmlc.xg
..
我的代码在下面 import org.apache.spark.SparkContext;导入 org.apache.spark.SparkConf;对象字计数器 {def main(args: Array[String]) {val conf = new SparkConf().setAppName("Word Counter").setMaster("local")val sc = 新 Sp
..
我正在尝试构建一个 Scala 播放应用程序,但由于 repo 不再启动,依赖项突然无法下载 下面的完整堆栈跟踪.我曾经获得 scalaz-stream v0.7a 依赖关系很好,但它似乎不再出现在网站上.有一个快照 0.7a 可供我使用.但是我只需要知道如何将版本切换到这个版本? 我不知道 scalaz 依赖项的来源或定义的位置.我自己没有设置它,如果我搜索目录中的所有文件,则没有提
..
由于我是 Stack Overflow 的新手,请耐心等待,我正在使用 Play 2.5 进行项目,这正是网站上的入门示例. 因为我必须使用 ebean,所以我遵循了在 plugins.sbt 中设置 ebean 的步骤,就像 addSbtPlugin("com.typesafe.sbt" % "sbt-play-ebean" % "3.0.0") 也在我的 build.sbt 文件中
..
我有一个使用外部库的 IntelliJ Idea 项目.我在 ~/.ivy2/cache 目录中找不到这些库之一.sbt 文件如下所示: name := "myproject"scalaVersion := "2.11.8"惰性 val toImport = RootProject(uri("someuri#hash"))惰性val root =(文件中的项目(“.")).dependsOn(t
..
我正在尝试开始使用 Scala 中的快速 Hello World 应用程序. 我使用的是 IntelliJ Ultimate 13.1.1.我已经下载了 Scala 插件.我还下载了 SBT 插件.项目 SDK 为 Java 1.6. 我继续创建了一个新项目.我选择了 SBT 项目.该项目创建良好.我注意到 src/main/* 和 src/test/* 文件夹创建得很好. 当我
..
我正在尝试实现一个 sbt 任务,它收集使用项目的 dependsOn 方法指定的项目的所有源目录.我最终得到了这段代码: def sourcesOfDependencies(p: Project): Def.Initialize[Task[Seq[File]]] =Def.taskDyn {p.依赖项.map(dep => (dep.project 中的源目录).toTask.map(Seq(
..
如何使目标“包"依赖于目标“测试"? 这里有一个解决方案:强制 sbt 0.11 运行测试但它不适用于 xsbt-web-plugin. 解决方案 这就是我所做的: Keys.`package` println("打包测试后")在} 它运行测试,如果测试成功
..
Play 2.2.1 一切正常.但是,当升级到 Play 2.2.2 并部署到 Heroku 时,进程会发出警告: sbt.ResolveException:未解决的依赖项:com.typesafe.play#play_2.10;2.2.2:未找到未解决的依赖关系:com.typesafe.play#play-cache_2.10;2.2.2:未找到未解决的依赖项:com.typesafe.pl
..
我正在寻找如何在我的 scala 项目中的风暴 1.2.1 中从风暴螺栓中终止拓扑.从这个answer中,我编写了以下代码: 私有 def shutTopology(){导入 org.apache.storm.utils.Utils导入 org.apache.storm.utils.NimbusClientval conf = Utils.readStormConfigval nimbusCl
..
..
如果我用 定义一个 SBT 配置 val MyConfig = config("my") extend Test 是不是和做的基本一样 val MyConfig = config("my")val mySettings = inConfig(MyConfig)(Defaults.testSettings) 然后在构建定义中导入 mySettings ? 解决方案 不,
..
我使用 Scala 编写了简单的 kafka 流.它在当地运作良好.我已经拿了肥罐并在 scala 集群中提交.提交作业后,我收到类未找到错误.如果我提取 fat jar,它在 fat jar 中具有所有依赖项. 为什么我得到 class not found 错误?如何解决? 注意:如果我手动将 fat jar 部署(复制)到 Spark/jars 文件夹中.我看不出有什么问题.但是,
..
我正在使用 sbt-assembly 插件为我的 scala 项目构建一个胖 Jar.有没有办法可以在 jar 清单中包含 git commit id,类似于 git-commit-id-plugin 为 maven 所做的事情. 谢谢 解决方案 老问题,但是我去... 您可以使用带有 sbt-assembly 的 sbt-git 插件在您的MANIFEST.MF 文件.
..
如果项目在调试模式下运行,有没有办法有条件地禁用分叉: sbt -jvm-debug 9999 然后在我的构建中: fork 测试 := {//找到一个让我知道是否在设置中调试的密钥!isDebugging.value} 解决方案 指定通过 SBT 中系统属性的 flywayUrl 应该会有所帮助. 将以下内容添加到 build.sbt: lazy val isDebugging
..