scala相关内容
我想知道什么时候应该使用 sbt assembly 以及什么时候应该使用 sbt compile &&sbt 包? 我正在使用 Intellij IDEA 在我的本地计算机上编写一个程序,并且我正在使用 sbt compile && 编译它sbt 包,然后我将它上传到集群并使用spark-submit 运行它.这是最好的方法吗?什么时候应该使用 sbt 汇编? 解决方案 我想知道
..
我正在使用 SBT 为 Scala 2.8、2.9 和(希望)2.10 交叉构建的项目.我想在仅使用 2.10 编译时添加 -feature 选项. 也就是说,当我使用小于 2.10.0 的版本进行编译时,我想将编译器选项设置为: scalacOptions ++= Seq( "-deprecation", "-unchecked" ) 当使用大于或等于 2.10.0 的版本进行编译时:
..
在 playframework 中有自动重新加载功能.这意味着在每个请求的开发模式下,play 检查文件的更改,并在必要时重新编译和重新加载项目.因此,例如,如果我 $ touch conf/routes,项目将在下一次请求时重新加载. 我想添加一些自定义文件以供关注. 我相信 watchSources 设置包含正在播放的文件列表.但这对我不起作用.考虑一下,我们想将 trigger
..
我在 windows vista 上使用 cygwin 1.77.我在 shell 中遇到了 sbt 的输出问题.一些相关的环境变量: TERM=cygwinCYGWIN=服务器LANG=C.UTF-8 (1) 当我输入 sbt test 时,shell 包含很多不可打印的字符: 我该如何解决这个问题? 我的 sbt shell 脚本如下所示: dir=`目录名 $0`stty
..
我开始使用 ScalaTest 和 sbt.build.sbt如下: name := "MySpecSample"版本:=“1.0"libraryDependencies += "org.scalatest" % "scalatest_2.11" % "2.2.0" % "test"scalaVersion := "2.10.3" 初始测试代码在这里.此测试代码单独运行,没有主要组件代码.
..
在独立模式(不是 Play 应用程序的一部分)下使用 Play 的 anorm 包的最新版本(例如,2.3 或 2.4)的当前 sbt 语法是什么? 解决方案 现在 Anorm 发布如下,无需额外的解析器. "org.playframework.anorm" %% "anorm" % "2.6.2"
..
我是 Scala 的新手,如果问题非常明显,我很抱歉. 我的计算机上安装了 Eclipse Photon.想要编辑 Scala 代码并生成可运行的 jar.棘手的部分是我的计算机(Centos7)上没有互联网访问权限. 我牢记两个潜在的问题/问题: 手动下载插件:我知道,Eclipse 的 Scala IDE 插件可以运行 Scala 代码/生成 jar(如 https://me
..
在 sbt 0.12 中,您可以指定一个任务在没有实际使用输入任务的输出的情况下依赖于另一个. 所以你只是在指定任务的顺序: unitTask
..
分类器一词是什么意思?它来自罐子吗?例如在 sbt-assembly 插件中: artifact in (Compile, assembly) ~= { art =>art.copy(`分类器` = Some("程序集"))} 解决方案 classifier被Maven定义为项目坐标的第五个元素,在groupId之后,artifactId、version 和 packaging. 更具
..
我正在处理一些(出于某种原因)只能在单个 VM 中使用一次的类.如果我在我的 sbt 设置中启用单独运行它们(fork := true),我的测试用例就可以工作. 如果我运行多个这些测试,它们会失败并出现异常,线程执行器拒绝任务(它很可能已关闭).找出导致问题的原因将非常耗时,即使我找到了问题,我也可能无法解决它(我无权访问源代码). 我目前正在使用 specs2 测试框架,但任何使用
..
我正在使用 Scala 2.11、Spark 和 Scallop(https://github.com/scallop/scallop).我使用 sbt 构建了一个没有 Spark 提供的依赖项的应用程序 fat jar(位于:analysis/target/scala-2.11/dtex-analysis_2.11-0.1.jar) 我可以在 sbt 中正常运行程序. 我尝试从命令行
..
我使用 scalaxb-sbt 插件生成代码,该插件在编译时会生成大量警告消息.有没有办法隐藏生成代码或包的编译警告? 解决方案 适用于 Scala 2.12.13+ 或 2.13.2+ Scala 编译器的最新版本集成了消音器插件,请参阅 可配置的警告. 所以现在你不需要任何插件,只需将以下行添加到 build.sbt: ThisBuild/scalacOptions += "
..
我可以在编译前自动执行任务: compile in Compile //编译后工作doFoo()X} 执行任意Scala代码,但我需要在编译事件发生时自动执
..
我正在使用 Scala 2.11.1 和 sbt 0.13.5. 我有一个 sbt 插件,它包含一个辅助函数来创建输入任务,如下所示(实现被剥离,因为它与问题无关): def register(name: String, description: String): Def.Setting[InputTask[Unit]] = {InputKey[Unit](name, descriptio
..
我正在尝试在我的 Play 2.4.x 应用程序中加载本机库.我编写了一个简单的测试,它在 IDE (IntelliJ) 和 SBT 中都可以正常工作.在这两种情况下,我都设置了 java.library.path 以运行测试. 在 IDE 中,我在测试运行配置中设置了 -Djava.library.path=$USER_HOME$/dev/lindoapi/bin/linux64.
..
我正在将 SBT 插件从 0.12 移至 0.13.在我的插件的不同点,我将一组动态任务安排到 SBT 构建图上. 下面是我的旧代码.这仍然是表达这一点的惯用方式,还是可以利用宏使一切更漂亮? 导入 sbt._导入密钥._对象顶层扩展构建{lazy val ordinals = taskKey[Seq[String]]("A list of things")lazy val times =
..
我有一些代码想在不同的 Spark 项目中使用.我正在使用 sbt 创建 .jar 文件. 我看到了这个想法 将共享代码放入另一个项目中,该项目构建自己的 JAR文件,并在两个项目中使用它. 但是那篇文章已经过时了,而且还专门针对 Java...我想知道是否有更好的方法适合我的场景. 解决方案 我已经解决了这个问题,在 build.sbt 文件中添加以下内容: lazy
..
我无法访问包中的 SparkConf.但我已经导入了 import org.apache.spark.SparkConf.我的代码是: 导入 org.apache.spark.SparkContext导入 org.apache.spark.SparkContext._导入 org.apache.spark.SparkConf导入 org.apache.spark.rdd.RDD导入 org.ap
..
尝试在 Heroku 上引导我的样板 Scala Spray 项目,我正在尝试为我的本地项目添加必要的调整根据 Heroku 文档.喷雾样板项目源自 github 上的优秀模板,该模板工作简单,代码优雅,包括测试. 在最后提到的模板项目运行良好之后,将行 import com.typesafe.startscript.StartScriptPlugin 添加到我的 build.sbt 时,任
..
在使用 sbt-buildinfo 创建 的 Play Framework 2.2 项目上编译项目时BuildInfo.scala文件,如何配置build.sbt让Play Framework不会监听BuildInfo.scala文件的变化,并且如果该文件更改不会重新启动服务器? 例如,如果会话开始于: $ sbt ~run 服务器以开发模式启动,然后在另一个终端窗口中启动另一个 sbt
..