data-science-experience相关内容
我创建了一个临时表 DETAILS 并遵循在其中创建和插入的相同语法.但是我没有收到任何结果集但是, CREATE 和 INSERT 语句运行成功,并且在 INSERT 语句中 Row 也受到了影响.但是当我运行最后一个 SELECT 语句来查看记录时,结果集是空的. 删除表格细节;创建全局临时表详细信息为 (选择 ins_id ,名字,页面 FROM讲师)仅定义;插入细节选择 ins_id ,
..
我必须在 IBM Data Science Experience 的 Jupyter 上启用文件上传小部件.它需要以下一组命令: pip install fileuploadjupyter nbextension install --py fileuploadjupyter nbextension enable --py fileupload 看起来我们需要在平台上拥有 sudo 权限才能执行
..
我已经创建了一个临时表 DETAILS ,并遵循在其中创建和插入的相同语法.但是我没有收到任何结果集.但是, CREATE 和 INSERT 语句成功运行,并且INSERT语句中的Row也受到了影响.但是,当我运行最后一个 SELECT 语句以查看记录时,结果集为空. DROP TABLE DETAILS;创建全球临时表的详细信息,以(SELECT ins_id,firstname,第FROM
..
我正在使用IBM Watson Studio(默认Spark python环境),并尝试将Keras模型转换为systemml DML并在Spark上进行训练. !pip install systemml导入系统ml 这执行得很好.但这- 从systemml导入mllearn 投掷SyntaxError:import *仅在模块级别允许 dir(systemml) 不显示mll
..
我想在IBM Data Science Experience上使用Mecab。 https://pypi.python.org/pypi/mecab-python3 有可能吗? 解决方案 恐怕不会,或者至少不容易。该Python程序包需要本机mecab库,该库不在运行DSX笔记本的环境中安装。用户也不具有使用程序包管理器(yum)进行安装的权限。 如果您愿意花费很多精力,
..
从spark连接到第三方系统的常用方法是提供系统的凭据作为spark脚本的参数。但是,这引起了有关安全性的一些问题。例如。请参阅此问题 Bluemix spark-submit-如何确保我的Scala jar需要的凭据 在bluemix上运行的spark作业是否有可能查看其他列表操作系统上的进程?即作业可以运行等效于 ps -awx 的命令来检查Spark集群上运行的进程以及传递给这些进程的
..
我需要访问Spark History Server,以便性能调整慢速的Spark作业。 我在DSX中寻找链接,但找不到链接,所以我已经在Bluemix控制台中打开了spark服务,并直接从那里导航到spark history服务器(“ Job History”链接)。 是否可以访问 解决方案 似乎是直接通过DSX生成的火花历史记录服务器?您似乎必须通过登录Bluemix来访问火
..
我正在DSX云中使用RStudio,并尝试使用“软件包/安装”来安装软件包。 错误如下: 软件包'arulesViz'的安装具有非零退出状态 软件包'h2o'的安装具有非零退出状态 任何解决方案。 解决方案 是的,您说对了,安装“ arulesViz”时出现问题。那是因为该程序包正在寻找不适用于R 3.3.2的“ arules”版本。您还会遇到的问题是,安装最新版本的“
..
我在笔记本电脑中安装DSx Desktop时遇到问题。我有Docker Running(Kitematic),是否必须以某种方式运行Docker守护进程? 解决方案 您的DSX Desktop版本可能不支持与Kitematic捆绑在一起的旧Docker解决方案,并且DSX Desktop可能正在寻找适用于Mac的Docker。 最新版本的DSX Desktop确实提供了对Docker
..
spark文档显示了spark程序包可以如何添加: sparkR.session(sparkPackages =“ com.databricks:spark-avro_2.11:3.0.0”) 我相信只能在初始化会话时使用。 如何使用DSX上的笔记本为SparkR添加火花包? 解决方案 请使用pixiedust软件包管理器来安装avro软件包。
..
我正尝试在笔记本电脑上使用最新的spark-cloudant软件包: %AddJar -f https:/ /github.com/cloudant-labs/spark-cloudant/releases/download/v1.6.4/cloudant-spark-v1.6.4-167.jar 哪些输出: 开始从https://github.com/clouda
..
我运行的大多数python笔记本往往都需要使用 进行一些初始设置! pip install ... 每次笔记本运行时执行设置代码效率低下,所以我会宁愿避免这种情况。另外,我也不想将设置代码移到其他笔记本上,因为通常只需几行代码。 解决方案 ! python -c“导入cloudant” || pip install cloudant --user
..
我正在尝试从IBM Data Science Experience连接到IBM Cloud Object Storage: access_key ='XXX' secret_key ='XXX' bucket ='mybucket' host ='lon.ibmselect.objstor.com' service ='mycos' sqlCxt = SQLContext(s
..
在调试我的Spark笔记本时,我需要更多信息。我发现了一些日志文件: !ls $ HOME / notebook / logs / 文件为: bootstrap-nnnnnnnn_nnnnnn日志 log spark160master-ego.log 哪些应用程序记录到这些文件以及写入了哪些信息到每个文件? 解决方案 调试笔记本时
..
在分析中,我正在使用两个Jupyter笔记本做不同的事情。在我的Scala笔记本中,我将一些已清理的数据写到了实木复合地板上: partitionedDF.select(“ noStopWords”,“ lowerText” ,“预测”).write.save(“ swift2d://xxxx.keystone/commentClusters.parquet”) 然后我进入
..
我正在尝试在IBM的Data Science Experience(DSX)上安装 tm 软件包: install.packages(“ tm”) 不过,我是遇到此问题: “无法使用“大满贯”依赖” 此帖子建议使用R版本 3.3.1将解决该问题,但是DSX上的R版本是: R版本3.3.0(2016-05-03) 如何在IBM DSX上解
..
这是来自这个问题。我已将以下罐子导入笔记本: pixiedust.installPackage(“ http://central.maven.org/maven2/com /typesafe/scala-logging/scala-logging-slf4j_2.10/2.1.2/scala-logging-slf4j_2.10-2.1.2.jar“) pixiedust.installP
..
我昨天在DSX中创建的一个笔记本已停止工作-无法找到sc对象的错误 “ NameError:未定义全局名称“ sc”” 我重新启动了内核,但无法创建它。我没有其他运行的内核。 我创建了一个新笔记本-使用Python 2的Spark 2.0,除了其中几乎没有任何内容: sc 然后返回空白。我期待有关SparkContext对象的详细信息。万一我发
..
我有一个DSX笔记本,可以使用DSX用户界面手动运行它,并在Cloudant数据库中填充一些数据。 我已计划运行笔记本每小时。一夜之间,我希望该作业可以运行很多次,但是Cloudant数据库尚未更新。 我如何调试预定的作业?我是否可以检查任何日志以验证笔记本是否已实际执行?笔记本的输出是否保存到日志文件?在哪里可以找到这些文件? 解决方案 一种可能性是查看笔记本内核的内核日志。
..
在由Apache Spark服务支持的Python 3.5笔记本中,我已经使用pip安装了BigDL 0.2.删除该安装并尝试安装BigDL 0.3版时,出现此错误:(添加了换行符以提高可读性) AssertionError: Multiple .dist-info directories: /gpfs/fs01/user/scbc-4dbab79416a6ec-4cf890276e2b/.
..