有没有办法从运行在Google Cloud Platform DataProc集群上的Jupyter笔记本中导入和运行保存的.py文件中的函数? [英] Is there a way to import and run functions from saved .py files in a Jupyter notebook running on a Google Cloud Platform dataproc cluster?

本文介绍了有没有办法从运行在Google Cloud Platform DataProc集群上的Jupyter笔记本中导入和运行保存的.py文件中的函数?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

在本机运行Jupyter Notebook时,从保存的.py脚本导入函数和实用程序非常简单。

当我在运行在Google Cloud Platform DataProc集群上的Jupyter笔记本上工作时--(在将.py脚本上传到我的DataProc Jupyter笔记本之后--因此它在云中*)--我无法将该函数导入到(Dataproc)笔记本中。

有人知道我如何做到这一点吗?这仅仅与找出正确但不明显的道路有关吗?(我正尝试从与Jupyter笔记本相同的文件夹中导入一个.py文件,因此,如果这是在本地运行的,它不需要路径,但也许它与dataproc不同?

*我没有犯尝试将桌面/本机.py脚本导入GC DataProc笔记本的错误。

如有任何帮助或线索,我们将不胜感激!

推荐答案

遗憾的是,这不受支持。但您可以下载.py文件,然后导入,作为一种解决办法-可以在类似问题的答案中找到详细信息: Dataproc import python module stored in google cloud storage (gcs) bucket

这篇关于有没有办法从运行在Google Cloud Platform DataProc集群上的Jupyter笔记本中导入和运行保存的.py文件中的函数?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆