spark-dataframe相关内容

PySpark 2.1.1 groupby + approx_count_distinct 计数为 0

我正在使用 Spark 2.1.1 (pyspark),在一个大约有 14 亿行的 DataFrame 上进行 groupby 和 approx_count_distinct 聚合.groupby 操作导致大约 600 万个组对其执行 approx_count_distinct 操作.这些组的预期不同计数范围从个位数到数百万不等. 这是我正在使用的代码片段,其中包含项目 ID 的列“item ..
发布时间:2021-11-14 23:27:41 其他开发

Spark 错误:线程“main"中的异常java.lang.UnsupportedOperationException

我正在编写一个 Scala/spark 程序,它可以找到员工的最高工资.员工数据在 CSV 文件中可用,薪水列有一个逗号分隔符,它还有一个 $ 前缀,例如74,628.00 美元. 为了处理这个逗号和美元符号,我在 Scala 中编写了一个解析器函数,它将在“,"上拆分每一行,然后将每一列映射到要分配给案例类的各个变量. 我的解析器程序如下所示.为了消除逗号和美元符号,我使用替换函数将 ..
发布时间:2021-11-14 23:27:28 其他开发

Spark 的 dataframe count() 函数需要很长时间

在我的代码中,我有一系列数据帧,我想在其中过滤掉空的数据帧.我正在做类似的事情: Seq(df1, df2).map(df => df.count() > 0) 但是,这需要非常长的时间,并且大约需要 7 分钟来处理大约 2 个 100k 行的数据帧. 我的问题:为什么 Spark 的 count() 实现很慢.有解决办法吗? 解决方案 Count 是一个惰性操作.因此,您的数据 ..
发布时间:2021-11-14 23:27:25 其他开发

持久化比非持久化调用慢

我的设置是:Spark 2.1 在 160 GB、48 个 vcore 的 3 节点 YARN 集群上.动态分配开启.spark.executor.memory=6G, spark.executor.cores=6 首先,我正在阅读 hive 表:订单 (329MB) 和 lineitems (1.43GB) 和做左外连接.接下来,我根据加入的条件应用 7 种不同的过滤条件数据集(类似于 v ..
发布时间:2021-11-14 23:27:10 其他开发

自制 DataFrame 聚合/dropDuplicates Spark

我想对我的 DataFrame df 执行转换,以便我在最终 DataFrame 中只有每个键一次并且只有一次. 出于机器学习的目的,我不想在我的数据集中有偏差.这应该永远不会发生,但是我从数据源获得的数据包含这种“怪异".因此,如果我有具有相同键的行,我希望能够选择两者的组合(如平均值)或字符串连接(例如标签)或随机值集. 说我的 DataFrame df 看起来像这样: +--- ..
发布时间:2021-11-14 23:26:58 其他开发

如何从 Spark 中的数据帧创建 EdgeRDD

我在 spark 中有一个数据框.每行代表一个人,我想检索他们之间可能的联系.拥有链接的规则是,对于每个可能的对,如果它们具有相同的 prop1:String 并且 prop2:Int 的绝对差小于5 则链接存在.我试图了解使用数据框完成此任务的最佳方法. 我正在尝试检索索引的 RDD: val idusers = people.select("ID").rdd.map(r => r(0) ..
发布时间:2021-11-14 23:26:21 其他开发

为什么 pyspark 选择未广播的变量?

我正在使用 pyspark 来分析数据集,我有点惊讶为什么即使我使用的是未广播的变量,以下代码仍能正常工作.> 有问题的变量是 video,它在函数 filter 中使用,在 join 之后. seed = random.randint(0,999)# df 是一个数据框# 视频只是一个随机采样的元素视频 = df.sample(False,0.001,seed).head()# 只是一个py ..

Spark - 范围、数据帧和内存管理

我很好奇 scope 如何与 Data Frame 和 Spark 配合使用.在下面的例子中,我有一个文件列表,每个文件独立加载到一个数据帧中,执行一些操作,然后,我们将 dfOutput 写入磁盘. val files = getListOfFiles("outputs/emailsS​​plit")对于(文件 循环完成后,for 循环 中的每个数据帧是被丢弃,还是留在内存中? 如果它们 ..
发布时间:2021-11-14 23:25:43 其他开发

将 DataFrame 保存到 Hive 时 Spark Scala 错误

我通过组合多个数组构建了一个 DataFrame.我正在尝试将其保存到配置单元表中,但出现 ArrayIndexOutofBound 异常.以下是代码和我得到的错误.我尝试在 main def 内外添加 case 类,但仍然遇到相同的错误. import org.apache.spark.{SparkConf, SparkContext}导入 org.apache.spark.sql.{Row, ..