如何在PySpark中展平嵌套列表? [英] How to flatten nested lists in PySpark?

查看:103
本文介绍了如何在PySpark中展平嵌套列表?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我有一个RDD结构,例如:

I have an RDD structure like:

rdd = [[[1],[2],[3]], [[4],[5]], [[6]], [[7],[8],[9],[10]]]

并且我希望它成为:

rdd = [1,2,3,4,5,6,7,8,9,10]

如何编写地图或约简函数以使其正常工作?

How do I write a map or reduce function to make it work?

推荐答案

例如,您可以flatMap并使用列表推导:

You can for example flatMap and use list comprehensions:

rdd.flatMap(lambda xs: [x[0] for x in xs])

或使其更通用一些:

from itertools import chain

rdd.flatMap(lambda xs: chain(*xs)).collect()

这篇关于如何在PySpark中展平嵌套列表?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆