在本章中,我们将了解PySpark
在敏捷数据科学中的提取功能的应用.
Apache Spark可以定义为快速实时处理框架.它进行计算以实时分析数据. Apache Spark作为流处理系统实时引入,也可以处理批处理. Apache Spark支持交互式查询和迭代算法.
Spark是用"Scala编程语言"编写的.
PySpark可以看作是Python的组合与Spark. PySpark提供PySpark shell,它将Python API链接到Spark核心并初始化Spark上下文.大多数数据科学家使用PySpark跟踪功能,如前一章所述.
在这个例子中,我们将专注于转换来构建一个名为counts的数据集和
save它是一个特定的文件.
text_file = sc.textFile("hdfs://...") counts = text_file.flatMap(lambda line: line.split(" ")) \ .map(lambda word: (word, 1)) \ .reduceByKey(lambda a, b: a + b) counts.saveAsTextFile("hdfs://...")
使用PySpark,用户可以使用python编程语言处理RDD.内置库涵盖了数据驱动文档和组件的基础知识,有助于实现这一目标.