scala - spark core 有没有类似连表查询的操作

查看:89
本文介绍了scala - spark core 有没有类似连表查询的操作的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

问 题

问题是这样的

 val list= List((1,2),(3,5),(6,9))
 val list2= List((3,4),(5,9),(9,12))

这两个list我写入rdd,然后想让list每一个元素的value查找list2的key进行合并,像这样

  (3,5)(5,9)=> (5,9)
  请问如何可以做到
  
  
  
 

解决方法:

  val list= List((1,2),(3,5),(6,9))
    val list2= List((5,4),(5,9),(9,12))
    val spark = new SparkContext(conf)
    val rdd1 = spark.parallelize(list).map(x=>(x._2,x._1))
    val rdd2 = spark.parallelize(list2)
    val union3=rdd1.join(rdd2).values
    union3.collect().foreach(x=>println(x+" "))

解决方案

把list的key value调换然后和list2进行join就可以了
如果用SparkSQL更简单~

这篇关于scala - spark core 有没有类似连表查询的操作的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆