[学习笔记]
package com
import org.apache.spark.rdd.rdd
import org.apache.spark.sparkconf
import org.apache.spark.sparkcontext
object testrdd {
def main(args: array[string]): unit = {
val conf = new sparkconf().setappname("testrdd").setmaster("local")
val sc = new sparkcontext(conf)
val rdd1 = sc.makerdd(list(1, 4, 3, 7, 5))
val rdd1_1 = rdd1.map { y => y * y }
val alist = rdd1_1.collect()
println("map 用法 is " + alist.mkstring(","))
val rdd2 = sc.makerdd(array(1, 4, 3, 7, 5))
val rdd2_1 = rdd2.filter { x => x < 5 }
println("filter 用法 " + rdd2_1.collect().mkstring(","))
文章转载自原文:
您可能感兴趣的文章:
如您对本文有疑问或者有任何想说的,请 点击进行留言回复,万千网友为您解惑!
网友评论