温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Spark RDD的创建方式及算子的使用方法是什么

发布时间:2021-12-16 15:15:20 来源:亿速云 阅读:116 作者:iii 栏目:云计算

这篇文章主要介绍“Spark RDD的创建方式及算子的使用方法是什么”,在日常操作中,相信很多人在Spark RDD的创建方式及算子的使用方法是什么问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Spark RDD的创建方式及算子的使用方法是什么”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

一:简单了解RDD和RDD处理数据

    RDD,全称为Resilient Distributed Datasets,是一个容错的、并行的数据结构,可以让用户显式地将数据存储到磁盘和内存中,并能控制数据的分区。

    RDD:Spark的核心概念是RDD (resilientdistributed dataset),指的是一个只读的,可分区的分布式数据集,这个数据集的全部或部分可以缓存在内存中,在多次计算间重用。

    RDD本质上是一个内存数据集,在访问RDD时,指针只会指向与操作相关的部分。例如存在一个面向列的数据结构,其中一个实现为Int的数组,另一个实现为Float的数组。如果只需要访问Int字段,RDD的指针可以只访问Int数组,避免了对整个数据结构的扫描。

    RDD将操作分为两类:transformation与action。无论执行了多少次transformation操作,RDD都不会真正执行运算,只有当action操作被执行时,运算才会触发。而在RDD的内部实现机制中,底层接口则是基于迭代器的,从而使得数据访问变得更高效,也避免了大量中间结果对内存的消耗。

    在实现时,RDD针对transformation操作,都提供了对应的继承自RDD的类型,例如map操作会返回MappedRDD,而flatMap则返回FlatMappedRDD。当我们执行map或flatMap操作时,不过是将当前RDD对象传递给对应的RDD对象而已。

注意:创建的Maven工程,以下是 pom.xml 中的依赖:

<dependencies>

		<dependency>
			<groupId>junit</groupId>
			<artifactId>junit</artifactId>
			<version>4.12</version>
		</dependency>

		<dependency>
			<groupId>org.apache.spark</groupId>
			<artifactId>spark-core_2.10</artifactId>
			<version>1.6.1</version>

		</dependency>

		<dependency>
			<groupId>org.apache.hadoop</groupId>
			<artifactId>hadoop-client</artifactId>
			<version>2.6.4</version>
		</dependency>

		<dependency>
			<groupId>org.apache.spark</groupId>
			<artifactId>spark-sql_2.10</artifactId>
			<version>1.6.1</version>
		</dependency>

	</dependencies>

二:从Hadoop文件系统(或与Hadoop兼容的其他持久化存储系统,如Hive,HBase)输出(HDFS)创建。

    eg: 求HDFS文件中内容所有行数据长度及总长度。

public class TestRDD1 {
	
	public static void main(String[] args) {
		createRDDFromHDFS();
	}
	
	private static void createRDDFromHDFS(){
		SparkConf conf = new SparkConf();
		conf.set("spark.testing.memory", "269522560000");
		JavaSparkContext sc = new JavaSparkContext("local", "Spark Test", conf);
		System.out.println(  sc );
		
		JavaRDD<String> rdd = sc.textFile("hdfs://192.168.226.129:9000/txt/sparkshell/sparkshell.txt");
		
		JavaRDD<Integer> newRDD = rdd.map( new Function<String,Integer>(){

			private static final long serialVersionUID = 1L;

			public Integer call(String string) throws Exception {
				System.out.println(  string + "  " + string.length() );
				return string.length();
			}
		});
		
		System.out.println(   newRDD.count() );
		
		int length = newRDD.reduce( new Function2<Integer, Integer, Integer>(){

			private static final long serialVersionUID = 1L;

			public Integer call(Integer int1, Integer int2) throws Exception {
				return int1+int2;
			}
			
		});
		
		System.out.println("总和" + length);
	}
	
}

三:通过parallelize或makeRDD将单击数据创建为分布式RDD。

eg:求总和。

public class TestRDD2 {
	
	public static void main(String[] args) {
		createRDDFromSuperRDD();
	}
	/**
	 * JavaSparkContext(String master, String appName, SparkConf conf)
	 * master - Cluster URL to connect to (e.g. mesos://host:port, spark://host:port, local[4]).
	 * appName - A name for your application, to display on the cluster web UI
	 * conf - a SparkConf object specifying other Spark parameters
	 * */
	private static void createRDDFromSuperRDD(){
		SparkConf conf = new SparkConf();
		conf.set("spark.testing.memory", "269522560000");
		JavaSparkContext sc = new JavaSparkContext("local", "Spark Test", conf);
		System.out.println(  sc );
		
		List<Integer> list = new ArrayList<Integer>();
		
		for( int i=1;i<=10;i++){
			list.add(i);
		}
		
		JavaRDD<Integer> rdd = sc.parallelize(list);
		
		JavaRDD<Integer> newRDD = rdd.map( new Function<Integer,Integer>(){

			private static final long serialVersionUID = 1L;

			public Integer call(Integer int1) throws Exception {
				return int1;
			}
		});
		
		int count = newRDD.reduce( new Function2<Integer, Integer, Integer>(){

			private static final long serialVersionUID = 1L;

			public Integer call(Integer int1, Integer int2) throws Exception {
				return int1+int2;
			}
			
		});
		
		System.out.println("总和" + count);
	}
	
}

注意: 上述两段代码中,在获取 JavaSparkContext的时候,是这样写的:

        SparkConf conf = new SparkConf();

        conf.set("spark.testing.memory", "269522560000");  // 给jvm足够的资源。

        JavaSparkContext sc = new JavaSparkContext("local", "Spark Test", conf);

而对于标记的加粗红色部分,参照API如下:

        JavaSparkContext(String master, String appName, SparkConf conf)


 -master - Cluster URL to connect to (e.g. mesos://host:port, spark://host:port, local[4]).
 -appName - A name for your application, to display on the cluster web UI
 -conf - a SparkConf object specifying other Spark parameters

对于master,官网有详细的介绍:

Spark RDD的创建方式及算子的使用方法是什么

我这里写的是 "local",表示的是:

    对于本地模式测试和单元测试,可以通过"local"在spark内运行程序。

******************************

另外写的一段,对算子中一些基本方法的使用

参考学习:

    RDD算子分类: http://my.oschina.net/gently/blog/686800 (自己的。)

public class TestRDD3 {
	
	private static String appName = "Test Spark RDD";
	private static String master = "local";

	public static void main(String[] args) {
		SparkConf conf = new SparkConf();
		conf.set("spark.testing.memory", "269522560000");
		JavaSparkContext sc = new JavaSparkContext(master, appName, conf);
		System.out.println(  sc );
		
		List<String> list = new ArrayList<String>();
		list.add( "Berg" );
		list.add( "Hadoop" );
		list.add( "HBase" );
		list.add( "Hive" );
		list.add( "Spark" );
		
		JavaRDD<String> rdd =  sc.parallelize(list);
		
		JavaRDD<Integer> newrdd = rdd.map( new Function<String,Integer>(){
			private static final long serialVersionUID = 1L;
			public Integer call(String string) throws Exception {
				System.out.println(  string + "\t" +string.length() );
				return string.length();
			}
		});
		
		Integer length = newrdd.reduce( new Function2<Integer, Integer, Integer>() {

			private static final long serialVersionUID = 1L;
			public Integer call(Integer i1, Integer i2) throws Exception {
				return i1+i2;
			}
		});
		
		long count = newrdd.count();
		List<Integer> listnewrdd = newrdd.collect();
		for (Integer integer : listnewrdd) {
			System.out.print(integer + " \t" );
		}
		
		System.out.println(  "\nlength --> " + length + "  " + count );
		System.out.println( "\n\n**************************************\n\n");
		
		List<Integer> list1 = new ArrayList<Integer>();
		for( int i=1; i<=5;i++){
			list1.add( i );
		}
		
		JavaRDD<Integer> rdd1 = sc.parallelize(list1);
		JavaRDD<Integer> unionrdd = newrdd.union(rdd1);
		
		JavaRDD<Integer> rdd2 = unionrdd.map( new Function<Integer,Integer>(){

			private static final long serialVersionUID = 1L;
			public Integer call(Integer i) throws Exception {
				return i;
			}
		});
		
		long count2 = rdd2.reduce( new Function2<Integer, Integer, Integer>() {

			private static final long serialVersionUID = 1L;
			public Integer call(Integer arg0, Integer arg1) throws Exception {
				return arg0 + arg1;
			}
		});
		
		System.out.println("count2 --> " +count2 );
		
		rdd2.foreach( new VoidFunction<Integer>(){
			private static final long serialVersionUID = 1L;
			public void call(Integer arg0) throws Exception {
				System.out.println(  "foreach--> " + arg0 );
			}
			
		});
	}
}

到此,关于“Spark RDD的创建方式及算子的使用方法是什么”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注亿速云网站,小编会继续努力为大家带来更多实用的文章!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI