首页 > 学院 > 操作系统 > 正文

Spark经典案例3-数据排序

2024-06-28 16:01:09
字体:
来源:转载
供稿:网友

业务场景:数据排序

1、”数据排序”是许多实际任务执行时要完成的第一项工作, 比如学生成绩评比、数据建立索引等。这个实例和数据去重类似,都是先对原始数据进行初步处理,为进一步的数据操作打好基础。 1)、需求描述 对输入文件中数据进行排序。输入文件中的每行内容均为一个数字,即一个数据。 要求在输出中每行有两个间隔的数字,其中,第一个代表原始数据在原始数据集中的位次,第二个代表原始数据。

2)输入文件 file1: 2 32 654 32 15 756 65223

file2: 5956 22 650 92

file3: 26 54 6

样例输出: 1 2 2 6 3 15 4 22 5 26 6 32 7 32 8 54 9 92 10 650 11 654 12 756 13 5956 14 65223

package ClassicCaseimport org.apache.spark.{SparkConf, SparkContext}/** * 业务场景:数据排序 * Created by YJ on 2017/2/8. */object case3 { def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local").setAppName("reduce") val sc = new SparkContext(conf) sc.setLogLevel("ERROR") val three = sc.textFile("hdfs://192.168.109.130:8020//user/flume/ClassicCase/case3") var idx = 0 //由入输入文件有多个,产生不同的分区,为了生产序号,使用HashPartitioner将中间的RDD归约到一起。 import org.apache.spark.HashPartitioner val res = three.filter(_.trim().length>0) //清洗数据 .map(num=>(num.trim.toInt,"")) //转换数据 .partitionBy(new HashPartitioner(1)) //将所有数据放到一个分区 .sortByKey() //按自然顺序排序 .map(t => { //整理输出格式 idx += 1 (idx,t._1)} ).collect.foreach(x => PRintln(x._1 +"/t" + x._2) ) }}

输出结果: 1 2 2 6 3 15 4 22 5 26 6 32 7 32 8 54 9 92 10 650 11 654 12 756 13 5956 14 65223


发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表