当前位置: 首页 > news >正文

免费的网站模板哪里有/搜索引擎优化公司

免费的网站模板哪里有,搜索引擎优化公司,优秀网站案列,域名更新自动转跳大家好,我是不温卜火,是一名计算机学院大数据专业大二的学生,昵称来源于成语—不温不火,本意是希望自己性情温和。作为一名互联网行业的小白,博主写博客一方面是为了记录自己的学习过程,另一方面是总结自己…

  大家好,我是不温卜火,是一名计算机学院大数据专业大二的学生,昵称来源于成语—不温不火,本意是希望自己性情温和。作为一名互联网行业的小白,博主写博客一方面是为了记录自己的学习过程,另一方面是总结自己所犯的错误希望能够帮助到很多和自己一样处于起步阶段的萌新。但由于水平有限,博客中难免会有一些错误出现,有纰漏之处恳请各位大佬不吝赐教!暂时只有csdn这一个平台,博客主页:https://buwenbuhuo.blog.csdn.net/

  此篇为大家带来的是<Action> 行动算子转换算子
1

目录

  • RDD的 Action 操作
    • 1. reduce(func)
    • 2. collect()
    • 3. count()
    • 4. first()
    • 5.take(n)
    • 6.takeOrdered(n)
    • 7.aggregate
    • 8.fold
    • 9.saveAsTextFile(path)
    • 10.saveAsSequenceFile(path)
    • 11.saveAsObjectFile(path)
    • 12.countByKey()
    • 13.foreach(func)


2

RDD的 Action 操作

1. reduce(func)

  • 1.作用:

  通过func函数聚集RDD中的所有元素,先聚合分区内数据,再聚合分区间数据。

  • 2. 案例:创建一个RDD,将所有元素聚合得到结果。
// 1.创建一个RDD[Int]
scala> val rdd1 = sc.makeRDD(1 to 10,2)
rdd1: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[85] at makeRDD at <console>:24// 2.聚合RDD[Int]所有元素
scala> rdd1.reduce(_+_)
res50: Int = 55// 3.创建一个RDD[String]
scala> val rdd2 = sc.makeRDD(Array(("a",1),("a",3),("c",3),("d",5)))
rdd2: org.apache.spark.rdd.RDD[(String, Int)] = ParallelCollectionRDD[86] at makeRDD at <console>:24// 4.聚合RDD[String]所有数据
scala> rdd2.reduce((x,y)=>(x._1 + y._1,x._2 + y._2))
res51: (String, Int) = (adca,12)

2. collect()

  • 1.作用:

  在驱动程序中,以数组的形式返回数据集的所有元素。

  • 2. 案例:创建一个RDD,并将RDD内容收集到Driver端打印
// 1.创建一个RDD
scala> val rdd = sc.parallelize(1 to 10)
rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:24// 2.将结果收集到Driver端
scala> rdd.collect
res0: Array[Int] = Array(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)   

3. count()

  • 1.作用:

  返回RDD中元素的个数

  • 2. 案例:创建一个RDD,统计该RDD的条数
// 1.创建一个RDD
scala> val rdd = sc.parallelize(1 to 10)
rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:24// 2.统计该RDD的条数
scala> rdd.count
res1: Long = 10

4. first()

  • 1.作用:

  返回 RDD 中的第一个元素. 类似于take(1).

  • 2. 案例:创建一个RDD,返回该RDD中的第一个元素
// 1.创建一个RDD
scala> val rdd = sc.parallelize(1 to 10)
rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:24// 2.统计该RDD的条数
scala> rdd.first
res2: Int = 1

5.take(n)

  • 1.作用:

  返回一个由RDD的前n个元素组成的数组
  take 的数据也会拉到 driver 端, 应该只对小数据集使用

  • 2. 案例:创建一个RDD,统计该RDD的条数
// 1.创建一个RDD
scala> val rdd = sc.parallelize(Array(2,5,4,6,8,3))
rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[2] at parallelize at <console>:24// 2.统计该RDD的条数
scala> rdd.take(3)
res10: Array[Int] = Array(2, 5, 4)

6.takeOrdered(n)

  • 1.作用:

  返回排序后的前 n 个元素, 默认是升序排列.数据也会拉到 driver 端

  • 2. 案例:创建一个RDD,统计该RDD的条数
// 1.创建一个RDD
scala> val rdd = sc.parallelize(Array(2,5,4,6,8,3))
rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[2] at parallelize at <console>:24// 2.统计该RDD的条数
scala> rdd.takeOrdered(3)
res18: Array[Int] = Array(2, 3, 4)

7.aggregate

  • 1.参数
def aggregate[U: ClassTag](zeroValue: U)(seqOp: (U, T) => U, combOp: (U, U) => U): U
  • 2.作用:

  aggregate函数将每个分区里面的元素通过seqOp和初始值进行聚合,然后用combine函数将每个分区的结果和初始值(zeroValue)进行combine操作。这个函数最终返回的类型不需要和RDD中元素类型一致。

注意:
zeroValue 分区内聚合和分区间聚合的时候各会使用一次.

  • 3. 案例:创建一个RDD,将所有元素相加得到结果
// 1.创建一个RDD
scala> var rdd1 = sc.makeRDD(1 to 10,2)
rdd1: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[88] at makeRDD at <console>:24// 2.将该RDD所有元素相加得到结果
scala> rdd.aggregate(0)(_+_,_+_)
res22: Int = 55

8.fold

  • 1.作用:

  折叠操作,aggregate的简化操作,seqop和combop一样的时候,可以使用fold

  • 2. 案例:创建一个RDD,将所有元素相加得到结果
// 1.创建一个RDD
scala> var rdd1 = sc.makeRDD(1 to 10,2)
rdd1: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[88] at makeRDD at <console>:24// 2.将该RDD所有元素相加得到结果
scala> rdd.fold(0)(_+_)
res24: Int = 55

9.saveAsTextFile(path)

  • 作用:
      将数据集的元素以textfile的形式保存到HDFS文件系统或者其他支持的文件系统,对于每个元素,Spark 将会调用toString方法,将它装换为文件中的文本

10.saveAsSequenceFile(path)

  • 作用:
      将数据集中的元素以 Hadoop sequencefile 的格式保存到指定的目录下,可以使 HDFS 或者其他 Hadoop 支持的文件系统。

11.saveAsObjectFile(path)

  • 作用:
      用于将 RDD 中的元素序列化成对象,存储到文件中。

12.countByKey()

  • 1.作用:

  针对(K,V)类型的RDD,返回一个(K,Int)的map,表示每一个key对应的元素个数。

  • 2. 案例:创建一个PairRDD,统计每种key的个数
// 1.创建一个PairRDD
scala> val rdd = sc.parallelize(List((1,3),(1,2),(1,4),(2,3),(3,6),(3,8)),3)
rdd: org.apache.spark.rdd.RDD[(Int, Int)] = ParallelCollectionRDD[95] at parallelize at <console>:24// 2.统计每种key的个数
scala> rdd.countByKey
res63: scala.collection.Map[Int,Long] = Map(3 -> 2, 1 -> 3, 2 -> 1)

13.foreach(func)

  • 1.作用:

  在数据集的每一个元素上,运行函数func进行更新。

  • 2. 案例:创建一个RDD,对每个元素进行打印
// 1.创建一个RDD
scala> var rdd = sc.makeRDD(1 to 5,2)
rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[107] at makeRDD at <console>:24// 2.对该RDD每个元素进行打印
scala> rdd.foreach(println(_))
3
4
5
1
2

  本次的分享就到这里了,


14

  好书不厌读百回,熟读课思子自知。而我想要成为全场最靓的仔,就必须坚持通过学习来获取更多知识,用知识改变命运,用博客见证成长,用行动证明我在努力。
  如果我的博客对你有帮助、如果你喜欢我的博客内容,请“点赞” “评论”“收藏”一键三连哦!听说点赞的人运气不会太差,每一天都会元气满满呦!如果实在要白嫖的话,那祝你开心每一天,欢迎常来我博客看看。
  码字不易,大家的支持就是我坚持下去的动力。点赞后不要忘了关注我哦!

15

16

http://www.jmfq.cn/news/5298049.html

相关文章:

  • 做网站能赚到钱吗/手机怎么建自己的网站
  • 东莞网站建设设/站长网站优化公司
  • wordpress首页api幻灯片/内部优化
  • wordpress自然志下载/seo研究协会网
  • 协会网站建设的优势/广州市口碑seo推广外包
  • 购物网站那个信用好又便宜/网站推广seo设置
  • 免费的求职简历模板网站/it培训机构排名
  • 武汉做网站网络公司/成都抖音seo
  • 公司网站现状/seo168小视频
  • 厦门电子网站建设/经典网络营销案例
  • 网站产品图怎么做/seo网站平台
  • 英文成品网站模板下载/东莞seo外包公司哪家好
  • 专业做网站的团队/竞价恶意点击器
  • 邵阳网站建设多少钱/seo关键词优化经验技巧
  • 哪些网站用c 做的/站长工具视频
  • 做百度网站每年的费用多少钱/廊坊seo优化排名
  • 赌博网站做代理微信群卖房卡/有创意的营销策划案例
  • wordpress建站方法/seo顾问服务福建
  • 网页设计实验报告步骤/appstore关键词优化
  • 郑州电商公司排名前十有哪些/seo常用方法
  • 沈阳制作网站的公司有哪些/如何建立个人网址
  • 陕西省建设教育培训中心网站/云盘搜索
  • 苏州网站建设设计制作公司怎么样/外包平台
  • 广州 餐饮 网站建设/百度文库账号登录入口
  • 企业电子商务网站建设规划方案/seo网站优化教程
  • 梅州市网站制作/互联网营销师
  • 做网站在哪里做/电商引流推广方法
  • 如何做自己的网站系统/种子搜索器
  • 哈尔滨网站托管/html家乡网站设计
  • php做网站有哪些优点/小红书seo优化