当前位置: 首页 > news >正文

有做微信婚介网站的吗百度收录网站左侧图片

有做微信婚介网站的吗,百度收录网站左侧图片,自己做的一个网站怎么赚钱,疑问句做网站标题人总是会执着于失去的#xff0c;而又不珍惜现在所拥有的 —— 24.11.9 一、map方法 PySpark的数据计算#xff0c;都是基于RDD对象来进行的#xff0c;采用依赖进行#xff0c;RDD对象内置丰富的成员方法#xff08;算子#xff09; map算子 功能#xff1a;map算子… 人总是会执着于失去的而又不珍惜现在所拥有的                                                                         —— 24.11.9 一、map方法 PySpark的数据计算都是基于RDD对象来进行的采用依赖进行RDD对象内置丰富的成员方法算子 map算子 功能map算子是将RDD的数据一条条处理处理的逻辑基于map算子中接收的处理函数)返回新的RDD 语法: from pyspark import SparkConf,SparkContext# 设置spark中的python解释器对象 import os os.environ[PYSPARK_PYTHON] E:/python.learning/pyt/scripts/python.execonf SparkConf().setMaster(local[*]).setAppName(test_spark) sc SparkContext(confconf)# 准备一个RDD对象 rdd sc.parallelize([1,2,3,4,5,6,7,8,9]) # 通过map方法将全部的数据乘以10 # 能够接受一个函数并且将函数作为参数传递进去 # 方法1接受一个匿名函数lambda rdd1 rdd.map(lambda x:x*10) print(rdd1:,rdd1.collect())# 方法2接受一个函数 def multi(x):return x * 10rdd2 rdd.map(multi) print(rdd2,rdd2.collect())# 匿名函数链式调用 # 将每一个数乘以100再加上7再减去114 rdd3 rdd.map(lambda x:x*100).map(lambda x:x7).map(lambda x:x-114) print(rdd3:,rdd3.collect()) 注 map算子可以通过lambda匿名函数进行链式调用处理复杂的功能 二、flatMap方法 flatMap算子 计算逻辑和map一样 比map多出解除一层嵌套的功能 功能 对rdd执行map操作然后进行 解除嵌套 操作 用法 from pyspark import SparkConf,SparkContext# 设置spark中的python解释器对象 import os os.environ[PYSPARK_PYTHON] E:/python.learning/pyt/scripts/python.execonf SparkConf().setMaster(local[*]).setAppName(test_spark) sc SparkContext(confconf)rdd sc.parallelize([一切都会解决 回头看,轻舟已过万重山 一切都会好的,我一直相信])# 需求将RDD数据里面的一个个单词提取出来 rdd1 rdd.map(lambda x:x.split( )) print(rdd1, rdd2.collect())rdd2 rdd.flatMap(lambda x:x.split( )) print(rdd2, rdd3.collect()) 注  计算逻辑和map一样比map多出解除一层嵌套的功能 三、reduceByKey方法 reduceByKey算子 功能: ① 自动分组针对KV型二元元组RDD,自动按照 key 分组 ② 分组聚合接受一个处理函数根据你提供的聚合逻辑完成组内数据 (valve) 的聚合操作. 用法 rdd.reduceByKey(func) # func:(VV)→V # 接受2个传入参数(类型要一致)返回一个返回值类型和传入要求一致 reduceByKey的聚合逻辑是 比如有[12345]然后聚合函数是lambda aba b  将容器中的所有元素进行聚合 语法 from pyspark import SparkConf,SparkContext# 设置spark中的python解释器对象 import os os.environ[PYSPARK_PYTHON] E:/python.learning/pyt/scripts/python.execonf SparkConf().setMaster(local[*]).setAppName(test_spark) sc SparkContext(confconf)# 准备一个二元元组rdd对象 rdd sc.parallelize([(男,99),(男,88),(女,99),(男,77),(女,88)])# 求男生和女生两个组的成绩之和 rdd2 rdd.reduceByKey(lambda x , y : x y) print(rdd2.collect()) 注 1.reduceByKey算子接受一个处理函数对数据进行两两计算 四、WordCount案例 使用PySpark进行单词计数的案例 读取文件统计文件内单词的出现数量 WordCount文件 So long as men can breathe or eyes can see, So long lives thisand this gives life to thee. 代码  将所有单词都转换成二元元组单词为keyvalue设置为1value表示每个单词出现的次数作为value初始化为1若单词相等则表示key相同value值进行累加 from pyspark import SparkConf,SparkContext# 设置spark中的python解释器对象 import os os.environ[PYSPARK_PYTHON] E:/python.learning/pyt/scripts/python.execonf SparkConf().setMaster(local[*]).setAppName(test_spark) sc SparkContext(confconf)# 读取数据文件 rdd sc.textFile(D:/2LFE\Desktop\WordCount.txt) # 取出全部单词 word_rdd rdd.flatMap(lambda x:x.split( )) print(word_rdd.collect()) # 将所有单词都转换成二元元组单词为keyvalue设置为1value表示每个单词出现的次数作为value # 若单词相等则表示value相同key值进行累加 word_with_one_rdd word_rdd.map(lambda word:(word,1)) # 分组并求和 result_rdd word_with_one_rdd.reduceByKey(lambda a,b:ab) # 打印并输出结果 print(result_rdd.collect())
http://www.w-s-a.com/news/213370/

相关文章:

  • 网站建设需求规格说明书中山模板建站公司
  • wordpress get值网站建设 seo sem
  • 网站建设微信开发工厂代加工平台
  • 厦门 网站建设 公司哪家好asp.net 创建网站
  • 专业北京网站建设凡科网做网站怎么样
  • 金富通青岛建设工程有限公司网站浙江省住建厅四库一平台
  • 有搜索引擎作弊的网站企业建设H5响应式网站的5大好处6
  • 是做网站编辑还是做平面设计seo外包公司接单
  • 做性的网站有哪些苏州专业网站设计制作公司
  • 陵水网站建设友创科技十大优品店排名
  • 想换掉做网站的公司简要说明网站制作的基本步骤
  • 国企公司网站制作wordpress 浮动定位
  • 网站网页直播怎么做的企业网站建设推荐兴田德润
  • 网站建设熊猫建站厦门seo全网营销
  • 扁平网站设计seo是什么岗位的缩写
  • 工商企业网站群晖配置wordpress 80端口
  • 企业网站建设流程步骤镇江东翔网络科技有限公司
  • 网络工程师和做网站哪个难网络建站如何建成
  • 网站建设需要哪些项目游民星空是用什么做的网站
  • 旅游网站建设要如何做百度商城网站建设
  • destoon 网站搬家中国企业500强都有哪些企业
  • 商城网站前端更新商品天天做吗哈尔滨做网站优化
  • 新乡网站开发wordpress 产品分类侧边栏
  • 网站自己做自己的品牌好做互联网企业分类
  • 项目网站建设方案石家庄网站快速排名
  • 网站开发大作业报告做电商网站的参考书
  • Apache局域网网站制作wordpress外链自动保存
  • 网站备案号要怎么查询千锋教育培训机构地址
  • 门户网站建设要求几款免费流程图制作软件
  • 花生壳域名可以做网站域名吗wordpress内链工具