当前位置: 首页 > news >正文

广州市建设局网站做市场调查分析的网站

广州市建设局网站,做市场调查分析的网站,青岛房产中介网站开发,个人公众号目录 1. 环境准备 1.1 安装要求 1.2 检查Python和Java环境 2. 下载并解压Spark 2.1 下载Spark 2.2 解压安装包 3. 配置环境变量 4. 配置Spark 5. 启动Spark Shell 6. 运行测试 7. 关闭Spark Shell 8. 常见问题 8.1 兼容性问题 8.2 环境变量配置 总结 1. 环境准备…目录 1. 环境准备 1.1 安装要求 1.2 检查Python和Java环境 2. 下载并解压Spark 2.1 下载Spark 2.2 解压安装包 3. 配置环境变量 4. 配置Spark 5. 启动Spark Shell 6. 运行测试 7. 关闭Spark Shell 8. 常见问题 8.1 兼容性问题 8.2 环境变量配置 总结 1. 环境准备 1.1 安装要求 操作系统Linux推荐、Windows或MacOSPythonPython 3.6或以上Java环境JDK 1.8或以上 1.2 检查Python和Java环境 Spark依赖于Java环境请先确认是否已安装JDK。可通过以下命令检查 java -version python3 --version 若未安装请根据系统选择安装JDK 8以上的版本。安装完成后设置JAVA_HOME环境变量。 export JAVA_HOME/path/to/jdk export PATH$JAVA_HOME/bin:$PATH 通过Anaconda安装 因为这个软件不仅有python还有其他的功能比单纯安装python功能要强大。 # 上传 cd /opt/modules # 添加执行权限 chmod ux Anaconda3-2021.05-Linux-x86_64.sh # 执行 sh ./Anaconda3-2021.05-Linux-x86_64.sh # 过程 #第一次【直接回车然后按q】Please, press ENTER to continue #第二次【输入yes】Do you accept the license terms? [yes|no][no] yes #第三次【输入解压路径/opt/installs/anaconda3】[/root/anaconda3] /opt/installs/anaconda3#第四次【输入yes是否在用户的.bashrc文件中初始化 Anaconda3的相关内容】Do you wish the installer to initialize Anaconda3by running conda init? [yes|no][no] yes 更新环境变量 # 刷新环境变量 source /root/.bashrc # 激活虚拟环境如果需要关闭就使用conda deactivate conda activate 配置环境变量并再次刷新 # 编辑环境变量 vi /etc/profile # 添加以下内容 # Anaconda Home export ANACONDA_HOME/opt/installs/anaconda3 export PATH$PATH:$ANACONDA_HOME/bin 创建软连接: # 创建软连接 ln -s /opt/installs/anaconda3/bin/python3 /usr/bin/python3 # 验证 echo $ANACONDA_HOME 2. 下载并解压Spark 2.1 下载Spark 前往 Apache Spark官网 下载Spark安装包。选择预编译好的版本如“Pre-built for Apache Hadoop 3.2 and later”并下载 .tgz 文件。 2.2 解压安装包 使用以下命令解压下载的Spark安装包 # 解压 cd /opt/modules tar -zxf spark-3.1.2-bin-hadoop3.2.tgz -C /opt/installs # 重命名 cd /opt/installs mv spark-3.1.2-bin-hadoop3.2 spark-local # 创建软链接 ln -s spark-local spark 3. 配置环境变量 编辑~/.bashrc或/etc/profile文件加入以下环境变量 export SPARK_HOME/opt/installs/spark export PATH$SPARK_HOME/bin:$PATH 更新环境变量 source /etc/profile 4. 配置Spark 单机模式安装相对简单不需要配置Master和Worker。默认情况下Spark会自动启用单机模式运行。您可以根据需求修改conf/spark-env.sh或conf/spark-defaults.conf配置文件。 5. 启动Spark Shell Spark安装完成后可以启动Spark Shell来测试环境 /opt/installs/spark/bin/pyspark --master local[2] 若成功启动将看到Spark Shell的命令行提示表示安装成功。 6. 运行测试 在Spark Shell中可以输入以下代码进行简单测试 map算子实现分布式转换 需求将一个包含 1~ 10 共10个元素的列表使用Spark实现分布式处理将每个元素的平方输出 运行后应输出2, 4, 6, 8, 10说明Spark单机模式安装成功。 # 定义一个列表 list1 [1,2,3,4,5,6,7,8,9,10] # 将列表通过SparkContext将数据转换为一个分布式集合RDD inputRdd sc.parallelize(list1)# 将RDD中每个分区的数据进行处理 rsRdd inputRdd.map(lambda x : x**2)# 将结果RDD的每个元素进行输出 rsRdd.foreach(lambda x : print(x)) 7. 关闭Spark Shell 在测试完成后可以通过以下命令退出Spark Shell quit 8. 常见问题 8.1 兼容性问题 若出现Python和Java版本兼容性问题可尝试降低Java或Spark版本确保它们相互兼容。 8.2 环境变量配置 确认JAVA_HOME和SPARK_HOME等环境变量正确配置并已通过source /etc/profile生效。 总结 至此您已经成功在单机模式下安装并运行了Spark。这种模式适合小规模数据处理和学习实验。对于更高的性能需求建议使用集群模式。
http://www.w-s-a.com/news/767224/

相关文章:

  • 服务器网站备案做网站公司如何赚钱
  • 怎样进行站点优化荣成市有做网站的吗
  • 合肥建设工会网站芜湖做网站建设公司
  • 玉林市住房和城乡建设局网站网站开发百灵鸟
  • 网站怎么做双机房切换建设部网站2015年第158号
  • 郑州服务设计公司网站色块的网站
  • 网站设计所用到的技术做网站添加mp3
  • 凡科做的微网站怎样连接公众号seo李守洪排名大师
  • 温州网站开发网站的制作东莞寮步伟易达电子厂
  • 北京网站设计制作关键词优化微信小程序开发推广网站建设优化规划书
  • 杭州临平网站建设开发公司将购房款划给总公司的法律责任
  • 广东外贸网站推广分类wordpress
  • 聚美优品网站建设方案商城和营销型网站建设
  • 比较著名的seo网站如何建设网站?
  • 如何做商业网站最火wordpress主题
  • 建设网站需要哪些软硬件条件wordpress文章页标题优化
  • 网站建设功能需求文档wordpress 1g1核1m
  • 学做窗帘要下载哪个网站用户反馈数据分析软件园
  • 宁晋网站建设多少钱产品宣传推广方式有哪些
  • delphi做网站阿里巴巴官网首页登录入口
  • 游戏网站怎么建设新建wordpress模板
  • 网络服务器是指兰州网站seo诊断
  • 怎样做投资理财网站godaddy上传网站
  • 网站建设深圳哪家好世界500强企业招聘网站
  • 如何减少网站建设中的错误温州网站公司哪家好
  • 宜章网站建设北京定制公交网站
  • 怎么让谷歌收录我的网站郑州网站建设更好
  • 在线视频网站开发方案phpaspnet网站开发实例视频
  • 正常做一个网站多少钱网站开发所遵循
  • 西部数码网站备份领英创建公司主页