当前位置: 首页 > news >正文

网站m3u8链接视频怎么做的全屋定制家具设计师培训

网站m3u8链接视频怎么做的,全屋定制家具设计师培训,网站报价方案 模板,美妆网站源码asp文章目录 一、实验目标二、实验要求三、实验内容四、实验步骤 一、实验目标 熟练掌握hadoop操作指令及HDFS命令行接口掌握HDFS原理熟练掌握HDFS的API使用方法掌握单个本地文件写入到HDFS文件的方法掌握多个本地文件批量写入到HDFS文件的方法 二、实验要求 给出主要实验步骤成… 文章目录 一、实验目标二、实验要求三、实验内容四、实验步骤 一、实验目标 熟练掌握hadoop操作指令及HDFS命令行接口掌握HDFS原理熟练掌握HDFS的API使用方法掌握单个本地文件写入到HDFS文件的方法掌握多个本地文件批量写入到HDFS文件的方法 二、实验要求 给出主要实验步骤成功的效果截图。要求分别在本地和集群测试给出测试效果截图。对本次实验工作进行全面的总结。完成实验内容后实验报告文件名显示学号姓名信息。 三、实验内容 使用FileSystem将单个本地文件写入到HDFS中当前不存在的文件实现效果参考下图 使用FileSystem将本地文件追加到HDFS中当前存在的文件中实现效果参考下图 四、实验步骤 使用FileSystem将单个本地文件写入到HDFS中当前不存在的文件 程序设计 package hadoop;import java.io.BufferedInputStream; import java.io.FileInputStream; import java.io.FileNotFoundException; import java.io.IOException; import java.net.URI;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataOutputStream; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IOUtils;public class WJW {public static void main(String[] args) {// TODO Auto-generated method stubargs new String[2];args[0] /home/zkpk/experiment/wjw01.txt;args[1] hdfs://master:9000/wjw02.txt;Configuration conf new Configuration();BufferedInputStream in null;FileSystem fs null;FSDataOutputStream out null;try{in new BufferedInputStream(new FileInputStream(args[0]));fs FileSystem.get(URI.create(args[1]), conf);out fs.create(new Path(args[1]));IOUtils.copyBytes(in, out, 4096, false);}catch(FileNotFoundException e){e.printStackTrace();}catch(IOException e){e.printStackTrace();}finally{IOUtils.closeStream(in);IOUtils.closeStream(out);if(fs ! null){try{fs.close();}catch(IOException e){e.printStackTrace();}}}}}程序分析 该代码实现了将本地文件上传到Hadoop分布式文件系统HDFS中的功能。代码结构简单明了主要包括以下几个步骤 定义参数args参数args[0]表示本地文件路径参数args[1]表示HDFS文件路径。 创建Configuration对象用于读取Hadoop配置信息。 创建BufferedInputStream流读取本地文件。 使用FileSystem.get()方法获取Hadoop分布式文件系统实例。 调用fs.create()方法创建HDFS文件并返回FSDataOutputStream对象用于向HDFS文件写入数据。 调用IOUtils.copyBytes()方法将本地文件数据复制到HDFS文件中。 关闭流和Hadoop分布式文件系统实例。 该代码主要涉及以下几个重要知识点 Configuration对象该对象用于读取Hadoop配置信息如HDFS的地址、端口等信息。 FileSystem对象该对象用于操作Hadoop分布式文件系统如创建文件、删除文件、读取文件等操作。 BufferedInputStream流该流用于读取本地文件数据。 FSDataOutputStream对象该对象用于向HDFS文件写入数据。 IOUtils.copyBytes()方法该方法用于将输入流中的数据复制到输出流中。 总体来说该代码实现了将本地文件上传到HDFS的功能但还有一些需要改进的地方。例如可以添加参数校验功能防止空指针异常可以添加日志输出功能方便查看程序运行情况。 运行结果 使用FileSystem将本地文件追加到HDFS中当前存在的文件中 程序设计 package hadoop;import java.io.BufferedInputStream; import java.io.FileInputStream; import java.io.FileNotFoundException; import java.io.IOException; import java.net.URI;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataOutputStream; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IOUtils;public class WJW01 {public static void main(String[] args) {// TODO Auto-generated method stubargs new String[2];args[0] /home/zkpk/experiment/wjw01.txt;args[1] hdfs://master:9000/wjw02.txt;Configuration conf new Configuration();conf.set(fs.client.block.write.replace-datanode-on-failure.enable, true);conf.set(fs.client.block.write.replace-datanode-on-failure.policy, Never);BufferedInputStream in null;FileSystem fs null;FSDataOutputStream out null;try{in new BufferedInputStream(new FileInputStream(args[0]));fs FileSystem.get(URI.create(args[1]), conf);out fs.append(new Path(args[1]));IOUtils.copyBytes(in, out, 4096, false);}catch(FileNotFoundException e){e.printStackTrace();}catch(IOException e){e.printStackTrace();}finally{IOUtils.closeStream(in);IOUtils.closeStream(out);if(fs ! null){try{fs.close();}catch(IOException e){e.printStackTrace();}}}}}程序分析 该代码实现了将本地文件追加上传到Hadoop分布式文件系统HDFS中的功能。代码结构与上传文件功能类似主要包括以下几个步骤 定义参数args参数args[0]表示本地文件路径参数args[1]表示HDFS文件路径。 创建Configuration对象用于读取Hadoop配置信息。 设置配置信息设置“fs.client.block.write.replace-datanode-on-failure.enable”为“true”表示在数据节点故障时启用块写入数据节点更换机制设置“fs.client.block.write.replace-datanode-on-failure.policy”为“Never”表示块写入数据节点故障时不替换数据节点。 创建BufferedInputStream流读取本地文件。 使用FileSystem.get()方法获取Hadoop分布式文件系统实例。 调用fs.append()方法获取FSDataOutputStream对象用于向HDFS文件追加数据。 调用IOUtils.copyBytes()方法将本地文件数据复制追加到HDFS文件中。 关闭流和Hadoop分布式文件系统实例。 需要注意的是该代码使用了追加上传文件的方式因此可以将本地文件的数据追加到HDFS文件的末尾而不会影响原有的HDFS文件数据。同时设置数据节点更换机制可以提高系统的可靠性和稳定性避免数据节点故障导致数据丢失的情况。 总体来说该代码实现了将本地文件追加上传到HDFS的功能并且考虑了系统的可靠性和稳定性问题。但是同样需要注意代码中的参数校验和日志输出等问题以提高代码的健壮性和可维护性。 运行结果
http://www.w-s-a.com/news/156737/

相关文章:

  • 1688代加工官方网站h5开发教程
  • 静态网站源码下载网站怎么显示备案号
  • 网站代码设计网站开发维护任职要求
  • 长寿做网站的电话怎么快速刷排名
  • 上海市中学生典型事例网站邯郸全网推广
  • 厦门网站建设680元好男人的最好的影院
  • 石家庄网站建设设计产品设计专业就业前景
  • 网站移动排名做最好最全的命理网站
  • 网站怎么防黑客杭州市做外贸网站的公司
  • 网站推广公司认准乐云seo易语言做网站登录
  • 配色设计网站推荐网站下拉菜单重叠
  • 内容展示型网站特点在北京注册公司需要多少钱
  • h5网站源代码创意设计理念
  • 岳阳网站开发服务推广运营平台
  • 网站开发得多长时间湖南建设人力资源网证书查询
  • 论坛网站开发网络营销是什么时候产生的
  • 帮人做网站赚钱无忧软文网
  • 做网站要不要营业执照重庆网站优化seo公司
  • 学院宣传网站建设简介做网站没灵感
  • 网站建设终稿确认书网站意义学校
  • 3小时网站建设平台专业制作教学课件
  • 曲阜网站建设百度开户现货黄金什么网站可以做直播
  • 比较好的企业建站平台小程序开发外包该注意些什么
  • 建行官网官网网站吗二次元风格wordpress模板
  • 怎样开通自己的网站网址导航哪个主页最好
  • 大良o2o网站建设详情页设计说明怎么写
  • 您与此网站之间建立的连接不安全汽车cms系统是什么意思
  • 有没有做logo的网站企业网站的内容营销
  • 哈尔滨做企业网站怎么做网站自动响应
  • 网站建设硬件和软件技术环境配置签约做网站模板