当前位置: 首页 > news >正文

院系网站建设具体要求网站设计制作的介绍

院系网站建设具体要求,网站设计制作的介绍,网络系统管理员在哪里,网站后台管理要求尚硅谷大数据技术-教程-学习路线-笔记汇总表【课程资料下载】视频地址#xff1a;尚硅谷大数据Flink1.17实战教程从入门到精通_哔哩哔哩_bilibili 尚硅谷大数据Flink1.17实战教程-笔记01【Flink概述、Flink快速上手】尚硅谷大数据Flink1.17实战教程-笔记02【Flink部署】尚硅谷… 尚硅谷大数据技术-教程-学习路线-笔记汇总表【课程资料下载】视频地址尚硅谷大数据Flink1.17实战教程从入门到精通_哔哩哔哩_bilibili 尚硅谷大数据Flink1.17实战教程-笔记01【Flink概述、Flink快速上手】尚硅谷大数据Flink1.17实战教程-笔记02【Flink部署】尚硅谷大数据Flink1.17实战教程-笔记03【】尚硅谷大数据Flink1.17实战教程-笔记04【】尚硅谷大数据Flink1.17实战教程-笔记05【】尚硅谷大数据Flink1.17实战教程-笔记06【】尚硅谷大数据Flink1.17实战教程-笔记07【】尚硅谷大数据Flink1.17实战教程-笔记08【】 目录 基础篇 第03章 Flink部署 P011【011_Flink部署_集群角色】03:07 P012【012_Flink部署_集群搭建_集群启动】14:22 P013【013_Flink部署_集群搭建_WebUI提交作业】13:58 P014【014_Flink部署_集群搭建_命令行提交作业】03:46 P015【015_Flink部署_部署模式介绍】10:17 P016【016_Flink部署_Standalone运行模式】08:16 P017【017_Flink部署_YARN运行模式_环境准备】07:41 P018【018_Flink部署_YARN运行模式_会话模式】18:11 P019【019_Flink部署_YARN运行模式_会话模式的停止】04:10 P020【020_Flink部署_YARN运行模式_单作业模式】09:49 P021【021_Flink部署_YARN运行模式_应用模式】12:51 P022【022_Flink部署_历史服务器】08:11 基础篇 第03章 Flink部署 P011【011_Flink部署_集群角色】03:07 第 3 章 Flink 部署 3.1 集群角色 P012【012_Flink部署_集群搭建_集群启动】14:22 表3-1 集群角色分配 节点服务器 hadoop102 hadoop103 hadoop104 角色 JobManager TaskManager TaskManager TaskManager [atguigunode001 module]$ cd flink [atguigunode001 flink]$ cd flink-1.17.0/ [atguigunode001 flink-1.17.0]$ bin/start-cluster.sh Starting cluster. Starting standalonesession daemon on host node001. Starting taskexecutor daemon on host node001. Starting taskexecutor daemon on host node002. Starting taskexecutor daemon on host node003. [atguigunode001 flink-1.17.0]$ jpsall node001 3408 Jps 2938 StandaloneSessionClusterEntrypoint 3276 TaskManagerRunnernode002 2852 TaskManagerRunner 2932 Jpsnode003 2864 TaskManagerRunner 2944 Jps [atguigunode001 flink-1.17.0]$ P013【013_Flink部署_集群搭建_WebUI提交作业】13:58 3.2.2 向集群提交作业 buildpluginsplugingroupIdorg.apache.maven.plugins/groupIdartifactIdmaven-shade-plugin/artifactIdversion3.2.4/versionexecutionsexecutionphasepackage/phasegoalsgoalshade/goal/goalsconfigurationartifactSetexcludesexcludecom.google.code.findbugs:jsr305/excludeexcludeorg.slf4j:*/excludeexcludelog4j:*/exclude/excludes/artifactSetfiltersfilter!-- Do not copy the signatures in the META-INF folder.Otherwise, this might cause SecurityExceptions when using the JAR. --artifact*:*/artifactexcludesexcludeMETA-INF/*.SF/excludeexcludeMETA-INF/*.DSA/excludeexcludeMETA-INF/*.RSA/exclude/excludes/filter/filterstransformers combine.childrenappendtransformerimplementationorg.apache.maven.plugins.shade.resource.ServicesResourceTransformer/transformer/transformers/configuration/execution/executions/plugin/plugins /build com.atguigu.wc.WordCountStreamUnboundedDemo P014【014_Flink部署_集群搭建_命令行提交作业】03:46 3.2.2 向集群提交作业 4命令行提交作业 连接成功 Last login: Fri Jun 16 14:44:01 2023 from 192.168.10.1 [atguigunode001 ~]$ cd /opt/module/flink/flink-1.17.0/ [atguigunode001 flink-1.17.0]$ cd bin [atguigunode001 bin]$ ./start-cluster.sh Starting cluster. Starting standalonesession daemon on host node001. Starting taskexecutor daemon on host node001. Starting taskexecutor daemon on host node002. Starting taskexecutor daemon on host node003. [atguigunode001 bin]$ jpsall node001 2723 TaskManagerRunner 2855 Jps 2380 StandaloneSessionClusterEntrypointnode002 2294 TaskManagerRunner 2367 Jpsnode003 2292 TaskManagerRunner 2330 Jps [atguigunode001 bin]$ cd .. [atguigunode001 flink-1.17.0]$ bin/flink run -m node001:8081 -c com.atguigu.wc.WordCountStreamUnboundedDemo ./ bin/ conf/ examples/ lib/ LICENSE licenses/ log/ NOTICE opt/ plugins/ README.txt [atguigunode001 flink-1.17.0]$ bin/flink run -m node001:8081 -c com.atguigu.wc.WordCountStreamUnboundedDemo ../ flink-1.17.0/ jar/ [atguigunode001 flink-1.17.0]$ bin/flink run -m node001:8081 -c com.atguigu.wc.WordCountStreamUnboundedDemo ../jar/FlinkTutorial-1.17-1.0-SNAPSHOT.jar Job has been submitted with JobID 59ae9d6532523b0c48cdb8b6c9105356 P015【015_Flink部署_部署模式介绍】10:17 3.3 部署模式 在一些应用场景中对于集群资源分配和占用的方式可能会有特定的需求。Flink为各种场景提供了不同的部署模式主要有以下三种会话模式Session Mode、单作业模式Per-Job Mode、应用模式Application Mode。 它们的区别主要在于集群的生命周期以及资源的分配方式以及应用的main方法到底在哪里执行——客户端Client还是JobManager。 P016【016_Flink部署_Standalone运行模式】08:16 3.4 Standalone运行模式了解 独立模式是独立运行的不依赖任何外部的资源管理平台当然独立也是有代价的如果资源不足或者出现故障没有自动扩展或重分配资源的保证必须手动处理。所以独立模式一般只用在开发测试或作业非常少的场景下。 [atguigunode001 ~]$ cd /opt/module/flink/flink-1.17.0/bin [atguigunode001 bin]$ ./stop-cluster.sh Stopping taskexecutor daemon (pid: 2723) on host node001. Stopping taskexecutor daemon (pid: 2294) on host node002. Stopping taskexecutor daemon (pid: 2292) on host node003. Stopping standalonesession daemon (pid: 2380) on host node001. [atguigunode001 bin]$ jpsall node001 5120 Jpsnode002 3212 Jpsnode003 3159 Jps [atguigunode001 bin]$ ls bash-java-utils.jar flink historyserver.sh kubernetes-session.sh sql-client.sh start-cluster.sh stop-zookeeper-quorum.sh zookeeper.sh config.sh flink-console.sh jobmanager.sh kubernetes-taskmanager.sh sql-gateway.sh start-zookeeper-quorum.sh taskmanager.sh find-flink-home.sh flink-daemon.sh kubernetes-jobmanager.sh pyflink-shell.sh standalone-job.sh stop-cluster.sh yarn-session.sh [atguigunode001 bin]$ cd ../lib/ [atguigunode001 lib]$ ls flink-cep-1.17.0.jar flink-dist-1.17.0.jar flink-table-api-java-uber-1.17.0.jar FlinkTutorial-1.17-1.0-SNAPSHOT.jar log4j-core-2.17.1.jar flink-connector-files-1.17.0.jar flink-json-1.17.0.jar flink-table-planner-loader-1.17.0.jar log4j-1.2-api-2.17.1.jar log4j-slf4j-impl-2.17.1.jar flink-csv-1.17.0.jar flink-scala_2.12-1.17.0.jar flink-table-runtime-1.17.0.jar log4j-api-2.17.1.jar [atguigunode001 lib]$ cd ../ [atguigunode001 flink-1.17.0]$ bin/standalone-job.sh start --job-classname com.atguigu.wc.WordCountStreamUnboundedDemo Starting standalonejob daemon on host node001. [atguigunode001 flink-1.17.0]$ jpsall node001 5491 StandaloneApplicationClusterEntryPoint 5583 Jpsnode002 3326 Jpsnode003 3307 Jps [atguigunode001 flink-1.17.0]$ bin/taskmanager.sh Usage: taskmanager.sh (start|start-foreground|stop|stop-all) [atguigunode001 flink-1.17.0]$ bin/taskmanager.sh start Starting taskexecutor daemon on host node001. [atguigunode001 flink-1.17.0]$ jpsall node001 5491 StandaloneApplicationClusterEntryPoint 5995 Jps 5903 TaskManagerRunnernode002 3363 Jpsnode003 3350 Jps [atguigunode001 flink-1.17.0]$ bin/taskmanager.sh stop Stopping taskexecutor daemon (pid: 5903) on host node001. [atguigunode001 flink-1.17.0]$ bin/standalone-job.sh stop No standalonejob daemon (pid: 5491) is running anymore on node001. [atguigunode001 flink-1.17.0]$ xcall jpsnode001 6682 Jpsnode002 3429 Jpsnode003 3419 Jps [atguigunode001 flink-1.17.0]$ P017【017_Flink部署_YARN运行模式_环境准备】07:41 3.5 YARN运行模式重点 YARN上部署的过程是客户端把Flink应用提交给Yarn的ResourceManagerYarn的ResourceManager会向Yarn的NodeManager申请容器。在这些容器上Flink会部署JobManager和TaskManager的实例从而启动集群。Flink会根据运行在JobManger上的作业所需要的Slot数量动态分配TaskManager资源。 [atguigunode001 flink-1.17.0]$ source /etc/profile.d/my_env.sh [atguigunode001 flink-1.17.0]$ myhadoop.sh s Input Args Error... [atguigunode001 flink-1.17.0]$ myhadoop.sh start 启动 hadoop集群 ---------------- 启动 hdfs ---------------- Starting namenodes on [node001] Starting datanodes Starting secondary namenodes [node003]--------------- 启动 yarn --------------- Starting resourcemanager Starting nodemanagers--------------- 启动 historyserver --------------- [atguigunode001 flink-1.17.0]$ jpsall node001 9200 JobHistoryServer 8416 NameNode 8580 DataNode 9284 Jps 8983 NodeManagernode002 3892 ResourceManager 3690 DataNode 4365 Jps 4015 NodeManagernode003 3680 DataNode 3778 SecondaryNameNode 3911 NodeManager 4044 Jps [atguigunode001 flink-1.17.0]$ P018【018_Flink部署_YARN运行模式_会话模式】18:11 [atguigunode001 bin]$ ./yarn-session.sh --help [atguigunode001 bin]$ ./yarn-session.sh [atguigunode001 bin]$ ./yarn-session.sh -d -nm test P019【019_Flink部署_YARN运行模式_会话模式的停止】04:10 3.5.3 单作业模式部署 在YARN环境中由于有了外部平台做资源调度所以我们也可以直接向YARN提交一个单独的作业从而启动一个Flink集群。 P020【020_Flink部署_YARN运行模式_单作业模式】09:49 3.5.3 单作业模式部署 1执行命令提交作业 P021【021_Flink部署_YARN运行模式_应用模式】12:51 3.5.4 应用模式部署 应用模式同样非常简单与单作业模式类似直接执行flink run-application命令即可。 [atguigunode001 flink-1.17.0]$ bin/flink run-application -t yarn-application -c com.atguigu.wc.WordCountStreamUnboundedDemo ./FlinkTutorial-1.17-1.0-SNAPSHOT.jar SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/module/flink/flink-1.17.0/lib/log4j-slf4j-impl-2.17.1.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/module/hadoop/hadoop-3.1.3/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory] 2023-06-19 14:31:05,693 INFO org.apache.flink.yarn.cli.FlinkYarnSessionCli [] - Found Yarn properties file under /tmp/.yarn-properties-atguigu. 2023-06-19 14:31:05,693 INFO org.apache.flink.yarn.cli.FlinkYarnSessionCli [] - Found Yarn properties file under /tmp/.yarn-properties-atguigu. 2023-06-19 14:31:06,142 WARN org.apache.flink.yarn.configuration.YarnLogConfigUtil [] - The configuration directory (/opt/module/flink/flink-1.17.0/conf) already contains a LOG4J config file.If you want to use logback, then please delete or rename the log configuration file. 2023-06-19 14:31:06,632 INFO org.apache.hadoop.yarn.client.RMProxy [] - Connecting to ResourceManager at node002/192.168.10.102:8032 2023-06-19 14:31:07,195 INFO org.apache.flink.yarn.YarnClusterDescriptor [] - No path for the flink jar passed. Using the location of class org.apache.flink.yarn.YarnClusterDescriptor to locate the jar [atguigunode001 flink-1.17.0]$ bin/flink run-application -t yarn-application -c com.atguigu.wc.WordCountStreamUnboundedDemo ./FlinkTutorial-1.17-1.0-SNAPSHOT.jar SLF4J: Class path contains multiple SLF4J bindings. [atguigunode001 flink-1.17.0]$ bin/flink run-application -t yarn-application -Dyarn.provided.lib.dirshdfs://node001:8020/flink-dist -c com.atguigu.wc.WordCountStreamUnboundedDemo hdfs://node001:8020/flink-jars/FlinkTutorial-1.17-1.0-SNAPSHOT.jar P022【022_Flink部署_历史服务器】08:11 3.6 K8S 运行模式了解 容器化部署是如今业界流行的一项技术基于Docker镜像运行能够让用户更加方便地对应用进行管理和运维。容器管理工具中最为流行的就是Kubernetesk8s而Flink也在最近的版本中支持了k8s部署模式。基本原理与YARN是类似的具体配置可以参见官网说明这里我们就不做过多讲解了。 3.7 历史服务器 运行 Flink job 的集群一旦停止只能去 yarn 或本地磁盘上查看日志不再可以查看作业挂掉之前的运行的 Web UI很难清楚知道作业在挂的那一刻到底发生了什么。如果我们还没有 Metrics 监控的话那么完全就只能通过日志去分析和定位问题了所以如果能还原之前的 Web UI我们可以通过 UI 发现和定位一些问题。 Flink提供了历史服务器用来在相应的 Flink 集群关闭后查询已完成作业的统计信息。我们都知道只有当作业处于运行中的状态才能够查看到相关的WebUI统计信息。通过 History Server 我们才能查询这些已完成作业的统计信息无论是正常退出还是异常退出。 此外它对外提供了 REST API它接受 HTTP 请求并使用 JSON 数据进行响应。Flink 任务停止后JobManager 会将已经完成任务的统计信息进行存档History Server 进程则在任务停止后可以对任务统计信息进行查询。比如最后一次的 Checkpoint、任务运行时的相关配置。 [atguigunode001 flink-1.17.0]$ bin/historyserver.sh start Starting historyserver daemon on host node001. [atguigunode001 flink-1.17.0]$ bin/flink run -t yarn-per-job -d -c com.atguigu.wc.WordCountStreamUnboundedDemo ../jar/FlinkTutorial-1.17-1.0-SNAPSHOT.jar SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/module/flink/flink-1.17.0/lib/log4j-slf4j-impl-2.17.1.jar!/org/slf4j/impl/StaticLoggerBinder.class]
http://www.w-s-a.com/news/382188/

相关文章:

  • 小视频网站如何建设陪诊app开发
  • 英文网站首页优化国外手机网站源码
  • 网站建设公司如何找客户网站建设应该考虑哪些问题
  • 创新的江苏网站建设wordpress用户绑定手机
  • 自己做网赌网站网站设计者
  • 教育培训网站设计辽宁招标工程信息网
  • 韶关网站推广做网站要哪些人员
  • 建设银行网站链接开发公司与物业公司交接清单
  • 网站定位广告企业建网站有这个必要吗
  • 网站模板 商标黄冈建设工程信息网
  • 做鞋子的招聘网站有哪些微网站
  • 项目网站开发建网站 多少钱
  • wordpress做门户seo培训价格
  • 百度关键词优化软件如何wordpress站点地图优化
  • 使用cnnic证书的网站营销公司有哪些
  • 做电子杂志用什么网站如何将网站生成二维码
  • 三点水网站建设洛阳市建设厅网站
  • 哪家做网站便宜网络推广培训吧
  • 网站怎么做支付非凡软件站
  • 北京谁会做网站开发熊岳网站怎么做
  • 南阳哪有做网站公司定制网站本地企业
  • 平板上做网站的软件邀约网站怎么做请柬
  • 企业网站成品源码邯郸做网站流程
  • 建设网站需要什么技术两个网站放在同一个服务器 备案
  • 焦作做网站推广天津网络关键词排名
  • siteserver cms网站访问量挂机宝可以做网站吗
  • 普宁网站建设公司网络商城设计
  • wordpress主题 外贸网站wordpress安装后输入帐号登不进去
  • 陕西省西安市建设局网站永登网站设计与建设
  • 广东网站设计招工.免费咨询贷款