当前位置: 首页 > news >正文

一个人开发一个网站需要多久虚拟主机只能静态网站

一个人开发一个网站需要多久,虚拟主机只能静态网站,公司加强网站建设,网页生成长图 iphone一、应用背景 公司大数据项目中#xff0c;需要构建和开发高效、可靠的数据处理子系统#xff0c;实现大数据文件处理、整库迁移、延迟与乱序处理、数据清洗与过滤、实时数据聚合、增量同步#xff08;CDC#xff09;、状态管理与恢复、反压问题处理、数据分库分表、跨数据…一、应用背景 公司大数据项目中需要构建和开发高效、可靠的数据处理子系统实现大数据文件处理、整库迁移、延迟与乱序处理、数据清洗与过滤、实时数据聚合、增量同步CDC、状态管理与恢复、反压问题处理、数据分库分表、跨数据源一致性以及实时异常检测与告警等功能确保数据的准确性、一致性和实时性。采用Spring Boot 3.和Flink平台上进行数据治理的方案。 二、方案优势 由于是大数据项目因此在处理大规模数据集时文件处理能力直接影响到数据驱动决策的效果高效的大数据文件处理既要能保证数据的时效性和准确性也要能提升整体系统的性能和可靠性。 Spring Boot 3.和Flink结合使用在处理大数据文件时有不少独特的优势。 首先这两者能够相互补充带来高效和便捷的文件处理能力的原因在于 1统一的开发体验 Spring Boot 3.和Flink结合使用可以在同一项目中综合应用两者的优势。Spring Boot可以负责微服务的治理、API的管理和调度而Flink则专注于大数据的实时处理和分析。两者的结合能够提供一致的开发体验和简化的集成方式。2动态扩展和高可用性 微服务架构下Spring Boot提供的良好扩展性和Flink的高可用性使得系统可以在需求增长时动态扩展确保系统稳定运行。Flink的容错机制配合Spring Boot的服务治理能力可以有效提高系统的可靠性。3灵活的数据传输和处理 通过Spring Boot的REST API和消息队列可以轻松地将数据传输到Flink进行处理Flink处理完毕后还可以将结果返回到Spring Boot处理的后续业务逻辑中。这种灵活的处理方式使得整个数据处理流程更为高效且可控。三、实现步骤 1.首先配置Spring Boot 3.x和Flink的开发环境。在pom.xml中添加必要的依赖 dependencies!-- Spring Boot 依赖 --dependencygroupIdorg.springframework.boot/groupIdartifactIdspring-boot-starter/artifactId/dependencydependencygroupIdorg.springframework.boot/groupIdartifactIdspring-boot-starter-web/artifactId/dependency!-- Apache Flink 依赖 --dependencygroupIdorg.apache.flink/groupIdartifactIdflink-java/artifactIdversion1.14.0/version/dependencydependencygroupIdorg.apache.flink/groupIdartifactIdflink-streaming-java_2.11/artifactIdversion1.14.0/version/dependency!-- 其他必要依赖 --dependencygroupIdorg.apache.flink/groupIdartifactIdflink-connector-filesystem_2.11/artifactIdversion1.14.0/version/dependency /dependencies2.数据的读取、处理和写入流程 2.1 数据读取 数据源选择项目中使用的是HDFS故后续文档展示从HDFS中并行读取数据 1本地文件系统适用于中小规模数据处理开发和调试方便。 2分布式文件系统HDFS适用于大规模数据处理具备高扩展性和容错能力。 3云存储S3适用于云环境下的数据处理支持弹性存储和高可用性。为提高读取性能采用多线程并行读取和数据分片等策略。 import org.apache.flink.api.common.functions.FlatMapFunction; import org.apache.flink.api.java.tuple.Tuple2; import org.apache.flink.util.Collector; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;public class HDFSDataReader {public static void main(String[] args) throws Exception {StreamExecutionEnvironment env StreamExecutionEnvironment.getExecutionEnvironment();// 从 HDFS 中读取数据并通过并行流的方式对数据进行处理和统计。DataStreamString text env.readTextFile(hdfs://localhost:9000/resources/datafile);DataStreamTuple2String, Integer wordCounts text.flatMap(new FlatMapFunctionString, Tuple2String, Integer() {Overridepublic void flatMap(String value, CollectorTuple2String, Integer out) {for (String word : value.split(\\s)) {out.collect(new Tuple2(word, 1));}}}).keyBy(0).sum(1);wordCounts.writeAsText(hdfs:///path/to/output/file, FileSystem.WriteMode.OVERWRITE);env.execute(HDFS Data Reader);} }2.2 数据处理 数据清洗和预处理是大数据处理中重要的一环包括步骤 数据去重移除重复的数据确保数据唯一性。 数据过滤排除不符合业务规则的无效数据。 数据转换将数据格式转换为统一的规范格式便于后续处理。进行简单的数据清洗操作 DataStreamString cleanedData inputStream.filter(new FilterFunctionString() {Overridepublic boolean filter(String value) {// 过滤空行和不符合格式的数据return value ! null !value.trim().isEmpty() value.matches(regex);}}).map(new MapFunctionString, String() {Overridepublic String map(String value) {// 数据格式转换return transformData(value);}});在数据清洗之后需要对数据进行各种聚合和分析操作如统计分析、分类聚类等。这是大数据处理的核心部分Flink 提供丰富的内置函数和算子来帮助实现这些功能。 对数据进行简单的聚合统计 DataStreamTuple2String, Integer aggregatedData cleanedData.flatMap(new FlatMapFunctionString, Tuple2String, Integer() {Overridepublic void flatMap(String value, CollectorTuple2String, Integer out) {for (String word : value.split(\\s)) {out.collect(new Tuple2(word, 1));}}}).keyBy(0).sum(1);2.3 数据写入 处理后的数据需要高效地写入目标存储系统常见的数据存储包括文件系统、数据库和消息队列等。选择合适的存储系统不仅有助于提升整体性能同时也有助于数据的持久化和后续分析。 文件系统适用于批处理结果的落地存储。 数据库适用于结构化数据的存储和查询。 消息队列适用于实时流处理结果的传输和消费。为提高写入性能可以采取分区写入、批量写入和压缩等策略。 使用分区写入和压缩技术将处理后的数据写入文件系统 outputStream.map(new MapFunctionTuple2String, Integer, String() {Overridepublic String map(Tuple2String, Integer value) {// 数据转换为字符串格式return value.f0 , value.f1;}}).writeAsText(file:output/tag/datafile, FileSystem.WriteMode.OVERWRITE).setParallelism(4) // 设置并行度.setWriteModeWriteParallelism(FileSystem.WriteMode.NO_OVERWRITE); // 设置写入模式和压缩3.性能优化 3.1 并行度设置 Flink 支持高度并行的数据处理通过设置并行度可以提高整体处理性能。 设置Flink的全局并行度和算子级并行度 env.setParallelism(8); // 设置全局并行度DataStreamTuple2String, Integer result inputStream.flatMap(new Tokenizer()).keyBy(0).sum(1).setParallelism(4); // 设置算子级并行度3.2 资源管理 合理管理计算资源避免资源争用可以显著提高数据处理性能。在实际开发中可以通过配置Flink的TaskManager资源配额如内存、CPU来优化资源使用 # Flink 配置文件 (flink-conf.yaml) taskmanager.memory.process.size: 2048m taskmanager.memory.framework.heap.size: 512m taskmanager.numberOfTaskSlots: 43.3 数据切分和批处理 对于大文件处理可以采用数据切分技术将大文件拆分为多个小文件进行并行处理避免单个文件过大导致的处理瓶颈。同时使用批处理可以减少网络和I/O操作提高整体效率。 DataStreamString partitionedStream inputStream.rebalance() // 重新分区.mapPartition(new MapPartitionFunctionString, String() {Overridepublic void mapPartition(IterableString values, CollectorString out) {for (String value : values) {out.collect(value);}}}).setParallelism(env.getParallelism());3.4 使用缓存和压缩 对于高频访问的数据可将中间结果缓存到内存中以减少重复计算和I/O操作。此外在写入前对数据进行压缩如 gzip可以减少存储空间和网络传输时间。 四、完整示例 通过一个完整的示例来实现Spring Boot 3.和Flink大数据文件的读取和写入。涵盖上述从数据源读取文件、数据处理、数据写入到目标文件的过程。 首先通过Spring Initializer创建一个新的Spring Boot项目spring boot 3需要jdk17添加以下依赖 dependencies!-- Spring Boot 依赖 --dependencygroupIdorg.springframework.boot/groupIdartifactIdspring-boot-starter/artifactId/dependencydependencygroupIdorg.springframework.boot/groupIdartifactIdspring-boot-starter-web/artifactId/dependency!-- Apache Flink 依赖 --dependencygroupIdorg.apache.flink/groupIdartifactIdflink-java/artifactIdversion1.14.0/version/dependencydependencygroupIdorg.apache.flink/groupIdartifactIdflink-streaming-java_2.11/artifactIdversion1.14.0/version/dependency!-- 其他必要依赖 --dependencygroupIdorg.apache.flink/groupIdartifactIdflink-connector-filesystem_2.11/artifactIdversion1.14.0/version/dependency /dependencies定义一个配置类来管理文件路径和其他配置项 import org.springframework.context.annotation.Configuration;Configuration public class FileProcessingConfig {// 输入文件路径public static final String INPUT_FILE_PATH fhdfs://localhost:9000/resources/datafile;// 输出文件路径public static final String OUTPUT_FILE_PATH file:output/tag/datafile; }在业务逻辑层定义文件处理操作 import org.apache.flink.api.common.functions.MapFunction; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.core.fs.FileSystem; import org.springframework.stereotype.Service;Service public class FileProcessingService {public void processFiles() throws Exception {// 创建Flink执行环境StreamExecutionEnvironment env StreamExecutionEnvironment.getExecutionEnvironment();// 配置数据源读取文件DataStreamString inputStream env.readTextFile(FileProcessingConfig.INPUT_FILE_PATH);// 数据处理逻辑将数据转换为大写DataStreamString processedStream inputStream.map(new MapFunctionString, String() {Overridepublic String map(String value) {return value.toUpperCase();}});// 将处理后的数据写入文件processedStream.writeAsText(FileProcessingConfig.OUTPUT_FILE_PATH, FileSystem.WriteMode.OVERWRITE);// 启动Flink任务env.execute(File Processing Job);} }在主应用程序类中启用Spring调度任务 import org.springframework.boot.SpringApplication; import org.springframework.boot.autoconfigure.SpringBootApplication; import org.springframework.scheduling.annotation.EnableScheduling; import org.springframework.scheduling.annotation.Scheduled; import org.springframework.beans.factory.annotation.Autowired;EnableScheduling SpringBootApplication public class FileProcessingApplication {Autowiredprivate FileProcessingService fileProcessingService;public static void main(String[] args) {SpringApplication.run(FileProcessingApplication.class, args);}// 定时任务每分钟执行一次Scheduled(fixedRate 60000)public void scheduleFileProcessingTask() {try {fileProcessingService.processFiles();} catch (Exception e) {e.printStackTrace();}} }优化数据处理部分加入更多处理步骤包括数据校验和过滤来确保数据的质量和准确性。 import org.apache.flink.api.common.functions.FilterFunction; import org.apache.flink.api.common.functions.FlatMapFunction; import org.apache.flink.api.common.functions.MapFunction; import org.apache.flink.api.java.tuple.Tuple2; import org.apache.flink.util.Collector;public class EnhancedFileProcessingService {public void processFiles() throws Exception {StreamExecutionEnvironment env StreamExecutionEnvironment.getExecutionEnvironment();DataStreamString inputStream env.readTextFile(FileProcessingConfig.INPUT_FILE_PATH);// 数据预处理数据校验和过滤DataStreamString filteredStream inputStream.filter(new FilterFunctionString() {Overridepublic boolean filter(String value) {// 过滤长度小于5的字符串return value ! null value.trim().length() 5;}});// 数据转换将每行数据拆分为单词DataStreamTuple2String, Integer wordStream filteredStream.flatMap(new FlatMapFunctionString, Tuple2String, Integer() {Overridepublic void flatMap(String value, CollectorTuple2String, Integer out) {for (String word : value.split(\\W)) {out.collect(new Tuple2(word, 1));}}});// 数据聚合统计每个单词的出现次数DataStreamTuple2String, Integer wordCounts wordStream.keyBy(value - value.f0).sum(1);// 将结果转换为字符串并写入输出文件DataStreamString resultStream wordCounts.map(new MapFunctionTuple2String, Integer, String() {Overridepublic String map(Tuple2String, Integer value) {return value.f0 : value.f1;}});resultStream.writeAsText(FileProcessingConfig.OUTPUT_FILE_PATH, FileSystem.WriteMode.OVERWRITE);env.execute(Enhanced File Processing Job);} }增加以下步骤 数据校验和过滤过滤掉长度小于5的行确保数据质量。 数据转换将每行数据拆分为单词并为每个单词附加计数1。 数据聚合统计每个单词的出现次数。 结果写入将统计结果写入输出文件。对Flink的资源配置进行优化有效管理 TaskManager 的内存和并行度以确保文件处理任务的高效执行 # Flink 配置文件 (flink-conf.yaml) taskmanager.memory.process.size: 4096m taskmanager.memory.framework.heap.size: 1024m taskmanager.numberOfTaskSlots: 4 parallelism.default: 4好ok刹国
http://www.w-s-a.com/news/28153/

相关文章:

  • 不用代码做网站网站建设和运行费用
  • 阜阳网站开发招聘网站建设合作协议申请
  • 电子配件 技术支持 东莞网站建设wordpress 生成html代码
  • 网站用免费空间好不好网站建设的视频
  • 网站开发项目职责门户资源分享网站模板
  • 建网站需要什么语言如何做二维码跳转到网站
  • 天津建设交培训中心网站做网站起名字
  • 黑河北京网站建设湛江市住房和城乡建设局网站
  • 网站建设拾金手指下拉十九企业查询官网
  • 邢台提供网站建设公司哪家好五合一建站
  • 京东网站设计代码驻马店做网站的公司
  • 织梦网站模板使用教程福州网站建设工作
  • 做网站要准备的需求asp 网站后台
  • 滨州网站开发公司中立建设集团有限公司网站
  • 泰安建设厅网站做网站为什么要建站点
  • 有什么好的手机推荐网站创建网站需要哪些工作
  • 网站能给企业带来什么上饶市网站建设公司
  • 学做网站卖东西去哪学南宁网站建设gxjzdrj
  • 欧美网站建设案例网站开发 男生
  • 网站正在开发中做电子元器件的网站
  • 做网站搭建的公司中国建设银行官网站u盾证书
  • 大连哪里有手机自适应网站建设公司网站介绍模板 html
  • 佛山模板建站宣传片制作公司电话
  • 文字网站居中能自己做网站接业务吗
  • 免备案自助建站网站广州珈瑶公司是哪一年注册的
  • ps做网站界面wordpress为图片添加圆角
  • seo优化推广业务员招聘seo顾问服务福建
  • 成都私人网站建设seo网站推广方案策划书
  • 广州网站建设工作室wordpress log
  • 网站后台添加wordpress h1标签优化