当前位置: 首页 > news >正文

建设银行 企业网站网站建设 王卫洲

建设银行 企业网站,网站建设 王卫洲,网线制作的心得体会,网站是自己做还是让别人仿摘要 HBase 是一个开源的、非关系型的分布式数据库系统#xff0c;主要用于存储海量的结构化和半结构化数据。它是基于谷歌的 Bigtable 论文实现的#xff0c;运行在 Hadoop 分布式文件系统#xff08;HDFS#xff09;之上#xff0c;并且可以与 Hadoop 生态系统的其他组…摘要 HBase 是一个开源的、非关系型的分布式数据库系统主要用于存储海量的结构化和半结构化数据。它是基于谷歌的 Bigtable 论文实现的运行在 Hadoop 分布式文件系统HDFS之上并且可以与 Hadoop 生态系统的其他组件无缝集成。 HBase 的设计目标是提供高可扩展性、实时读写和随机访问能力这使其特别适合于需要快速处理和查询大数据集的应用场景。它采用行键Row Key作为主键并使用列族Column Family来组织数据数据在物理上按照行键的顺序存储支持范围查询。 HBase 提供了强大的数据模型支持版本控制和稀疏存储同时还支持通过 MapReduce 进行批处理操作。它具有自动分片、负载均衡和故障恢复能力确保了系统的高可用性和可靠性。HBase 常用于需要高吞吐量和低延迟的应用如实时分析、日志处理和用户行为跟踪等。 HBase 的查询语言类似于 SQL但更适合大规模分布式数据存储和处理。它与传统的关系数据库不同不支持复杂的关系操作如 JOIN 和事务处理但通过灵活的设计和高效的存储模型HBase 在大数据场景下表现出色。 1. HBase基础概念 HBase是一种分布式、可扩展、支持海量数据存储的 NoSQL 数据库。 逻辑上HBase的数据模型同关系型数据库很类似数据存储在一张表中有行有列。但从HBase的底层物理存储结构K-V来看HBase更像是一个multi-dimensional map。 HBase被称为内存数据库主要是因为它的数据存储和读取主要依赖于内存这使得HBase能够提供高性能的随机读写能力。 具体来说HBase具备以下几个核心特性 HBase使用内存作为主要的数据缓存大部分常用数据都被存储在内存中这样可以大幅度提高数据读取的速度HBase支持数据的实时随机访问这是因为HBase的数据模型是基于列的列数据存储在一起可以快速定位到具体的数据HBase设计了高效的写入策略通过Write-Ahead Log (WAL)机制数据首先被写入到内存中然后再同步到硬盘这样可以大幅度提高写入的效率。 2. HBase系统架构 Region ServerRegion Server为 Region的管理者其实现类为HRegionServer主要作用如下: 对于数据的操作get, put, delete对于Region的操作splitRegion、compactRegion。 MasterMaster是所有Region Server的管理者其实现类为HMaster主要作用如下 对于表的操作create, delete, alter对于RegionServer的操作分配regions到每个RegionServer监控每个RegionServer的状态负载均衡和故障转移。 ZookeeperHBase通过Zookeeper来做Master的高可用、RegionServer的监控、元数据的入口以及集群配置的维护等工作。 HDFSHDFS为HBase提供最终的底层数据存储服务同时为HBase提供高可用的支持。 StoreFile保存实际数据的物理文件StoreFile以HFile的形式存储在HDFS上。每个Store会有一个或多个StoreFileHFile数据在每个StoreFile中都是有序的。 MemStore写缓存由于HFile中的数据要求是有序的所以数据是先存储在MemStore中排好序后等到达刷写时机才会刷写到HFile每次刷写都会形成一个新的HFile。 WAL由于数据要经MemStore排序后才能刷写到HFile但把数据保存在内存中会有很高的概率导致数据丢失为了解决这个问题数据会先写在一个叫做Write-Ahead logfile的文件中然后再写入MemStore中。所以在系统出现故障的时候数据可以通过这个日志文件重建。 3. HBase数据模型 3.1. HBase逻辑结构 3.2. HBase物理结构 Name Space命名空间类似于关系型数据库的DatabBase概念沐与mysql的数据库的概念类似每个命名空间下有多个表。HBase有两个自带的命名空间分别是hbase和defaulthbase中存放的是HBase内置的表default表是用户默认使用的命名空间。Region类似于关系型数据库的表概念。不同的是HBase定义表时只需要声明列族即可不需要声明具体的列。这意味着往HBase写入数据时字段可以动态、按需指定。因此和关系型数据库相比HBase能够轻松应对字段变更的场景。RowHBase表中的每行数据都由一个RowKey和多个Column列组成数据是按照RowKey的字典顺序存储的并且查询数据时只能根据RowKey进行检索所以RowKey的设计十分重要。ColumnHBase中的每个列都由Column Family(列族)和Column Qualifier列限定符进行限定例如infonameinfoage。建表时只需指明列族而列限定符无需预先定义。Time Stamp用于标识数据的不同版本version每条数据写入时如果不指定时间戳系统会自动为其加上该字段其值为写入HBase的时间。Cell由{rowkey, column Familycolumn Qualifier, time Stamp} 唯一确定的单元。cell中的数据是没有类型的全部是字节码形式存贮。 4. HBase的函数API 4.1. HBase基本函数 # 进入HBase客户端命令行 bin/hbase shell# 查看当前数据库中有哪些表 hbase(main):002:0 list# 创建表 hbase(main):002:0 create student,info# 插入数据 hbase(main):003:0 put student,1001,info:sex,male hbase(main):004:0 put student,1001,info:age,18# 扫描查看表数据 hbase(main):008:0 scan student hbase(main):009:0 scan student,{STARTROW 1001, STOPROW 1001} hbase(main):010:0 scan student,{STARTROW 1001}# 查看表结构 hbase(main):011:0 describe ‘student’# 更新指定字段的数据 hbase(main):012:0 put student,1001,info:name,Nick hbase(main):013:0 put student,1001,info:age,100# 查看“指定行”或“指定列族:列”的数据 hbase(main):014:0 get student,1001 hbase(main):015:0 get student,1001,info:name# 统计表数据行数 hbase(main):021:0 count student# 删除某rowkey的全部数据 hbase(main):016:0 deleteall student,1001# 删除某rowkey的某一列数据 hbase(main):017:0 delete student,1002,info:sex# 清空表数据 清空表student表 hbase(main):018:0 truncate student# 删除表首先需要先让该表为disable状态 hbase(main):019:0 disable student# 然后才能drop这个表 hbase(main):020:0 drop student如果直接drop表会报错ERROR: Table student is enabled. Disable it first.变更表信息将info列族中的数据存放3个版本 hbase(main):022:0 alter student,{NAMEinfo,VERSIONS3} hbase(main):022:0 get student,1001,{COLUMNinfo:name,VERSIONS3} 4.2. HBase基本API DDL语句表级别操作 判断表是否存在创建表创建命名空间删除表 DML语句数据级别操作 插入数据查询数据修改数据删除数据 表的操作对象是HBaseAdmin admin public static Configuration conf; static{//使用HBaseConfiguration的单例方法实例化conf HBaseConfiguration.create();conf.set(hbase.zookeeper.quorum, 192.166.9.102);conf.set(hbase.zookeeper.property.clientPort, 2181); }public static boolean isTableExist(String tableName) throws MasterNotRunningException,ZooKeeperConnectionException, IOException{//在HBase中管理、访问表需要先创建HBaseAdmin对象//Connection connection ConnectionFactory.createConnection(conf);//HBaseAdmin admin (HBaseAdmin) connection.getAdmin();HBaseAdmin admin new HBaseAdmin(conf);return admin.tableExists(tableName); } public static void createTable(String tableName, String... columnFamily) throwsMasterNotRunningException, ZooKeeperConnectionException, IOException{HBaseAdmin admin new HBaseAdmin(conf);//判断表是否存在if(isTableExist(tableName)){System.out.println(表 tableName 已存在);//System.exit(0);}else{//创建表属性对象,表名需要转字节HTableDescriptor descriptor new HTableDescriptor(TableName.valueOf(tableName));//创建多个列族for(String cf : columnFamily){descriptor.addFamily(new HColumnDescriptor(cf));}//根据对表的配置创建表admin.createTable(descriptor);System.out.println(表 tableName 创建成功);} } public static void dropTable(String tableName) throws MasterNotRunningException,ZooKeeperConnectionException, IOException{HBaseAdmin admin new HBaseAdmin(conf);if(isTableExist(tableName)){# 先disbale 在能实现删除表admin.disableTable(tableName);admin.deleteTable(tableName);System.out.println(表 tableName 删除成功);}else{System.out.println(表 tableName 不存在);} }数据操作对象是 HTable hTable public static void addRowData(String tableName, String rowKey, String columnFamily, Stringcolumn, String value) throws IOException{//创建HTable对象 就是操作的对象HTable hTable new HTable(conf, tableName);//向表中插入数据Put put new Put(Bytes.toBytes(rowKey));//向Put对象中组装数据put.add(Bytes.toBytes(columnFamily), Bytes.toBytes(column), Bytes.toBytes(value));hTable.put(put);hTable.close();System.out.println(插入数据成功); } public static void deleteMultiRow(String tableName, String... rows) throws IOException{HTable hTable new HTable(conf, tableName);ListDelete deleteList new ArrayListDelete();for(String row : rows){Delete delete new Delete(Bytes.toBytes(row));deleteList.add(delete);}hTable.delete(deleteList);hTable.close(); } public static void getAllRows(String tableName) throws IOException{HTable hTable new HTable(conf, tableName);//得到用于扫描region的对象Scan scan new Scan();//使用HTable得到resultcanner实现类的对象ResultScanner resultScanner hTable.getScanner(scan);for(Result result : resultScanner){Cell[] cells result.rawCells();for(Cell cell : cells){//得到rowkeySystem.out.println(行键: Bytes.toString(CellUtil.cloneRow(cell)));//得到列族System.out.println(列族 Bytes.toString(CellUtil.cloneFamily(cell)));System.out.println(列: Bytes.toString(CellUtil.cloneQualifier(cell)));System.out.println(值: Bytes.toString(CellUtil.cloneValue(cell)));}} public static void getRow(String tableName, String rowKey) throws IOException{HTable table new HTable(conf, tableName);Get get new Get(Bytes.toBytes(rowKey));//get.setMaxVersions();显示所有版本//get.setTimeStamp();显示指定时间戳的版本Result result table.get(get);for(Cell cell : result.rawCells()){System.out.println(行键: Bytes.toString(result.getRow()));System.out.println(列族 Bytes.toString(CellUtil.cloneFamily(cell)));System.out.println(列: Bytes.toString(CellUtil.cloneQualifier(cell)));System.out.println(值: Bytes.toString(CellUtil.cloneValue(cell)));System.out.println(时间戳: cell.getTimestamp());} } public static void getRowQualifier(String tableName, String rowKey, String family, Stringqualifier) throws IOException{HTable table new HTable(conf, tableName);Get get new Get(Bytes.toBytes(rowKey));get.addColumn(Bytes.toBytes(family), Bytes.toBytes(qualifier));Result result table.get(get);for(Cell cell : result.rawCells()){System.out.println(行键: Bytes.toString(result.getRow()));System.out.println(列族 Bytes.toString(CellUtil.cloneFamily(cell)));System.out.println(列: Bytes.toString(CellUtil.cloneQualifier(cell)));System.out.println(值: Bytes.toString(CellUtil.cloneValue(cell)));} } 5. HBase的写流程与Rocketmq写类似 写流程 Client先访问zookeeper获取hbase:meta表位于哪个Region Server。访问对应的Region Server获取hbase:meta表根据读请求的namespace:table/rowkey查询出目标数据位于哪个Region Server中的哪个Region中。并将该table的region信息以及meta表的位置信息缓存在客户端的meta cache方便下次访问。与目标Region Server进行通讯将数据顺序写入追加到WAL将数据写入对应的MemStore数据会在MemStore进行排序向客户端发送ack等达到MemStore的刷写时机后将数据刷写到HFile。 6. HBase的读流程读比写慢数据库 HBase的读写流程是先把磁盘和内存的数据一起读区出来然后在进行的merge。 读流程 Client先访问zookeeper获取hbase:meta表位于哪个Region Server。访问对应的Region Server获取hbase:meta表根据读请求的namespace:table/rowkey查询出目标数据位于哪个Region Server中的哪个Region中。并将该table的region信息以及meta表的位置信息缓存在客户端的meta cache方便下次访问。与目标Region Server进行通讯分别在Block Cache读缓存MemStore和Store FileHFile中查询目标数据并将查到的所有数据进行合并。此处所有数据是指同一条数据的不同版本time stamp或者不同的类型Put/Delete。将从文件中查询到的数据块BlockHFile数据存储单元默认大小为64KB缓存到Block Cache。将合并后的最终结果返回给客户端。 7. HBase的Flush流程数据刷盘机制与mysql的数据刷盘类似 MemStore刷写时机 当某个memstroe的大小达到了hbase.hregion.memstore.flush.size默认值128M其所在region的所有memstore都会刷写。当memstore的大小达到了 hbase.hregion.memstore.flush.size默认值128M*hbase.hregion.memstore.block.multiplier默认值4时会阻止继续往该memstore写数据。当region server中memstore的总大小达到 java_heapsize*hbase.regionserver.global.memstore.size默认值0.4*hbase.regionserver.global.memstore.size.lower.limit默认值0.95region会按照其所有memstore的大小顺序由大到小依次进行刷写。直到region server中所有memstore的总大小减小到上述值以下。当region server中memstore的总大小达到 java_heapsize *hbase.regionserver.global.memstore.size默认值0.4时会阻止继续往所有的memstore写数据。到达自动刷写的时间也会触发memstore flush。自动刷新的时间间隔由该属性进行配置hbase.regionserver.optionalcacheflushinterval默认1小时。当WAL文件的数量超过hbase.regionserver.max.logsregion会按照时间顺序依次进行刷写直到WAL文件数量减小到hbase.regionserver.max.log以下该属性名已经废弃现无需手动设置最大值为32。 8. HBase的StoreFile Compact流程小文件合并 由于memstore每次刷写都会生成一个新的HFile且同一个字段的不同版本timestamp和不同类型Put/Delete有可能会分布在不同的HFile中因此查询时需要遍历所有的HFile。为了减少HFile的个数以及清理掉过期和删除的数据会进行StoreFile Compaction。 Compaction分为两种分别是Minor Compaction和Major Compaction。Minor Compaction会将临近的若干个较小的HFile合并成一个较大的HFile但不会清理过期和删除的数据。Major Compaction会将一个Store下的所有的HFile合并成一个大HFile并且会清理掉过期和删除的数据。 9. HBase的Region切分流程大文件拆分 默认情况下每个Table起初只有一个Region随着数据的不断写入Region会自动进行拆分。刚拆分时两个子Region都位于当前的Region Server但处于负载均衡的考虑HMaster有可能会将某个Region转移给其他的Region Server。 Region Split时机 当1个region中的某个Store下所有StoreFile的总大小超过hbase.hregion.max.filesize该Region就会进行拆分0.94版本之前。当1个region中的某个Store下所有StoreFile的总大小超过Min(R^2 * hbase.hregion.memstore.flush.size,hbase.hregion.max.filesize)该Region就会进行拆分其中R为当前Region Server中属于该Table的个数0.94版本之后 10. HBase的数据删除流程 逻辑删除 HBase不会立即在物理存储上删除数据而是采用逻辑删除的方式。当执行删除操作时HBase会将一条特殊的删除标记Tombstone插入到相应的数据单元中。这个删除标记指示这个数据单元已被删除并且会在数据保留的时间后清理掉。Major Compaction主要合并 HBase定期执行Major Compaction操作它会合并和清理数据文件删除标记和过期数据。Major Compaction将不再需要的数据清理掉从而释放磁盘空间并提高读取性能。Minor Compaction次要合并 在Major Compaction之外HBase还执行Minor Compaction它用于合并较小的数据文件以优化存储布局但不会清理删除标记。删除标记的清理 当Major Compaction执行时HBase会检查数据单元中的删除标记如果数据的所有版本都已被标记为删除则在Major Compaction中清理掉这些数据。 需要注意的是HBase的删除操作并不是实时的而是通过Compaction过程逐步进行的。这意味着一条数据的删除标记可能会在Compaction之前存在一段时间直到Compaction执行并将其清理。这种机制有助于保持HBase的高性能和高吞吐量同时确保数据的持久性和一致性。总之HBase通过逻辑删除和Compaction机制来处理数据的删除操作。删除数据会在逻辑上插入删除标记而实际的物理清理会在Compaction过程中进行。这种机制可以平衡数据的删除和性能需求确保数据的有效管理和存储。 11. HBase的优化设计 11.1. HBase的Master的高可用设计 在HBase中HMaster负责监控HRegionServer的生命周期均衡RegionServer的负载如果HMaster挂掉了那么整个HBase集群将陷入不健康的状态并且此时的工作状态并不会维持太久。所以HBase支持对HMaster的高可用配置。 关闭HBase集群如果没有开启则跳过此步 [xjlhadoop102 hbase]$ bin/stop-hbase.sh在conf目录下创建backup-masters文件 [xjlhadoop102 hbase]$ touch conf/backup-masters在backup-masters文件中配置高可用HMaster节点 [xjlhadoop102 hbase]$ echo hadoop103 conf/backup-masters将整个conf目录scp到其他节点 [xjlhadoop102 hbase]$ scp -r conf/ hadoop103:/opt/module/hbase/ [xjlhadoop102 hbase]$ scp -r conf/ hadoop104:/opt/module/hbase/打开页面测试查看11.2. HBase的预分区设计 每一个region维护着StartRow与EndRow如果加入的数据符合某个Region维护的RowKey范围则该数据交给这个Region维护。那么依照这个原则我们可以将数据所要投放的分区提前大致的规划好以提高HBase性能。 # 手动设定预分区 Hbase create staff1,info,partition1,SPLITS [1000,2000,3000,4000]# 生成16进制序列预分区 create staff2,info,partition2,{NUMREGIONS 15, SPLITALGO HexStringSplit}# 按照文件中设置的规则预分区 创建splits.txt文件内容如下 aaaa bbbb cccc dddd 然后执行 create staff3,partition3,SPLITS_FILE splits.txt# 使用JavaAPI创建预分区//自定义算法产生一系列hash散列值存储在二维数组中byte[][] splitKeys 某个散列值函数//创建HbaseAdmin实例HBaseAdmin hAdmin new HBaseAdmin(HbaseConfiguration.create());//创建HTableDescriptor实例HTableDescriptor tableDesc new HTableDescriptor(tableName);//通过HTableDescriptor实例和散列值二维数组创建带有预分区的Hbase表hAdmin.createTable(tableDesc, splitKeys); 11.3. HBase的RowKey设计随机性防止数据倾斜 一条数据的唯一标识就是RowKey那么这条数据存储于哪个分区取决于RowKey处于哪个一个预分区的区间内设计RowKey的主要目的就是让数据均匀的分布于所有的region中在一定程度上防止数据倾斜。接下来我们就谈一谈RowKey常用的设计方案。 # 生成随机数、hash、散列值 比如 原本rowKey为1001的SHA1后变成dd01903921ea24941c26a48f2cec24e0bb0e8cc7 原本rowKey为3001的SHA1后变成49042c54de64a1e9bf0b33e00245660ef92dc7bd 原本rowKey为5001的SHA1后变成7b61dec07e02c188790670af43e717f0f46e8913 在做此操作之前一般我们会选择从数据集中抽取样本来决定什么样的rowKey来Hash后作为每个分区的临界值。# 字符串反转 20170524000001转成10000042507102 20170524000002转成20000042507102 这样也可以在一定程度上散列逐步put进来的数据。# 字符串拼接 20170524000001_a12e 20170524000001_93i711.4. HBase的内存优化 HBase操作过程中需要大量的内存开销毕竟Table是可以缓存在内存中的一般会分配整个可用内存的70%给HBase的Java堆。但是不建议分配非常大的堆内存因为GC过程持续太久会导致RegionServer处于长期不可用状态一般16~48G内存就可以了如果因为框架占用内存过高导致系统内存不足框架一样会被系统服务拖死。 11.5. HBase基础优化 1.允许在HDFS的文件中追加内容 hdfs-site.xml、hbase-site.xml 属性dfs.support.append 解释开启HDFS追加同步可以优秀的配合HBase的数据同步和持久化。默认值为true。2优化DataNode允许的最大文件打开数 hdfs-site.xml 属性dfs.datanode.max.transfer.threads 解释HBase一般都会同一时间操作大量的文件根据集群的数量和规模以及数据动作设置为4096或者更高。默认值40963优化延迟高的数据操作的等待时间 hdfs-site.xml 属性dfs.image.transfer.timeout 解释如果对于某一次数据操作来讲延迟非常高socket需要等待更长的时间建议把该值设置为更大的值默认60000毫秒以确保socket不会被timeout掉。4优化数据的写入效率 mapred-site.xml 属性 mapreduce.map.output.compress mapreduce.map.output.compress.codec 解释开启这两个数据可以大大提高文件的写入效率减少写入时间。第一个属性值修改为true第二个属性值修改为org.apache.hadoop.io.compress.GzipCodec或者其他压缩方式。5设置RPC监听数量 hbase-site.xml 属性Hbase.regionserver.handler.count 解释默认值为30用于指定RPC监听的数量可以根据客户端的请求数进行调整读写请求较多时增加此值。6优化HStore文件大小 hbase-site.xml 属性hbase.hregion.max.filesize 解释默认值1073741824010GB如果需要运行HBase的MR任务可以减小此值因为一个region对应一个map任务如果单个region过大会导致map任务执行时间过长。该值的意思就是如果HFile的大小达到这个数值则这个region会被切分为两个Hfile。7优化HBase客户端缓存 hbase-site.xml 属性hbase.client.write.buffer 解释用于指定Hbase客户端缓存增大该值可以减少RPC调用次数但是会消耗更多内存反之则反之。一般我们需要设定一定的缓存大小以达到减少RPC次数的目的。8指定scan.next扫描HBase所获取的行数 hbase-site.xml 属性hbase.client.scanner.caching 解释用于指定scan.next方法获取的默认行数值越大消耗内存越大。9flush、compact、split机制 当MemStore达到阈值将Memstore中的数据Flush进Storefilecompact机制则是把flush出来的小文件合并成大的Storefile文件。split则是当Region达到阈值会把过大的Region一分为二。 涉及属性 即128M就是Memstore的默认阈值 hbase.hregion.memstore.flush.size134217728 即这个参数的作用是当单个HRegion内所有的Memstore大小总和超过指定值时flush该HRegion的所有memstore。RegionServer的flush是通过将请求添加一个队列模拟生产消费模型来异步处理的。那这里就有一个问题当队列来不及消费产生大量积压请求时可能会导致内存陡增最坏的情况是触发OOM。 hbase.regionserver.global.memstore.upperLimit0.4 hbase.regionserver.global.memstore.lowerLimit0.38 即当MemStore使用内存总量达到hbase.regionserver.global.memstore.upperLimit指定值时将会有多个MemStores flush到文件中MemStore flush 顺序是按照大小降序执行的直到刷新到MemStore使用内存略小于lowerLimit 博文参考 https://www.cnblogs.com/datadance/p/16327298.html https://www.cnblogs.com/datadance/p/16327298.html
http://www.w-s-a.com/news/388664/

相关文章:

  • odoo做网站网站设置专栏有什么好处
  • 局域网内个人网站建设查询企业的网站有哪些
  • 网站建设属于技术开发吗网页制作团队
  • 做家常菜的网站哪个好哪个网站做图片外链
  • 眼科医院网站设计怎么做6深圳宝安是什么风险等级
  • 网站制作容易吗logo免费生成网站
  • 建设厅官方网站下载专区网络托管公司
  • 祥云平台官方网站网线制作实验原理
  • 把网站做成app的软件下载国外做兼职的网站有哪些
  • 网站建设 海豚弯专业的网站开发服务商
  • 那个网站有免费模板中国家装公司十大排名
  • 中铁建设集团有限公司门户网站余杭区建设规划局网站
  • 天猫网站建设的目标是什么做网站常见问题模板
  • 做php网站需要什么软件天津建设网官方网站
  • 南漳网站开发上海网站推广方法
  • 深圳seo网站大连旅顺房价
  • dede网站 地图什么做有没有做黑市网站
  • 做网站参考文献域名如何做网站
  • 怎么选择网站开发英文网站建设用途
  • 怎样做电子商务网站织梦生成手机网站
  • 公司网站建设选什么服务器网站里怎样添加关键词
  • 深圳建设局网站深业中城绿化项目营销型网站开发流程包括
  • 找销售的网站九江市建设项目服务中心
  • 东原ARC网站建设公司合肥seo网站推广外包
  • 那个网站是做房产中介的网站制作软件小学
  • 做网页怎么建站点视频解析网站
  • 做网站的系统设计网站设计论文前言
  • 做外贸网站多久更新汕头市建设局网站首页
  • 如何建设专业化的网站手机管理网站模板
  • 花生壳做网站如何用腾讯云做网站