当前位置: 首页 > news >正文

一起做业英语网站企业微信电脑版

一起做业英语网站,企业微信电脑版,软件开发工程师前景,中国禹路由网站建设中1.1 MongoDB的常用命令 mongoexport / mongoimport mongodump / mongorestore 有以上两组命令在备份与恢复中进行使用。 1.1.1 导出工具mongoexport Mongodb中的mongoexport工具可以把一个collection导出成JSON格式或CSV格式的文件。可以通过参数指定导出的数据项#xff0c…1.1 MongoDB的常用命令 mongoexport / mongoimport mongodump / mongorestore      有以上两组命令在备份与恢复中进行使用。 1.1.1 导出工具mongoexport Mongodb中的mongoexport工具可以把一个collection导出成JSON格式或CSV格式的文件。可以通过参数指定导出的数据项也可以根据指定的条件导出数据。 该命令的参数如下 参数 参数说明 -h 指明数据库宿主机的IP -u 指明数据库的用户名 -p 指明数据库的密码 -d 指明数据库的名字 -c 指明collection的名字 -f 指明要导出那些列 -o 指明到要导出的文件名 -q 指明导出数据的过滤条件 --type 指定文件类型 --authenticationDatabase 验证数据的名称 mongoexport备份实践 备份app库下的vast集合 mongoexport -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -d app -c vast -o /home/mongod/backup/vasts.dat 注备份文件的名字可以自定义默认导出了JSON格式的数据。 导出CSV格式的数据 mongoexport -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -d app -c vast --typecsv -f id,name -o /home/mongod/backup/vast_csv.dat 1.1.2 导入工具mongoimport Mongodb中的mongoimport工具可以把一个特定格式文件中的内容导入到指定的collection中。该工具可以导入JSON格式数据也可以导入CSV格式数据。 该命令的参数如下    参数 参数说明 -h 指明数据库宿主机的IP -u 指明数据库的用户名 -p 指明数据库的密码 -d 指明数据库的名字 -c 指明collection的名字 -f 指明要导出那些列 -o 指明到要导出的文件名 -q 指明导出数据的过滤条件 --drop 插入之前先删除原有的 --headerline 指明第一行是列名不需要导入。 -j 同时运行的插入操作数默认为1并行 --authenticationDatabase 验证数据的名称 mongoimport恢复实践 将之前恢复的数据导入 mongoimport -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -d app -c vast --drop /home/mongod/backup/vasts.dat 将之前恢复的CSV格式数据导入 mongoimport -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -d app -c vast --typecsv --headerline --file vast_csv.dat 1.1.3 【实验】mysql数据迁移至mongodb数据库 将mysql数据库中的mysql下的user表导出。 select user,host,password from mysql.user into outfile /tmp/user.csv fields terminated by , optionally enclosed by escaped by lines terminated by \r\n; 命令说明 into outfile /tmp/user.csv ------导出文件位置 fields terminated by ,   ------字段间以,号分隔 optionally enclosed by   ------字段用号括起 escaped by        ------字段中使用的转义符为 lines terminated by \r\n;  ------行以\r\n结束 查看导出内容 [mongodMongoDB tmp]$ cat user.csv root,localhost, root,db02, root,127.0.0.1, root,::1, ,localhost, ,db02, repl,10.0.0.%,*23AE809DDACAF96AF0FD78ED04B6A265E05AA257 mha,10.0.0.%,*F4C9AC49A736981AE2739FC2F4A1FD92B4F07929 在mongodb中导入数据 mongoimport -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -d app -c user -f user,host,password --typecsv --file /tmp/user.csv 查看导入的内容 [rootMongoDB tmp]# mongo --port 27017 MongoDB shell version: 3.2.8 connecting to: 127.0.0.1:27017/testuse app switched to db appdb.user.find() { _id : ObjectId(5a53206b3b42ae4683180009), user : root\tlocalhost } { _id : ObjectId(5a53206b3b42ae468318000a), user : root\tdb02 } { _id : ObjectId(5a53206b3b42ae468318000b), user : root\t127.0.0.1 } { _id : ObjectId(5a53206b3b42ae468318000c), user : root\t::1 } { _id : ObjectId(5a53206b3b42ae468318000d), user : localhost } { _id : ObjectId(5a53206b3b42ae468318000e), user : db02 } { _id : ObjectId(5a53206b3b42ae468318000f), user : repl\t10.0.0.%\t*23AE809DDACAF96AF0FD78ED04B6A265E05AA257 } { _id : ObjectId(5a53206b3b42ae4683180010), user : mha\t10.0.0.%\t*F4C9AC49A736981AE2739FC2F4A1FD92B4F07929 }      到此数据迁移完成。 1.2 mongodump/mongorestore实践 1.2.1 mongodump备份工具 mongodump的参数与mongoexport的参数基本一致  参数 参数说明 -h 指明数据库宿主机的IP -u 指明数据库的用户名 -p 指明数据库的密码 -d 指明数据库的名字 -c 指明collection的名字 -o 指明到要导出的文件名 -q 指明导出数据的过滤条件 --authenticationDatabase 验证数据的名称 --gzip 备份时压缩 --oplog use oplog for taking a point-in-time snapshot mongodump参数实践 全库备份 mongodump -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -o /home/mongod/backup/full 备份test库 mongodump -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -d test -o /home/mongod/backup/ 备份test库下的vast集合 mongodump -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -d test -c vast -o /home/mongod/backup/ 压缩备份库 mongodump -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -d test -o /home/mongod/backup/ --gzip 压缩备份单表 mongodump -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -d test -c vast -o /home/mongod/backup/ --gzip 1.2.2 mongorestore恢复实践 mongorestore与mongoimport参数类似  参数 参数说明 -h 指明数据库宿主机的IP -u 指明数据库的用户名 -p 指明数据库的密码 -d 指明数据库的名字 -c 指明collection的名字 -o 指明到要导出的文件名 -q 指明导出数据的过滤条件 --authenticationDatabase 验证数据的名称 --gzip 备份时压缩 --oplog use oplog for taking a point-in-time snapshot --drop 恢复的时候把之前的集合drop掉 全库备份中恢复单库基于之前的全库备份 mongorestore -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -d test --drop /home/mongod/backup/full/test/ 恢复test库 mongorestore -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -d test /home/mongod/backup/test/ 恢复test库下的vast集合 mongorestore -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -d test -c vast /home/mongod/backup/test/vast.bson --drop参数实践恢复 # 恢复单库 mongorestore -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -d test --drop /home/mongod/backup/test/ # 恢复单表 mongorestore -h 10.0.0.152:27017 -uroot -proot --authenticationDatabase admin -d test -c vast --drop /home/mongod/backup/test/vast.bson 1.2.3 mongoexport/mongoimport与mongodump/mongorestore的对比 mongoexport/mongoimport导入/导出的是JSON格式而mongodump/mongorestore导入/导出的是BSON格式。JSON可读性强但体积较大BSON则是二进制文件体积小但对人类几乎没有可读性。在一些mongodb版本之间BSON格式可能会随版本不同而有所不同所以不同版本之间用mongodump/mongorestore可能不会成功具体要看版本之间的兼容性。当无法使用BSON进行跨版本的数据迁移的时候使用JSON格式即mongoexport/mongoimport是一个可选项。跨版本的mongodump/mongorestore并不推荐实在要做请先检查文档看两个版本是否兼容大部分时候是的。JSON虽然具有较好的跨版本通用性但其只保留了数据部分不保留索引账户等其他基础信息。使用时应该注意。 1.3 MongoDB中的oplog 1.3.1 什么是oplog MongoDB 的Replication是通过一个日志来存储写操作的这个日志就叫做oplog。 在默认情况下,oplog分配的是5%的空闲磁盘空间。通常而言,这是一种合理的设置。可以通过mongod --oplogSize来改变oplog的日志大小。 oplog是capped collection因为oplog的特点不能太多把磁盘填满了固定大小需要MongoDB才发明了capped collectionthe oplog is actually the reason capped collections were invented. 定值大小的集合oplogSizeMB: 2048oplog是具有幂等性执行过后的不会反复执行。 值得注意的是oplog为replica set或者master/slave模式专用standalone模式运行mongodb并不推荐。 oplog的位置 oplog在local库 local。oplog master/slave 架构下local.oplog.$main;   replica sets 架构下local.oplog.rs 参数说明 $ mongodump --help--oplog use oplog for taking a point-in-time snapshot   该参数的主要作用是在导出的同时生成一个oplog.bson文件存放在你开始进行dump到dump结束之间所有的oplog。 oplog 官方说明Replica Set Oplog — MongoDB Manual 简单地说在replica set中oplog是一个定容集合capped collection它的默认大小是磁盘空间的5%可以通过--oplogSizeMB参数修改位于local库的db.oplog.rs有兴趣可以看看里面到底有些什么内容。 其中记录的是整个mongod实例一段时间内数据库的所有变更插入/更新/删除操作。当空间用完时新记录自动覆盖最老的记录。 所以从时间轴上看oplog的覆盖范围大概是这样的 其覆盖范围被称作oplog时间窗口。需要注意的是因为oplog是一个定容集合所以时间窗口能覆盖的范围会因为你单位时间内的更新次数不同而变化。想要查看当前的oplog时间窗口预计值. sh1:PRIMARY rs.printReplicationInfo() configured oplog size: 2048MB --集合大小 log length start to end: 305451secs (84.85hrs) --预计窗口覆盖时间 oplog first event time: Thu Jan 04 2018 19:39:05 GMT0800 (CST) oplog last event time: Mon Jan 08 2018 08:29:56 GMT0800 (CST) now: Mon Jan 08 2018 16:33:25 GMT0800 (CST) oplog有一个非常重要的特性——幂等性idempotent。即对一个数据集合使用oplog中记录的操作重放时无论被重放多少次其结果会是一样的。 举例来说如果oplog中记录的是一个插入操作并不会因为你重放了两次数据库中就得到两条相同的记录。这是一个很重要的特性. 1.3.2 oplog.bson作用 与oplog相关的参数 参数 参数说明 --oplogReplay 重放oplog.bson中的操作内容 --oplogLimit 与--oplogReplay一起使用时可以限制重放到的时间点 首先要明白的一个问题是数据之间互相有依赖性比如集合A中存放了订单集合B中存放了订单的所有明细那么只有一个订单有完整的明细时才是正确的状态。 假设在任意一个时间点A和B集合的数据都是完整对应并且有意义的对非关系型数据库要做到这点并不容易且对于MongoDB来说这样的数据结构并非合理。但此处我们假设这个条件成立那么如果A处于时间点x而B处于x之后的一个时间点y时可以想象A和B中的数据极有可能不对应而失去意义。 mongodump的进行过程中并不会把数据库锁死以保证整个库冻结在一个固定的时间点这在业务上常常是不允许的。所以就有了dump的最终结果中A集合是10点整的状态而B集合则是10点零1分的状态这种情况。 这样的备份即使恢复回去可以想象得到的结果恐怕意义有限。 那么上面这个oplog.bson的意义就在这里体现出来了。如果在dump数据的基础上再重做一遍oplog中记录的所有操作这时的数据就可以代表dump结束时那个时间点point-in-time的数据库状态。 1.3.3 【模拟】mongodump使用 首先我们模拟一个不断有插入操作的集合foo use clsn for(var i 0; i 10000; i) {db.clsn.insert({a: i}); }   然后在插入过程中模拟一次mongodump并指定--oplog。 mongodump -h 10.0.0.152 --port 28021 --oplog -o /home/mongod/backup/oplog   注意--oplog选项只对全库导出有效所以不能指定-d选项。 因为整个实例的变更操作都会集中在local库中的oplog.rs集合中。 根据上面所说从dump开始的时间系统将记录所有的oplog到oplog.bson中所以我们得到这些文件 [mongodMongoDB ~]$ ll /home/mongod/backup/oplog total 8 drwxrwxr-x 2 mongod mongod 4096 Jan 8 16:49 admin drwxrwxr-x 2 mongod mongod 4096 Jan 8 16:49 clsn -rw-rw-r-- 1 mongod mongod 77256 Jan 8 16:49 oplog.bson 查看oplog.bson中第一条和最后一条内容 [mongodMongoDB oplog]$ bsondump oplog.bson /tmp/oplog.bson.tmp [mongodMongoDB oplog]$ head -1 /tmp/oplog.bson.tmp {ts:{$timestamp:{t:1515401553,i:666}},t:{$numberLong:5},h:{$numberLong:5737315465472464503},v:2,op:i,ns:clsn.clsn1,o:{_id:{$oid:5a533151cc075bd0aa461327},a:3153.0}} [mongodMongoDB oplog]$ tail -1 /tmp/oplog.bson.tmp {ts:{$timestamp:{t:1515401556,i:34}},t:{$numberLong:5},h:{$numberLong:-7438621314956315593},v:2,op:i,ns:clsn.clsn1,o:{_id:{$oid:5a533154cc075bd0aa4615de},a:3848.0}}   最终dump出的数据既不是最开始的状态也不是最后的状态而是中间某个随机状态。这正是因为集合不断变化造成的。 使用mongorestore来恢复 [mongodMongoDB oplog]$ mongorestore -h 10.0.0.152 --port 28021 --oplogReplay --drop /home/mongod/backup/oplog 2018-01-08T16:59:18.0530800 building a list of dbs and collections to restore from /home/mongod/backup/oplog dir 2018-01-08T16:59:18.0660800 reading metadata for clsn.clsn from /home/mongod/backup/oplog/clsn/clsn.metadata.json 2018-01-08T16:59:18.1570800 restoring clsn.clsn from /home/mongod/backup/oplog/clsn/clsn.bson 2018-01-08T16:59:18.1780800 reading metadata for clsn.clsn1 from /home/mongod/backup/oplog/clsn/clsn1.metadata.json 2018-01-08T16:59:18.2160800 restoring clsn.clsn1 from /home/mongod/backup/oplog/clsn/clsn1.bson 2018-01-08T16:59:18.6690800 restoring indexes for collection clsn.clsn1 from metadata 2018-01-08T16:59:18.6790800 finished restoring clsn.clsn1 (3165 documents) 2018-01-08T16:59:19.8500800 restoring indexes for collection clsn.clsn from metadata 2018-01-08T16:59:19.8510800 finished restoring clsn.clsn (10000 documents) 2018-01-08T16:59:19.8510800 replaying oplog 2018-01-08T16:59:19.9190800 done 注意黄字体第一句表示clsn.clsn1集合中恢复了3165个文档第二句表示重放了oplog中的所有操作。所以理论上clsn1应该有16857个文档3165个来自clsn.bson剩下的来自oplog.bson。验证一下 sh1:PRIMARY db.clsn1.count() 3849   这就是带oplog的mongodump的真正作用。 1.3.4 从别处而来的oplog oplog有两种来源 1、mongodump时加上--oplog选项自动生成的oplog这种方式的oplog直接 --oplogReplay 就可以恢复   2、从别处而来除了--oplog之外人为获取的oplog 例如 mongodump --port 28021 -d local -c oplog.rs   既然dump出的数据配合oplog就可以把数据库恢复到某个状态那是不是拥有一份从某个时间点开始备份的dump数据再加上从dump开始之后的oplog如果oplog足够长是不是就可以把数据库恢复到其后的任意状态了是的 事实上replica set正是依赖oplog的重放机制在工作。当secondary第一次加入replica set时做的initial sync就相当于是在做mongodump此后只需要不断地同步和重放oplog.rs中的数据就达到了secondary与primary同步的目的。 既然oplog一直都在oplog.rs中存在我们为什么还需要在mongodump时指定--oplog呢需要的时候从oplog.rs中拿不就完了吗答案是肯定的你确实可以只dump数据不需要oplog。 在需要的时候可以再从oplog.rs中取。但前提是oplog时间窗口必须能够覆盖dump的开始时间。 及时点恢复场景模拟 模拟生产环境 for(i0;i300000;i){ db.oplog.insert({id:i,name:shenzheng,age:70,date:new Date()}); } 插入数据的同时备份 mongodump -h 10.0.0.152 --port 28021 --oplog -o /home/mongod/backup/config 备份完成后进行次错误的操作 db.oplog.remove({}); 备份oplog.rs文件 mongodump -h 10.0.0.152 --port 28021 -d local -c oplog.rs -o /home/mongod/backup/config/oplog 恢复之前备份的数据 mongorestore -h 10.0.0.152 --port 28021--oplogReplay /home/mongod/backup/config 截取oplog找到发生误删除的时间点 bsondump oplog.rs.bson |egrep \op\:\d\\,\ns\:\test\.oplog\ |head -1 t:1515379110,i:1 复制oplog到备份目录 cp /home/mongod/backup/config/oplog/oplog.rs.bson /home/mongod/backup/config/oplog.bson 进行恢复添加之前找到的误删除的点limt mongorestore -h 10.0.0.152 --port 28021 --oplogReplay --oplogLimit 1515379110:1 /home/mongod/backup/config      至此一次恢复就完成了 1.3.5 mongodb的备份准则 只针对replica或master/slave满足这些准则MongoDB就可以进行point-in-time恢复操作 任意两次数据备份的时间间隔第一次备份开始到第二次备份结束不能超过oplog时间窗口覆盖范围。在上次数据备份的基础上在oplog时间窗口没有滑出上次备份结束的时间点前进行完整的oplog备份。请充分考虑oplog备份需要的时间权衡服务器空间情况确定oplog备份间隔。 实际应用中的注意事项 考虑到oplog时间窗口是个变化值请关注oplog时间窗口的具体时间。在靠近oplog时间窗口滑动出有效时间之前必须要有足够的时间dump出需要的oplog.rs请预留足够的时间不要顶满时间窗口再备份。当灾难发生时第一件事情就是要停止数据库的写入操作以往oplog滑出时间窗口。特别是像上述这样的remove({})操作瞬间就会插入大量d记录从而导致oplog迅速滑出时间窗口。 分片集群的备份注意事项 1、备份什么   1configserver   2每一个shard节点 2、备份需要注意什么   1元数据和真实数据要有对等性blancer迁移的问题会造成config和shard备份不一致     2不同部分备份结束时间点不一样恢复出来的数据就是有问题的。 1.4 MongoDB监控 为什么要监控 监控及时获得应用的运行状态信息在问题出现时及时发现。 监控什么 CPU、内存、磁盘I/O、应用程序MongoDB、进程监控ps -aux、错误日志监控 1.4.1 MongoDB集群监控方式 db.serverStatus()   查看实例运行状态内存使用、锁、用户连接等信息 通过比对前后快照进行性能分析 connections # 当前连接到本机处于活动状态的连接数 activeClients # 连接到当前实例处于活动状态的客户端数量 locks # 锁相关参数 opcounters # 启动之后的参数 opcountersRepl # 复制想关 storageEngine # 查看数据库的存储引擎 mem # 内存相关 状态: db.stats() 显示信息说明 db : test ,表示当前是针对test这个数据库的描述。想要查看其他数据库可以先运行$ use databasename(e.g $use admiin).collections : 3,表示当前数据库有多少个collections.可以通过运行show collections查看当前数据库具体有哪些collection.objects : 13表示当前数据库所有collection总共有多少行数据。显示的数据是一个估计值并不是非常精确。avgObjSize : 36,表示每行数据是大小也是估计值单位是bytesdataSize : 468,表示当前数据库所有数据的总大小不是指占有磁盘大小。单位是bytesstorageSize : 13312,表示当前数据库占有磁盘大小单位是bytes,因为mongodb有预分配空间机制为了防止当有大量数据插入时对磁盘的压力,因此会事先多分配磁盘空间。numExtents : 3,似乎没有什么真实意义。我弄明白之后再详细补充说明。indexes : 1 ,表示system.indexes表数据行数。indexSize : 8192,表示索引占有磁盘大小。单位是bytesfileSize : 201326592表示当前数据库预分配的文件大小例如test.0,test.1不包括test.ns。 1.4.2 mongostat 实时数据库状态读写、加锁、索引命中、缺页中断、读写等待队列等情况。 每秒刷新一次状态值并能提供良好的可读性通过这些参数可以观察到MongoDB系统整体性能情况。 [mongodMongoDB oplog]$ mongostat -h 10.0.0.152 --port 28017 insert query update delete getmore command flushes mapped vsize res faults qr|qw ar|aw netIn netOut conn set repl time*0 *0 *0 *0 0 1|0 0 303.0M 13.0M 0 0|0 0|0 143b 8k 1 RTR 2018-01-08T17:28:4208:00 参数说明  参数 参数说明 insert 每秒插入量 query 每秒查询量 update 每秒更新量 delete 每秒删除量 conn 当前连接数 qr|qw 客户端查询排队长度读|写最好为0如果有堆积数据库处理慢。 ar|aw 活跃客户端数量读|写 time 当前时间 mongotop命令说明 [mongodMongoDB oplog]$ mongotop -h 127.0.0.1:27017 2018-01-08T17:32:56.6230800 connected to: 127.0.0.1:27017ns total read write 2018-01-08T17:32:5708:00admin.system.roles 0ms 0ms 0ms admin.system.users 0ms 0ms 0ms admin.system.version 0ms 0ms 0ms app.user 0ms 0ms 0ms automationcore.automation.job.status 0ms 0ms 0ms automationcore.config.automation 0ms 0ms 0ms automationcore.config.automationTemplates 0ms 0ms 0ms automationcore.config.automationTemplates_archive 0ms 0ms 0ms automationcore.config.automation_archive 0ms 0ms 0ms automationstatus.lastAgentStatus 0ms 0ms 0ms mongotop重要指标 ns数据库命名空间后者结合了数据库名称和集合。 totalmongod在这个命令空间上花费的总时间。 read在这个命令空间上mongod执行读操作花费的时间。 write在这个命名空间上mongod进行写操作花费的时间。 1.4.3 db级别命令 db.currentOp()   查看数据库当前执行什么操作。 用于查看长时间运行进程。 通过执行时长、操作、锁、等待锁时长)等条件过滤。 如果发现一个操作太长把数据库卡死的话可以用这个命令杀死他 db.killOp(608605) db.setProfilingLevel()   设置server级别慢日志 打开profiling 0:不保存 1:保存慢查询日志   2:保存所有查询日志 注意:级别是对应当前的数据库而阈值是全局的。 查看profiling状态 查看慢查询system.profile 关闭profiling 企业工具ops manager官方文档 https://docs.opsmanager.mongodb.com/v3.6/ 1.5 MongoDB集群性能优化方案 1.5.1 优化方向 硬件内存、SSD 收缩数据 增加新的机器、新的副本集 集群分片键选择 chunk大小设置   预分片预先分配存储空间 1.5.2 存储引擎方面 WiredTiger是3.0以后的默认存储引擎细粒度的并发控制和数据压缩提供了更高的性能和存储效率。3.0以前默认的MMAPv1也提高了性能。 在MongoDB复制集中可以组合多钟存储引擎各个实例实现不同的应用需求。 1.5.3 其他优化建议 收缩数据 预分片 增加新的机器、新的副本集 集群分片键选择   chunk大小设置 1.6 附录Aliyun 备份策略 1.6.1 MongoDB云数据库备份/恢复 备份策略 从hidden节点备份每天一次全量备份持续拉取oplog增量备份定期巡检备份有效性恢复时克隆到新实例 1.6.2 全量备份方法 1.6.3 逻辑备份流程 - mongodump 特点 全量遍历所有数据、备份、恢复慢对业务影响较大无需备份索引、恢复时重建通用性强 1.6.4 物理备份流程 备份特点 拷贝数据目录所有文件效率高备份、恢复快对业务影响较小跟数据库版本、配置强关联 1.6.5 逻辑备份 vs 物理备份 逻辑备份 物理备份 备份效率 低 数据库接口读取数据 高 拷贝物理文件 恢复效率 低 下载备份集   导入数据   建立索引 高 下载备份集   启动进程 备份影响 大 直接与业务争抢资源 小 备份集大小 比原库小 无需备份索引数据 与原库相同 兼容性 兼容绝大部分版本 可跨存储引擎 依赖存储布局
http://www.w-s-a.com/news/686796/

相关文章:

  • 网站建设 商城淄博网站制作哪家好
  • 廊坊手机网站团队国际贸易进口代理公司
  • 运用django做网站网站建设问题及解决办法
  • 商丘企业网站服务c mvc 网站开发
  • 太仓建设工程网站广州seo排名外包
  • 成都的教育品牌网站建设做网站不给提供ftp
  • 建站行业市场人力管理系统
  • qq钓鱼网站在线生成器google关键词搜索工具
  • 化妆网站模板移动网站建设模板
  • 欢迎访问语文建设杂志网站网站蓝色配色
  • 最新网站发布重庆城乡建设部网站首页
  • 网站建设费用高鄂尔多斯seo
  • dw做网站怎么发布网站无后台可以上框架
  • 网络公司如何建网站网站的建设需要多少钱
  • 代刷网站推广快速泉州网页定制
  • 网站优秀网站地址做宣传册的公司
  • 苏州高端网站建设咨询wordpress云图插件
  • 河北省建设厅网站重新安装优秀中文网页设计
  • 如何在腾讯云做网站开源站群cms
  • 公司网站建设的意义网易做网站
  • 网络营销案例分析与实践搜外seo
  • 手机建网站挣钱吗wordpress面包屑
  • 淘客做网站怎么备案网站开发工具的是什么
  • 提供大良网站建设郑州网站建设网站开发
  • 邢台做wap网站价格wordpress评论滑动
  • 绝味鸭脖网站建设规划书江苏建设人才网 官网
  • 网站源码授权破解centos wordpress 整站
  • 建设一个私人视频网站wordpress js
  • 手机企业网站制作流程3d建模自学
  • 网站优化方案和实施wordpress的归档