网站建设维护与推广,html网页代码编辑器,自助建站系统php,网站建设维护要求由于缺乏良好的规划#xff0c;有开发人员直接在公有云采购一个容量超过100TB的NAS存储#xff0c;使用过程中#xff0c;数据的存储也没有规划#xff0c;业务数据一股脑的写入到同一个目录#xff0c;下边的子目录没有规律#xff0c;用用户的图片、视频、访问日志、甚… 由于缺乏良好的规划有开发人员直接在公有云采购一个容量超过100TB的NAS存储使用过程中数据的存储也没有规划业务数据一股脑的写入到同一个目录下边的子目录没有规律用用户的图片、视频、访问日志、甚至还有备份。因应用日趋增多公有云的使用成本急剧上升考虑到成本及可控性决定把公有云的NAS及所有应用迁移到自建的Proxmox VE超融合集群。 于是在Proxmox VE集群创建虚拟机并给此虚拟机分配40T的磁盘空间以单独的分区进行挂载。本来不愿意这样操作建议使用者先清理掉无用的数据对方答复当前任务紧文件目录又没规律暂时无法进行操作只能一锅端将公有云NAS上的数据复制到Proxmox VE上的虚拟机。托管机房及公有云对等开了300M的带宽复制了将近一个月才基本复制完。运行过程中突遇Proxmox VE集群服务器全部同时重启悲剧Ceph OSD故障用指令“ceph pg repair“无效。因为集群上已经有业务在运行如果重建ceph pool再重新从公有云的NAS复制数据完全不可能了。因为虚拟机分配的单分区太大用各种方法都不好使最后只能等Ceph自己恢复。一共等了快一个月才自动恢复成功。 为解决共享存储问题购买了专门的设备就是普通服务器插很多硬盘SSD安装系统NVME做缓存部署TrueNAS然后将Proxmox VE集群上的那个大分区的数据迁移彻底排除集群的隐患。 这几天开始释放这个巨大巨大无比的虚拟机删除起来还很费时差不多24小时才进行到40%多。 我嫌这样释放太慢了打算在Proxmox VE Web管理后台直接删掉VM磁盘但不行的是报错了无法进行操作。 登录集群任意节点宿主系统命令行下执行“rbd ls -l hdd_pool”看是否存在异常的虚拟机磁盘镜像。 由输出可知确实存在有问题的虚拟机磁盘镜像。用命令“rbd rm vm-100-disk-0 -p hdd_pool”进行清理。 同样的方法将另一个异常的磁盘镜像“vm-127-disk-1”清理掉再运行“rbd ls -l hdd_pool”,就可以看到虚拟机镜像磁盘的正常显示。