当前位置: 首页 > news >正文

php淘客网站开发灵犀科技网站开发

php淘客网站开发,灵犀科技网站开发,精准营销英文,网站弹出咨询这个怎么做容器磁盘上的文件的生命周期是短暂的#xff0c;这就使得在容器中运行重要应用时会出现一些问题。首先#xff0c;当容器崩溃时#xff0c;kubelet 会重启它#xff0c;但是容器中的文件将丢失——容器以干净的状态#xff08;镜像最初的状态#xff09;重新启动。其次这就使得在容器中运行重要应用时会出现一些问题。首先当容器崩溃时kubelet 会重启它但是容器中的文件将丢失——容器以干净的状态镜像最初的状态重新启动。其次在Pod中同时运行多个容器时这些容器之间通常需要共享文件。Kubernetes 中的Volume抽象就很好的解决了这些问题。Pod中的容器通过Pause容器共享Volume。 -------------------- emptyDir存储卷 -------------------- 当Pod被分配给节点时首先创建emptyDir卷并且只要该Pod在该节点上运行该卷就会存在。正如卷的名字所述它最初是空的。Pod 中的容器可以读取和写入emptyDir卷中的相同文件尽管该卷可以挂载到每个容器中的相同或不同路径上。当出于任何原因从节点中删除 Pod 时emptyDir中的数据将被永久删除。 mkdir /opt/volumes cd /opt/volumesvim pod-emptydir.yaml apiVersion: v1 kind: Pod metadata:name: pod-emptydirnamespace: defaultlabels:app: myapptier: frontend spec:containers:- name: myappimage: ikubernetes/myapp:v1imagePullPolicy: IfNotPresentports:- name: httpcontainerPort: 80#定义容器挂载内容volumeMounts:#使用的存储卷名称如果跟下面volume字段name值相同则表示使用volume的这个存储卷- name: html#挂载至容器中哪个目录mountPath: /usr/share/nginx/html/- name: busyboximage: busybox:latestimagePullPolicy: IfNotPresentvolumeMounts:- name: html#在容器内定义挂载存储名称和挂载路径mountPath: /data/command: [/bin/sh,-c,while true;do echo $(date) /data/index.html;sleep 2;done]#定义存储卷volumes:#定义存储卷名称 - name: html#定义存储卷类型emptyDir: {}kubectl apply -f pod-emptydir.yamlkubectl get pods -o wide//在上面定义了2个容器其中一个容器是输入日期到index.html中然后验证访问nginx的html是否可以获取日期。以验证两个容器之间挂载的emptyDir实现共享。 curl 10.244.2.3-------------------- hostPath存储卷 hostPath卷将 node 节点的文件系统中的文件或目录挂载到集群中。 hostPath可以实现持久存储但是在node节点故障时也会导致数据的丢失。 //在 node01 节点上创建挂载目录 mkdir -p /data/pod/volume1 echo node01.my.com /data/pod/volume1/index.html//在 node02 节点上创建挂载目录 mkdir -p /data/pod/volume1 echo node02.my.com /data/pod/volume1/index.html//创建 Pod 资源 vim pod-hostpath.yaml apiVersion: v1 kind: Pod metadata:name: pod-hostpathnamespace: default spec:containers:- name: myappimage: ikubernetes/myapp:v1#定义容器挂载内容volumeMounts:#使用的存储卷名称如果跟下面volume字段name值相同则表示使用volume的这个存储卷- name: html#挂载至容器中哪个目录mountPath: /usr/share/nginx/html#读写挂载方式默认为读写模式falsereadOnly: false#volumes字段定义了paues容器关联的宿主机或分布式文件系统存储卷volumes:#存储卷名称- name: html#路径为宿主机存储路径hostPath:#在宿主机上目录的路径path: /data/pod/volume1#定义类型这表示如果宿主机没有此目录则会自动创建type: DirectoryOrCreatekubectl apply -f pod-hostpath.yaml//访问测试 kubectl get pods -o widecurl 10.244.1.4//删除pod再重建验证是否依旧可以访问原来的内容 kubectl delete -f pod-hostpath.yaml kubectl apply -f pod-hostpath.yaml kubectl get pods -o widecurl 10.244.1.5-------------------- nfs共享存储卷 -------------------- //在stor01节点上安装nfs并配置nfs服务 hostnamectl set-hostname stor01mkdir /data/volumes -p chmod 777 /data/volumes rpm -q rpcbind nfs-utilsvim /etc/exports /data/volumes 20.0.0.0/24(rw,no_root_squash)systemctl start rpcbind systemctl start nfs systemctl enable rpcbind nfskubectl apply -f pod-nfs-vol.yaml showmount -e在node01和node02上 showmount -e 20.0.0.104在master节点操作 vim pod-nfs-vol.yamlapiVersion: v1 kind: Pod metadata:name: pod-nfsnamespace: defaultlabels:app: myapp spec:containers:- name: myappimage: soscscs/myapp:v1volumeMounts:- name: xiaomamountPath: /usr/share/nginx/htmlreadOnly: falsenodeSelector:kubernetes.io/hostname: node02volumes:- name: xiaomanfs:path: /data/volumesserver: 20.0.0.104kubectl apply -f pod-nfs-vol.yamlkubectl get pods -o wide//在nfs服务器上创建index.html cd /data/volumes vim index.html h1 nfs stor01/h1//master节点操作 测试 curl 10.244.2.4kubectl delete -f pod-nfs-vol.yaml #删除nfs相关pod再重新创建可以得到数据的持久化存储kubectl apply -f pod-nfs-vol.yaml-------------------- PVC 和 PV -------------------- PV 全称叫做 Persistent Volume持久化存储卷。它是用来描述或者说用来定义一个存储卷的这个通常都是由运维工程师来定义。 PVC 的全称是 Persistent Volume Claim是持久化存储的请求。它是用来描述希望使用什么样的或者说是满足什么条件的 PV 存储。 PVC 的使用逻辑在 Pod 中定义一个存储卷该存储卷类型为 PVC定义的时候直接指定大小PVC 必须与对应的 PV 建立关系PVC 会根据配置的定义去 PV 申请而 PV 是由存储空间创建出来的。PV 和 PVC 是 Kubernetes 抽象出来的一种存储资源。 上面介绍的PV和PVC模式是需要运维人员先创建好PV然后开发人员定义好PVC进行一对一的Bond但是如果PVC请求成千上万那么就需要创建成千上万的PV对于运维人员来说维护成本很高Kubernetes提供一种自动创建PV的机制叫StorageClass它的作用就是创建PV的模板。 创建 StorageClass 需要定义 PV 的属性比如存储类型、大小等另外创建这种 PV 需要用到的存储插件比如 Ceph 等。 有了这两部分信息Kubernetes 就能够根据用户提交的 PVC找到对应的 StorageClass然后 Kubernetes 就会调用 StorageClass 声明的存储插件自动创建需要的 PV 并进行绑定。 PV是集群中的资源。 PVC是对这些资源的请求也是对资源的索引检查。 PV和PVC之间的相互作用遵循这个生命周期 Provisioning配置--- Binding绑定--- Using使用--- Releasing释放 --- Recycling回收●Provisioning即 PV 的创建可以直接创建 PV静态方式也可以使用 StorageClass 动态创建 ●Binding将 PV 分配给 PVC ●UsingPod 通过 PVC 使用该 Volume并可以通过准入控制StorageProtection1.9及以前版本为PVCProtection 阻止删除正在使用的 PVC ●ReleasingPod 释放 Volume 并删除 PVC ●Reclaiming回收 PV可以保留 PV 以便下次使用也可以直接从云存储中删除根据这 5 个阶段PV 的状态有以下 4 种 ●Available可用表示可用状态还未被任何 PVC 绑定 ●Bound已绑定表示 PV 已经绑定到 PVC ●Released已释放表示 PVC 被删掉但是资源尚未被集群回收 ●Failed失败表示该 PV 的自动回收失败一个PV从创建到销毁的具体流程如下 1、一个PV创建完后状态会变成Available等待被PVC绑定。 2、一旦被PVC邦定PV的状态会变成Bound就可以被定义了相应PVC的Pod使用。 3、Pod使用完后会释放PVPV的状态变成Released。 4、变成Released的PV会根据定义的回收策略做相应的回收工作。有三种回收策略Retain、Delete和Recycle。Retain就是保留现场K8S集群什么也不做等待用户手动去处理PV里的数据处理完后再手动删除PV。Delete策略K8S会自动删除该PV及里面的数据。Recycle方式K8S会将PV里的数据删除然后把PV的状态变成Available又可以被新的PVC绑定使用。 在node01和node02上设置本地映射 cat /etc/hostsEOF 20.0.0.104 stor01EOFkubectl explain pv #查看pv的定义方式FIELDS:apiVersion: v1kind: PersistentVolumemetadata: #由于 PV 是集群级别的资源即 PV 可以跨 namespace 使用所以 PV 的 metadata 中不用配置 namespacename: speckubectl explain pv.spec #查看pv定义的规格 spec:nfs:定义存储类型path:定义挂载卷路径server:定义服务器名称accessModes:定义访问模型有以下三种访问模型以列表的方式存在也就是说可以定义多个访问模式- ReadWriteOnce #RWO存储可读可写但只支持被单个 Pod 挂载- ReadOnlyMany #ROX存储可以以只读的方式被多个 Pod 挂载- ReadWriteMany #RWX存储可以以读写的方式被多个 Pod 共享 注官网 #nfs 支持全部三种iSCSI 不支持 ReadWriteManyiSCSI 就是在 IP 网络上运行 SCSI 协议的一种网络存储技术HostPath 不支持 ReadOnlyMany 和 ReadWriteMany。capacity:定义存储能力一般用于设置存储空间storage: 2Gi 指定大小storageClassName: 自定义存储类名称此配置用于绑定具有相同类别的PVC和PVpersistentVolumeReclaimPolicy: Retain #回收策略Retain/Delete/Recycle #Retain保留当删除与之绑定的PVC时候这个PV被标记为releasedPVC与PV解绑但还没有执行回收策略且之前的数据依然保存在该PV上但是该PV不可用需要手动来处理这些数据并删除该PV。 #Delete删除删除与PV相连的后端存储资源只有 AWS EBS, GCE PD, Azure Disk 和 Cinder 支持 #Recycle回收删除数据效果相当于执行了 rm -rf /thevolume/* 只有 NFS 和 HostPath 支持kubectl explain pvc #查看PVC的定义方式KIND: PersistentVolumeClaim VERSION: v1 FIELDS:apiVersion stringkind string metadata Objectspec Object#PV和PVC中的spec关键字段要匹配比如存储storage大小、访问模式accessModes、存储类名称storageClassName kubectl explain pvc.spec spec:accessModes: 定义访问模式必须是PV的访问模式的子集resources:requests:storage: 定义申请资源的大小storageClassName: 定义存储类名称此配置用于绑定具有相同类别的PVC和PV //NFS使用PV和PVC 1、配置nfs存储 在sto01上创建 mkdir v{1,2,3,4,5}vim /etc/exports /data/volumes/v1 20.0.10.0/24(rw,no_root_squash) /data/volumes/v2 20.0.0.0/24(rw,no_root_squash) /data/volumes/v3 20.0.0.0/24(rw,no_root_squash) /data/volumes/v4 20.0.0.0/24(rw,no_root_squash) /data/volumes/v5 20.0.0.0/24(rw,no_root_squash)exportfs -arvshowmount -e官方文档https://kubernetes.io/zh-cn/docs/tasks/configure-pod-container/configure-persistent-volume-storage/#create-a-persistentvolume2、定义PV master上 //这里定义5个PV并且定义挂载的路径以及访问模式还有PV划分的大小。 vim pv-demo.yaml apiVersion: v1 kind: PersistentVolume metadata:name: pv001labels:name: pv001 spec:nfs:path: /data/volumes/v1server: stor01 accessModes: [ReadWriteMany,ReadWriteOnce]capacity:storage: 1Gi --- apiVersion: v1 kind: PersistentVolume metadata:name: pv002labels:name: pv002 spec:nfs:path: /data/volumes/v2server: stor01accessModes: [ReadWriteOnce]capacity:storage: 2Gi --- apiVersion: v1 kind: PersistentVolume metadata:name: pv003labels:name: pv003 spec:nfs:path: /data/volumes/v3server: stor01accessModes: [ReadWriteMany,ReadWriteOnce]capacity:storage: 2Gi --- apiVersion: v1 kind: PersistentVolume metadata:name: pv004labels:name: pv004 spec:nfs:path: /data/volumes/v4server: stor01accessModes: [ReadWriteMany,ReadWriteOnce]capacity:storage: 4Gi --- apiVersion: v1 kind: PersistentVolume metadata:name: pv005labels:name: pv005 spec:nfs:path: /data/volumes/v5server: stor01accessModes: [ReadWriteMany,ReadWriteOnce]capacity:storage: 5Gikubectl apply -f pv-demo.yaml#查看pv kubectl get pv3、定义PVC //这里定义了pvc的访问模式为多路读写该访问模式必须在前面pv定义的访问模式之中。定义PVC申请的大小为2Gi此时PVC会自动去匹配多路读写且大小为2Gi的PV匹配成功获取PVC的状态即为Bound vim pod-vol-pvc.yaml apiVersion: v1 kind: PersistentVolumeClaim metadata:name: mypvcnamespace: default spec:accessModes: [ReadWriteMany]resources:requests:storage: 2Gi --- apiVersion: v1 kind: Pod metadata:name: pod-vol-pvcnamespace: default spec:containers:- name: myappimage: ikubernetes/myapp:v1volumeMounts:- name: htmlmountPath: /usr/share/nginx/htmlvolumes:- name: htmlpersistentVolumeClaim:claimName: mypvckubectl apply -f pod-vol-pvc.yamlkubectl get pvkubectl get pvc4、测试访问 //在存储服务器上创建index.html并写入数据通过访问Pod进行查看可以获取到相应的页面。 cd /data/volumes/v3/ echo welcome to use pv3 index.htmlkubectl get pods -o widecurl 10.244.1.6//搭建 StorageClass NFS实现 NFS 的动态 PV 创建 Kubernetes 本身支持的动态 PV 创建不包括 NFS所以需要使用外部存储卷插件分配PV。详见 https://kubernetes.io/zh/docs/concepts/storage/storage-classes/卷插件称为 Provisioner存储分配器NFS 使用的是 nfs-client这个外部卷插件会使用已经配置好的 NFS 服务器自动创建 PV。 Provisioner用于指定 Volume 插件的类型包括内置插件如 kubernetes.io/aws-ebs和外部插件如 external-storage 提供的 ceph.com/cephfs。 1、在stor01节点上安装nfs并配置nfs服务 mkdir /opt/k8s chmod 777 /opt/k8s/vim /etc/exports /opt/k8s 20.0.0.0/24(rw,no_root_squash,sync)systemctl restart nfs2、创建 Service Account用来管理 NFS Provisioner 在 k8s 集群中运行的权限设置 nfs-client 对 PVPVCStorageClass 等的规则 vim nfs-client-rbac.yaml #创建 Service Account 账户用来管理 NFS Provisioner 在 k8s 集群中运行的权限 apiVersion: v1 kind: ServiceAccount metadata:name: nfs-client-provisioner --- #创建集群角色 apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata:name: nfs-client-provisioner-clusterrole rules:- apiGroups: []resources: [persistentvolumes]verbs: [get, list, watch, create, delete]- apiGroups: []resources: [persistentvolumeclaims]verbs: [get, list, watch, update]- apiGroups: [storage.k8s.io]resources: [storageclasses]verbs: [get, list, watch]- apiGroups: []resources: [events]verbs: [list, watch, create, update, patch]- apiGroups: []resources: [endpoints]verbs: [create, delete, get, list, watch, patch, update] --- #集群角色绑定 apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRoleBinding metadata:name: nfs-client-provisioner-clusterrolebinding subjects: - kind: ServiceAccountname: nfs-client-provisionernamespace: default roleRef:kind: ClusterRolename: nfs-client-provisioner-clusterroleapiGroup: rbac.authorization.k8s.iokubectl apply -f nfs-client-rbac.yaml3、使用 Deployment 来创建 NFS Provisioner NFS Provisione(即 nfs-client)有两个功能一个是在 NFS 共享目录下创建挂载点(volume)另一个则是将 PV 与 NFS 的挂载点建立关联。 #由于 1.20 版本启用了 selfLink所以 k8s 1.20 版本通过 nfs provisioner 动态生成pv会报错解决方法如下 vim /etc/kubernetes/manifests/kube-apiserver.yaml spec:containers:- command:- kube-apiserver- --feature-gatesRemoveSelfLinkfalse #添加这一行- --advertise-address192.168.80.20 ......kubectl apply -f /etc/kubernetes/manifests/kube-apiserver.yaml kubectl delete pods kube-apiserver -n kube-system kubectl get pods -n kube-system | grep apiserver#创建 NFS Provisioner 先将nfs-client-provisioner.tar传入node01和node02加快镜像拉取速度 docker load -i nfs-client-provisioner.tar scp nfs-client-provisioner.tar 20.0.0.103:/opt/docker images 查看镜像vim nfs-client-provisioner.yaml kind: Deployment apiVersion: apps/v1 metadata:name: nfs-client-provisioner spec:replicas: 1selector:matchLabels:app: nfs-client-provisionerstrategy:type: Recreatetemplate:metadata:labels:app: nfs-client-provisionerspec:serviceAccountName: nfs-client-provisioner #指定Service Account账户containers:- name: nfs-client-provisionerimage: quay.io/external_storage/nfs-client-provisioner:latestimagePullPolicy: IfNotPresentvolumeMounts:- name: nfs-client-rootmountPath: /persistentvolumesenv:- name: PROVISIONER_NAMEvalue: nfs-storage #配置provisioner的Name确保该名称与StorageClass资源中的provisioner名称保持一致- name: NFS_SERVERvalue: stor01 #配置绑定的nfs服务器- name: NFS_PATHvalue: /opt/k8s #配置绑定的nfs服务器目录volumes: #申明nfs数据卷- name: nfs-client-rootnfs:server: stor01path: /opt/k8skubectl apply -f nfs-client-provisioner.yaml kubectl get pod4、创建 StorageClass负责建立 PVC 并调用 NFS provisioner 进行预定的工作并让 PV 与 PVC 建立关联 vim nfs-client-storageclass.yaml apiVersion: storage.k8s.io/v1 kind: StorageClass metadata:name: nfs-client-storageclass provisioner: nfs-storage #这里的名称要和provisioner配置文件中的环境变量PROVISIONER_NAME保持一致 parameters:archiveOnDelete: false #false表示在删除PVC时不会对数据进行存档即删除数据kubectl apply -f nfs-client-storageclass.yamlkubectl get storageclass5、创建 PVC 和 Pod 测试 vim test-pvc-pod.yaml apiVersion: v1 kind: PersistentVolumeClaim metadata:name: test-nfs-pvc spec:accessModes:- ReadWriteManystorageClassName: nfs-client-storageclass #关联StorageClass对象resources:requests:storage: 1Gi --- apiVersion: v1 kind: Pod metadata:name: test-storageclass-pod spec:containers:- name: busyboximage: busybox:latestimagePullPolicy: IfNotPresentcommand:- /bin/sh- -cargs:- sleep 3600volumeMounts:- name: nfs-pvcmountPath: /mntrestartPolicy: Nevervolumes:- name: nfs-pvcpersistentVolumeClaim:claimName: test-nfs-pvc #与PVC名称保持一致kubectl apply -f test-pvc-pod.yaml//PVC 通过 StorageClass 自动申请到空间 kubectl get pvc//查看 NFS 服务器上是否生成对应的目录自动创建的 PV 会以 n a m e s p a c e − {namespace}- namespace−{pvcName}-${pvName} 的目录格式放到 NFS 服务器上 ls /opt/k8s///进入 Pod 在挂载目录 /mnt 下写一个文件然后查看 NFS 服务器上是否存在该文件 kubectl exec -it test-storageclass-pod sh / # cd /mnt/ /mnt # echo ceshiyixia test.txt//发现 NFS 服务器上存在说明验证成功 cat /opt/k8s/default-test-nfs-pvc-pvc-8885e05c-bc65-4930-a2dc-dc3b42c38111/test.txt
http://www.w-s-a.com/news/827906/

相关文章:

  • 深圳响应式网站建设深圳网站建设定制开发 超凡科技
  • 网站建设报价怎么差别那么大wordpress产品属性搭配
  • 高校网站建设情况报告范文pc建站网站
  • 做网站美工要学什么广东省建设厅网站首页
  • 深圳网站设计十年乐云seo网站建设 竞赛 方案
  • 新乡移动网站建设wordpress输出某一分类的文章
  • 花店网站开发设计的项目结构重庆网站建设培训班
  • 做网站的技术体系投资者互动平台官网
  • 北京网站建设公司哪家实惠企查查在线查询入口
  • 毕业设计做网站怎么样非微信官方网页自己做的网站
  • 昆明网站多端小程序设计重庆市住房和城乡建设厅网站
  • 网站制作技术人员国际新闻最新10条
  • 做同城特价的网站wordpress后台能修改模板文件
  • 网站信息可以边建设边组织产品展示网站源码php
  • 电子商务网站规划从哪些方面入手途牛企业网站建设方案
  • 莱阳网站定制易语言可以做网站嘛
  • 购物网站开发意义上海中小企业服务中心官网
  • 网站备案证书如何打开江苏网站建设电话
  • 深圳网站建设乐云seo搜索引擎优化seo目的
  • 中山城市建设集团网站网站建设设计基础
  • 网站开发流程莆田wordpress点播收费
  • 网站未及时续费浙江台州做网站的公司有哪些
  • 二级域名做网站好不好河源建网站
  • 公司网站的作用意义维护建设管理天津平台网站建设费用
  • 建设部网站如何下载国标规范上海影视公司
  • 企业官方网站地址通了网站建设
  • 专题网站可以做什么怎么做网站滑动图片部分h5
  • 什么是网站建设外包html 门户网站
  • 资阳市建设局网站微信开发公司
  • wap建站程序源码可不可以异地建设网站