在Kubernetes中,如何实现数据持久化存储?(内附1.22新版本解读)
8月4日,Kubernetes发布了1.22版本,作为2021年发布的第二个版本,Kubernetes 1.22 达到了新的巅峰:53处的增强,14个增强已经升级到稳定版本,24个升级到beta版,16个进入alpha版,另外放弃了3个特性。
新版本改变如下:
- 服务器端应用毕业到GA
- 外部凭据提供者现在稳定了
- ectd移到3.5.0
- 内存资源的服务质量
- 节点系统swap支持
- Windows增强和功能
- seccomp的默认配置文件
- 使用kubeadm更安全的控制平面
- 移除几个已弃用的beta api
- 临时容器的API更改和改进
- ......
Kubernetes 1.22新版本标志
翻看Kubernetes的历来版本,有一项功能和增强尤其引人注目:存储。
Kubernetes有两个问题十分突出:
-
由于容器中的数据是非持久化的,当容器由于配置变更、代码更新等原因重建后,Kubernetes将以镜像的初始状态重新启动容器,但是此时之前容器的数据已经丢失,我们该如何保护好容器的数据呢? -
在同一Pod中的容器往往需要共享一些数据,此时我们又该如何实现呢?
Kubernetes为了解决以上问题,引入了存储卷Volume。其实Kubernetes从第一个版本开始就支持多种持久化数据存储,包括常用的NFS。
图源CSDN,侵删
Kubernetes提供的存储卷隶属于Pod资源,Pod内的所有容器共享存储卷。存储卷是定义在Pod资源之上、可以被其内部所有容器挂载的共享目录,它关联至某外部的存储设备之上的存储空间,从而独立于容器自身的文件系统,而数据是否具有持久化能力则取决于存储卷本身是否支持持久机制。
那么Kubernetes存储卷如何结合NFS、Ceph来实现数据持久化呢?
《Kubernetes存储卷生产案例》
1小时带你快速了解
立即扫码,即可报名学习
课程仅剩41个名额
(扫码获取更多课程相关资讯)
-
Kubernetes存储卷、PV/PVC简介 -
Kubernetes存储卷结合NFS实现数据共享与持久化 -
Kubernetes存储卷结合Ceph RBD实现实现持久化 -
Kubernetes存储卷结合CephFS实现数据共享与持久化
- 国内知名云计算、集群、高并发、互联网运维架构专家
- 拥有PHCA、OpenStack、ECIN DevOps Master等专业证书
- 曾管理50+专业运维团队,亲授设计桌面运维、系统运维、应用运维、私有云平台架构师管理体系
最痛苦的事莫过于在想学习的时候却没有切入点,跟着专业老师走,不仅能快速上手,get新技能,更能学的放心,学的扎实。