2018-05-31-volume 容器存储
本篇以 deployment 为例展示 volume 的用法,对于 pod rc daemonset 等其他控制器用法类似。
容器有一个特性,当容器重启或删除后,其中的数据就会丢失。
所以对于一些需要保留的数据,需要通过 volume 的方式挂载到网络存储或本地存储。
存储的方式可以是网络存储 nfs ceph glusterfs 等, 也可以是 hostpath emptydir.
多 volueme 书写注意
volumeMounts volumes 这参数只要写一次
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: tom-volume
spec:
replicas: 2
template:
metadata:
labels:
run: tom-volume
spec:
containers:
- image: registry.cn-hangzhou.aliyuncs.com/misa/tomcat:9.0
name: tom-volume
ports:
- containerPort: 8080
name: port8080
volumeMounts:
- mountPath: /usr/local/tomcat/logs/ # 容器内路径
name: log # 要与 volume 中 name 匹配
- mountPath: /mnt # 容器内路径
name: other
volumes:
- name: log
hostPath:
path: /tmp/logs/ # 使用 pod 所在节点的路径
- name: other
emptyDir: {}错误示例1:
错误示例2:
错误示例3:
使用 nfs
对于需要容器内数据持久化的,低成本的方案是自己部署nfs server。
对于性能有要求的可以使用企业级 NAS 或者 ceph glusterfs。
使用 ceph 和 glusterfs 的方式将会单独写出来,可以通过搜索查找相关内容。
使用网络存储可以直接在 volume 中定义网络存储参数, 也可以先 挂在到 pvc ,通过 pv pvc 配置存储。 pv pvc 的方式将在后面存储的内容中介绍。
更推荐使用 pv pvc 方式。
已有 nfs server , IP 192.168.4.136 , 路径 /srv/nfs/share
可以进入到容器 df -h 中查看
使用 hostpath
使用 nfs 在某些情况下,读写性能不能满足需求,可以使用 hostpath ,即数据直接写到容器所在节点的指定目录。
但是 pod 重启后, 如果漂移到其他节点, 那挂载的数据就会丢失,如果要求数据不能丢失,可以配合 nodeselector 使用。 即强制 pod 只运行在某个节点,重启或删除重建后数据不会丢失。
使用场景示例, EFK 中的 elasticsearch 集群, es1 发布到 node1, es2 发布到 node2, es3 发布到 node3
没找到es的模板,就用tomcat的了,比如 现在要把 tom-hostpath 应用发布到node1
使用hostpath 方式,在容器删除后,hostpath 路径中的文件会保留。
使用 emptydir
当 pod 删除时,emptydir 中的数据也会被清除,这与 hostpath 不同。
但是 pod 中的容器崩溃,或者重启, emptydir 中的数据不会丢失。
至此,最常用的 volume 使用方法 nfs hostpath emptydir 介绍结束。这种使用方法比较快速,不需要创建 pv pvc。
在正式的测试生产过程中还是使用pv pvc 方式,更便于存储的查询与管理。
pv pvc 以及 glusterfs ceph 分布式存储的使用方式在后续 volume 中做更多介绍。
Last updated