k8s NFS故障: Stale file handle
当在容器中添加挂载NFS,重启容器后,挂载路径在当前容器可用,但重启容器后会发现NFS挂载未生效,进入容器终端执行命令:发现挂载路径出现 stale file handle 错误;原因是该路径已经挂在过,这时可以操作删除挂载,再次挂载即可;但这些容器可能需要自动打包发布,每次人为干预就很麻烦,这时可以修改容器的更新策略为“重新创建”,即每次都重新创建新的容器,由k8s管理挂载......
·
当在容器中添加NFS挂载后,挂载路径在当前容器可用,但容器重启后会发现NFS挂载未生效,进入容器终端执行命令df -h,发现挂载路径出现 Stale file handle 错误;原因是该路径已经挂在过,这时可以在管理界面操作删除挂载,再次挂载即可。
bash-5.1# df -h
Filesystem Size Used Available Use% Mounted on
overlay 251.0G 3.7G 234.5G 2% /
tmpfs 64.0M 0 64.0M 0% /dev
tmpfs 7.7G 0 7.7G 0% /sys/fs/cgroup
/dev/sdc 251.0G 3.7G 234.5G 2% /dev/termination-log
shm 64.0M 0 64.0M 0% /dev/shm
/dev/sdc 251.0G 3.7G 234.5G 2% /etc/resolv.conf
/dev/sdc 251.0G 3.7G 234.5G 2% /etc/hostname
/dev/sdc 251.0G 3.7G 234.5G 2% /etc/hosts
tmpfs 15.4G 12.0K 15.4G 0% /run/secrets/kubernetes.io/serviceaccount
df: /usr/local/openresty/nginx/html: Stale file handle
/dev/sdc 251.0G 3.7G 234.5G 2% /usr/local/openresty/nginx/conf/nginx.conf
tmpfs 7.7G 0 7.7G 0% /proc/acpi
tmpfs 64.0M 0 64.0M 0% /proc/kcore
tmpfs 64.0M 0 64.0M 0% /proc/keys
tmpfs 64.0M 0 64.0M 0% /proc/timer_list
tmpfs 64.0M 0 64.0M 0% /proc/sched_debug
tmpfs 7.7G 0 7.7G 0% /sys/firmware
但在生产环境下这些容器可能需要自动打包发布,每次人为干预会很麻烦,且可能出现遗漏,导致应用不可访问;这时可以修改容器的更新策略为“重新创建”,即每次都重新创建新的容器,由k8s管理即可。
更多推荐
已为社区贡献1条内容
所有评论(0)