混沌工程中为什么注入磁盘空间耗尽故障呢?虽然磁盘空间在产品设计阶段规划了,但磁盘空间往往会有被占满,但整体上期望耗尽并释放磁盘空间后系统能自动恢复。(一般思考的解决手段:系统产生的文件能周期性自动清理,或者通过磁盘使用率的阈值触发告警来及时清理)
阿里混沌工程实践模板,只列出了磁盘innode耗尽如下:系统层-系统异常-磁盘inode耗尽。磁盘innode耗尽只会影响新建文件,实际上磁盘空间是够的,也就是说已有文件可以正常写数据进去。如果磁盘空间耗尽,对已有的文件也没法写数据了。
如果写入密集型服务(如etcd)的磁盘空间耗尽,程序会出现崩溃。

上命令
dd if=/dev/zero of=robot_test bs=1M count=1000,该指令生成一个叫robot_test的1000M大小的文件,但生成速度取决于磁盘读写速度。如果只是让文件系统认为存在一个超大文件,但并不实际写入硬盘,这就用到seek参数。dd if=/dev/zero of=robot_test bs=1M count=0 seek=1000
dd参数介绍:
if=输入文件名。
of=输出文件名。
bs=bytes:一次输出的字节数。
count=blocks:拷贝多少个块数据。
seek=blocks:跳过多少个块后再拷贝。
© 版权声明
文章版权归作者所有,未经允许请勿转载。如内容涉嫌侵权,请在本页底部进入<联系我们>进行举报投诉!
THE END
















暂无评论内容