百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

通过Linux中fstab的bind挂载实现跨磁盘扩容操作,无需lvm

nanshan 2025-02-18 12:36 9 浏览 0 评论

在Linux系统中,fstab的bind挂载是一种强大的工具,用于将一个目录或文件绑定到另一个位置。这种方式允许用户在不同的目录之间创建映射关系,使得访问一个目录时能够透明地访问另一个目录的内容。本文将详细介绍bind挂载的实现原理、语法格式、优缺点以及实际应用案例。

一、bind挂载的实现原理

bind挂载是通过Linux内核的虚拟文件系统(VFS)实现的。VFS是Linux内核中用于管理文件系统的一个抽象层,它允许不同类型的文件系统(如ext4、NTFS等)以统一的方式被访问。bind挂载的核心在于,它将一个目录或文件的inode映射到另一个目录或文件上,使得访问挂载点时,实际上访问的是源目录或文件的内容。

当使用bind挂载时,目标目录的内容会被源目录的内容覆盖,但这种覆盖是透明的,不会改变文件系统的实际结构。例如,如果我们将/data目录绑定到/mnt/data,那么访问/mnt/data时,实际上看到的是/data目录的内容。

二、bind挂载的语法格式

(一)临时挂载(命令行)

可以通过mount --bind命令实现临时的bind挂载。命令格式如下:

mount --bind <源目录或文件> <目标目录或文件>

例如,将/data目录绑定到/mnt/data:

mount --bind /data /mnt/data

(二)持久化挂载(/etc/fstab配置)

为了使bind挂载在系统重启后仍然有效,可以将其配置在/etc/fstab文件中。/etc/fstab文件用于定义系统启动时需要挂载的文件系统。

在/etc/fstab中配置bind挂载的格式如下:

<源目录或文件> <目标目录或文件> none bind	0	0

例如,将/data目录绑定到/mnt/data,在/etc/fstab中添加如下条目:

/data /mnt/data none bind	0	0

保存文件后,可以通过以下命令重新挂载所有文件系统,以应用新的挂载配置:

systemctl daemon-reload&&mount -a

三、bind挂载的优缺点

(一)优点

  1. 透明性:对用户和应用程序透明,访问挂载点时就像访问普通目录一样。
  2. 跨文件系统支持:可以跨不同的文件系统进行挂载。
  3. 持久化:通过/etc/fstab配置后,挂载关系在系统重启后依然有效。
  4. 灵活性:可以将不同设备或分区上的目录整合到一个统一的目录结构中。

(二)缺点

  1. 需要管理员权限:挂载操作需要root权限。
  2. 配置复杂性:如果配置不当,可能导致系统启动时出现挂载错误。
  3. 隐藏目标目录内容:挂载后,目标目录的原始内容会被隐藏,直到取消挂载。

四、案例-扩容Docker数据目录


root@Debian12:~# cat /etc/fstab | grep -i docker
# docker
/data/var/lib/docker    /var/lib/docker none    bind    0       0
root@Debian12:~# systemctl daemon-reload &&mount -a
root@Debian12:~# ls /data/var/lib/docker/
1  buildkit  containers  image  network  overlay2  plugins  runtimes  swarm  tmp  trust  volumes
root@Debian12:~# ls /var/lib/docker
1  buildkit  containers  image  network  overlay2  plugins  runtimes  swarm  tmp  trust  volumes
root@Debian12:~# df -h
Filesystem                     Size  Used Avail Use% Mounted on
udev                            16G     0   16G   0% /dev
tmpfs                          3.2G 1012K  3.2G   1% /run
/dev/mapper/Debian12--vg-root   18G  5.0G   12G  30% /
tmpfs                           16G     0   16G   0% /dev/shm
tmpfs                          5.0M     0  5.0M   0% /run/lock
/dev/vda2                      456M   69M  363M  16% /boot
/dev/vda1                      511M  5.9M  506M   2% /boot/efi
tmpfs                          3.2G  4.0K  3.2G   1% /run/user/0
/dev/vdb                        49G  4.5G   42G  10% /data
overlay                         49G  4.5G   42G  10% /var/lib/docker/overlay2/d4effba035f51b91dd9623f6babf51daa697a2bb88aacab17f114b5551c987d1/merged
overlay                         49G  4.5G   42G  10% /var/lib/docker/overlay2/a3b2af0e8d79b9245d9c5eeaadb2e80056823294e75ff5d4c45706a5a73827d4/merged
overlay                         49G  4.5G   42G  10% /var/lib/docker/overlay2/d90dc8e7b584bee89cea71b32b03ca5a13fbaff7ad641ced04ed7537c943dcc5/merged
overlay                         49G  4.5G   42G  10% /var/lib/docker/overlay2/c2c12a999f0a08d8baf4e17972eedbff510712a0995c9c8cfddca3d1caa1bee7/merged
root@Debian12:~# lsblk 
NAME                    MAJ:MIN RM  SIZE RO TYPE MOUNTPOINTS
sr0                      11:0    1 1024M  0 rom  
vda                     254:0    0   20G  0 disk 
|-vda1                  254:1    0  512M  0 part /boot/efi
|-vda2                  254:2    0  488M  0 part /boot
`-vda3                  254:3    0   19G  0 part 
  |-Debian12--vg-root   253:0    0   18G  0 lvm  /
  `-Debian12--vg-swap_1 253:1    0  976M  0 lvm  [SWAP]
vdb                     254:16   0   50G  0 disk /var/lib/docker
                                                 /data
root@Debian12:~# 



图中可以看到,系统仅有20GB,通过此方法挂载之后,overlay 的总大小和数据盘的一致,也就是docker的数据存放在了数据盘,而不是系统盘,从而实现了扩容的操作


五、总结

fstab的bind挂载是一种强大的工具,它通过内核的虚拟文件系统(VFS)实现,允许将一个目录或文件绑定到另一个位置。它具有透明性、跨文件系统支持和持久化等优点,但也需要管理员权限,并且配置不当可能导致系统启动问题。通过本文的介绍,相信你已经对bind挂载有了更深入的理解,并能够根据实际需求灵活应用。


希望这篇文章能够满足你的需求!如果还有其他需要补充或修改的地方,请随时告诉我。

相关推荐

服务器数据恢复—Raid5数据灾难不用愁,Raid5数据恢复原理了解下

Raid5数据恢复算法原理:分布式奇偶校验的独立磁盘结构(被称之为raid5)的数据恢复有一个“奇偶校验”的概念。可以简单的理解为二进制运算中的“异或运算”,通常使用的标识是xor。运算规则:若二者值...

服务器数据恢复—多次异常断电导致服务器raid不可用的数据恢复

服务器数据恢复环境&故障:由于机房多次断电导致一台服务器中raid阵列信息丢失。该阵列中存放的是文档,上层安装的是Windowsserver操作系统,没有配置ups。因为服务器异常断电重启后,rai...

服务器数据恢复-V7000存储更换磁盘数据同步失败的数据恢复案例

服务器数据恢复环境:P740+AIX+Sybase+V7000存储,存储阵列柜上共12块SAS机械硬盘(其中一块为热备盘)。服务器故障:存储阵列柜中有磁盘出现故障,工作人员发现后更换磁盘,新更换的磁盘...

「服务器数据恢复」重装系统导致XFS文件系统分区丢失的数据恢复

服务器数据恢复环境:DellPowerVault系列磁盘柜;用RAID卡创建的一组RAID5;分配一个LUN。服务器故障:在Linux系统层面对LUN进行分区,划分sdc1和sdc2两个分区。将sd...

服务器数据恢复-ESXi虚拟机被误删的数据恢复案例

服务器数据恢复环境:一台服务器安装的ESXi虚拟化系统,该虚拟化系统连接了多个LUN,其中一个LUN上运行了数台虚拟机,虚拟机安装WindowsServer操作系统。服务器故障&分析:管理员因误操作...

「服务器数据恢复」Raid5阵列两块硬盘亮黄灯掉线的数据恢复案例

服务器数据恢复环境:HPStorageWorks某型号存储;虚拟化平台为vmwareexsi;10块磁盘组成raid5(有1块热备盘)。服务器故障:raid5阵列中两块硬盘指示灯变黄掉线,无法读取...

服务器数据恢复—基于oracle数据库的SAP数据恢复案例

服务器存储数据恢复环境:某品牌服务器存储中有一组由6块SAS硬盘组建的RAID5阵列,其中有1块硬盘作为热备盘使用。上层划分若干lun,存放Oracle数据库数据。服务器存储故障&分析:该RAID5阵...

「服务器虚拟化数据恢复」Xen Server环境下数据库数据恢复案例

服务器虚拟化数据恢复环境:Dell某型号服务器;数块STAT硬盘通过raid卡组建的RAID10;XenServer服务器虚拟化系统;故障虚拟机操作系统:WindowsServer,部署Web服务...

服务器数据恢复—RAID故障导致oracle无法启动的数据恢复案例

服务器数据恢复环境:某品牌服务器中有一组由4块SAS磁盘做的RAID5磁盘阵列。该服务器操作系统为windowsserver,运行了一个单节点Oracle,数据存储为文件系统,无归档。该oracle...

服务器数据恢复—服务器磁盘阵列常见故障表现&amp;解决方案

RAID(磁盘阵列)是一种将多块物理硬盘整合成一个虚拟存储的技术,raid模块相当于一个存储管理的中间层,上层接收并执行操作系统及文件系统的数据读写指令,下层管理数据在各个物理硬盘上的存储及读写。相对...

「服务器数据恢复」IBM某型号服务器RAID5磁盘阵列数据恢复案例

服务器数据恢复环境:IBM某型号服务器;5块SAS硬盘组成RAID5磁盘阵列;存储划分为1个LUN和3个分区:第一个分区存放windowsserver系统,第二个分区存放SQLServer数据库,...

服务器数据恢复—Zfs文件系统下误删除文件如何恢复数据?

服务器故障:一台zfs文件系统服务器,管理员误操作删除服务器上的数据。服务器数据恢复过程:1、将故障服务器所有磁盘编号后取出,硬件工程师检测所有硬盘后没有发现有磁盘存在硬件故障。以只读方式将全部磁盘做...

服务器数据恢复—Linux+raid5服务器数据恢复案例

服务器数据恢复环境:某品牌linux操作系统服务器,服务器中有4块SAS接口硬盘组建一组raid5阵列。服务器中存放的数据有数据库、办公文档、代码文件等。服务器故障&检测:服务器在运行过程中突然瘫痪,...

服务器数据恢复—Sql Server数据库数据恢复案例

服务器数据恢复环境:一台安装windowsserver操作系统的服务器。一组由8块硬盘组建的RAID5,划分LUN供这台服务器使用。在windows服务器内装有SqlServer数据库。存储空间LU...

服务器数据恢复—阿里云ECS网站服务器数据恢复案例

云服务器数据恢复环境:阿里云ECS网站服务器,linux操作系统+mysql数据库。云服务器故障:在执行数据库版本更新测试时,在生产库误执行了本来应该在测试库执行的sql脚本,导致生产库部分表被tru...

取消回复欢迎 发表评论: