百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

系统调用 sync、fsync、fdatasync 总结

nanshan 2024-10-20 07:34 42 浏览 0 评论

sync 函数

sync 函数只是将修改过的数据块缓冲区放入到设备写队列中后立即返回。数据刷新到磁盘的操作完全有内核守护线程处理。因此调用 sync 函数返回后,数据有可能还在内存中,当系统掉电后有可能数据造成丢失。

fsync 及 fdatasync 函数

#include <unistd.h>
int fsync(int fd);
int fdatasync(int fd);

fsync 函数把 fd 对应的文件数据以及文件属性信息(inode等信息)写入到磁盘,并且等待写磁盘操作完成后而返回。应用程序一般都是通过调用该函数确保修改过的数据能够立即写入到磁盘上,比如 redis等。

fdatasync 与 fsync 类似,只不过 fdatasync 只将数据更新到磁盘,而不更新文件属性信息到磁盘。

两个系统调用都不保证包含他们的上级目录的同步。如果需要,要明确的对对应目录调用fsync。

fsync 源码分析

对于 ext2 文件系统,其对应的 file_operations 结构信息如下:

struct file_operations ext2_file_operations = {
llseek: ext2_file_lseek,
read: generic_file_read,
write: generic_file_write,
ioctl: ext2_ioctl,
mmap: generic_file_mmap,
open: ext2_open_file,
release: ext2_release_file,
fsync: ext2_sync_file,
};

当系统调用 fsync 时,系统调用过程如下:

mlinkage long sys_fsync(unsigned int fd)
{
...
file = fget(fd);
if (!file)
goto out;
dentry = file->f_dentry;
inode = dentry->d_inode;
err = -EINVAL;
if (!file->f_op || !file->f_op->fsync)
goto out_putf;
/* We need to protect against concurrent writers.. */
down(&inode->i_sem);
//对脏页的块缓冲区打BH_Dirty标记,同时把把块缓冲区加入到inode->i_dirty_buffers队列队列中
filemap_fdatasync(inode->i_mapping);
//刷出脏缓冲区到磁盘
err = file->f_op->fsync(file, dentry, 0); // ext2_file_operations ext2_sync_file
//等待驱动完成page io操作
filemap_fdatawait(inode->i_mapping);
up(&inode->i_sem);
out_putf:
fput(file);
out:
return err;
}

mapping->dirty_pages 中记录的都是脏页链表,在 filemap_fdatasync 中遍历链表中的脏页,然后从page中获取一个一个块缓冲区 buffer_head,然后打上 BH_Dirty 标记。最后把一个个打了 BH_Dirty 标记的块缓冲区 buffer_head 加入到 inode->i_dirty_buffers 链表中。

调用流程如下

filemap_fdatasync
|-> writepage => ext2_writepage
从脏页转换到脏的缓冲区数据块的转换
|-> block_write_full_page
|-> __block_prepare_write 完成文件内块号到设备上的块号的映射
|-> __block_commit_write 将块缓冲区标记为脏,加入相应链表inode->i_dirty_buffers

调用 file->f_op->fsync,对于ext2 文件系统也即为 ext2_file_operations 之 ext2_sync_file,该函数就是块缓冲区对应的数据刷到磁盘,把 inode 信息刷到磁盘。


调用过程如下

ext2_fsync_inode
 |-> fsync_inode_buffers  对inode->i_dirty_buffers链表中的脏缓冲区调用ll_rw_block刷出到磁盘
     |-> ll_rw_block
 |-> ext2_sync_inode 把inode节点所在块写回磁盘
     |-> ext2_update_inode

其中 fsync_inode_buffers 将 inode->i_dirty_buffers 链表中的脏块缓冲区刷到磁盘中,该函数的实现过程主要分两个阶段:

1、将 inode->i_dirty_buffers 链表中的所有脏缓冲区拷贝到一个临时 inode 对象 tmp 的 tmp.i_dirty_buffers 链表中,并对其中的每一个脏缓冲区安排回写请求(通过 ll_rw_block() 函数)。

2、对tmp对象tmp.i_dirty_buffers链表中的每一个缓冲区调用wait_on_buffer() 函数,以等待该缓冲区被解锁(也即等待该缓冲区的回写请求完成)。由于在第二个阶段期间,当函数通过 wait_on_buffer() 等待某个缓冲区被解锁期间,其他进程可能会对指定 inode 对象对应的文件发出写操作,因此前面已经被解锁的缓冲区可能会再次变脏,因而它们可能会再次进入该 inode 对象的 i_dirty_buffers 链表中。因此为了让这些缓冲区也得到被等待的机会(也即对它们调用 wait_on_buffer() 函数),函数fsync_inode_buffers() 最后调用 osync_inode_buffers( )函数,从而使在第二个阶段期间又变脏的缓冲区都同步地被回写。

int fsync_inode_buffers(struct inode *inode)
{
struct buffer_head *bh;
struct inode tmp;
int err = 0, err2;
INIT_LIST_HEAD(&tmp.i_dirty_buffers);
spin_lock(&lru_list_lock);
/*
第一个while循环完成上述所说的第一个阶段的任务。它先将指定inode对象的I_dirty_buffers链表
中的脏缓冲区从链表中删除。然后判断这个缓冲区的状态是否既不为脏也未被上锁,
如果是这样,则简单地将缓冲区的bh对象的b_inode指针设置为NULL就可以了。
否则就将这个缓冲区加到tmp对象的I_dirty_buffers链表中;
同时对于脏的缓冲区还要调用ll_rw_block()函数安排回写请求
(注意!对于已经加锁的缓冲区我们已经安排了回写请求,因此这里就不必再安排了)。
函数ll_rw_block()将清除BH_Dirty标志位,并设置BH_Lock标志位
*/

while (!list_empty(&inode->i_dirty_buffers)) {
bh = BH_ENTRY(inode->i_dirty_buffers.next);
list_del(&bh->b_inode_buffers);
if (!buffer_dirty(bh) && !buffer_locked(bh))
bh->b_inode = NULL;
else {
bh->b_inode = &tmp;
list_add(&bh->b_inode_buffers, &tmp.i_dirty_buffers);
if (buffer_dirty(bh)) {
atomic_inc(&bh->b_count);
spin_unlock(&lru_list_lock);
ll_rw_block(WRITE, 1, &bh);
brelse(bh);
spin_lock(&lru_list_lock);
}
}
}
/*
接下来的while循环完成第二个阶段的任务。首先调用remove_inode_queue()函数将缓冲区从tmp对象的
I_dirty_buffers链表中摘除。然后,调用wait_on_buffer()函数等待该缓冲区的回写请求被完成(回写操作完成后,
BH_Lock标志将被清除,BH_Uptodate标志将被置位)。
*/

while (!list_empty(&tmp.i_dirty_buffers)) {
bh = BH_ENTRY(tmp.i_dirty_buffers.prev);
remove_inode_queue(bh);
atomic_inc(&bh->b_count);
spin_unlock(&lru_list_lock);
wait_on_buffer(bh);
if (!buffer_uptodate(bh))
err = -EIO;
brelse(bh);
spin_lock(&lru_list_lock);
}
spin_unlock(&lru_list_lock);
/*调用osync_inode_buffers()函数让第二个阶段期间再次变脏且已经被安排了回写的缓冲区再次得到被等待的机会*/
err2 = osync_inode_buffers(inode);
if (err)
return err;
else
return err2;
}

其中 osync_inode_buffers 代码如下:

int osync_inode_buffers(struct inode *inode)
{
struct buffer_head *bh;
struct list_head *list;
int err = 0;
spin_lock(&lru_list_lock);
repeat:
/*for循环从指定inode对象的I_dirty_buffers链表的表尾开始扫描其中的缓冲区,
并判断链表中的最后一个缓冲区是否已被加锁(设置了BH_Lock标志)。
如果是这说明已经对该缓冲区安排了回写操作(也即已经对这个缓冲区调用ll_rw_block()函数),
于是对这个缓冲区调用wait_on_buffer()函数以等待这个缓冲区的回写操作被完成。
从wait_on_buffer()函数醒来以后,立即检查缓冲区的状态是否设置了BH_Uptodate标志,
如果不是,这说明发生了I/O错误。然后,跳转到repeat重新执行for循环。
*/

for (list = inode->i_dirty_buffers.prev;
bh = BH_ENTRY(list), list != &inode->i_dirty_buffers;
list = bh->b_inode_buffers.prev) {
if (buffer_locked(bh)) {
atomic_inc(&bh->b_count);
spin_unlock(&lru_list_lock);
wait_on_buffer(bh);
if (!buffer_uptodate(bh))
err = -EIO;
brelse(bh);
spin_lock(&lru_list_lock);
goto repeat;
}
}
//从for循环退出后,I_dirty_buffers链表中将不再有任何被加锁的缓冲区
spin_unlock(&lru_list_lock);
return err;
}

相关推荐

0722-6.2.0-如何在RedHat7.2使用rpm安装CDH(无CM)

文档编写目的在前面的文档中,介绍了在有CM和无CM两种情况下使用rpm方式安装CDH5.10.0,本文档将介绍如何在无CM的情况下使用rpm方式安装CDH6.2.0,与之前安装C5进行对比。环境介绍:...

ARM64 平台基于 openEuler + iSula 环境部署 Kubernetes

为什么要在arm64平台上部署Kubernetes,而且还是鲲鹏920的架构。说来话长。。。此处省略5000字。介绍下系统信息;o架构:鲲鹏920(Kunpeng920)oOS:ope...

生产环境starrocks 3.1存算一体集群部署

集群规划FE:节点主要负责元数据管理、客户端连接管理、查询计划和查询调度。>3节点。BE:节点负责数据存储和SQL执行。>3节点。CN:无存储功能能的BE。环境准备CPU检查JDK...

在CentOS上添加swap虚拟内存并设置优先级

现如今很多云服务器都会自己配置好虚拟内存,当然也有很多没有配置虚拟内存的,虚拟内存可以让我们的低配服务器使用更多的内存,可以减少很多硬件成本,比如我们运行很多服务的时候,内存常常会满,当配置了虚拟内存...

国产深度(deepin)操作系统优化指南

1.升级内核随着deepin版本的更新,会自动升级系统内核,但是我们依旧可以通过命令行手动升级内核,以获取更好的性能和更多的硬件支持。具体操作:-添加PPAs使用以下命令添加PPAs:```...

postgresql-15.4 多节点主从(读写分离)

1、下载软件[root@TX-CN-PostgreSQL01-252software]#wgethttps://ftp.postgresql.org/pub/source/v15.4/postg...

Docker 容器 Java 服务内存与 GC 优化实施方案

一、设置Docker容器内存限制(生产环境建议)1.查看宿主机可用内存bashfree-h#示例输出(假设宿主机剩余16GB可用内存)#Mem:64G...

虚拟内存设置、解决linux内存不够问题

虚拟内存设置(解决linux内存不够情况)背景介绍  Memory指机器物理内存,读写速度低于CPU一个量级,但是高于磁盘不止一个量级。所以,程序和数据如果在内存的话,会有非常快的读写速度。但是,内存...

Elasticsearch性能调优(5):服务器配置选择

在选择elasticsearch服务器时,要尽可能地选择与当前业务量相匹配的服务器。如果服务器配置太低,则意味着需要更多的节点来满足需求,一个集群的节点太多时会增加集群管理的成本。如果服务器配置太高,...

Es如何落地

一、配置准备节点类型CPU内存硬盘网络机器数操作系统data节点16C64G2000G本地SSD所有es同一可用区3(ecs)Centos7master节点2C8G200G云SSD所有es同一可用区...

针对Linux内存管理知识学习总结

现在的服务器大部分都是运行在Linux上面的,所以,作为一个程序员有必要简单地了解一下系统是如何运行的。对于内存部分需要知道:地址映射内存管理的方式缺页异常先来看一些基本的知识,在进程看来,内存分为内...

MySQL进阶之性能优化

概述MySQL的性能优化,包括了服务器硬件优化、操作系统的优化、MySQL数据库配置优化、数据库表设计的优化、SQL语句优化等5个方面的优化。在进行优化之前,需要先掌握性能分析的思路和方法,找出问题,...

Linux Cgroups(Control Groups)原理

LinuxCgroups(ControlGroups)是内核提供的资源分配、限制和监控机制,通过层级化进程分组实现资源的精细化控制。以下从核心原理、操作示例和版本演进三方面详细分析:一、核心原理与...

linux 常用性能优化参数及理解

1.优化内核相关参数配置文件/etc/sysctl.conf配置方法直接将参数添加进文件每条一行.sysctl-a可以查看默认配置sysctl-p执行并检测是否有错误例如设置错了参数:[roo...

如何在 Linux 中使用 Sysctl 命令?

sysctl是一个用于配置和查询Linux内核参数的命令行工具。它通过与/proc/sys虚拟文件系统交互,允许用户在运行时动态修改内核参数。这些参数控制着系统的各种行为,包括网络设置、文件...

取消回复欢迎 发表评论: