背景
我们公司在用inotify+rsync做实时同步,来解决分布式集群文件一致性的问题。但当web文件越来越多(百万级数量html,jpg等小 文件),同步就越来越慢,根本做不到实时,按照网上的调优方法都尝试过,问题根本没有解决。经过我一翻细致研究,终于把慢的核心问题研究明白,先总结一句 inotifywait响应不会有延迟,rsync也很快。大家同样有慢的烦恼,那是因为网上的inotify+rsync的教程都是坑。下面我们来分 析。
inotifywait 单独分析
|
/
usr
/
local
/
bin
/
inotifywait
-
mrq
--
format
'%Xe %w%f'
-
e
modify
,
create
,
delete
,
attrib
/
data
/
|
执行上面命令,是让inotifywait监听/data/目录,当监听到有发生modify,create,delete,attrib等事件发生时,按%Xe %w%f的格式输出。
在/data/目录touch几个文件
观看inotify输出
|
ATTRIB
/
data
/
1
--表示发生了
ATTRIB事件路径为
/
data
/
1
ATTRIB
/
data
/
2
ATTRIB
/
data
/
3
ATTRIB
/
data
/
4
ATTRIB
/
data
/
5
|
知道上面的输出效果之后 我们应该想得到,可以用rsync获取inotifywait监控到的文件列表来做指定的文件同步,而不是每次都由rsync做全目录扫描来判断文件是否存在差异。
网上的inotify+rsync分析
我们来看网上的教程,我加了注释。(网上所有的教程基本都一模一样,尽管写法不一样,致命点都是一样的)
|
#!/bin/bash
/
usr
/
bin
/
inotifywait
-
mrq
--
format
'%w%f'
-
e
create
,
close_write
,
delete
/
backup
|
while
read
file
#把发生更改的文件列表都接收到file 然后循环,但有什么鬼用呢?下面的命令都没有引用这个$file 下面做的是全量rsync
do
cd
/
backup
&&
rsync
-
az
--
delete
/
backup
/
rsync_backup
@
192.168.24.101
::
backup
/
--
password
-
file
=
/
etc
/
rsync
.
password
done
|
#注意看 这里的rsync 每次都是全量的同步(这就坑爹了),而且 file列表是循环形式触发rsync ,等于有10个文件发生更改,就触发10次rsync全量同步(简直就是噩梦),那还不如直接写个死循环的rsync全量同步得了。
#有很多人会说 日志输出那里明明只有差异文件的同步记录。其实这是rsync的功能,他本来就只会输出有差异需要同步的文件信息。不信你直接拿这句rsync来跑试试。
#这种在需要同步的源目录文件量很大的情况下,简直是不堪重负。不仅耗CPU还耗时,根本不可以做到实时同步。
改良方法
要做到实时,就必须要减少rsync对目录的递归扫描判断,尽可能的做到只同步inotify监控到已发生更改的文件。结合rsync的特性,所以这里要分开判断来实现一个目录的增删改查对应的操作。
脚本如下
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
|
#!/bin/bash
src
=
/
data
/
# 需要同步的源路径
des
=
data
# 目标服务器上 rsync --daemon 发布的名称,rsync --daemon这里就不做介绍了,网上搜一下,比较简单。
rsync_passwd_file
=
/
etc
/
rsyncd
.
passwd
# rsync验证的密码文件
ip1
=
192.168.0.18
# 目标服务器1
ip2
=
192.168.0.19
# 目标服务器2
user
=
root
# rsync --daemon定义的验证用户名
cd
$
{
src
}
# 此方法中,由于rsync同步的特性,这里必须要先cd到源目录,inotify再监听 ./ 才能rsync同步后目录结构一致,有兴趣的同学可以进行各种尝试观看其效果
/
usr
/
local
/
bin
/
inotifywait
-
mrq
--
format
'%Xe %w%f'
-
e
modify
,
create
,
delete
,
attrib
.
/
|
while
read
file
# 把监控到有发生更改的"文件路径列表"循环
do
INO_EVENT
=
$
(
echo
$
file
|
awk
'{print $1}'
)
# 把inotify输出切割 把事件类型赋值给INO_EVENT
INO_FILE
=
$
(
echo
$
file
|
awk
'{print $2}'
)
# 把inotify输出切割 把文件路径赋值给INO_FILE
echo
'------------------------------------'
echo
$
file
#增加、修改事件
#增、改放在同一个判断,因为他们都肯定是针对文件的操作,即使是新建目录,要同步的也只是一个空目录,不会影响速度。
if
[
[
$
INO_EVENT
=
~
'CREATE'
]
]
||
[
[
$
INO_EVENT
=
~
'MODIFY'
]
]
# 判断事件类型
then
echo
'CREATE or MODIFY'
rsync
-
avzR
--
password
-
file
=
/
etc
/
rsync
-
client
.
pass
$
{
INO_FILE
}
$
{
user
}
@
$
{
ip1
}
::
$
{
des
}
&&
# INO_FILE 变量代表路径哦
rsync
-
avzR
--
password
-
file
=
/
etc
/
rsync
-
client
.
pass
$
{
INO_FILE
}
$
{
user
}
@
$
{
ip2
}
::
$
{
des
}
#仔细看 上面的rsync同步命令 源是用了${INO_FILE}变量 即每次只针对性的同步发生改变的文件 然后用-R参数把源的目录结构递归到目标后面 保证目录结构一致性
fi
#删除事件
if
[
[
$
INO_EVENT
=
~
'DELETE'
]
]
then
echo
'DELETE'
rsync
-
avzR
--
delete
--
password
-
file
=
/
etc
/
rsync
-
client
.
pass
$
(
dirname
$
{
INO_FILE
}
)
$
{
user
}
@
$
{
ip1
}
::
$
{
des
}
&&
rsync
-
avzR
--
delete
--
password
-
file
=
/
etc
/
rsync
-
client
.
pass
$
(
dirname
$
{
INO_FILE
}
)
$
{
user
}
@
$
{
ip2
}
::
$
{
des
}
#看rsync命令 如果直接同步已删除的路径${INO_FILE}会报no such or directory错误 所以这里同步的源是被删文件或目录的上一级路径,并加上--delete来删除目标上有而源中没有的文件,这里不能做到指定文件删除,如果删除的路径越靠 近根,则同步的目录月多,同步删除的操作就越花时间。这里有更好方法的同学,欢迎交流。
fi
#修改属性事件 指 touch chgrp chmod chown等操作
if
[
[
$
INO_EVENT
=
~
'ATTRIB'
]
]
then
echo
'ATTRIB'
if
[
!
-
d
"$INO_FILE"
]
# 如果修改属性的是目录 则不同步,因为同步目录会发生递归扫描,等此目录下的文件发生同步时,rsync会顺带更新此目录。
then
rsync
-
avzR
--
password
-
file
=
/
etc
/
rsync
-
client
.
pass
$
{
INO_FILE
}
$
{
user
}
@
$
{
ip1
}
::
$
{
des
}
&&
rsync
-
avzR
--
password
-
file
=
/
etc
/
rsync
-
client
.
pass
$
{
INO_FILE
}
$
{
user
}
@
$
{
ip2
}
::
$
{
des
}
fi
fi
done
|
每两小时做1次全量同步
因为inotify只在启动时会监控目录,他没有启动期间的文件发生更改,他是不知道的,所以这里每2个小时做1次全量同步,防止各种意外遗漏,保证目录一致。
|
crontab
-
e
*
*
/
2
*
*
*
rsync
-
avz
--
password
-
file
=
/
etc
/
rsync
-
client
.
pass
/
data
/
root
@
192.168.0.18
::
data
&&
rsync
-
avz
--
password
-
file
=
/
etc
/
rsync
-
client
.
pass
/
data
/
root
@
192.168.0.19
::
data
|
改良后我们公司这种百万级小文件也能做到实施同步了。
下面附上inotify的参数说明
inotify介绍-- 是一种强大的、细颗粒的、异步的文件系统监控机制,*&####&*_0_*&####&*内核从2.6.13起,加入Inotify可以监控文件系统中添加、删除、修改移动等各种事件,利用这个内核接口,就可以监控文件系统下文件的各种变化情况。
inotifywait 参数说明
参数名称 |
参数说明 |
-m,–monitor |
始终保持事件监听状态 |
-r,–recursive |
递归查询目录 |
-q,–quiet |
只打印监控事件的信息 |
–excludei |
排除文件或目录时,不区分大小写 |
-t,–timeout |
超时时间 |
–timefmt |
指定时间输出格式 |
–format |
指定时间输出格式 |
-e,–event |
后面指定删、增、改等事件 |
inotifywait events事件说明
事件名称 |
事件说明 |
access |
读取文件或目录内容 |
modify |
修改文件或目录内容 |
attrib |
文件或目录的属性改变 |
close_write |
修改真实文件内容 |
close_nowrite |
|
close |
|
open |
文件或目录被打开 |
moved_to |
文件或目录移动到 |
moved_from |
文件或目录从移动 |
move |
移动文件或目录移动到监视目录 |
create |
在监视目录下创建文件或目录 |
delete |
删除监视目录下的文件或目录 |
delete_self |
|
unmount |
卸载文件系统 |
优化 Inotify
# 在/proc/sys/fs/inotify目录下有三个文件,对inotify机制有一定的限制
|
[
root
@
web
~
]
# ll /proc/sys/fs/inotify/
总用量
0
-
rw
-
r
--
r
--
1
root
root
09月
923
:
36
max_queued_events
-
rw
-
r
--
r
--
1
root
root
09月
923
:
36
max_user_instances
-
rw
-
r
--
r
--
1
root
root
09月
923
:
36
max_user_watches
|
-----------------------------
max_user_watches #设置inotifywait或inotifywatch命令可以监视的文件数量(单进程)
max_user_instances #设置每个用户可以运行的inotifywait或inotifywatch命令的进程数
max_queued_events #设置inotify实例事件(event)队列可容纳的事件数量
----------------------------
|
[
root
@
web
~
]
# echo 50000000>/proc/sys/fs/inotify/max_user_watches -- 把他加入/etc/rc.local就可以实现每次重启都生效
[
root
@
web
~
]
# echo 50000000>/proc/sys/fs/inotify/max_queued_events
|
作者信息
广州 - 小朱