crontab防止脚本周期内未执行完重复执行
crontab防止脚本周期内未执行完重复执行 八月 28, 2015 ( NO COMMENTS ) 个人体会:flock -xn my.lock commond
my.lock是一个文件,应该可以是任意文件,可以新建一个空文件
当flock 获得锁后就会执行后面的 commond
测试过程: $1: flock -xn my.lock sleep 20
$2: flock -xn my.lock ls
只有当1返回后, 2的ls才会成功
crontab防止脚本周期内未执行完重复执行 如 果某脚本要运行30分钟,可以在Crontab里把脚本间隔设为至少一小时来避免冲突。而比较糟的情况是可能该脚本在执行周期内没有完成,接着第 二个脚本又开始运行了。如何确保只有一个脚本实例运行呢?一个好用的方法是利用lockf(FreeBSD 8.1下为lockf,CentOS5.5下为flock),在脚本执行前先检测能否获取某个文件锁,以防止脚本运行冲突。
lockf的参数如下。
-k:一直等待获取文件锁。
-s:silent,不发出任何信息,即使拿不到文件锁。
-t seconds:设定timeout的时间是seconds秒,如果超过时间,则自动放弃。
以下Crontab计划任务执行前,需获取临时文件create.lock的文件锁,此项Crontab计划任务的内容如下:
*/10 * * * * (lockf -s -t 0 /tmp/create.lock /usr/bin/python /home/project/cron/create_tab.py >> /home/project/logs/create.log 2>&1【crontab防止脚本周期内未执行完重复执行】若第一个实例在10分钟内没有运行完,第2个实例不会运行。我以前是通过Shell脚本来解决这个问题的,比如用while…do循环,然后放在后台执行。但后来发现其实用flock或lockf方法更为简单。
附上linux下的flock的用法:
flock (util-linux 2.13-pre7)
Usage: flock [-sxun][-w #] fd#
flock [-sxon][-w #] file [-c] command...
-s--sharedGet a shared lock
#共享锁,在定向为某文件的FD上设置共享锁而未释放锁的时间内,其他进程试图在定向为此文件的FD上设置独占锁的请求失败,而其他进程试图在定向为此文件的FD上设置共享锁的请求会成功
-x--exclusiveGet an exclusive lock
#独占或排他锁,在定向为某文件的FD上设置独占锁而未释放锁的时间内,其他进程试图在定向为此文件的FD上设置共享锁或独占锁都会失败。只要未设置-s参数,此参数默认被设置
-u--unlockRemove a lock
#手动解锁,一般情况不必须,当FD关闭时,系统会自动解锁,此参数用于脚本命令一部分需要异步执行,一部分可以同步执行的情况
-n--nonblockFail rather than wait
#为非阻塞模式,当试图设置锁失败,采用非阻塞模式,直接返回1,
-w--timeoutWait for a limited amount of time
#设置阻塞超时,当超过设置的秒数,就跳出阻塞,返回1
-o--closeClose file descriptor before running command
-c--commandRun a single command string through the shell 执行其后的comand
-h--helpDisplay thistext
-V--versionDisplay version
举个例子执行如下脚本:每天23:30的时候执行一个脚本,但是执行前必须要获得排他文件锁,否则无法执行命令
30 23 * * * flock -xn /tmp/test.lock -c '/usr/local/php test.php'
推荐阅读
- 慢煮岁月,浅思淡行
- 没有脚的鸟
- 「按键精灵安卓版」关于全分辨率脚本的一些理解(非游戏app)
- android防止连续点击的简单实现(kotlin)
- 无尾鱼与独脚鸟
- Linux|109 个实用 shell 脚本
- 《阿飞正传》影评
- 我用鸡屎治好脚上的脚刺
- 不甘平凡的平凡
- 2018-12-03-新手教程重构思路