上一篇说过两台服务器间大数据文件传输,利用rsync、scp等神奇命令便能解决,这次站在巨人的肩膀上咱们基于上述命令之一做个超简单的刚需应用~本地备份服务器!动心不,请继续看~
咱们以备份线上数据库文件为例(各种log文件也可以),本地系统是Ubuntu:
一。假设已经有一个数据库,且是自建的跟服务器同一台主机,每天会有定时脚本备份并压缩保存到固定文件夹(如宝塔的定时任务,保存到/www/backup/database 文件夹),但是硬盘空间有限,选择保存份数时就不能选很多份了,那么其他保存日期的db文件就由本地服务器保存,既达到了多重备份的目的又节省了服务器硬盘空间;对于备份对象是每天增长飞快的各种log文件,尤为合适。
二。
1)确定好备份对象和线上文件目录后,咱们开始动工了。文件目录和对象暂设/www/backup/database下以.gz结尾的打包过的数据库文件。
2)编写本地定时命令,例,每天一点半备份线上IP为x.x.x.x的目录/www/backup/database 到本地的 /www/backup 目录下,过程输出咱们以追加的方式写入到/www/wwwlogs/db_backup.log里面,错误信息也写入到/www/wwwlogs/db_backup_error.log里面,命令如下:
crontab -e #打开linux定时器编辑界面
30 1 * * * rsync -tvzr 用户名@线上IP :/www/backup/database /www/backup >> /www/wwwlogs/db_backup.log 2>>/www/wwwlogs/db_backup_error.log
note:rsync如果是ssh模式的,建议把本地公钥提前放入到线上服务器的.ssh/authorized_keys文件内,就不用输入密码了;如果线上服务器是ubuntu,最好查看一下远程机器是否安装ssh服务(ubuntu 没有默认安装ssh) 命令:ssh host ,如果显示
3)运行过后,如无意外,本地已经有 www/backup/database/n个.gz开头的压缩文件,到这任务已经完成了一大半了,是不是很简单?不过有个小问题?本地的数据如果可以删,我可以控制保留份数么?份数的功能线上的宝塔面板,准确说是线上的脚本已经有了,问题是,线上空间有限啊,我又想多留几份,以备不测呢?那就自己写一个脚本控制呗!
说到这,这种小小的运维任务就不劳烦各大编程语言了,我的习惯是用php搞定它,shell和Python嘛,你爱用哪个用哪个,在下觉得PHP搞简单运维还是挺适合的,非常稳定,简单,没有烦人的缩进和突如其来的运行时错误,哈哈~
贴上一段小脚本,文件名:manage_db_backup.php
<?php
$conf_len = 18;
$file_arr = glob( "/www/backup/database/*.gz" );
if(count( $file_arr)> $conf_len ){
foreach( $file_arr as $v ){
$time_cut_line = date('Ymd',strtotime('-'.$conf_len.'days'));
$v_time = substr( end(explode('/',$v)) ,16,8 );
$v_time<$time_cut_line && unlink($v);
}
}else{
echo 'no delete files',PHP_EOL;
}
$file_arr2 = glob( "/www/backup/database/*.gz" );
echo 'delete,';
print_r( array_diff($file_arr,$file_arr2) );
echo PHP_EOL;
?>
以上脚本加入Linux定时器,命令:
30 2 * * * php manage_db_backup.php >> /www/server/manage_db_backup.log 2>&1
运行结果类似于
大功告成!是不是很简单?