美国服务器Linux系统自动网站数据备份:脚本上传FTP

站长都知道,网站数据就是站长的生命,辛苦几个月,如果数据没了,一夜恢复到解放前,勤于备份是非常有必要的,今天分享一个美国服务器和美国VPS使用 linux系统时,自动备份网站数据的方法。

每日自动备份网站数据及数据库上传FTP,这个方式,主要是一个脚本(包含压缩网站数据及数据库,上传),然后用cron命令每天在指定时间段运行,下面请看脚本代码(脚本内信息需自行设定)

#!/bin/bash
#以下信息请自行修改
 
MYSQL_USER=*****                  #mysql用户名
MYSQL_PASS=******                     #mysql密码
MAIL_TO=****@*****                 #数据库发送到的邮箱
FTP_USER=********                             #ftp用户名
FTP_PASS=******                        #ftp密码
FTP_IP=*.*.*.*                          #ftp地址
FTP_backup=backup                          #ftp上存放备份文件的目录,这个要自己得ftp上面建的
WEB_DATA=/home/wwwroot           #要备份的网站数据
#以上信息自行修改
 
#定义数据库的名字和旧数据库的名字
DataBakName=Data_$(date +"%Y%m%d").tar.gz
WebBakName=Web_$(date +%Y%m%d).tar.gz
OldData=Data_$(date -d -5day +"%Y%m%d").tar.gz
OldWeb=Web_$(date -d -5day +"%Y%m%d").tar.gz
#删除本地3天前的数据
rm -rf /home/backup/Data_$(date -d -3day +"%Y%m%d").tar.gz /home/backup/Web_$(date -d -3day +"%Y%m%d").tar.gz
cd /home/backup
#导出数据库,一个数据库一个压缩文件
for db in `/usr/local/mysql/bin/mysql -u$MYSQL_USER -p$MYSQL_PASS -B -N -e 'SHOW DATABASES' | xargs`; do
(/usr/local/mysql/bin/mysqldump -u$MYSQL_USER -p$MYSQL_PASS ${db} | gzip -9 - > ${db}.sql.gz)
done
#压缩数据库文件为一个文件
tar zcf /home/backup/$DataBakName /home/backup/*.sql.gz
rm -rf /home/backup/*.sql.gz
#发送数据库到Email,如果数据库压缩后太大,请注释这行
#echo "主题:数据库备份" | mutt -a /home/backup/$DataBakName -s "内容:数据库备份" $MAIL_TO
#压缩网站数据
tar zcf /home/backup/$WebBakName $WEB_DATA
#上传到FTP空间,删除FTP空间5天前的数据
ftp -v -n $FTP_IP << END
user $FTP_USER $FTP_PASS
type binary
cd $FTP_backup
delete $OldData
delete $OldWeb
put $DataBakName
put $WebBakName
bye
END

将以上脚本按照您服务器登录信息及网站数据密码等信息设定后,存为AutoBack.sh,然后上传至服务器的root目录下。

下面就是给脚本赋予执行的权限

chmod +x /root/AutoBack.sh

接下来我们可以测试下这个脚本是否正常工作,ssh登陆手动运行脚本,查看相关FTP位置是否收到数据。如果一切正常,我们再用cron实现每日自动运行这个脚本

crontab –e

添加以下任务

00 03 * * * /root/AutoBack.sh

任务的时间可以自行设定,比如上面代码中的00 02,就是2点,尽量选择您网站访客最少的时间段,一般在凌晨以后执行。

未经允许不得转载:主机推荐 » 美国服务器Linux系统自动网站数据备份:脚本上传FTP

赞 (0)
分享到:更多 ()

评论 0

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址