Need to be root to destroy snapshots
[zfs-ubuntu/.git] / zfs-replicate
index 02f9924ad6c8a7a2f48ded18ab10f60cf62da2df..e6e6dd550d0fea239076a44309825c82ad568b19 100755 (executable)
@@ -18,6 +18,9 @@ remote=$1
 remote_fs=$2
 remote_pool=${2%%/*}
 
+# return non-zero exit code if any command in the pipe fails
+set -o pipefail
+
 # get the backup pool from the command line or the config file if not specified
 if [[ -n $3 ]]; then
     backup_pool=$3
@@ -167,9 +170,9 @@ $zfs list -H -t snapshot |
     grep ^${backup_pool}/${remote_fs}@ |
     grep -v ^${backup_pool}/${current_backup_marker} | 
     awk "{gsub(/^$backup_pool./,\"\",\$1); print\$1}" > $local_list
-if [ $? != 0 ]; then
-  fatal_and_exit "-E- local $zfs list on $hostname command failed" $mailto
-fi
+# If no local snapshots exist, we may need to send the entire filesystem, which we'll do later
+# So, no error check here as a non-zero return code means the local filesystem or snaps are missing
+# We'll catch this later on as a case where we need to send the entire filesystem
 
 # Destroy the current backup marker snapshot on the remote system if it exists
 grep -q ${current_backup_marker} $remote_list
@@ -264,6 +267,7 @@ fi
 # don't check the return codes here because these may not exist, and that is ok
 $zfs destroy ${backup_pool}/${previous_backup_marker} > /dev/null 2>&1
 $ssh $remote $zfs destroy ${previous_backup_marker} > /dev/null 2>&1
+sleep 1
 
 # Rename the current backup marker to be the previous backup marker
 $zfs rename ${backup_pool}/${current_backup_marker} ${backup_pool}/${previous_backup_marker}