Added hostname to error messages that are emailed
authorAlan J. Pippin <ajp@pippins.net>
Fri, 7 Mar 2014 00:31:07 +0000 (17:31 -0700)
committerAlan J. Pippin <ajp@pippins.net>
Fri, 7 Mar 2014 00:31:07 +0000 (17:31 -0700)
zfs-replicate
zfs-replicate-all
zfs-restore
zfs-scripts.conf.dist
zfs-scrub

index 174d6dd5ef7f834e0efa252a5e5545e7e47c08dd..b0241e853f9630cbfc8684e91a5af59752228df4 100755 (executable)
@@ -17,7 +17,6 @@ config="${0%/*}/zfs-scripts.conf"
 remote=$1
 remote_fs=$2
 remote_pool=${2%%/*}
-hostname=`hostname`
 
 # Setup our cleanup and exit trap
 cleanup() {
@@ -71,7 +70,7 @@ fi
 # Make sure the local backup pool and local receiving filesystem exist, or print some errors
 zpool list -H "$backup_pool" >/dev/null 2>&1
 if [ $? != 0 ]; then
-  fatal_and_exit "-E- The local backup pool, '$backup_pool' doesn't seem to exist." $mailto
+  fatal_and_exit "-E- The local backup pool on $hostname, '$backup_pool' doesn't seem to exist." $mailto
 fi
 zfs list "$backup_pool/$remote_pool" >/dev/null 2>&1
 if [ $? != 0 ]; then
@@ -79,7 +78,7 @@ if [ $? != 0 ]; then
   echo >&2 "    Creating the local filesystem to receive the remote pool into: $backup_pool/$remote_pool"
   $zfs create $backup_pool/$remote_pool
   if [ $? != 0 ]; then
-    fatal_and_exit "-E- remote $zfs create command failed" $mailto
+    fatal_and_exit "-E- remote $zfs on $hostname create command failed" $mailto
   fi
 fi
 
@@ -87,7 +86,7 @@ fi
 backup_pool_guid=`zpool get guid $backup_pool 2>&1 | grep $backup_pool | awk '{ print $3 }'`
 zpool get guid $backup_pool > /dev/null 2>&1
 if [ $? != 0 ]; then
-  fatal_and_exit "-E- Unable to extract the guid for the local backup pool: $backup_pool" $mailto
+  fatal_and_exit "-E- Unable to extract the guid for the local backup pool on $hostname: $backup_pool" $mailto
 fi
 
 # Turn on shell verbosity
@@ -114,7 +113,7 @@ while true; do
     # We've exceeded our maximum while loop count
     echo "-E- The zfs filesystem has been locked down. Skipping replicate operation."
     fail_msg=`$ssh $remote ls -ld $lockdir 2>&1`
-    fatal_and_exit "zfs-replicate-all unable to obtain zfs admin lock:\n$fail_msg" $mailto
+    fatal_and_exit "zfs-replicate-all on $hostname unable to obtain zfs admin lock:\n$fail_msg" $mailto
   fi
 done
 
@@ -129,7 +128,7 @@ $ssh $remote \
     grep ^${remote_fs}@ |
     awk '{print$1}' > $remote_list
 if [ $? != 0 ]; then
-  fatal_and_exit "-E- remote $zfs list command failed" $mailto
+  fatal_and_exit "-E- remote $zfs list on $hostname command failed" $mailto
 fi
 
 # List the snapshots on the local machine.
@@ -141,7 +140,7 @@ $zfs list -H -t snapshot |
     grep -v ^${backup_pool}/${current_backup_marker} | 
     awk "{gsub(/^$backup_pool./,\"\",\$1); print\$1}" > $local_list
 if [ $? != 0 ]; then
-  fatal_and_exit "-E- local $zfs list command failed" $mailto
+  fatal_and_exit "-E- local $zfs list on $hostname command failed" $mailto
 fi
 
 # Destroy the current backup marker snapshot on the remote system if it exists
@@ -149,14 +148,14 @@ grep -q ${current_backup_marker} $remote_list
 if [ $? == 0 ]; then
   $ssh $remote $zfs destroy ${current_backup_marker} 
   if [ $? != 0 ]; then
-    fatal_and_exit "-E- remote $zfs destroy command failed" $mailto
+    fatal_and_exit "-E- remote $zfs destroy on $hostname command failed" $mailto
   fi
 fi
 
 # Create the current backup marker snapshot on the remote system
 $ssh $remote $zfs snapshot ${current_backup_marker}
 if [ $? != 0 ]; then
-  fatal_and_exit "-E- remote $zfs snapshot command failed" $mailto
+  fatal_and_exit "-E- remote $zfs snapshot on $hostname command failed" $mailto
 fi
 
 # Check to see if the previous backup marker exists in the remote snapshot list.
@@ -178,7 +177,7 @@ if [ $no_markers == 0 ]; then
   # previous backup marker again from a previously interrupted replicate.
   $zfs rollback -r ${backup_pool}/${previous_backup_marker} 
   if [ $? != 0 ]; then
-    fatal_and_exit "-E- remote incremental $zfs rollback command failed" $mailto
+    fatal_and_exit "-E- remote incremental $zfs rollback command failed on $hostname" $mailto
   fi
   # Now it should be safe to send the snaps
   if [[ $throttle_enable == 1 && -e $throttle ]]; then
@@ -189,7 +188,7 @@ if [ $no_markers == 0 ]; then
         $zfs receive -vF -d ${backup_pool}/${remote_pool}
   fi
   if [ $? != 0 ]; then
-    fatal_and_exit "-E- remote incremental $zfs send command failed" $mailto
+    fatal_and_exit "-E- remote incremental $zfs send command failed on $hostname" $mailto
   fi
 else
   # We didn't find any backup markers, next check to see if we have a common snapshot.
@@ -214,7 +213,7 @@ else
           $zfs receive -vF -d ${backup_pool}/${remote_pool}
     fi
     if [ $? != 0 ]; then
-      fatal_and_exit "-E- remote incremental $zfs send command failed" $mailto
+      fatal_and_exit "-E- remote incremental $zfs send command failed on $hostname" $mailto
     fi
   else
     # We did not find any markers or a common snapshot
@@ -225,12 +224,12 @@ else
       if [[ $destroy_local_filesystem_on_full_replicate == 1 ]]; then
         $zfs destroy -r ${backup_pool}/${remote_fs}
         if [ $? != 0 ]; then
-          fatal_and_exit "-E- remote full $zfs destroy command failed" $mailto
+          fatal_and_exit "-E- remote full $zfs destroy command failed on $hostname" $mailto
         fi
       else
         echo "-W- We need to destroy a local filesystem before receiving a full stream."
        echo "    However, since the option is set to prevent this, skipping replicate operation."
-        fatal_and_exit "unable to destroy local filesystem:\n$zfs destroy -r ${backup_pool}/${remote_fs} not able to run" $mailto
+        fatal_and_exit "unable to destroy local filesystem:\n$zfs destroy -r ${backup_pool}/${remote_fs} not able to run on $hostname" $mailto
       fi
     fi
     # Send the full filesystem
@@ -242,7 +241,7 @@ else
           $zfs receive -vF -d ${backup_pool}/${remote_pool}
     fi
     if [ $? != 0 ]; then
-      fatal_and_exit "-E- remote full $zfs send command failed" $mailto
+      fatal_and_exit "-E- remote full $zfs send command failed on $hostname" $mailto
     fi
   fi
 fi
@@ -255,9 +254,9 @@ $ssh $remote $zfs destroy ${previous_backup_marker} > /dev/null 2>&1
 # Rename the current backup marker to be the previous backup marker
 $zfs rename ${backup_pool}/${current_backup_marker} ${backup_pool}/${previous_backup_marker}
 if [ $? != 0 ]; then
-  fatal_and_exit "-E- local $zfs rename command failed" $mailto
+  fatal_and_exit "-E- local $zfs rename command failed on $hostname" $mailto
 fi
 $ssh $remote $zfs rename ${current_backup_marker} ${previous_backup_marker}
 if [ $? != 0 ]; then
-  fatal_and_exit "-E- remote $zfs rename command failed" $mailto
+  fatal_and_exit "-E- remote $zfs rename command failed on $hostname" $mailto
 fi
index 160bc7c314242c06e8c71f66ecf7f7075a7c9ee2..8d43bd92430e3c1f5c0a124a50c08185c9803fa5 100755 (executable)
@@ -91,10 +91,10 @@ if [ $? != 0 ]; then
   if [[ $import_export_backup_pool == 1 ]]; then
     zpool import $backup_pool
     if [ $? != 0 ]; then
-      fatal_and_exit "-E- unable to import the backup pool $backup_pool" "$mailto"
+      fatal_and_exit "-E- unable to import the backup pool $backup_pool on $hostname" "$mailto"
     fi
   else 
-    fatal_and_exit "-E- The local backup pool, '$backup_pool' doesn't seem to exist." "$mailto"
+    fatal_and_exit "-E- The local backup pool on $hostname, '$backup_pool' doesn't seem to exist." "$mailto"
   fi
 fi
 
@@ -102,7 +102,7 @@ fi
 backup_pool_guid=`zpool get guid $backup_pool 2>&1 | grep $backup_pool | awk '{ print $3 }'`
 zpool get guid $backup_pool > /dev/null 2>&1
 if [ $? != 0 ]; then
-  fatal_and_exit "-E- Unable to extract the guid for the local backup pool: $backup_pool" "$mailto"
+  fatal_and_exit "-E- Unable to extract the guid for the local backup pool on $hostname: $backup_pool" "$mailto"
 fi
 
 # Setup our backup marker names
@@ -132,7 +132,7 @@ done
 if [[ $import_export_backup_pool == 1 ]]; then
   zpool export $backup_pool
   if [ $? != 0 ]; then
-    fatal_and_exit "-E- unable to export the local backup pool $backup_pool" "$mailto"
+    fatal_and_exit "-E- unable to export the local backup pool $backup_pool on $hostname" "$mailto"
   fi
 fi
 
index 84de61e697ee9f5e4b0b93ba43cc2335aa8c53b8..fab2b6ebf45041bb601aac5a3055cde8d5f2a209 100755 (executable)
@@ -54,7 +54,7 @@ fi
 src_pool_guid=`zpool get guid $src_pool 2>&1 | grep $src_pool | awk '{ print $3 }'`
 zpool get guid $src_pool > /dev/null 2>&1
 if [ $? != 0 ]; then
-  fatal_and_exit "-E- Unable to extract the guid for the src pool: $src_pool" $mailto
+  fatal_and_exit "-E- Unable to extract the guid for the src pool on $hostname: $src_pool" $mailto
 fi
 
 # Setup our backup marker names
index 7b021f6db8cfdefeead1b3de4220a3a5bfabf93c..40a7e4ba282ee4c827a67cd596542249419e2054 100644 (file)
@@ -5,6 +5,9 @@
 # setup your path here to find all the binaries the ZFS scripts call
 PATH=/usr/sbin:/sbin:/etc/bin:.:$PATH
 
+# set our hostname
+hostname=`hostname`
+
 # specify the path to the zfs binary
 zfs=/sbin/zfs
 
index 4dfdbd3a29b059a0872869d20fa8729051f7fe3b..495adf4f9b7ab4c795727c7e3e810dcbe092e4be 100755 (executable)
--- a/zfs-scrub
+++ b/zfs-scrub
@@ -85,7 +85,7 @@ do
   zpool status $i | grep scan: | grep "with 0 errors" > /dev/null 2>&1
   if [ $? != 0 ]; then
     # The scrub found errors
-    zpool status $i | $mailx -s "zpool scrub $i found errors" "$mailto" 
+    zpool status $i | $mailx -s "zpool scrub on $hostname $i found errors" "$mailto" 
   fi 
 
   # Export the local pool if told to do so
@@ -93,7 +93,7 @@ do
     zpool export $i
     if [ $? != 0 ]; then
       echo "-E- unable to export the local pool $i"
-      zpool status $i | $mailx -s "zpool scrub unable to export the local pool $i" "$mailto"
+      zpool status $i | $mailx -s "zpool scrub on $hostname unable to export the local pool $i" "$mailto"
     fi
   fi