_search_archive host config file for /etc/BackupPC/pc
[BackupPC.git] / conf / pc / _search_archive.pl
diff --git a/conf/pc/_search_archive.pl b/conf/pc/_search_archive.pl
new file mode 100644 (file)
index 0000000..8483453
--- /dev/null
@@ -0,0 +1,63 @@
+#
+# /etc/BackupPC/pc/_search_archive.pl
+#
+
+# Set this client's XferMethod to archive to make it an archive host:
+$Conf{XferMethod} = 'archive';
+
+# The path on the local file system where archives will be written:
+$Conf{ArchiveDest} = '/data/BackupPC/_search_archive';
+
+# the type and level of compression used on the archive:
+$Conf{ArchiveComp} = 'gzip';
+$Conf{CompressLevel} = 9;
+
+# dump only incremental changes in tars not whole content - ASA extension
+# XXX this option must be global in /etc/BackupPC/config.pl
+$Conf{TarCreateIncremental} = 1;
+
+# archive media size (in bytes) 4.2Gb for DVD
+$Conf{ArchiveMediaSize} = 4200 * 1024 * 1024; # DVD
+#$Conf{ArchiveMediaSize} =  630 * 1024 * 1024; # CD
+#$Conf{ArchiveMediaSize} =        1440 * 1024; # floppy
+#$Conf{ArchiveMediaSize} =   42 * 1024 * 1024; # FIXME
+
+
+# A size in megabytes to split the archive in to parts at.
+# This is useful where the file size of the archive might exceed the
+# capacity of the removable media. For example specify 700 if you are using CDs.
+$Conf{ArchiveSplit} = 650;
+#$Conf{ArchiveSplit} = 100; # FIXME small testing chunks
+
+
+# The amount of parity data to create for the archive using the par2 utility.
+# In some cases, corrupted archives can be recovered from parity data.
+$Conf{ArchivePar} = 5;
+$Conf{ParPath} = '/srv/par2cmdline-0.4-tbb-20100203-lin64/par2';
+# http://chuchusoft.com/par2_tbb/download.html
+# par2cmdline 0.4 with Intel Threading Building Blocks 2.2
+
+# use parallel gzip (speedup on multi-code machines)
+$Conf{GzipPath} = '/usr/bin/pigz';
+
+# use parallel bzip2
+$Conf{Bzip2Path} = '/usr/bin/pbzip2';
+
+# The full command to run to create archives:
+$Conf{ArchiveClientCmd} = '$Installdir/bin/BackupPC_archiveHost'
+. ' $tarCreatePath $splitpath $parpath $host $backupnumber'
+. ' $compression $compext $splitsize $archiveloc $parfile *';
+
+# host provides serialization, so we can safely update fulltext index
+$Conf{ArchivePreUserCmd} = '/srv/BackupPC/bin/BackupPC_ASA_SearchUpdate -h$HostList';
+
+$Conf{Md5sumPath} = '/usr/bin/md5sum';
+
+# after archives are created, pull data back in database - ASA extension
+$Conf{ArchivePostUserCmd} = '/srv/BackupPC/bin/BackupPC_ASA_PostArchive_Update -h$HostList -n$BackupList --ok=$xferOK';
+
+# Logging verbosity:
+$Conf{XferLogLevel} = 1;
+
+
+