added humanly readable unit (b k M G)
[BackupPC.git] / bin / BackupPC_tarIncCreate
index 3cad08f..a76e439 100755 (executable)
@@ -196,7 +196,7 @@ my(%HardLinkExtraFiles, @HardLinks);
 # Write out all the requested files/directories
 #
 
 # Write out all the requested files/directories
 #
 
-my $max_file_size = $Conf{'MaxArchiveFileSize'} || die "problem with MaxArchiveFileSize parametar";
+my $max_file_size = $Conf{'ArchiveChunkSize'} || die "problem with MaxArchiveFileSize parametar";
 
 my $tar_dir = $Conf{GzipTempDir};
 die "problem with $tar_dir, check GzipTempDir in configuration\n" unless (-d $tar_dir && -w $tar_dir);
 
 my $tar_dir = $Conf{GzipTempDir};
 die "problem with $tar_dir, check GzipTempDir in configuration\n" unless (-d $tar_dir && -w $tar_dir);
@@ -657,7 +657,7 @@ sub TarWriteFile
     my $size = $in_backup_increment->{$tarPath};
     return unless (defined($size));
 
     my $size = $in_backup_increment->{$tarPath};
     return unless (defined($size));
 
-    # is this file too large to fit into MaxArchiveFileSize?
+    # is this file too large to fit into ArchiveChunkSize?
 
     if ( ($current_tar_size + tar_overhead($tarPath) + $size) > $max_file_size ) {
        print STDERR "# tar file $current_tar_size + $tar_header_length + $size > $max_file_size, splitting\n" if ($opts{d});
 
     if ( ($current_tar_size + tar_overhead($tarPath) + $size) > $max_file_size ) {
        print STDERR "# tar file $current_tar_size + $tar_header_length + $size > $max_file_size, splitting\n" if ($opts{d});