added Ivan's version of tarCreate which creates just one increment
authordpavlin <dpavlin@8392b6e1-25fa-0310-8288-cc32f8e212ea>
Tue, 30 Aug 2005 20:29:26 +0000 (20:29 +0000)
committerdpavlin <dpavlin@8392b6e1-25fa-0310-8288-cc32f8e212ea>
Tue, 30 Aug 2005 20:29:26 +0000 (20:29 +0000)
(for later burning to archive media)

git-svn-id: svn+ssh://llin/home/dpavlin/private/svn/BackupPC/trunk@100 8392b6e1-25fa-0310-8288-cc32f8e212ea

bin/BackupPC_tarIncCreate [new file with mode: 0755]

diff --git a/bin/BackupPC_tarIncCreate b/bin/BackupPC_tarIncCreate
new file mode 100755 (executable)
index 0000000..7709d5d
--- /dev/null
@@ -0,0 +1,623 @@
+#!/usr/bin/perl
+#============================================================= -*-perl-*-
+#
+# BackupPC_tarCreate: create a tar archive of an existing dump
+# for restore on a client.
+#
+# DESCRIPTION
+#  
+#   Usage: BackupPC_tarCreate [options] files/directories...
+#
+#   Flags:
+#     Required options:
+#
+#       -h host         Host from which the tar archive is created.
+#       -n dumpNum      Dump number from which the tar archive is created.
+#                       A negative number means relative to the end (eg -1
+#                       means the most recent dump, -2 2nd most recent etc).
+#       -s shareName    Share name from which the tar archive is created.
+#
+#     Other options:
+#       -t              print summary totals
+#       -r pathRemove   path prefix that will be replaced with pathAdd
+#       -p pathAdd      new path prefix
+#       -b BLOCKS       BLOCKS x 512 bytes per record (default 20; same as tar)
+#       -w writeBufSz   write buffer size (default 1MB)
+#
+#     The -h, -n and -s options specify which dump is used to generate
+#     the tar archive.  The -r and -p options can be used to relocate
+#     the paths in the tar archive so extracted files can be placed
+#     in a location different from their original location.
+#
+# AUTHOR
+#   Craig Barratt  <cbarratt@users.sourceforge.net>
+#
+# COPYRIGHT
+#   Copyright (C) 2001-2003  Craig Barratt
+#
+#   This program is free software; you can redistribute it and/or modify
+#   it under the terms of the GNU General Public License as published by
+#   the Free Software Foundation; either version 2 of the License, or
+#   (at your option) any later version.
+#
+#   This program is distributed in the hope that it will be useful,
+#   but WITHOUT ANY WARRANTY; without even the implied warranty of
+#   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
+#   GNU General Public License for more details.
+#
+#   You should have received a copy of the GNU General Public License
+#   along with this program; if not, write to the Free Software
+#   Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
+#
+#========================================================================
+#
+# Version 2.1.0, released 20 Jun 2004.
+#
+# See http://backuppc.sourceforge.net.
+#
+#========================================================================
+
+use strict;
+no  utf8;
+use lib "__INSTALLDIR__/lib";
+use File::Path;
+use Getopt::Std;
+use DBI;
+use BackupPC::Lib;
+use BackupPC::Attrib qw(:all);
+use BackupPC::FileZIO;
+use BackupPC::View;
+use BackupPC::SearchLib;
+use Data::Dumper;
+
+die("BackupPC::Lib->new failed\n") if ( !(my $bpc = BackupPC::Lib->new) );
+my $TopDir = $bpc->TopDir();
+my $BinDir = $bpc->BinDir();
+my %Conf   = $bpc->Conf();
+my @DBCache;
+my $db_done = 0;
+my %opts;
+
+if ( !getopts("th:n:p:r:s:b:w:", \%opts) || @ARGV < 1 ) {
+    print STDERR <<EOF;
+usage: $0 [options] files/directories...
+  Required options:
+     -h host         host from which the tar archive is created
+     -n dumpNum      dump number from which the tar archive is created
+                     A negative number means relative to the end (eg -1
+                     means the most recent dump, -2 2nd most recent etc).
+     -s shareName    share name from which the tar archive is created
+
+  Other options:
+     -t              print summary totals
+     -r pathRemove   path prefix that will be replaced with pathAdd
+     -p pathAdd      new path prefix
+     -b BLOCKS       BLOCKS x 512 bytes per record (default 20; same as tar)
+     -w writeBufSz   write buffer size (default 1048576 = 1MB)
+EOF
+    exit(1);
+}
+
+if ( $opts{h} !~ /^([\w\.\s-]+)$/ ) {
+    print(STDERR "$0: bad host name '$opts{h}'\n");
+    exit(1);
+}
+my $Host = $opts{h};
+
+if ( $opts{n} !~ /^(-?\d+)$/ ) {
+    print(STDERR "$0: bad dump number '$opts{n}'\n");
+    exit(1);
+}
+my $Num = $opts{n};
+
+my @Backups = $bpc->BackupInfoRead($Host);
+my $FileCnt = 0;
+my $ByteCnt = 0;
+my $DirCnt = 0;
+my $SpecialCnt = 0;
+my $ErrorCnt = 0;
+
+my $i;
+$Num = $Backups[@Backups + $Num]{num} if ( -@Backups <= $Num && $Num < 0 );
+for ( $i = 0 ; $i < @Backups ; $i++ ) {
+    last if ( $Backups[$i]{num} == $Num );
+}
+if ( $i >= @Backups ) {
+    print(STDERR "$0: bad backup number $Num for host $Host\n");
+    exit(1);
+}
+
+my $PathRemove = $1 if ( $opts{r} =~ /(.+)/ );
+my $PathAdd    = $1 if ( $opts{p} =~ /(.+)/ );
+if ( $opts{s} !~ /^([\w\s\.\/\$-]+)$/ && $opts{s} ne "*" ) {
+    print(STDERR "$0: bad share name '$opts{s}'\n");
+    exit(1);
+}
+our $ShareName = $opts{s};
+our $view = BackupPC::View->new($bpc, $Host, \@Backups);
+
+#
+# This constant and the line of code below that uses it are borrowed
+# from Archive::Tar.  Thanks to Calle Dybedahl and Stephen Zander.
+# See www.cpan.org.
+#
+# Archive::Tar is Copyright 1997 Calle Dybedahl. All rights reserved.
+#                 Copyright 1998 Stephen Zander. All rights reserved.
+#
+my $tar_pack_header
+    = 'a100 a8 a8 a8 a12 a12 A8 a1 a100 a6 a2 a32 a32 a8 a8 a155 x12';
+my $tar_header_length = 512;
+
+my $BufSize    = $opts{w} || 1048576;     # 1MB or 2^20
+my $WriteBuf   = "";
+my $WriteBufSz = ($opts{b} || 20) * $tar_header_length;
+
+my(%UidCache, %GidCache);
+my(%HardLinkExtraFiles, @HardLinks);
+
+#
+# Write out all the requested files/directories
+#
+binmode(STDOUT);
+my $fh = *STDOUT;
+if ( $ShareName eq "*" ) {
+    my $PathRemoveOrig = $PathRemove;
+    my $PathAddOrig    = $PathAdd;
+    foreach $ShareName ( $view->shareList($Num) ) {
+        #print(STDERR "Doing share ($ShareName)\n");
+        $PathRemove = "/" if ( !defined($PathRemoveOrig) );
+        ($PathAdd = "/$ShareName/$PathAddOrig") =~ s{//+}{/}g;
+        foreach my $dir ( @ARGV ) {
+            archiveWrite($fh, $dir);
+        }
+        archiveWriteHardLinks($fh);
+    }
+} else {
+    foreach my $dir ( @ARGV ) {
+        archiveWrite($fh, $dir);
+    }
+    archiveWriteHardLinks($fh);
+}
+
+#
+# Finish with two null 512 byte headers, and then round out a full
+# block.
+# 
+my $data = "\0" x ($tar_header_length * 2);
+TarWrite($fh, \$data);
+TarWrite($fh, undef);
+
+#
+# print out totals if requested
+#
+if ( $opts{t} ) {
+    print STDERR "Done: $FileCnt files, $ByteCnt bytes, $DirCnt dirs,",
+                " $SpecialCnt specials, $ErrorCnt errors\n";
+}
+if ( $ErrorCnt && !$FileCnt && !$DirCnt ) {
+    #
+    # Got errors, with no files or directories; exit with non-zero
+    # status
+    #
+    exit(1);
+}
+exit(0);
+
+###########################################################################
+# Subroutines
+###########################################################################
+
+sub archiveWrite
+{
+    my($fh, $dir, $tarPathOverride) = @_;
+
+    if ( $dir =~ m{(^|/)\.\.(/|$)} ) {
+        print(STDERR "$0: bad directory '$dir'\n");
+       $ErrorCnt++;
+        return;
+    }
+    $dir = "/" if ( $dir eq "." );
+    #print(STDERR "calling find with $Num, $ShareName, $dir\n");
+    
+    if ( $view->find($Num, $ShareName, $dir, 0, \&TarWriteFile,
+                $fh, $tarPathOverride) < 0 ) {
+        print(STDERR "$0: bad share or directory '$ShareName/$dir'\n");
+       $ErrorCnt++;
+        return;
+    }
+}
+
+#
+# Write out any hardlinks (if any)
+#
+sub archiveWriteHardLinks
+{
+    my $fh = @_;
+    foreach my $hdr ( @HardLinks ) {
+        $hdr->{size} = 0;
+        if ( defined($PathRemove)
+              && substr($hdr->{linkname}, 0, length($PathRemove)+1)
+                        eq ".$PathRemove" ) {
+            substr($hdr->{linkname}, 0, length($PathRemove)+1) = ".$PathAdd";
+        }
+        TarWriteFileInfo($fh, $hdr);
+    }
+    @HardLinks = ();
+    %HardLinkExtraFiles = ();
+}
+
+sub UidLookup
+{
+    my($uid) = @_;
+
+    $UidCache{$uid} = (getpwuid($uid))[0] if ( !exists($UidCache{$uid}) );
+    return $UidCache{$uid};
+}
+
+sub GidLookup
+{
+    my($gid) = @_;
+
+    $GidCache{$gid} = (getgrgid($gid))[0] if ( !exists($GidCache{$gid}) );
+    return $GidCache{$gid};
+}
+
+sub TarWrite
+{
+    my($fh, $dataRef) = @_;
+
+    if ( !defined($dataRef) ) {
+        #
+        # do flush by padding to a full $WriteBufSz
+        #
+        my $data = "\0" x ($WriteBufSz - length($WriteBuf));
+        $dataRef = \$data;
+    }
+    if ( length($WriteBuf) + length($$dataRef) < $WriteBufSz ) {
+        #
+        # just buffer and return
+        #
+        $WriteBuf .= $$dataRef;
+        return;
+    }
+    my $done = $WriteBufSz - length($WriteBuf);
+    if ( syswrite($fh, $WriteBuf . substr($$dataRef, 0, $done))
+                                != $WriteBufSz ) {
+        print(STDERR "Unable to write to output file ($!)\n");
+        exit(1);
+    }
+    while ( $done + $WriteBufSz <= length($$dataRef) ) {
+        if ( syswrite($fh, substr($$dataRef, $done, $WriteBufSz))
+                            != $WriteBufSz ) {
+            print(STDERR "Unable to write to output file ($!)\n");
+            exit(1);
+        }
+        $done += $WriteBufSz;
+    }
+    $WriteBuf = substr($$dataRef, $done);
+}
+
+sub TarWritePad
+{
+    my($fh, $size) = @_;
+
+    if ( $size % $tar_header_length ) {
+        my $data = "\0" x ($tar_header_length - ($size % $tar_header_length));
+        TarWrite($fh, \$data);
+    }
+}
+
+sub TarWriteHeader
+{
+    my($fh, $hdr) = @_;
+
+    $hdr->{uname} = UidLookup($hdr->{uid}) if ( !defined($hdr->{uname}) );
+    $hdr->{gname} = GidLookup($hdr->{gid}) if ( !defined($hdr->{gname}) );
+    my $devmajor = defined($hdr->{devmajor}) ? sprintf("%07o", $hdr->{devmajor})
+                                             : "";
+    my $devminor = defined($hdr->{devminor}) ? sprintf("%07o", $hdr->{devminor})
+                                             : "";
+    my $sizeStr;
+    if ( $hdr->{size} >= 2 * 65536 * 65536 ) {
+       #
+       # GNU extension for files >= 8GB: send size in big-endian binary
+       #
+       $sizeStr = pack("c4 N N", 0x80, 0, 0, 0,
+                                 $hdr->{size} / (65536 * 65536),
+                                 $hdr->{size} % (65536 * 65536));
+    } elsif ( $hdr->{size} >= 1 * 65536 * 65536 ) {
+       #
+       # sprintf octal only handles up to 2^32 - 1
+       #
+       $sizeStr = sprintf("%03o", $hdr->{size} / (1 << 24))
+                . sprintf("%08o", $hdr->{size} % (1 << 24));
+    } else {
+       $sizeStr = sprintf("%011o", $hdr->{size});
+    }
+    my $data = pack($tar_pack_header,
+                     substr($hdr->{name}, 0, 99),
+                     sprintf("%07o", $hdr->{mode}),
+                     sprintf("%07o", $hdr->{uid}),
+                     sprintf("%07o", $hdr->{gid}),
+                     $sizeStr,
+                     sprintf("%011o", $hdr->{mtime}),
+                     "",        #checksum field - space padded by pack("A8")
+                     $hdr->{type},
+                     substr($hdr->{linkname}, 0, 99),
+                     $hdr->{magic} || 'ustar ',
+                     $hdr->{version} || ' ',
+                     $hdr->{uname},
+                     $hdr->{gname},
+                     $devmajor,
+                     $devminor,
+                     ""         # prefix is empty
+                 );
+    substr($data, 148, 7) = sprintf("%06o\0", unpack("%16C*",$data));
+    TarWrite($fh, \$data);
+}
+
+sub TarWriteFileInfo
+{
+    my($fh, $hdr) = @_;
+
+    #
+    # Handle long link names (symbolic links)
+    #
+    if ( length($hdr->{linkname}) > 99 ) {
+        my %h;
+        my $data = $hdr->{linkname} . "\0";
+        $h{name} = "././\@LongLink";
+        $h{type} = "K";
+        $h{size} = length($data);
+        TarWriteHeader($fh, \%h);
+        TarWrite($fh, \$data);
+        TarWritePad($fh, length($data));
+    }
+    #
+    # Handle long file names
+    #
+    if ( length($hdr->{name}) > 99 ) {
+        my %h;
+        my $data = $hdr->{name} . "\0";
+        $h{name} = "././\@LongLink";
+        $h{type} = "L";
+        $h{size} = length($data);
+        TarWriteHeader($fh, \%h);
+        TarWrite($fh, \$data);
+        TarWritePad($fh, length($data));
+    }
+    TarWriteHeader($fh, $hdr);
+}
+
+#
+# returns 1 if a given directory has files somewhere under it 
+# in a given dump of a given share
+#
+sub checkSubDirs($$$$) {
+       my ($dir, $share, $host, $dumpNo) = @_;
+       my $ret;
+       my $dsn = $Conf{SearchDSN};
+       my $db_user = $Conf{SearchUser} || '';
+       my $search_sql;
+       
+       print(STDERR $dir);
+       # erase first dot
+       if (substr($dir, 0, 1) == '.')
+       {
+               $dir = substr($dir, 1, length($dir));
+       }
+       # erase first slash
+       if (substr($dir, 0, 1) == '/') 
+       {
+               $dir = substr($dir, 1, length($dir));           
+       }
+       # erase last slash
+       if (substr($dir, length($dir)-1, 1) == '/')
+       {
+               $dir = substr($dir, 0, length($dir)-1);
+       }
+
+       if (! $db_done)
+       {
+               print STDERR "doing db...";
+               my $search_sql = q{
+                               SELECT hosts.name, shares.name, startfiles.name, COUNT(files.*) AS subfiles
+                               FROM files startfiles 
+                                        INNER JOIN shares ON (shares.id=startfiles.shareid) 
+                                        INNER JOIN hosts ON  (hosts.id=shares.hostid) 
+                                        INNER JOIN backups ON (
+                                               backups.num=startfiles.backupnum AND 
+                                               backups.hostid=hosts.id AND backups.shareid=shares.id
+                                        )
+                                        LEFT JOIN files ON  (
+                                               files.backupnum=startfiles.backupnum AND
+                                               files.shareid=startfiles.shareid AND
+                                               files.path LIKE startfiles.path || '/%' AND              
+                                               files.type<>startfiles.type AND                 
+                                               files.id <> startfiles.id
+                                       )               
+                               WHERE                           
+                                       hosts.name=? AND                
+                                       shares.name=? AND           
+                                       startfiles.type=? AND           
+                                       startfiles.backupnum=?
+                               GROUP BY hosts.name, shares.name, startfiles.name, startfiles.backupnum;
+                       };      
+               my $dbh = DBI->connect($dsn, $db_user, "", { RaiseError => 1, AutoCommit => 1} );       
+               my $sth = $dbh->prepare($search_sql);   
+               $sth->execute($host, $share, BPC_FTYPE_DIR, $dumpNo);
+               print STDERR "done\n";
+               while (my @r_data = $sth->fetchrow_array())
+               {
+                       $DBCache[$r_data[0]][$r_data[1]][$r_data[2]] = 1;
+               }
+               
+               $sth->finish();
+
+               $DBCache[$host][$share][$dir] = $ret;           
+               $dbh->disconnect();     
+               $db_done = 1;
+       }
+
+       if ($DBCache[$host][$share][$dir] != undef && $DBCache[$host][$share][$dir] == 1)
+       {
+               return 1;
+       }
+       return 0;
+}
+
+my $Attr;
+my $AttrDir;
+
+sub TarWriteFile
+{
+    my($hdr, $fh, $tarPathOverride) = @_;
+
+
+    my $tarPath = $hdr->{relPath};
+    $tarPath = $tarPathOverride if ( defined($tarPathOverride) );
+
+    $tarPath =~ s{//+}{/}g;
+    if ( defined($PathRemove)
+            && substr($tarPath, 0, length($PathRemove)) eq $PathRemove ) {
+        substr($tarPath, 0, length($PathRemove)) = $PathAdd;
+    }
+    $tarPath = "./" . $tarPath if ( $tarPath !~ /^\.\// );
+    $tarPath =~ s{//+}{/}g;
+    $hdr->{name} = $tarPath;
+
+    if ( $hdr->{type} == BPC_FTYPE_DIR ) {
+        #
+        # Directory: just write the header
+        #
+        
+                
+        $hdr->{name} .= "/" if ( $hdr->{name} !~ m{/$} );
+        # check if it has files under it in the database        
+               if ( checkSubDirs($hdr->{path}, $ShareName, $Host, $Num) != 0 )
+               {
+               TarWriteFileInfo($fh, $hdr);
+                       $DirCnt++;
+               }
+    } elsif ( $hdr->{type} == BPC_FTYPE_FILE ) {
+        #
+        # Regular file: write the header and file
+        #
+        my $f = BackupPC::FileZIO->open($hdr->{fullPath}, 0, $hdr->{compress});
+        if ( !defined($f) ) {
+            print(STDERR "Unable to open file $hdr->{fullPath}\n");
+            $ErrorCnt++;
+           return;
+        }
+        TarWriteFileInfo($fh, $hdr);
+        my($data, $size);
+        while ( $f->read(\$data, $BufSize) > 0 ) {
+            TarWrite($fh, \$data);
+            $size += length($data);
+        }
+        $f->close;
+        TarWritePad($fh, $size);
+               $FileCnt++;
+               $ByteCnt += $size;
+    } elsif ( $hdr->{type} == BPC_FTYPE_HARDLINK ) {
+        #
+        # Hardlink file: either write a hardlink or the complete file
+               # depending upon whether the linked-to file will be written
+               # to the archive.
+        #
+               # Start by reading the contents of the link.
+               #
+        my $f = BackupPC::FileZIO->open($hdr->{fullPath}, 0, $hdr->{compress});
+        if ( !defined($f) ) {
+            print(STDERR "Unable to open file $hdr->{fullPath}\n");
+            $ErrorCnt++;
+           return;
+        }
+        my $data;
+        while ( $f->read(\$data, $BufSize) > 0 ) {
+            $hdr->{linkname} .= $data;
+        }
+               $f->close;
+               #
+               # Check @ARGV and the list of hardlinked files we have explicity
+               # dumped to see if we have dumped this file or not
+               #
+               my $done = 0;
+               my $name = $hdr->{linkname};
+               $name =~ s{^\./}{/};
+               if ( $HardLinkExtraFiles{$name} ) {
+                   $done = 1;
+               } else {
+                   foreach my $arg ( @ARGV ) {
+                       $arg =~ s{^\./+}{/};
+                       $arg =~ s{/+$}{};
+                       $done = 1 if ( $name eq $arg || $name =~ /^\Q$arg\// );
+                   }
+               }
+               if ( $done ) {
+                   #
+                   # Target file will be or was written, so just remember
+                   # the hardlink so we can dump it later.
+                   #
+                   push(@HardLinks, $hdr);
+                   $SpecialCnt++;
+               } else {
+                   #
+                   # Have to dump the original file.  Just call the top-level
+                   # routine, so that we save the hassle of dealing with
+                   # mangling, merging and attributes.
+                   #
+                   $HardLinkExtraFiles{$hdr->{linkname}} = 1;
+                   archiveWrite($fh, $hdr->{linkname}, $hdr->{name});
+               }
+    } elsif ( $hdr->{type} == BPC_FTYPE_SYMLINK ) {
+        #
+        # Symbolic link: read the symbolic link contents into the header
+        # and write the header.
+        #
+        my $f = BackupPC::FileZIO->open($hdr->{fullPath}, 0, $hdr->{compress});
+        if ( !defined($f) ) {
+            print(STDERR "Unable to open symlink file $hdr->{fullPath}\n");
+            $ErrorCnt++;
+            return;
+        }
+        my $data;
+        while ( $f->read(\$data, $BufSize) > 0 ) {
+            $hdr->{linkname} .= $data;
+        }
+        $f->close;
+        $hdr->{size} = 0;
+        TarWriteFileInfo($fh, $hdr);
+       $SpecialCnt++;
+    } elsif ( $hdr->{type} == BPC_FTYPE_CHARDEV
+           || $hdr->{type} == BPC_FTYPE_BLOCKDEV
+           || $hdr->{type} == BPC_FTYPE_FIFO ) {
+        #
+        # Special files: for char and block special we read the
+        # major and minor numbers from a plain file.
+        #
+        if ( $hdr->{type} != BPC_FTYPE_FIFO ) {
+            my $f = BackupPC::FileZIO->open($hdr->{fullPath}, 0,
+                                               $hdr->{compress});
+            my $data;
+            if ( !defined($f) || $f->read(\$data, $BufSize) < 0 ) {
+                print(STDERR "Unable to open/read char/block special file"
+                           . " $hdr->{fullPath}\n");
+               $f->close if ( defined($f) );
+               $ErrorCnt++;
+               return;
+            }
+            $f->close;
+            if ( $data =~ /(\d+),(\d+)/ ) {
+                $hdr->{devmajor} = $1;
+                $hdr->{devminor} = $2;
+            }
+        }
+        $hdr->{size} = 0;
+        TarWriteFileInfo($fh, $hdr);
+       $SpecialCnt++;
+    } else {
+        print(STDERR "Got unknown type $hdr->{type} for $hdr->{name}\n");
+       $ErrorCnt++;
+    }
+}