pm -> pod
[BackupPC.git] / bin / BackupPC_incPartsUpdate
1 #!/usr/local/bin/perl -w
2
3 use strict;
4 use lib "__INSTALLDIR__/lib";
5
6 use DBI;
7 use BackupPC::Lib;
8 use BackupPC::View;
9 use BackupPC::Attrib qw/:all/;
10 use Data::Dumper;
11 use Time::HiRes qw/time/;
12 use POSIX qw/strftime/;
13 use Cwd qw/abs_path/;
14 use File::Which;
15 use Archive::Tar::Streamed;
16 use Algorithm::Diff;
17 use Getopt::Std;
18 use File::Slurp;
19
20 my $bpc = BackupPC::Lib->new || die "can't create BackupPC::Lib";
21 my %Conf = $bpc->Conf();
22
23 use BackupPC::SearchLib;
24 %BackupPC::SearchLib::Conf = %Conf;
25
26 my $path = abs_path($0);
27 $path =~ s#/[^/]+$#/#;
28 my $tarIncCreate = $path .= 'BackupPC_tarIncCreate';
29
30 die "can't find $tarIncCreate: $!\n" unless (-x $tarIncCreate);
31
32 my $bin;
33 foreach my $c (qw/gzip md5sum/) {
34         $bin->{$c} = which($c) || die "$0 needs $c, install it\n";
35 }
36
37 my %opt;
38 getopts("cd", \%opt );
39
40 my $debug = $opt{d};
41 my $check = $opt{c} && print STDERR "NOTICE: tar archive check forced\n";
42
43 $|=1;
44
45 my $start_t = time();
46
47 my $t_fmt = '%Y-%m-%d %H:%M:%S';
48
49 my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";
50 my $user = $Conf{SearchUser} || '';
51
52 my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });
53
54 my $tar_dir = $Conf{InstallDir}.'/'.$Conf{GzipTempDir};
55
56 die "problem with $tar_dir, check GzipTempDir in configuration\n" unless (-d $tar_dir && -w $tar_dir);
57
58 #---- subs ----
59
60 sub fmt_time {
61         my $t = shift || return;
62         my $out = "";
63         my ($ss,$mm,$hh) = gmtime($t);
64         $out .= "${hh}h" if ($hh);
65         $out .= sprintf("%02d:%02d", $mm,$ss);
66         return $out;
67 }
68
69 sub curr_time {
70         return strftime($t_fmt,localtime());
71 }
72
73 my $hsn_cache;
74
75 sub get_backup_id($$$) {
76         my ($host, $share, $num) = @_;
77
78         my $key = "$host $share $num";
79         return $hsn_cache->{$key} if ($hsn_cache->{$key});
80
81         my $sth = $dbh->prepare(qq{
82                 SELECT 
83                         backups.id
84                 FROM backups 
85                 INNER JOIN shares       ON backups.shareID=shares.ID
86                 INNER JOIN hosts        ON backups.hostID = hosts.ID
87                 where hosts.name = ? and shares.name = ? and backups.num = ?
88         });
89         $sth->execute($host, $share, $num);
90         my ($id) = $sth->fetchrow_array;
91
92         $hsn_cache->{"$host $share $num"} = $id;
93
94         print STDERR "# $host $share $num == $id\n" if ($opt{d});
95
96         return $id;
97 }
98
99
100 sub tar_check($$$$) {
101         my ($host,$share,$num,$filename) = @_;
102
103         my $t = time();
104         print curr_time, " check $host:$share#$num -> $filename";
105
106         # depending on expected returned value this is used like:
107         # my $uncompress_size = get_gzip_size('/full/path/to.gz');
108         # my ($compress_size, $uncompress_size) = get_gzip_size('/path.gz');
109         sub get_gzip_size($) {
110                 my $filename = shift;
111                 die "file $filename problem: $!" unless (-r $filename);
112                 open(my $gzip, $bin->{gzip}." -l $filename |") || die "can't gzip -l $filename: $!";
113                 my $line = <$gzip>;
114                 chomp($line);
115                 $line = <$gzip> if ($line =~ /^\s+compressed/);
116
117                 my ($comp, $uncomp) = (0,0);
118
119                 if ($line =~ m/^\s+(\d+)\s+(\d+)\s+\d+\.\d+/) {
120                         if (wantarray) {
121                                 return [ $1, $2 ];
122                         } else {
123                                 return $2;
124                         }
125                 } else {
126                         die "can't find size in line: $line";
127                 }
128         }
129
130         sub check_part {
131                 my ($host, $share, $num, $part_nr, $tar_size, $size, $md5, $items) = @_;
132                 my $backup_id = get_backup_id($host, $share, $num);
133                 my $sth_md5 = $dbh->prepare(qq{
134                         select
135                                 id, tar_size, size, md5, items
136                         from backup_parts
137                         where backup_id = ? and part_nr = ?
138                 });
139
140                 $sth_md5->execute($backup_id, $part_nr);
141
142                 if (my $row = $sth_md5->fetchrow_hashref) {
143                         return if (
144                                 $row->{tar_size} >= $tar_size &&
145                                 $row->{size} == $size &&
146                                 $row->{md5} eq $md5 &&
147                                 $row->{items} == $items
148                         );
149                         print ", deleting invalid backup_parts $row->{id}";
150                         $dbh->do(qq{ delete from backup_parts where id = $row->{id} });
151                 }
152                 print ", inserting new";
153                 my $sth_insert = $dbh->prepare(qq{
154                         insert into backup_parts (
155                                 backup_id,
156                                 part_nr,
157                                 tar_size,
158                                 size,
159                                 md5,
160                                 items
161                         ) values (?,?,?,?,?,?)
162                 });
163
164                 $sth_insert->execute($backup_id, $part_nr, $tar_size, $size, $md5, $items);
165                 $dbh->commit;
166         }
167
168         my @tar_parts;
169
170         if (-d "$tar_dir/$filename") {
171                 print ", multi-part";
172                 opendir(my $dir, "$tar_dir/$filename") || die "can't readdir $tar_dir/$filename: $!";
173                 @tar_parts = map { my $p = $_; $p =~ s#^#${filename}/#; $p } grep { !/^\./ && !/md5/ && -f "$tar_dir/$filename/$_" } readdir($dir);
174                 closedir($dir);
175         } else {
176                 push @tar_parts, "${filename}.tar.gz";
177         }
178
179         print " [parts: ",join(", ", @tar_parts),"]" if ($opt{d});
180
181         my $same = 1;
182         my @tar_files;
183
184         my $backup_part;
185
186         print " reading" if ($opt{d});
187
188         foreach my $tarfilename (@tar_parts) {
189
190                 print "\n\t- $tarfilename";
191
192                 my $path = "$tar_dir/$tarfilename";
193
194                 my $size = (stat( $path ))[7] || die "can't stat $path: $!";
195
196                 if ($size > $Conf{MaxArchiveSize}) {
197                         print ", part bigger than media $size > $Conf{MaxArchiveSize}\n";
198                         return 0;
199                 }
200
201                 print ", $size bytes";
202
203
204                 open(my $fh, "gzip -cd $path |") or die "can't open $path: $!";
205                 binmode($fh);
206                 my $tar = Archive::Tar::Streamed->new($fh);
207
208                 my $tar_size_inarc = 0;
209                 my $items = 0;
210
211                 while(my $entry = $tar->next) {
212                         push @tar_files, $entry->name;
213                         $items++;
214                         $tar_size_inarc += $entry->size;
215
216                         if ($tar_size_inarc > $Conf{MaxArchiveFileSize}) {
217                                 print ", part $tarfilename is too big $tar_size_inarc > $Conf{MaxArchiveFileSize}\n";
218                                 return 0;
219                         }
220
221                 }
222
223                 close($fh);
224
225                 print ", $items items";
226
227                 if ($tar_size_inarc == 0 && $items == 0) {
228                         print ", EMPTY tar\n";
229
230                         my $backup_id = get_backup_id($host, $share, $num);
231
232                         my $sth_inc_deleted = $dbh->prepare(qq{
233                                 update backups set
234                                         inc_deleted = true
235                                 where id = ?
236                         });
237                         $sth_inc_deleted->execute($backup_id);
238
239                         $dbh->commit;
240
241                         return 1;
242                 }
243
244                 my $tar_size = get_gzip_size( $path );
245
246                 # real tar size is bigger because of padding    
247                 if ($tar_size_inarc > $tar_size) {
248                         print ", size of files in tar ($tar_size_inarc) bigger than whole tar ($tar_size)!\n";
249                         return 0;
250                 }
251
252                 #
253                 # check if md5 exists, and if not, create one
254                 #
255
256                 my $md5_path = $path;
257                 $md5_path =~ s/\.tar\.gz$/.md5/ || die "can't create md5 filename from $md5_path";
258                 if (! -e $md5_path || -z $md5_path) {
259                         print ", creating md5";
260                         system( $bin->{md5sum} . " $path > $md5_path") == 0 or die "can't create md5 $path: $!";
261                 } else {
262                         ## FIXME check if existing md5 is valid
263                 }
264
265                 my $md5 = read_file( $md5_path ) || die "can't read md5sum file $md5_path: $!";
266                 $md5 =~ s#\s.*$##;
267
268                 # extract part number from filename
269                 my $part_nr = 1;
270                 $part_nr = $1 if ($tarfilename =~ m#/(\d+)\.tar\.gz#);
271
272                 #
273                 # finally, check if backup_parts table in database is valid
274                 #
275
276                 check_part($host, $share, $num, $part_nr, $tar_size, $size, $md5, $items);
277         }
278
279         # short-cut and exit;
280         return $same unless($same);
281
282         @tar_files = sort @tar_files;
283         print "\n\t",($#tar_files + 1), " tar files";
284
285         my $sth = $dbh->prepare(qq{
286                 SELECT path,type
287                 FROM files
288                 JOIN shares on shares.id = shareid
289                 JOIN hosts on hosts.id = shares.hostid
290                 WHERE hosts.name = ? and shares.name = ? and backupnum = ?
291         });
292         $sth->execute($host, $share, $num);
293         my @db_files;
294         while( my $row = $sth->fetchrow_hashref ) {
295
296                 my $path = $row->{'path'} || die "no path?";
297                 $path =~ s#^/#./#;
298                 $path .= '/' if ($row->{'type'} == BPC_FTYPE_DIR);
299                 push @db_files, $path;
300         }
301
302         print " ",($#db_files + 1), " database files, diff";
303
304         @db_files = sort @db_files;
305
306         if ($#tar_files != $#db_files) {
307                 $same = 0;
308                 print " NUMBER";
309         } else {
310                 my $diff = Algorithm::Diff->new(\@tar_files, \@db_files);
311                 while ( $diff->Next() ) {
312                         next if $diff->Same();
313                         $same = 0;
314                         print "< $_\n" for $diff->Items(1);
315                         print "> $_\n" for $diff->Items(2);
316                 }
317         }
318
319         print " ",($same ? 'ok' : 'DIFFERENT'),
320                 ", dur: ",fmt_time(time() - $t), "\n";
321
322         return $same;
323 }
324
325
326 #----- main
327
328 my $sth = $dbh->prepare( qq{
329         
330 select
331         backups.id as backup_id,
332         hosts.name as host,
333         shares.name as share,
334         backups.num as num,
335         inc_size,
336         parts
337 from backups
338         join shares on backups.hostid = shares.hostid
339                 and shares.id = backups.shareid
340         join hosts on shares.hostid = hosts.id
341 where not inc_deleted
342 order by backups.date
343
344 } );
345
346 $sth->execute();
347 my $num_backups = $sth->rows;
348 my $curr_backup = 1;
349
350 while (my $row = $sth->fetchrow_hashref) {
351
352         $curr_backup++;
353
354         my $tar_file = BackupPC::SearchLib::getGzipName($row->{'host'}, $row->{'share'}, $row->{'num'});
355
356         # this will return -1 if file doesn't exist
357         my $size = BackupPC::SearchLib::get_tgz_size_by_name($tar_file);
358
359         print "# size: $size backup.size: ", $row->{inc_size},"\n" if ($opt{d});
360
361         if ( $row->{'inc_size'} != -1 && $size != -1 && $row->{'inc_size'} >= $size) {
362                 if ($check) {
363                         tar_check($row->{'host'}, $row->{'share'}, $row->{'num'}, $tar_file) && next;
364                 } else {
365                         next;
366                 }
367         }
368
369         print curr_time, " creating $curr_backup/$num_backups ", $row->{'host'}, ":", $row->{'share'}, " #", $row->{'num'}, " -> $tar_file";
370
371         my $t = time();
372
373         # re-create archive?
374         my $cmd = qq{ $tarIncCreate -h "$row->{'host'}" -s "$row->{'share'}" -n $row->{'num'} -f };
375         print STDERR "## $cmd\n" if ($debug);
376
377         if (system($cmd) != 0) {
378                 print STDERR " FAILED";
379         }
380
381         print ", dur: ",fmt_time(time() - $t), "\n";
382
383         $dbh->commit;
384
385 }
386
387 undef $sth;
388 $dbh->disconnect;