r8517@llin: dpavlin | 2005-10-14 16:02:43 +0200
[BackupPC.git] / bin / BackupPC_updatedb
1 #!/usr/local/bin/perl -w
2
3 use strict;
4 use lib "__INSTALLDIR__/lib";
5
6 use DBI;
7 use BackupPC::Lib;
8 use BackupPC::View;
9 use Data::Dumper;
10 use Getopt::Std;
11 use Time::HiRes qw/time/;
12 use File::Pid;
13 use POSIX qw/strftime/;
14 use BackupPC::SearchLib;
15
16 use constant BPC_FTYPE_DIR => 5;
17 use constant EST_CHUNK => 100000;
18
19 my $debug = 0;
20 $|=1;
21
22 my $start_t = time();
23
24 my $pidfile = new File::Pid;
25
26 if (my $pid = $pidfile->running ) {
27         die "$0 already running: $pid\n";
28 } elsif ($pidfile->pid ne $$) {
29         $pidfile->remove;
30         $pidfile = new File::Pid;
31 }
32 $pidfile->write;
33 print STDERR "$0 using pid ",$pidfile->pid," file ",$pidfile->file,"\n";
34
35 my $t_fmt = '%Y-%m-%d %H:%M:%S';
36
37 my $hosts;
38 my $bpc = BackupPC::Lib->new || die;
39 my %Conf = $bpc->Conf();
40 my $TopDir = $bpc->TopDir();
41 my $beenThere = {};
42
43 my $dsn = $Conf{SearchDSN} || die "Need SearchDSN in config.pl\n";
44 my $user = $Conf{SearchUser} || '';
45
46 my $use_hest = $Conf{HyperEstraierIndex};
47 my ($index_path, $index_node_url) = BackupPC::SearchLib::getHyperEstraier_url($use_hest);
48
49 my $dbh = DBI->connect($dsn, $user, "", { RaiseError => 1, AutoCommit => 0 });
50
51 my %opt;
52
53 if ( !getopts("cdm:v:ij", \%opt ) ) {
54         print STDERR <<EOF;
55 usage: $0 [-c|-d] [-m num] [-v|-v level] [-i]
56
57 Options:
58         -c      create database on first use
59         -d      delete database before import
60         -m num  import just num increments for one host
61         -v num  set verbosity (debug) level (default $debug)
62         -i      update Hyper Estraier full text index
63         -j      update full text, don't check existing files
64
65 Option -j is variation on -i. It will allow faster initial creation
66 of full-text index from existing database.
67
68 EOF
69         exit 1;
70 }
71
72 if ($opt{v}) {
73         print "Debug level at $opt{v}\n";
74         $debug = $opt{v};
75 }
76
77 #---- subs ----
78
79 sub fmt_time {
80         my $t = shift || return;
81         my $out = "";
82         my ($ss,$mm,$hh) = gmtime($t);
83         $out .= "${hh}h" if ($hh);
84         $out .= sprintf("%02d:%02d", $mm,$ss);
85         return $out;
86 }
87
88 sub curr_time {
89         return strftime($t_fmt,localtime());
90 }
91
92 my $hest_db;
93 my $hest_node;
94
95 sub signal {
96         my($sig) = @_;
97         if ($hest_db) {
98                 print "\nCaught a SIG$sig--syncing database and shutting down\n";
99                 $hest_db->sync();
100                 $hest_db->close();
101         }
102         exit(0);
103 }
104
105 $SIG{'INT'}  = \&signal;
106 $SIG{'QUIT'} = \&signal;
107
108 sub hest_update {
109
110         my ($host_id, $share_id, $num) = @_;
111
112         my $skip_check = $opt{j} && print STDERR "Skipping check for existing files -- this should be used only with initital import\n";
113
114         unless ($use_hest) {
115                 print STDERR "HyperEstraier support not enabled in configuration\n";
116                 return;
117         }
118
119         print curr_time," updating HyperEstraier:";
120
121         my $t = time();
122
123         my $offset = 0;
124         my $added = 0;
125
126         print " opening index $use_hest";
127         if ($index_path) {
128                 $hest_db = HyperEstraier::Database->new();
129                 $hest_db->open($TopDir . $index_path, $HyperEstraier::Database::DBWRITER | $HyperEstraier::Database::DBCREAT);
130                 print " directly";
131         } elsif ($index_node_url) {
132                 $hest_node ||= HyperEstraier::Node->new($index_node_url);
133                 $hest_node->set_auth('admin', 'admin');
134                 print " via node URL";
135         } else {
136                 die "don't know how to use HyperEstraier Index $use_hest";
137         }
138         print " increment is " . EST_CHUNK . " files:";
139
140         my $results = 0;
141
142         do {
143
144                 my $where = '';
145                 my @data;
146                 if (defined($host_id) && defined($share_id) && defined($num)) {
147                         $where = qq{
148                         WHERE
149                                 hosts.id = ? AND
150                                 shares.id = ? AND
151                                 files.backupnum = ?
152                         };
153                         @data = ( $host_id, $share_id, $num );
154                 }
155
156                 my $limit = sprintf('LIMIT '.EST_CHUNK.' OFFSET %d', $offset);
157
158                 my $sth = $dbh->prepare(qq{
159                         SELECT
160                                 files.id                        AS fid,
161                                 hosts.name                      AS hname,
162                                 shares.name                     AS sname,
163                                 -- shares.share                 AS sharename,
164                                 files.backupnum                 AS backupnum,
165                                 -- files.name                   AS filename,
166                                 files.path                      AS filepath,
167                                 files.date                      AS date,
168                                 files.type                      AS type,
169                                 files.size                      AS size,
170                                 files.shareid                   AS shareid,
171                                 backups.date                    AS backup_date
172                         FROM files 
173                                 INNER JOIN shares       ON files.shareID=shares.ID
174                                 INNER JOIN hosts        ON hosts.ID = shares.hostID
175                                 INNER JOIN backups      ON backups.num = files.backupNum and backups.hostID = hosts.ID AND backups.shareID = shares.ID
176                         $where
177                         $limit
178                 });
179
180                 $sth->execute(@data);
181                 $results = $sth->rows;
182
183                 if ($results == 0) {
184                         print " - no new files\n";
185                         last;
186                 }
187
188                 sub fmt_date {
189                         my $t = shift || return;
190                         my $iso = BackupPC::Lib::timeStamp($t);
191                         $iso =~ s/\s/T/;
192                         return $iso;
193                 }
194
195                 while (my $row = $sth->fetchrow_hashref()) {
196
197                         my $fid = $row->{'fid'} || die "no fid?";
198                         my $uri = 'file:///' . $fid;
199
200                         unless ($skip_check) {
201                                 my $id = ($hest_db || $hest_node)->uri_to_id($uri);
202                                 next unless ($id == -1);
203                         }
204
205                         # create a document object 
206                         my $doc = HyperEstraier::Document->new;
207
208                         # add attributes to the document object 
209                         $doc->add_attr('@uri', $uri);
210
211                         foreach my $c (@{ $sth->{NAME} }) {
212                                 $doc->add_attr($c, $row->{$c}) if ($row->{$c});
213                         }
214
215                         #$doc->add_attr('@cdate', fmt_date($row->{'date'}));
216
217                         # add the body text to the document object 
218                         my $path = $row->{'filepath'};
219                         $doc->add_text($path);
220                         $path =~ s/(.)/$1 /g;
221                         $doc->add_hidden_text($path);
222
223                         print STDERR $doc->dump_draft,"\n" if ($debug > 1);
224
225                         # register the document object to the database
226                         if ($hest_db) {
227                                 $hest_db->put_doc($doc, $HyperEstraier::Database::PDCLEAN);
228                         } elsif ($hest_node) {
229                                 $hest_node->put_doc($doc);
230                         } else {
231                                 die "not supported";
232                         }
233                         $added++;
234                 }
235
236                 print " $added";
237                 $hest_db->sync() if ($index_path);
238
239                 $offset += EST_CHUNK;
240
241         } while ($results == EST_CHUNK);
242
243         if ($index_path) {
244                 print ", close";
245                 $hest_db->close();
246         }
247
248         my $dur = (time() - $t) || 1;
249         printf(" [%.2f/s dur: %s]\n",
250                 ( $added / $dur ),
251                 fmt_time($dur)
252         );
253 }
254
255 #---- /subs ----
256
257
258 ## update index ##
259 if (($opt{i} || $opt{j} || ($index_path && ! -e $index_path)) && !$opt{c}) {
260         # update all
261         print "force update of HyperEstraier index ";
262         print "importing existing data" unless (-e $index_path);
263         print "by -i flag" if ($opt{i});
264         print "by -j flag" if ($opt{j});
265         print "\n";
266         hest_update();
267 }
268
269 ## create tables ##
270 if ($opt{c}) {
271         sub do_index {
272                 my $index = shift || return;
273                 my ($table,$col,$unique) = split(/:/, $index);
274                 $unique ||= '';
275                 $index =~ s/\W+/_/g;
276                 print "$index on $table($col)" . ( $unique ? "u" : "" ) . " ";
277                 $dbh->do(qq{ create $unique index $index on $table($col) });
278         }
279
280         print "creating tables...\n";
281
282         $dbh->do( qq{
283                 create table hosts (
284                         ID      SERIAL          PRIMARY KEY,
285                         name    VARCHAR(30)     NOT NULL,
286                         IP      VARCHAR(15)
287                 );            
288
289                 create table shares (
290                         ID      SERIAL          PRIMARY KEY,
291                         hostID  INTEGER         NOT NULL references hosts(id),
292                         name    VARCHAR(30)     NOT NULL,
293                         share   VARCHAR(200)    NOT NULL
294                 );            
295
296                 create table dvds (
297                         ID      SERIAL          PRIMARY KEY, 
298                         num     INTEGER         NOT NULL,
299                         name    VARCHAR(255)    NOT NULL,
300                         mjesto  VARCHAR(255)
301                 );
302
303                 create table backups (
304                         id      serial,
305                         hostID  INTEGER         NOT NULL references hosts(id),
306                         num     INTEGER         NOT NULL,
307                         date    integer         NOT NULL, 
308                         type    CHAR(4)         not null,
309                         shareID integer         not null references shares(id),
310                         size    bigint          not null,
311                         inc_size bigint         not null default -1,
312                         inc_deleted boolean     default false,
313                         parts   integer         not null default 1,
314                         PRIMARY KEY(id)
315                 );            
316
317                 create table files (
318                         ID              SERIAL,
319                         shareID         INTEGER NOT NULL references shares(id),
320                         backupNum       INTEGER NOT NULL,
321                         name            VARCHAR(255) NOT NULL,
322                         path            VARCHAR(255) NOT NULL,
323                         date            integer NOT NULL,
324                         type            INTEGER NOT NULL,
325                         size            bigint  NOT NULL,
326                         primary key(id)
327                 );
328
329                 create table archive (
330                         id              serial,
331                         dvd_nr          int not null,
332                         total_size      bigint default -1,
333                         note            text,
334                         username        varchar(20) not null,
335                         date            timestamp default now(),
336                         primary key(id)
337                 );      
338
339                 create table archive_backup (
340                         archive_id      int not null references archive(id) on delete cascade,
341                         backup_id       int not null references backups(id),
342                         primary key(archive_id, backup_id)
343                 );
344
345                 create table archive_burned (
346                         archive_id      int references archive(id),
347                         date            timestamp default now(),
348                         part            int not null default 1,
349                         copy            int not null default 1,
350                         iso_size bigint default -1
351                 );
352
353         });
354
355         print "creating indexes: ";
356
357         foreach my $index (qw(
358                 hosts:name
359                 backups:hostID
360                 backups:num
361                 backups:shareID
362                 shares:hostID
363                 shares:name
364                 files:shareID
365                 files:path
366                 files:name
367                 files:date
368                 files:size
369                 archive:dvd_nr
370                 archive_burned:archive_id
371         )) {
372                 do_index($index);
373         }
374
375         print " creating sequence: ";
376         foreach my $seq (qw/dvd_nr/) {
377                 print "$seq ";
378                 $dbh->do( qq{ CREATE SEQUENCE $seq } );
379         }
380
381
382         print "...\n";
383
384         $dbh->commit;
385
386 }
387
388 ## delete data before inseting ##
389 if ($opt{d}) {
390         print "deleting ";
391         foreach my $table (qw(files dvds backups shares hosts)) {
392                 print "$table ";
393                 $dbh->do(qq{ DELETE FROM $table });
394         }
395         print " done...\n";
396
397         $dbh->commit;
398 }
399
400 ## insert new values ##
401
402 # get hosts
403 $hosts = $bpc->HostInfoRead();
404 my $hostID;
405 my $shareID;
406
407 my $sth;
408
409 $sth->{insert_hosts} = $dbh->prepare(qq{
410 INSERT INTO hosts (name, IP) VALUES (?,?)
411 });
412
413 $sth->{hosts_by_name} = $dbh->prepare(qq{
414 SELECT ID FROM hosts WHERE name=?
415 });
416
417 $sth->{backups_count} = $dbh->prepare(qq{
418 SELECT COUNT(*)
419 FROM backups
420 WHERE hostID=? AND num=? AND shareid=?
421 });
422
423 $sth->{insert_backups} = $dbh->prepare(qq{
424 INSERT INTO backups (hostID, num, date, type, shareid, size)
425 VALUES (?,?,?,?,?,?)
426 });
427
428 $sth->{insert_files} = $dbh->prepare(qq{
429 INSERT INTO files
430         (shareID, backupNum, name, path, date, type, size)
431         VALUES (?,?,?,?,?,?,?)
432 });
433
434 foreach my $host_key (keys %{$hosts}) {
435
436         my $hostname = $hosts->{$host_key}->{'host'} || die "can't find host for $host_key";
437
438         $sth->{hosts_by_name}->execute($hosts->{$host_key}->{'host'});
439
440         unless (($hostID) = $sth->{hosts_by_name}->fetchrow_array()) {
441                 $sth->{insert_hosts}->execute(
442                         $hosts->{$host_key}->{'host'},
443                         $hosts->{$host_key}->{'ip'}
444                 );
445
446                 $hostID = $dbh->last_insert_id(undef,undef,'hosts',undef);
447         }
448
449         print "host ".$hosts->{$host_key}->{'host'}.": ";
450  
451         # get backups for a host
452         my @backups = $bpc->BackupInfoRead($hostname);
453         my $incs = scalar @backups;
454         print  "$incs increments\n";
455
456         my $inc_nr = 0;
457         $beenThere = {};
458
459         foreach my $backup (@backups) {
460
461                 $inc_nr++;
462                 last if ($opt{m} && $inc_nr > $opt{m});
463
464                 my $backupNum = $backup->{'num'};
465                 my @backupShares = ();
466
467                 printf("%-10s %2d/%-2d #%-2d %s %5s/%5s files (date: %s dur: %s)\n", 
468                         $hosts->{$host_key}->{'host'},
469                         $inc_nr, $incs, $backupNum, 
470                         $backup->{type} || '?',
471                         $backup->{nFilesNew} || '?', $backup->{nFiles} || '?',
472                         strftime($t_fmt,localtime($backup->{startTime})),
473                         fmt_time($backup->{endTime} - $backup->{startTime})
474                 );
475
476                 my $files = BackupPC::View->new($bpc, $hostname, \@backups, 1);
477                 foreach my $share ($files->shareList($backupNum)) {
478
479                         my $t = time();
480
481                         $shareID = getShareID($share, $hostID, $hostname);
482                 
483                         $sth->{backups_count}->execute($hostID, $backupNum, $shareID);
484                         my ($count) = $sth->{backups_count}->fetchrow_array();
485                         # skip if allready in database!
486                         next if ($count > 0);
487
488                         # dump some log
489                         print curr_time," ", $share;
490
491                         my ($f, $nf, $d, $nd, $size) = recurseDir($bpc, $hostname, $files, $backupNum, $share, "", $shareID);
492
493                         $sth->{insert_backups}->execute(
494                                 $hostID,
495                                 $backupNum,
496                                 $backup->{'endTime'},
497                                 substr($backup->{'type'},0,4),
498                                 $shareID,
499                                 $size,
500                         );
501
502                         print " commit";
503                         $dbh->commit();
504
505                         my $dur = (time() - $t) || 1;
506                         printf(" %d/%d files %d/%d dirs %0.2f MB [%.2f/s dur: %s]\n",
507                                 $nf, $f, $nd, $d,
508                                 ($size / 1024 / 1024),
509                                 ( ($f+$d) / $dur ),
510                                 fmt_time($dur)
511                         );
512
513                         hest_update($hostID, $shareID, $backupNum) if ($nf + $nd > 0);
514                 }
515
516         }
517 }
518 undef $sth;
519 $dbh->commit();
520 $dbh->disconnect();
521
522 print "total duration: ",fmt_time(time() - $start_t),"\n";
523
524 $pidfile->remove;
525
526 sub getShareID() {
527
528         my ($share, $hostID, $hostname) = @_;
529
530         $sth->{share_id} ||= $dbh->prepare(qq{
531                 SELECT ID FROM shares WHERE hostID=? AND name=?
532         });
533
534         $sth->{share_id}->execute($hostID,$share);
535
536         my ($id) = $sth->{share_id}->fetchrow_array();
537
538         return $id if (defined($id));
539
540         $sth->{insert_share} ||= $dbh->prepare(qq{
541                 INSERT INTO shares 
542                         (hostID,name,share) 
543                 VALUES (?,?,?)
544         });
545
546         my $drop_down = $hostname . '/' . $share;
547         $drop_down =~ s#//+#/#g;
548
549         $sth->{insert_share}->execute($hostID,$share, $drop_down);
550         return $dbh->last_insert_id(undef,undef,'shares',undef);
551 }
552
553 sub found_in_db {
554
555         my @data = @_;
556         shift @data;
557
558         my ($key, $shareID,undef,$name,$path,$date,undef,$size) = @_;
559
560         return $beenThere->{$key} if (defined($beenThere->{$key}));
561
562         $sth->{file_in_db} ||= $dbh->prepare(qq{
563                 SELECT 1 FROM files
564                 WHERE shareID = ? and
565                         path = ? and 
566                         date = ? and
567                         size = ?
568                 LIMIT 1
569         });
570
571         my @param = ($shareID,$path,$date,$size);
572         $sth->{file_in_db}->execute(@param);
573         my $rows = $sth->{file_in_db}->rows;
574         print STDERR "## found_in_db($shareID,$path,$date,$size) ",( $rows ? '+' : '-' ), join(" ",@param), "\n" if ($debug >= 3);
575
576         $beenThere->{$key}++;
577
578         $sth->{'insert_files'}->execute(@data) unless ($rows);
579         return $rows;
580 }
581
582 ####################################################
583 # recursing through filesystem structure and       #
584 # and returning flattened files list               #
585 ####################################################
586 sub recurseDir($$$$$$$$) {
587
588         my ($bpc, $hostname, $files, $backupNum, $share, $dir, $shareID) = @_;
589
590         print STDERR "\nrecurse($hostname,$backupNum,$share,$dir,$shareID)\n" if ($debug >= 1);
591
592         my ($nr_files, $new_files, $nr_dirs, $new_dirs, $size) = (0,0,0,0,0);
593
594         { # scope
595                 my @stack;
596
597                 print STDERR "# dirAttrib($backupNum, $share, $dir)\n" if ($debug >= 2);
598                 my $filesInBackup = $files->dirAttrib($backupNum, $share, $dir);
599
600                 # first, add all the entries in current directory
601                 foreach my $path_key (keys %{$filesInBackup}) {
602                         print STDERR "# file ",Dumper($filesInBackup->{$path_key}),"\n" if ($debug >= 3);
603                         my @data = (
604                                 $shareID,
605                                 $backupNum,
606                                 $path_key,
607                                 $filesInBackup->{$path_key}->{'relPath'},
608                                 $filesInBackup->{$path_key}->{'mtime'},
609                                 $filesInBackup->{$path_key}->{'type'},
610                                 $filesInBackup->{$path_key}->{'size'}
611                         );
612
613                         my $key = join(" ", (
614                                 $shareID,
615                                 $dir,
616                                 $path_key,
617                                 $filesInBackup->{$path_key}->{'mtime'},
618                                 $filesInBackup->{$path_key}->{'size'}
619                         ));
620
621                         my $found;
622                         if (! defined($beenThere->{$key}) && ! ($found = found_in_db($key, @data)) ) {
623                                 print STDERR "# key: $key [", $beenThere->{$key},"]" if ($debug >= 2);
624
625                                 if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {
626                                         $new_dirs++ unless ($found);
627                                         print STDERR " dir\n" if ($debug >= 2);
628                                 } else {
629                                         $new_files++ unless ($found);
630                                         print STDERR " file\n" if ($debug >= 2);
631                                 }
632                                 $size += $filesInBackup->{$path_key}->{'size'} || 0;
633                         }
634
635                         if ($filesInBackup->{$path_key}->{'type'} == BPC_FTYPE_DIR) {
636                                 $nr_dirs++;
637
638                                 my $full_path = $dir . '/' . $path_key;
639                                 push @stack, $full_path;
640                                 print STDERR "### store to stack: $full_path\n" if ($debug >= 3);
641
642 #                               my ($f,$nf,$d,$nd) = recurseDir($bpc, $hostname, $backups, $backupNum, $share, $path_key, $shareID) unless ($beenThere->{$key});
643 #
644 #                               $nr_files += $f;
645 #                               $new_files += $nf;
646 #                               $nr_dirs += $d;
647 #                               $new_dirs += $nd;
648
649                         } else {
650                                 $nr_files++;
651                         }
652                 }
653
654                 print STDERR "## STACK ",join(", ", @stack),"\n" if ($debug >= 2);
655
656                 while ( my $dir = shift @stack ) {
657                         my ($f,$nf,$d,$nd, $s) = recurseDir($bpc, $hostname, $files, $backupNum, $share, $dir, $shareID);
658                         print STDERR "# $dir f: $f nf: $nf d: $d nd: $nd\n" if ($debug >= 1);
659                         $nr_files += $f;
660                         $new_files += $nf;
661                         $nr_dirs += $d;
662                         $new_dirs += $nd;
663                         $size += $s;
664                 }
665         }
666
667         return ($nr_files, $new_files, $nr_dirs, $new_dirs, $size);
668 }
669