duplicate.csv
authorDobrica Pavlinusic <dpavlin@rot13.org>
Mon, 27 Nov 2023 09:52:21 +0000 (10:52 +0100)
committerDobrica Pavlinusic <dpavlin@rot13.org>
Mon, 27 Nov 2023 09:52:21 +0000 (10:52 +0100)
upari.pl

index 4b89c35..f84ce45 100755 (executable)
--- a/upari.pl
+++ b/upari.pl
@@ -85,6 +85,8 @@ if ( -e $keys_file ) {
 our $data;
 our @data_headers;
 
+open(my $duplicate_fh, '>', 'duplicate.csv');
+
 foreach my $val ( 1 .. 4 ) {
        my $file = "$val.csv";
        warn "# $file\n";
@@ -134,6 +136,8 @@ foreach my $val ( 1 .. 4 ) {
                        print "DUPLICATE $key_id $num $val old elements=", $#{ $data->{$key_id}->{$num}->{$val} }, "new ", $#$row, $/;
                        my $diff;
                        my $old = $data->{$key_id}->{$num}->{$val};
+                       print $duplicate_fh join(',', $file, @$old), "\n";
+                       print $duplicate_fh join(',', $file, @$row), "\n";
                        foreach ( 0 .. $#$row ) {
                                if ( $old->[$_] ne $row->[$_] ) {
                                        $diff->[$_] = [ $old->[$_], $row->[$_] ];
@@ -295,3 +299,5 @@ foreach my $key ( sort keys %$data ) {
 close $out_fh;
 print "\n", -s $out_file, " bytes created\n";
 
+close $duplicate_fh;
+