~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/diff-delta.c

  • Committer: Jelmer Vernooij
  • Date: 2012-02-20 13:38:56 UTC
  • mto: (6437.23.12 2.5)
  • mto: This revision was merged to the branch mainline in revision 6473.
  • Revision ID: jelmer@samba.org-20120220133856-v6vh35o51n21v5ru
Cope with repository being missing in more cases.

Show diffs side-by-side

added added

removed removed

Lines of Context:
4
4
 * This code was greatly inspired by parts of LibXDiff from Davide Libenzi
5
5
 * http://www.xmailserver.org/xdiff-lib.html
6
6
 *
7
 
 * Rewritten for GIT by Nicolas Pitre <nico@cam.org>, (C) 2005-2007
 
7
 * Rewritten for GIT by Nicolas Pitre <nico@fluxnic.net>, (C) 2005-2007
8
8
 * Adapted for Bazaar by John Arbash Meinel <john@arbash-meinel.com> (C) 2009
9
9
 *
10
10
 * This program is free software; you can redistribute it and/or modify
280
280
        if (fit_in_old) {
281
281
            // fprintf(stderr, "Fit all %d entries into old index\n",
282
282
            //                 copied_count);
283
 
            /* No need to allocate a new buffer */
284
 
            return NULL;
 
283
            /*
 
284
             * No need to allocate a new buffer, but return old_index ptr so
 
285
             * callers can distinguish this from an OOM failure.
 
286
             */
 
287
            return old_index;
285
288
        } else {
286
289
            // fprintf(stderr, "Fit only %d entries into old index,"
287
290
            //                 " reallocating\n", copied_count);
370
373
}
371
374
 
372
375
 
373
 
struct delta_index *
 
376
delta_result
374
377
create_delta_index(const struct source_info *src,
375
 
                   struct delta_index *old)
 
378
                   struct delta_index *old,
 
379
                   struct delta_index **fresh,
 
380
                   int max_bytes_to_index)
376
381
{
377
382
    unsigned int i, hsize, hmask, num_entries, prev_val, *hash_count;
378
 
    unsigned int total_num_entries;
 
383
    unsigned int total_num_entries, stride, max_entries;
379
384
    const unsigned char *data, *buffer;
380
385
    struct delta_index *index;
381
386
    struct unpacked_index_entry *entry, **hash;
383
388
    unsigned long memsize;
384
389
 
385
390
    if (!src->buf || !src->size)
386
 
        return NULL;
 
391
        return DELTA_SOURCE_EMPTY;
387
392
    buffer = src->buf;
388
393
 
389
394
    /* Determine index hash size.  Note that indexing skips the
390
 
       first byte to allow for optimizing the Rabin's polynomial
391
 
       initialization in create_delta(). */
 
395
       first byte so we subtract 1 to get the edge cases right.
 
396
     */
 
397
    stride = RABIN_WINDOW;
392
398
    num_entries = (src->size - 1)  / RABIN_WINDOW;
 
399
    if (max_bytes_to_index > 0) {
 
400
        max_entries = (unsigned int) (max_bytes_to_index / RABIN_WINDOW);
 
401
        if (num_entries > max_entries) {
 
402
            /* Limit the max number of matching entries. This reduces the 'best'
 
403
             * possible match, but means we don't consume all of ram.
 
404
             */
 
405
            num_entries = max_entries;
 
406
            stride = (src->size - 1) / num_entries;
 
407
        }
 
408
    }
393
409
    if (old != NULL)
394
410
        total_num_entries = num_entries + old->num_entries;
395
411
    else
408
424
          sizeof(*entry) * total_num_entries;
409
425
    mem = malloc(memsize);
410
426
    if (!mem)
411
 
        return NULL;
 
427
        return DELTA_OUT_OF_MEMORY;
412
428
    hash = mem;
413
429
    mem = hash + hsize;
414
430
    entry = mem;
419
435
    hash_count = calloc(hsize, sizeof(*hash_count));
420
436
    if (!hash_count) {
421
437
        free(hash);
422
 
        return NULL;
 
438
        return DELTA_OUT_OF_MEMORY;
423
439
    }
424
440
 
425
441
    /* then populate the index for the new data */
426
442
    prev_val = ~0;
427
 
    for (data = buffer + num_entries * RABIN_WINDOW - RABIN_WINDOW;
 
443
    for (data = buffer + num_entries * stride - RABIN_WINDOW;
428
444
         data >= buffer;
429
 
         data -= RABIN_WINDOW) {
 
445
         data -= stride) {
430
446
        unsigned int val = 0;
431
447
        for (i = 1; i <= RABIN_WINDOW; i++)
432
448
            val = ((val << 8) | data[i]) ^ T[val >> RABIN_SHIFT];
450
466
    total_num_entries = limit_hash_buckets(hash, hash_count, hsize,
451
467
                                           total_num_entries);
452
468
    free(hash_count);
453
 
    if (old) {
454
 
        old->last_src = src;
455
 
    }
456
469
    index = pack_delta_index(hash, hsize, total_num_entries, old);
457
470
    free(hash);
 
471
    /* pack_delta_index only returns NULL on malloc failure */
458
472
    if (!index) {
459
 
        return NULL;
 
473
        return DELTA_OUT_OF_MEMORY;
460
474
    }
461
475
    index->last_src = src;
462
 
    return index;
 
476
    *fresh = index;
 
477
    return DELTA_OK;
463
478
}
464
479
 
465
480
/* Take some entries, and put them into a custom hash.
473
488
                       unsigned int hsize)
474
489
{
475
490
    unsigned int hash_offset, hmask, memsize;
476
 
    struct index_entry *entry, *last_entry;
 
491
    struct index_entry *entry;
477
492
    struct index_entry_linked_list *out_entry, **hash;
478
493
    void *mem;
479
494
 
493
508
    /* We know that entries are in the order we want in the output, but they
494
509
     * aren't "grouped" by hash bucket yet.
495
510
     */
496
 
    last_entry = entries + num_entries;
497
511
    for (entry = entries + num_entries - 1; entry >= entries; --entry) {
498
512
        hash_offset = entry->val & hmask;
499
513
        out_entry->p_entry = entry;
518
532
    unsigned int i, j, hsize, hmask, total_num_entries;
519
533
    struct delta_index *index;
520
534
    struct index_entry *entry, *packed_entry, **packed_hash;
521
 
    struct index_entry *last_entry, null_entry = {0};
 
535
    struct index_entry null_entry = {0};
522
536
    void *mem;
523
537
    unsigned long memsize;
524
538
    struct index_entry_linked_list *unpacked_entry, **mini_hash;
569
583
        free(index);
570
584
        return NULL;
571
585
    }
572
 
    last_entry = entries + num_entries;
573
586
    for (i = 0; i < hsize; i++) {
574
587
        /*
575
588
         * Coalesce all entries belonging in one hash bucket
679
692
    }
680
693
}
681
694
 
682
 
struct delta_index *
 
695
delta_result
683
696
create_delta_index_from_delta(const struct source_info *src,
684
 
                              struct delta_index *old_index)
 
697
                              struct delta_index *old_index,
 
698
                              struct delta_index **fresh)
685
699
{
686
700
    unsigned int i, num_entries, max_num_entries, prev_val, num_inserted;
687
701
    unsigned int hash_offset;
688
702
    const unsigned char *data, *buffer, *top;
689
703
    unsigned char cmd;
690
704
    struct delta_index *new_index;
691
 
    struct index_entry *entry, *entries, *old_entry;
 
705
    struct index_entry *entry, *entries;
692
706
 
 
707
    if (!old_index)
 
708
        return DELTA_INDEX_NEEDED;
693
709
    if (!src->buf || !src->size)
694
 
        return NULL;
 
710
        return DELTA_SOURCE_EMPTY;
695
711
    buffer = src->buf;
696
712
    top = buffer + src->size;
697
713
 
704
720
 
705
721
    max_num_entries = (src->size - 1)  / RABIN_WINDOW;
706
722
 
 
723
    if (!max_num_entries) {
 
724
        *fresh = old_index;
 
725
        return DELTA_OK;
 
726
    }
 
727
 
707
728
    /* allocate an array to hold whatever entries we find */
708
729
    entries = malloc(sizeof(*entry) * max_num_entries);
709
730
    if (!entries) /* malloc failure */
710
 
        return NULL;
 
731
        return DELTA_OUT_OF_MEMORY;
711
732
 
712
733
    /* then populate the index for the new data */
713
734
    prev_val = ~0;
714
735
    data = buffer;
715
736
    /* target size */
716
 
    get_delta_hdr_size(&data, top);
 
737
    /* get_delta_hdr_size doesn't mutate the content, just moves the
 
738
     * start-of-data pointer, so it is safe to do the cast.
 
739
     */
 
740
    get_delta_hdr_size((unsigned char**)&data, top);
717
741
    entry = entries; /* start at the first slot */
718
742
    num_entries = 0; /* calculate the real number of entries */
719
743
    while (data < top) {
771
795
        }
772
796
    }
773
797
    if (data != top) {
774
 
        /* Something was wrong with this delta */
 
798
        /* The source_info data passed was corrupted or otherwise invalid */
775
799
        free(entries);
776
 
        return NULL;
 
800
        return DELTA_SOURCE_BAD;
777
801
    }
778
802
    if (num_entries == 0) {
779
803
        /** Nothing to index **/
780
804
        free(entries);
781
 
        return NULL;
 
805
        *fresh = old_index;
 
806
        return DELTA_OK;
782
807
    }
783
 
    assert(old_index != NULL);
784
808
    old_index->last_src = src;
785
809
    /* See if we can fill in these values into the holes in the array */
786
810
    entry = entries;
787
811
    num_inserted = 0;
788
812
    for (; num_entries > 0; --num_entries, ++entry) {
 
813
        struct index_entry *next_bucket_entry, *cur_entry, *bucket_first_entry;
789
814
        hash_offset = (entry->val & old_index->hash_mask);
790
815
        /* The basic structure is a hash => packed_entries that fit in that
791
816
         * hash bucket. Things are structured such that the hash-pointers are
794
819
         * forward. If there are no NULL targets, then we know because
795
820
         * entry->ptr will not be NULL.
796
821
         */
797
 
        old_entry = old_index->hash[hash_offset + 1];
798
 
        old_entry--;
799
 
        while (old_entry->ptr == NULL
800
 
               && old_entry >= old_index->hash[hash_offset]) {
801
 
            old_entry--;
 
822
        // The start of the next bucket, this may point past the end of the
 
823
        // entry table if hash_offset is the last bucket.
 
824
        next_bucket_entry = old_index->hash[hash_offset + 1];
 
825
        // First entry in this bucket
 
826
        bucket_first_entry = old_index->hash[hash_offset];
 
827
        cur_entry = next_bucket_entry - 1;
 
828
        while (cur_entry->ptr == NULL && cur_entry >= bucket_first_entry) {
 
829
            cur_entry--;
802
830
        }
803
 
        old_entry++;
804
 
        if (old_entry->ptr != NULL
805
 
            || old_entry >= old_index->hash[hash_offset + 1]) {
 
831
        // cur_entry now either points at the first NULL, or it points to
 
832
        // next_bucket_entry if there were no blank spots.
 
833
        cur_entry++;
 
834
        if (cur_entry >= next_bucket_entry || cur_entry->ptr != NULL) {
806
835
            /* There is no room for this entry, we have to resize */
807
836
            // char buff[128];
808
837
            // get_text(buff, entry->ptr);
819
848
            break;
820
849
        }
821
850
        num_inserted++;
822
 
        *old_entry = *entry;
 
851
        *cur_entry = *entry;
823
852
        /* For entries which we *do* manage to insert into old_index, we don't
824
853
         * want them double copied into the final output.
825
854
         */
833
862
        new_index = create_index_from_old_and_new_entries(old_index,
834
863
            entry, num_entries);
835
864
    } else {
836
 
        new_index = NULL;
 
865
        new_index = old_index;
837
866
        // fprintf(stderr, "inserted %d without resizing\n", num_inserted);
838
867
    }
839
868
    free(entries);
840
 
    return new_index;
 
869
    /* create_index_from_old_and_new_entries returns NULL on malloc failure */
 
870
    if (!new_index)
 
871
        return DELTA_OUT_OF_MEMORY;
 
872
    *fresh = new_index;
 
873
    return DELTA_OK;
841
874
}
842
875
 
843
876
void free_delta_index(struct delta_index *index)
845
878
    free(index);
846
879
}
847
880
 
848
 
unsigned long sizeof_delta_index(struct delta_index *index)
 
881
unsigned long
 
882
sizeof_delta_index(struct delta_index *index)
849
883
{
850
884
    if (index)
851
885
        return index->memsize;
859
893
 */
860
894
#define MAX_OP_SIZE (5 + 5 + 1 + RABIN_WINDOW + 7)
861
895
 
862
 
void *
 
896
delta_result
863
897
create_delta(const struct delta_index *index,
864
898
             const void *trg_buf, unsigned long trg_size,
865
 
             unsigned long *delta_size, unsigned long max_size)
 
899
             unsigned long *delta_size, unsigned long max_size,
 
900
             void **delta_data)
866
901
{
867
 
    unsigned int i, outpos, outsize, moff, msize, val;
 
902
    unsigned int i, outpos, outsize, moff, val;
 
903
    int msize;
868
904
    const struct source_info *msource;
869
905
    int inscnt;
870
906
    const unsigned char *ref_data, *ref_top, *data, *top;
872
908
    unsigned long source_size;
873
909
 
874
910
    if (!trg_buf || !trg_size)
875
 
        return NULL;
 
911
        return DELTA_BUFFER_EMPTY;
876
912
    if (index == NULL)
877
 
        return NULL;
 
913
        return DELTA_INDEX_NEEDED;
878
914
 
879
915
    outpos = 0;
880
916
    outsize = 8192;
882
918
        outsize = max_size + MAX_OP_SIZE + 1;
883
919
    out = malloc(outsize);
884
920
    if (!out)
885
 
        return NULL;
 
921
        return DELTA_OUT_OF_MEMORY;
886
922
 
887
923
    source_size = index->last_src->size + index->last_src->agg_offset;
888
924
 
935
971
                 entry++) {
936
972
                const unsigned char *ref;
937
973
                const unsigned char *src;
938
 
                unsigned int ref_size;
 
974
                int ref_size;
939
975
                if (entry->val != val)
940
976
                    continue;
941
977
                ref = entry->ptr;
948
984
                 * match more bytes with this location that we have already
949
985
                 * matched.
950
986
                 */
951
 
                if (ref_size > top - src)
 
987
                if (ref_size > (top - src))
952
988
                    ref_size = top - src;
953
989
                if (ref_size <= msize)
954
990
                    break;
955
991
                /* See how many bytes actually match at this location. */
956
992
                while (ref_size-- && *src++ == *ref)
957
993
                    ref++;
958
 
                if (msize < ref - entry->ptr) {
 
994
                if (msize < (ref - entry->ptr)) {
959
995
                    /* this is our best match so far */
960
996
                    msize = ref - entry->ptr;
961
997
                    msource = entry->src;
1061
1097
            out = realloc(out, outsize);
1062
1098
            if (!out) {
1063
1099
                free(tmp);
1064
 
                return NULL;
 
1100
                return DELTA_OUT_OF_MEMORY;
1065
1101
            }
1066
1102
        }
1067
1103
    }
1071
1107
 
1072
1108
    if (max_size && outpos > max_size) {
1073
1109
        free(out);
1074
 
        return NULL;
 
1110
        return DELTA_SIZE_TOO_BIG;
1075
1111
    }
1076
1112
 
1077
1113
    *delta_size = outpos;
1078
 
    return out;
 
1114
    *delta_data = out;
 
1115
    return DELTA_OK;
 
1116
}
 
1117
 
 
1118
 
 
1119
int
 
1120
get_entry_summary(const struct delta_index *index, int pos,
 
1121
                  unsigned int *text_offset, unsigned int *hash_val)
 
1122
{
 
1123
    int hsize;
 
1124
    const struct index_entry *entry;
 
1125
    const struct index_entry *start_of_entries;
 
1126
    unsigned int offset;
 
1127
    if (pos < 0 || text_offset == NULL || hash_val == NULL
 
1128
        || index == NULL)
 
1129
    {
 
1130
        return 0;
 
1131
    }
 
1132
    hsize = index->hash_mask + 1;
 
1133
    start_of_entries = (struct index_entry *)(((struct index_entry **)index->hash) + (hsize + 1));
 
1134
    entry = start_of_entries + pos;
 
1135
    if (entry > index->last_entry) {
 
1136
        return 0;
 
1137
    }
 
1138
    if (entry->ptr == NULL) {
 
1139
        *text_offset = 0;
 
1140
        *hash_val = 0;
 
1141
    } else {
 
1142
        offset = entry->src->agg_offset;
 
1143
        offset += (entry->ptr - ((unsigned char *)entry->src->buf));
 
1144
        *text_offset = offset;
 
1145
        *hash_val = entry->val;
 
1146
    }
 
1147
    return 1;
 
1148
}
 
1149
 
 
1150
 
 
1151
int
 
1152
get_hash_offset(const struct delta_index *index, int pos,
 
1153
                unsigned int *entry_offset)
 
1154
{
 
1155
    int hsize;
 
1156
    const struct index_entry *entry;
 
1157
    const struct index_entry *start_of_entries;
 
1158
    if (pos < 0 || index == NULL || entry_offset == NULL)
 
1159
    {
 
1160
        return 0;
 
1161
    }
 
1162
    hsize = index->hash_mask + 1;
 
1163
    start_of_entries = (struct index_entry *)(((struct index_entry **)index->hash) + (hsize + 1));
 
1164
    if (pos >= hsize) {
 
1165
        return 0;
 
1166
    }
 
1167
    entry = index->hash[pos];
 
1168
    if (entry == NULL) {
 
1169
        *entry_offset = -1;
 
1170
    } else {
 
1171
        *entry_offset = (entry - start_of_entries);
 
1172
    }
 
1173
    return 1;
 
1174
}
 
1175
 
 
1176
 
 
1177
unsigned int
 
1178
rabin_hash(const unsigned char *data)
 
1179
{
 
1180
    int i;
 
1181
    unsigned int val = 0;
 
1182
    for (i = 0; i < RABIN_WINDOW; i++)
 
1183
        val = ((val << 8) | data[i]) ^ T[val >> RABIN_SHIFT];
 
1184
    return val;
1079
1185
}
1080
1186
 
1081
1187
/* vim: et ts=4 sw=4 sts=4