~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/inventory.py

  • Committer: John Arbash Meinel
  • Date: 2009-06-02 19:56:24 UTC
  • mto: This revision was merged to the branch mainline in revision 4469.
  • Revision ID: john@arbash-meinel.com-20090602195624-utljsyz0qgmq63lg
Add a chunks_to_gzip function.
This allows the _record_to_data code to build up a list of chunks,
rather than requiring a single string.
It should be ~ the same performance when using a single string, since
we are only adding a for() loop over the chunks and an if check.
We could possibly just remove the if check and not worry about adding
some empty strings in there.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2011 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
27
27
# created, but it's not for now.
28
28
ROOT_ID = "TREE_ROOT"
29
29
 
 
30
from copy import deepcopy
 
31
 
30
32
from bzrlib.lazy_import import lazy_import
31
33
lazy_import(globals(), """
32
34
import collections
33
 
import copy
 
35
import os
34
36
import re
35
37
import tarfile
36
38
 
 
39
import bzrlib
37
40
from bzrlib import (
38
41
    chk_map,
39
42
    errors,
40
43
    generate_ids,
41
44
    osutils,
 
45
    symbol_versioning,
 
46
    workingtree,
42
47
    )
43
48
""")
44
49
 
45
 
from bzrlib import (
46
 
    lazy_regex,
47
 
    trace,
48
 
    )
49
 
 
50
 
from bzrlib.static_tuple import StaticTuple
51
 
from bzrlib.symbol_versioning import (
52
 
    deprecated_in,
53
 
    deprecated_method,
54
 
    )
 
50
from bzrlib.errors import (
 
51
    BzrCheckError,
 
52
    BzrError,
 
53
    )
 
54
from bzrlib.symbol_versioning import deprecated_in, deprecated_method
 
55
from bzrlib.trace import mutter
55
56
 
56
57
 
57
58
class InventoryEntry(object):
104
105
    InventoryDirectory('2325', 'wibble', parent_id='123', revision=None)
105
106
    >>> i.path2id('src/wibble')
106
107
    '2325'
 
108
    >>> '2325' in i
 
109
    True
107
110
    >>> i.add(InventoryFile('2326', 'wibble.c', '2325'))
108
111
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
109
112
    >>> i['2326']
129
132
    RENAMED = 'renamed'
130
133
    MODIFIED_AND_RENAMED = 'modified and renamed'
131
134
 
132
 
    __slots__ = ['file_id', 'revision', 'parent_id', 'name']
133
 
 
134
 
    # Attributes that all InventoryEntry instances are expected to have, but
135
 
    # that don't vary for all kinds of entry.  (e.g. symlink_target is only
136
 
    # relevant to InventoryLink, so there's no reason to make every
137
 
    # InventoryFile instance allocate space to hold a value for it.)
138
 
    # Attributes that only vary for files: executable, text_sha1, text_size,
139
 
    # text_id
140
 
    executable = False
141
 
    text_sha1 = None
142
 
    text_size = None
143
 
    text_id = None
144
 
    # Attributes that only vary for symlinks: symlink_target
145
 
    symlink_target = None
146
 
    # Attributes that only vary for tree-references: reference_revision
147
 
    reference_revision = None
148
 
 
 
135
    __slots__ = []
149
136
 
150
137
    def detect_changes(self, old_entry):
151
138
        """Return a (text_modified, meta_modified) from this to old_entry.
172
159
        candidates = {}
173
160
        # identify candidate head revision ids.
174
161
        for inv in previous_inventories:
175
 
            if inv.has_id(self.file_id):
 
162
            if self.file_id in inv:
176
163
                ie = inv[self.file_id]
177
164
                if ie.revision in candidates:
178
165
                    # same revision value in two different inventories:
190
177
                    candidates[ie.revision] = ie
191
178
        return candidates
192
179
 
 
180
    @deprecated_method(deprecated_in((1, 6, 0)))
 
181
    def get_tar_item(self, root, dp, now, tree):
 
182
        """Get a tarfile item and a file stream for its content."""
 
183
        item = tarfile.TarInfo(osutils.pathjoin(root, dp).encode('utf8'))
 
184
        # TODO: would be cool to actually set it to the timestamp of the
 
185
        # revision it was last changed
 
186
        item.mtime = now
 
187
        fileobj = self._put_in_tar(item, tree)
 
188
        return item, fileobj
 
189
 
193
190
    def has_text(self):
194
191
        """Return true if the object this entry represents has textual data.
195
192
 
201
198
        """
202
199
        return False
203
200
 
204
 
    def __init__(self, file_id, name, parent_id):
 
201
    def __init__(self, file_id, name, parent_id, text_id=None):
205
202
        """Create an InventoryEntry
206
203
 
207
204
        The filename must be a single component, relative to the
218
215
        """
219
216
        if '/' in name or '\\' in name:
220
217
            raise errors.InvalidEntryName(name=name)
 
218
        self.executable = False
 
219
        self.revision = None
 
220
        self.text_sha1 = None
 
221
        self.text_size = None
221
222
        self.file_id = file_id
222
 
        self.revision = None
223
223
        self.name = name
 
224
        self.text_id = text_id
224
225
        self.parent_id = parent_id
 
226
        self.symlink_target = None
 
227
        self.reference_revision = None
225
228
 
226
229
    def kind_character(self):
227
230
        """Return a short kind indicator useful for appending to names."""
228
 
        raise errors.BzrError('unknown kind %r' % self.kind)
 
231
        raise BzrError('unknown kind %r' % self.kind)
229
232
 
230
233
    known_kinds = ('file', 'directory', 'symlink')
231
234
 
 
235
    def _put_in_tar(self, item, tree):
 
236
        """populate item for stashing in a tar, and return the content stream.
 
237
 
 
238
        If no content is available, return None.
 
239
        """
 
240
        raise BzrError("don't know how to export {%s} of kind %r" %
 
241
                       (self.file_id, self.kind))
 
242
 
 
243
    @deprecated_method(deprecated_in((1, 6, 0)))
 
244
    def put_on_disk(self, dest, dp, tree):
 
245
        """Create a representation of self on disk in the prefix dest.
 
246
 
 
247
        This is a template method - implement _put_on_disk in subclasses.
 
248
        """
 
249
        fullpath = osutils.pathjoin(dest, dp)
 
250
        self._put_on_disk(fullpath, tree)
 
251
        # mutter("  export {%s} kind %s to %s", self.file_id,
 
252
        #         self.kind, fullpath)
 
253
 
 
254
    def _put_on_disk(self, fullpath, tree):
 
255
        """Put this entry onto disk at fullpath, from tree tree."""
 
256
        raise BzrError("don't know how to export {%s} of kind %r" % (self.file_id, self.kind))
 
257
 
232
258
    def sorted_children(self):
233
259
        return sorted(self.children.items())
234
260
 
236
262
    def versionable_kind(kind):
237
263
        return (kind in ('file', 'directory', 'symlink', 'tree-reference'))
238
264
 
239
 
    def check(self, checker, rev_id, inv):
 
265
    def check(self, checker, rev_id, inv, tree):
240
266
        """Check this inventory entry is intact.
241
267
 
242
268
        This is a template method, override _check for kind specific
248
274
        :param rev_id: Revision id from which this InventoryEntry was loaded.
249
275
             Not necessarily the last-changed revision for this file.
250
276
        :param inv: Inventory from which the entry was loaded.
 
277
        :param tree: RevisionTree for this entry.
251
278
        """
252
279
        if self.parent_id is not None:
253
280
            if not inv.has_id(self.parent_id):
254
 
                raise errors.BzrCheckError(
255
 
                    'missing parent {%s} in inventory for revision {%s}' % (
256
 
                        self.parent_id, rev_id))
257
 
        checker._add_entry_to_text_key_references(inv, self)
258
 
        self._check(checker, rev_id)
 
281
                raise BzrCheckError('missing parent {%s} in inventory for revision {%s}'
 
282
                        % (self.parent_id, rev_id))
 
283
        self._check(checker, rev_id, tree)
259
284
 
260
 
    def _check(self, checker, rev_id):
 
285
    def _check(self, checker, rev_id, tree):
261
286
        """Check this inventory entry for kind specific errors."""
262
 
        checker._report_items.append(
263
 
            'unknown entry kind %r in revision {%s}' % (self.kind, rev_id))
 
287
        raise BzrCheckError('unknown entry kind %r in revision {%s}' %
 
288
                            (self.kind, rev_id))
264
289
 
265
290
    def copy(self):
266
291
        """Clone this inventory entry."""
373
398
        pass
374
399
 
375
400
 
 
401
class RootEntry(InventoryEntry):
 
402
 
 
403
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
404
                 'text_id', 'parent_id', 'children', 'executable',
 
405
                 'revision', 'symlink_target', 'reference_revision']
 
406
 
 
407
    def _check(self, checker, rev_id, tree):
 
408
        """See InventoryEntry._check"""
 
409
 
 
410
    def __init__(self, file_id):
 
411
        self.file_id = file_id
 
412
        self.children = {}
 
413
        self.kind = 'directory'
 
414
        self.parent_id = None
 
415
        self.name = u''
 
416
        self.revision = None
 
417
        symbol_versioning.warn('RootEntry is deprecated as of bzr 0.10.'
 
418
                               '  Please use InventoryDirectory instead.',
 
419
                               DeprecationWarning, stacklevel=2)
 
420
 
 
421
    def __eq__(self, other):
 
422
        if not isinstance(other, RootEntry):
 
423
            return NotImplemented
 
424
 
 
425
        return (self.file_id == other.file_id) \
 
426
               and (self.children == other.children)
 
427
 
 
428
 
376
429
class InventoryDirectory(InventoryEntry):
377
430
    """A directory in an inventory."""
378
431
 
379
 
    __slots__ = ['children']
380
 
 
381
 
    kind = 'directory'
382
 
 
383
 
    def _check(self, checker, rev_id):
 
432
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
433
                 'text_id', 'parent_id', 'children', 'executable',
 
434
                 'revision', 'symlink_target', 'reference_revision']
 
435
 
 
436
    def _check(self, checker, rev_id, tree):
384
437
        """See InventoryEntry._check"""
385
 
        # In non rich root repositories we do not expect a file graph for the
386
 
        # root.
387
 
        if self.name == '' and not checker.rich_roots:
388
 
            return
389
 
        # Directories are stored as an empty file, but the file should exist
390
 
        # to provide a per-fileid log. The hash of every directory content is
391
 
        # "da..." below (the sha1sum of '').
392
 
        checker.add_pending_item(rev_id,
393
 
            ('texts', self.file_id, self.revision), 'text',
394
 
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
 
438
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
 
439
            raise BzrCheckError('directory {%s} has text in revision {%s}'
 
440
                                % (self.file_id, rev_id))
395
441
 
396
442
    def copy(self):
397
443
        other = InventoryDirectory(self.file_id, self.name, self.parent_id)
403
449
    def __init__(self, file_id, name, parent_id):
404
450
        super(InventoryDirectory, self).__init__(file_id, name, parent_id)
405
451
        self.children = {}
 
452
        self.kind = 'directory'
406
453
 
407
454
    def kind_character(self):
408
455
        """See InventoryEntry.kind_character."""
409
456
        return '/'
410
457
 
 
458
    def _put_in_tar(self, item, tree):
 
459
        """See InventoryEntry._put_in_tar."""
 
460
        item.type = tarfile.DIRTYPE
 
461
        fileobj = None
 
462
        item.name += '/'
 
463
        item.size = 0
 
464
        item.mode = 0755
 
465
        return fileobj
 
466
 
 
467
    def _put_on_disk(self, fullpath, tree):
 
468
        """See InventoryEntry._put_on_disk."""
 
469
        os.mkdir(fullpath)
 
470
 
411
471
 
412
472
class InventoryFile(InventoryEntry):
413
473
    """A file in an inventory."""
414
474
 
415
 
    __slots__ = ['text_sha1', 'text_size', 'text_id', 'executable']
416
 
 
417
 
    kind = 'file'
418
 
 
419
 
    def __init__(self, file_id, name, parent_id):
420
 
        super(InventoryFile, self).__init__(file_id, name, parent_id)
421
 
        self.text_sha1 = None
422
 
        self.text_size = None
423
 
        self.text_id = None
424
 
        self.executable = False
425
 
 
426
 
    def _check(self, checker, tree_revision_id):
 
475
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
476
                 'text_id', 'parent_id', 'children', 'executable',
 
477
                 'revision', 'symlink_target', 'reference_revision']
 
478
 
 
479
    def _check(self, checker, tree_revision_id, tree):
427
480
        """See InventoryEntry._check"""
428
 
        # TODO: check size too.
429
 
        checker.add_pending_item(tree_revision_id,
430
 
            ('texts', self.file_id, self.revision), 'text',
431
 
             self.text_sha1)
432
 
        if self.text_size is None:
433
 
            checker._report_items.append(
434
 
                'fileid {%s} in {%s} has None for text_size' % (self.file_id,
435
 
                tree_revision_id))
 
481
        key = (self.file_id, self.revision)
 
482
        if key in checker.checked_texts:
 
483
            prev_sha = checker.checked_texts[key]
 
484
            if prev_sha != self.text_sha1:
 
485
                raise BzrCheckError(
 
486
                    'mismatched sha1 on {%s} in {%s} (%s != %s) %r' %
 
487
                    (self.file_id, tree_revision_id, prev_sha, self.text_sha1,
 
488
                     t))
 
489
            else:
 
490
                checker.repeated_text_cnt += 1
 
491
                return
 
492
 
 
493
        checker.checked_text_cnt += 1
 
494
        # We can't check the length, because Weave doesn't store that
 
495
        # information, and the whole point of looking at the weave's
 
496
        # sha1sum is that we don't have to extract the text.
 
497
        if (self.text_sha1 != tree._repository.texts.get_sha1s([key])[key]):
 
498
            raise BzrCheckError('text {%s} version {%s} wrong sha1' % key)
 
499
        checker.checked_texts[key] = self.text_sha1
436
500
 
437
501
    def copy(self):
438
502
        other = InventoryFile(self.file_id, self.name, self.parent_id)
470
534
        """See InventoryEntry.has_text."""
471
535
        return True
472
536
 
 
537
    def __init__(self, file_id, name, parent_id):
 
538
        super(InventoryFile, self).__init__(file_id, name, parent_id)
 
539
        self.kind = 'file'
 
540
 
473
541
    def kind_character(self):
474
542
        """See InventoryEntry.kind_character."""
475
543
        return ''
476
544
 
 
545
    def _put_in_tar(self, item, tree):
 
546
        """See InventoryEntry._put_in_tar."""
 
547
        item.type = tarfile.REGTYPE
 
548
        fileobj = tree.get_file(self.file_id)
 
549
        item.size = self.text_size
 
550
        if tree.is_executable(self.file_id):
 
551
            item.mode = 0755
 
552
        else:
 
553
            item.mode = 0644
 
554
        return fileobj
 
555
 
 
556
    def _put_on_disk(self, fullpath, tree):
 
557
        """See InventoryEntry._put_on_disk."""
 
558
        osutils.pumpfile(tree.get_file(self.file_id), file(fullpath, 'wb'))
 
559
        if tree.is_executable(self.file_id):
 
560
            os.chmod(fullpath, 0755)
 
561
 
477
562
    def _read_tree_state(self, path, work_tree):
478
563
        """See InventoryEntry._read_tree_state."""
479
564
        self.text_sha1 = work_tree.get_file_sha1(self.file_id, path=path)
511
596
class InventoryLink(InventoryEntry):
512
597
    """A file in an inventory."""
513
598
 
514
 
    __slots__ = ['symlink_target']
515
 
 
516
 
    kind = 'symlink'
517
 
 
518
 
    def __init__(self, file_id, name, parent_id):
519
 
        super(InventoryLink, self).__init__(file_id, name, parent_id)
520
 
        self.symlink_target = None
521
 
 
522
 
    def _check(self, checker, tree_revision_id):
 
599
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
600
                 'text_id', 'parent_id', 'children', 'executable',
 
601
                 'revision', 'symlink_target', 'reference_revision']
 
602
 
 
603
    def _check(self, checker, rev_id, tree):
523
604
        """See InventoryEntry._check"""
 
605
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
 
606
            raise BzrCheckError('symlink {%s} has text in revision {%s}'
 
607
                    % (self.file_id, rev_id))
524
608
        if self.symlink_target is None:
525
 
            checker._report_items.append(
526
 
                'symlink {%s} has no target in revision {%s}'
527
 
                    % (self.file_id, tree_revision_id))
528
 
        # Symlinks are stored as ''
529
 
        checker.add_pending_item(tree_revision_id,
530
 
            ('texts', self.file_id, self.revision), 'text',
531
 
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
 
609
            raise BzrCheckError('symlink {%s} has no target in revision {%s}'
 
610
                    % (self.file_id, rev_id))
532
611
 
533
612
    def copy(self):
534
613
        other = InventoryLink(self.file_id, self.name, self.parent_id)
541
620
        # FIXME: which _modified field should we use ? RBC 20051003
542
621
        text_modified = (self.symlink_target != old_entry.symlink_target)
543
622
        if text_modified:
544
 
            trace.mutter("    symlink target changed")
 
623
            mutter("    symlink target changed")
545
624
        meta_modified = False
546
625
        return text_modified, meta_modified
547
626
 
564
643
        differ = DiffSymlink(old_tree, new_tree, output_to)
565
644
        return differ.diff_symlink(old_target, new_target)
566
645
 
 
646
    def __init__(self, file_id, name, parent_id):
 
647
        super(InventoryLink, self).__init__(file_id, name, parent_id)
 
648
        self.kind = 'symlink'
 
649
 
567
650
    def kind_character(self):
568
651
        """See InventoryEntry.kind_character."""
569
652
        return ''
570
653
 
 
654
    def _put_in_tar(self, item, tree):
 
655
        """See InventoryEntry._put_in_tar."""
 
656
        item.type = tarfile.SYMTYPE
 
657
        fileobj = None
 
658
        item.size = 0
 
659
        item.mode = 0755
 
660
        item.linkname = self.symlink_target
 
661
        return fileobj
 
662
 
 
663
    def _put_on_disk(self, fullpath, tree):
 
664
        """See InventoryEntry._put_on_disk."""
 
665
        try:
 
666
            os.symlink(self.symlink_target, fullpath)
 
667
        except OSError,e:
 
668
            raise BzrError("Failed to create symlink %r -> %r, error: %s" % (fullpath, self.symlink_target, e))
 
669
 
571
670
    def _read_tree_state(self, path, work_tree):
572
671
        """See InventoryEntry._read_tree_state."""
573
672
        self.symlink_target = work_tree.get_symlink_target(self.file_id)
585
684
 
586
685
class TreeReference(InventoryEntry):
587
686
 
588
 
    __slots__ = ['reference_revision']
589
 
 
590
687
    kind = 'tree-reference'
591
688
 
592
689
    def __init__(self, file_id, name, parent_id, revision=None,
617
714
 
618
715
 
619
716
class CommonInventory(object):
620
 
    """Basic inventory logic, defined in terms of primitives like has_id.
621
 
 
622
 
    An inventory is the metadata about the contents of a tree.
623
 
 
624
 
    This is broadly a map from file_id to entries such as directories, files,
625
 
    symlinks and tree references. Each entry maintains its own metadata like
626
 
    SHA1 and length for files, or children for a directory.
627
 
 
628
 
    Entries can be looked up either by path or by file_id.
629
 
 
630
 
    InventoryEntry objects must not be modified after they are
631
 
    inserted, other than through the Inventory API.
632
 
    """
633
 
 
634
 
    @deprecated_method(deprecated_in((2, 4, 0)))
 
717
    """Basic inventory logic, defined in terms of primitives like has_id."""
 
718
 
635
719
    def __contains__(self, file_id):
636
720
        """True if this entry contains a file with given id.
637
721
 
638
722
        >>> inv = Inventory()
639
723
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
640
724
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
641
 
        >>> inv.has_id('123')
 
725
        >>> '123' in inv
642
726
        True
643
 
        >>> inv.has_id('456')
 
727
        >>> '456' in inv
644
728
        False
645
729
 
646
730
        Note that this method along with __iter__ are not encouraged for use as
649
733
        """
650
734
        return self.has_id(file_id)
651
735
 
652
 
    def has_filename(self, filename):
653
 
        return bool(self.path2id(filename))
654
 
 
655
736
    def id2path(self, file_id):
656
737
        """Return as a string the path to file_id.
657
738
 
660
741
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
661
742
        >>> print i.id2path('foo-id')
662
743
        src/foo.c
663
 
 
664
 
        :raises NoSuchId: If file_id is not present in the inventory.
665
744
        """
666
745
        # get all names, skipping root
667
746
        return '/'.join(reversed(
668
747
            [parent.name for parent in
669
748
             self._iter_file_id_parents(file_id)][:-1]))
670
749
 
671
 
    def iter_entries(self, from_dir=None, recursive=True):
672
 
        """Return (path, entry) pairs, in order by name.
673
 
        
674
 
        :param from_dir: if None, start from the root,
675
 
          otherwise start from this directory (either file-id or entry)
676
 
        :param recursive: recurse into directories or not
677
 
        """
 
750
    def iter_entries(self, from_dir=None):
 
751
        """Return (path, entry) pairs, in order by name."""
678
752
        if from_dir is None:
679
753
            if self.root is None:
680
754
                return
687
761
        # 440ms/663ms (inline/total) to 116ms/116ms
688
762
        children = from_dir.children.items()
689
763
        children.sort()
690
 
        if not recursive:
691
 
            for name, ie in children:
692
 
                yield name, ie
693
 
            return
694
764
        children = collections.deque(children)
695
765
        stack = [(u'', children)]
696
766
        while stack:
721
791
                # if we finished all children, pop it off the stack
722
792
                stack.pop()
723
793
 
724
 
    def _preload_cache(self):
725
 
        """Populate any caches, we are about to access all items.
726
 
        
727
 
        The default implementation does nothing, because CommonInventory doesn't
728
 
        have a cache.
729
 
        """
730
 
        pass
731
 
    
732
794
    def iter_entries_by_dir(self, from_dir=None, specific_file_ids=None,
733
795
        yield_parents=False):
734
796
        """Iterate over the entries in a directory first order.
747
809
            specific_file_ids = set(specific_file_ids)
748
810
        # TODO? Perhaps this should return the from_dir so that the root is
749
811
        # yielded? or maybe an option?
750
 
        if from_dir is None and specific_file_ids is None:
751
 
            # They are iterating from the root, and have not specified any
752
 
            # specific entries to look at. All current callers fully consume the
753
 
            # iterator, so we can safely assume we are accessing all entries
754
 
            self._preload_cache()
755
812
        if from_dir is None:
756
813
            if self.root is None:
757
814
                return
759
816
            if (not yield_parents and specific_file_ids is not None and
760
817
                len(specific_file_ids) == 1):
761
818
                file_id = list(specific_file_ids)[0]
762
 
                if self.has_id(file_id):
 
819
                if file_id in self:
763
820
                    yield self.id2path(file_id), self[file_id]
764
821
                return
765
822
            from_dir = self.root
775
832
            parents = set()
776
833
            byid = self
777
834
            def add_ancestors(file_id):
778
 
                if not byid.has_id(file_id):
 
835
                if file_id not in byid:
779
836
                    return
780
837
                parent_id = byid[file_id].parent_id
781
838
                if parent_id is None:
825
882
                    file_id, self[file_id]))
826
883
        return delta
827
884
 
 
885
    def _get_mutable_inventory(self):
 
886
        """Returns a mutable copy of the object.
 
887
 
 
888
        Some inventories are immutable, yet working trees, for example, needs
 
889
        to mutate exisiting inventories instead of creating a new one.
 
890
        """
 
891
        raise NotImplementedError(self._get_mutable_inventory)
 
892
 
828
893
    def make_entry(self, kind, name, parent_id, file_id=None):
829
894
        """Simple thunk to bzrlib.inventory.make_entry."""
830
895
        return make_entry(kind, name, parent_id, file_id)
844
909
                if ie.kind == 'directory':
845
910
                    descend(ie, child_path)
846
911
 
847
 
        if self.root is not None:
848
 
            descend(self.root, u'')
 
912
        descend(self.root, u'')
849
913
        return accum
850
914
 
851
915
    def directories(self):
864
928
        descend(self.root, u'')
865
929
        return accum
866
930
 
867
 
    def path2id(self, relpath):
 
931
    def path2id(self, name):
868
932
        """Walk down through directories to return entry of last component.
869
933
 
870
 
        :param relpath: may be either a list of path components, or a single
871
 
            string, in which case it is automatically split.
 
934
        names may be either a list of path components, or a single
 
935
        string, in which case it is automatically split.
872
936
 
873
937
        This returns the entry of the last component in the path,
874
938
        which may be either a file or a directory.
875
939
 
876
940
        Returns None IFF the path is not found.
877
941
        """
878
 
        if isinstance(relpath, basestring):
879
 
            names = osutils.splitpath(relpath)
880
 
        else:
881
 
            names = relpath
 
942
        if isinstance(name, basestring):
 
943
            name = osutils.splitpath(name)
 
944
 
 
945
        # mutter("lookup path %r" % name)
882
946
 
883
947
        try:
884
948
            parent = self.root
887
951
            return None
888
952
        if parent is None:
889
953
            return None
890
 
        for f in names:
 
954
        for f in name:
891
955
            try:
892
956
                children = getattr(parent, 'children', None)
893
957
                if children is None:
948
1012
 
949
1013
 
950
1014
class Inventory(CommonInventory):
951
 
    """Mutable dict based in-memory inventory.
952
 
 
953
 
    We never store the full path to a file, because renaming a directory
954
 
    implicitly moves all of its contents.  This class internally maintains a
 
1015
    """Inventory of versioned files in a tree.
 
1016
 
 
1017
    This describes which file_id is present at each point in the tree,
 
1018
    and possibly the SHA-1 or other information about the file.
 
1019
    Entries can be looked up either by path or by file_id.
 
1020
 
 
1021
    The inventory represents a typical unix file tree, with
 
1022
    directories containing files and subdirectories.  We never store
 
1023
    the full path to a file, because renaming a directory implicitly
 
1024
    moves all of its contents.  This class internally maintains a
955
1025
    lookup tree that allows the children under a directory to be
956
1026
    returned quickly.
957
1027
 
 
1028
    InventoryEntry objects must not be modified after they are
 
1029
    inserted, other than through the Inventory API.
 
1030
 
958
1031
    >>> inv = Inventory()
959
1032
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
960
1033
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
961
1034
    >>> inv['123-123'].name
962
1035
    'hello.c'
963
1036
 
964
 
    Id's may be looked up from paths:
965
 
 
966
 
    >>> inv.path2id('hello.c')
967
 
    '123-123'
968
 
    >>> inv.has_id('123-123')
969
 
    True
970
 
 
971
 
    There are iterators over the contents:
972
 
 
973
 
    >>> [entry[0] for entry in inv.iter_entries()]
 
1037
    May be treated as an iterator or set to look up file ids:
 
1038
 
 
1039
    >>> bool(inv.path2id('hello.c'))
 
1040
    True
 
1041
    >>> '123-123' in inv
 
1042
    True
 
1043
 
 
1044
    May also look up by name:
 
1045
 
 
1046
    >>> [x[0] for x in inv.iter_entries()]
974
1047
    ['', u'hello.c']
 
1048
    >>> inv = Inventory('TREE_ROOT-12345678-12345678')
 
1049
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
1050
    Traceback (most recent call last):
 
1051
    BzrError: parent_id {TREE_ROOT} not in inventory
 
1052
    >>> inv.add(InventoryFile('123-123', 'hello.c', 'TREE_ROOT-12345678-12345678'))
 
1053
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT-12345678-12345678', sha1=None, len=None, revision=None)
975
1054
    """
976
 
 
977
1055
    def __init__(self, root_id=ROOT_ID, revision_id=None):
978
1056
        """Create or read an inventory.
979
1057
 
1003
1081
    def apply_delta(self, delta):
1004
1082
        """Apply a delta to this inventory.
1005
1083
 
1006
 
        See the inventory developers documentation for the theory behind
1007
 
        inventory deltas.
1008
 
 
1009
 
        If delta application fails the inventory is left in an indeterminate
1010
 
        state and must not be used.
1011
 
 
1012
1084
        :param delta: A list of changes to apply. After all the changes are
1013
1085
            applied the final inventory must be internally consistent, but it
1014
1086
            is ok to supply changes which, if only half-applied would have an
1045
1117
        """
1046
1118
        # Check that the delta is legal. It would be nice if this could be
1047
1119
        # done within the loops below but it's safer to validate the delta
1048
 
        # before starting to mutate the inventory, as there isn't a rollback
1049
 
        # facility.
1050
 
        list(_check_delta_unique_ids(_check_delta_unique_new_paths(
1051
 
            _check_delta_unique_old_paths(_check_delta_ids_match_entry(
1052
 
            _check_delta_ids_are_valid(
1053
 
            _check_delta_new_path_entry_both_or_None(
1054
 
            delta)))))))
 
1120
        # before starting to mutate the inventory.
 
1121
        unique_file_ids = set([f for _, _, f, _ in delta])
 
1122
        if len(unique_file_ids) != len(delta):
 
1123
            raise AssertionError("a file-id appears multiple times in %r"
 
1124
                    % (delta,))
 
1125
        del unique_file_ids
1055
1126
 
1056
1127
        children = {}
1057
1128
        # Remove all affected items which were in the original inventory,
1060
1131
        # modified children remaining by the time we examine it.
1061
1132
        for old_path, file_id in sorted(((op, f) for op, np, f, e in delta
1062
1133
                                        if op is not None), reverse=True):
 
1134
            if file_id not in self:
 
1135
                # adds come later
 
1136
                continue
1063
1137
            # Preserve unaltered children of file_id for later reinsertion.
1064
1138
            file_id_children = getattr(self[file_id], 'children', {})
1065
1139
            if len(file_id_children):
1066
1140
                children[file_id] = file_id_children
1067
 
            if self.id2path(file_id) != old_path:
1068
 
                raise errors.InconsistentDelta(old_path, file_id,
1069
 
                    "Entry was at wrong other path %r." % self.id2path(file_id))
1070
1141
            # Remove file_id and the unaltered children. If file_id is not
1071
1142
            # being deleted it will be reinserted back later.
1072
1143
            self.remove_recursive_id(file_id)
1075
1146
        # longest, ensuring that items which were modified and whose parents in
1076
1147
        # the resulting inventory were also modified, are inserted after their
1077
1148
        # parents.
1078
 
        for new_path, f, new_entry in sorted((np, f, e) for op, np, f, e in
 
1149
        for new_path, new_entry in sorted((np, e) for op, np, f, e in
1079
1150
                                          delta if np is not None):
1080
1151
            if new_entry.kind == 'directory':
1081
1152
                # Pop the child which to allow detection of children whose
1086
1157
                replacement.revision = new_entry.revision
1087
1158
                replacement.children = children.pop(replacement.file_id, {})
1088
1159
                new_entry = replacement
1089
 
            try:
1090
 
                self.add(new_entry)
1091
 
            except errors.DuplicateFileId:
1092
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1093
 
                    "New id is already present in target.")
1094
 
            except AttributeError:
1095
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1096
 
                    "Parent is not a directory.")
1097
 
            if self.id2path(new_entry.file_id) != new_path:
1098
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1099
 
                    "New path is not consistent with parent path.")
 
1160
            self.add(new_entry)
1100
1161
        if len(children):
1101
1162
            # Get the parent id that was deleted
1102
1163
            parent_id, children = children.popitem()
1103
1164
            raise errors.InconsistentDelta("<deleted>", parent_id,
1104
1165
                "The file id was deleted but its children were not deleted.")
1105
1166
 
1106
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1107
 
                              propagate_caches=False):
1108
 
        """See CHKInventory.create_by_apply_delta()"""
1109
 
        new_inv = self.copy()
1110
 
        new_inv.apply_delta(inventory_delta)
1111
 
        new_inv.revision_id = new_revision_id
1112
 
        return new_inv
1113
 
 
1114
1167
    def _set_root(self, ie):
1115
1168
        self.root = ie
1116
1169
        self._byid = {self.root.file_id: self.root}
1128
1181
            other.add(entry.copy())
1129
1182
        return other
1130
1183
 
 
1184
    def _get_mutable_inventory(self):
 
1185
        """See CommonInventory._get_mutable_inventory."""
 
1186
        return deepcopy(self)
 
1187
 
1131
1188
    def __iter__(self):
1132
1189
        """Iterate over all file-ids."""
1133
1190
        return iter(self._byid)
1173
1230
    def _add_child(self, entry):
1174
1231
        """Add an entry to the inventory, without adding it to its parent"""
1175
1232
        if entry.file_id in self._byid:
1176
 
            raise errors.BzrError(
1177
 
                "inventory already contains entry with id {%s}" %
1178
 
                entry.file_id)
 
1233
            raise BzrError("inventory already contains entry with id {%s}" %
 
1234
                           entry.file_id)
1179
1235
        self._byid[entry.file_id] = entry
1180
1236
        for child in getattr(entry, 'children', {}).itervalues():
1181
1237
            self._add_child(child)
1184
1240
    def add(self, entry):
1185
1241
        """Add entry to inventory.
1186
1242
 
1187
 
        :return: entry
 
1243
        To add  a file to a branch ready to be committed, use Branch.add,
 
1244
        which calls this.
 
1245
 
 
1246
        Returns the new entry object.
1188
1247
        """
1189
1248
        if entry.file_id in self._byid:
1190
1249
            raise errors.DuplicateFileId(entry.file_id,
1191
1250
                                         self._byid[entry.file_id])
 
1251
 
1192
1252
        if entry.parent_id is None:
1193
1253
            self.root = entry
1194
1254
        else:
1195
1255
            try:
1196
1256
                parent = self._byid[entry.parent_id]
1197
1257
            except KeyError:
1198
 
                raise errors.InconsistentDelta("<unknown>", entry.parent_id,
1199
 
                    "Parent not in inventory.")
 
1258
                raise BzrError("parent_id {%s} not in inventory" %
 
1259
                               entry.parent_id)
 
1260
 
1200
1261
            if entry.name in parent.children:
1201
 
                raise errors.InconsistentDelta(
1202
 
                    self.id2path(parent.children[entry.name].file_id),
1203
 
                    entry.file_id,
1204
 
                    "Path already versioned")
 
1262
                raise BzrError("%s is already versioned" %
 
1263
                        osutils.pathjoin(self.id2path(parent.file_id),
 
1264
                        entry.name).encode('utf-8'))
1205
1265
            parent.children[entry.name] = entry
1206
1266
        return self._add_child(entry)
1207
1267
 
1234
1294
        >>> inv = Inventory()
1235
1295
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
1236
1296
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1237
 
        >>> inv.has_id('123')
 
1297
        >>> '123' in inv
1238
1298
        True
1239
1299
        >>> del inv['123']
1240
 
        >>> inv.has_id('123')
 
1300
        >>> '123' in inv
1241
1301
        False
1242
1302
        """
1243
1303
        ie = self[file_id]
1282
1342
            yield ie
1283
1343
            file_id = ie.parent_id
1284
1344
 
 
1345
    def has_filename(self, filename):
 
1346
        return bool(self.path2id(filename))
 
1347
 
1285
1348
    def has_id(self, file_id):
1286
1349
        return (file_id in self._byid)
1287
1350
 
1345
1408
        """
1346
1409
        new_name = ensure_normalized_name(new_name)
1347
1410
        if not is_valid_name(new_name):
1348
 
            raise errors.BzrError("not an acceptable filename: %r" % new_name)
 
1411
            raise BzrError("not an acceptable filename: %r" % new_name)
1349
1412
 
1350
1413
        new_parent = self._byid[new_parent_id]
1351
1414
        if new_name in new_parent.children:
1352
 
            raise errors.BzrError("%r already exists in %r" %
1353
 
                (new_name, self.id2path(new_parent_id)))
 
1415
            raise BzrError("%r already exists in %r" % (new_name, self.id2path(new_parent_id)))
1354
1416
 
1355
1417
        new_parent_idpath = self.get_idpath(new_parent_id)
1356
1418
        if file_id in new_parent_idpath:
1357
 
            raise errors.BzrError(
1358
 
                "cannot move directory %r into a subdirectory of itself, %r"
 
1419
            raise BzrError("cannot move directory %r into a subdirectory of itself, %r"
1359
1420
                    % (self.id2path(file_id), self.id2path(new_parent_id)))
1360
1421
 
1361
1422
        file_ie = self._byid[file_id]
1397
1458
    def __init__(self, search_key_name):
1398
1459
        CommonInventory.__init__(self)
1399
1460
        self._fileid_to_entry_cache = {}
1400
 
        self._fully_cached = False
1401
1461
        self._path_to_fileid_cache = {}
1402
1462
        self._search_key_name = search_key_name
1403
 
        self.root_id = None
1404
 
 
1405
 
    def __eq__(self, other):
1406
 
        """Compare two sets by comparing their contents."""
1407
 
        if not isinstance(other, CHKInventory):
1408
 
            return NotImplemented
1409
 
 
1410
 
        this_key = self.id_to_entry.key()
1411
 
        other_key = other.id_to_entry.key()
1412
 
        this_pid_key = self.parent_id_basename_to_file_id.key()
1413
 
        other_pid_key = other.parent_id_basename_to_file_id.key()
1414
 
        if None in (this_key, this_pid_key, other_key, other_pid_key):
1415
 
            return False
1416
 
        return this_key == other_key and this_pid_key == other_pid_key
1417
1463
 
1418
1464
    def _entry_to_bytes(self, entry):
1419
1465
        """Serialise entry as a single bytestring.
1457
1503
        else:
1458
1504
            raise ValueError("unknown kind %r" % entry.kind)
1459
1505
 
1460
 
    def _expand_fileids_to_parents_and_children(self, file_ids):
1461
 
        """Give a more wholistic view starting with the given file_ids.
1462
 
 
1463
 
        For any file_id which maps to a directory, we will include all children
1464
 
        of that directory. We will also include all directories which are
1465
 
        parents of the given file_ids, but we will not include their children.
1466
 
 
1467
 
        eg:
1468
 
          /     # TREE_ROOT
1469
 
          foo/  # foo-id
1470
 
            baz # baz-id
1471
 
            frob/ # frob-id
1472
 
              fringle # fringle-id
1473
 
          bar/  # bar-id
1474
 
            bing # bing-id
1475
 
 
1476
 
        if given [foo-id] we will include
1477
 
            TREE_ROOT as interesting parents
1478
 
        and 
1479
 
            foo-id, baz-id, frob-id, fringle-id
1480
 
        As interesting ids.
1481
 
        """
1482
 
        interesting = set()
1483
 
        # TODO: Pre-pass over the list of fileids to see if anything is already
1484
 
        #       deserialized in self._fileid_to_entry_cache
1485
 
 
1486
 
        directories_to_expand = set()
1487
 
        children_of_parent_id = {}
1488
 
        # It is okay if some of the fileids are missing
1489
 
        for entry in self._getitems(file_ids):
1490
 
            if entry.kind == 'directory':
1491
 
                directories_to_expand.add(entry.file_id)
1492
 
            interesting.add(entry.parent_id)
1493
 
            children_of_parent_id.setdefault(entry.parent_id, set()
1494
 
                                             ).add(entry.file_id)
1495
 
 
1496
 
        # Now, interesting has all of the direct parents, but not the
1497
 
        # parents of those parents. It also may have some duplicates with
1498
 
        # specific_fileids
1499
 
        remaining_parents = interesting.difference(file_ids)
1500
 
        # When we hit the TREE_ROOT, we'll get an interesting parent of None,
1501
 
        # but we don't actually want to recurse into that
1502
 
        interesting.add(None) # this will auto-filter it in the loop
1503
 
        remaining_parents.discard(None) 
1504
 
        while remaining_parents:
1505
 
            next_parents = set()
1506
 
            for entry in self._getitems(remaining_parents):
1507
 
                next_parents.add(entry.parent_id)
1508
 
                children_of_parent_id.setdefault(entry.parent_id, set()
1509
 
                                                 ).add(entry.file_id)
1510
 
            # Remove any search tips we've already processed
1511
 
            remaining_parents = next_parents.difference(interesting)
1512
 
            interesting.update(remaining_parents)
1513
 
            # We should probably also .difference(directories_to_expand)
1514
 
        interesting.update(file_ids)
1515
 
        interesting.discard(None)
1516
 
        while directories_to_expand:
1517
 
            # Expand directories by looking in the
1518
 
            # parent_id_basename_to_file_id map
1519
 
            keys = [StaticTuple(f,).intern() for f in directories_to_expand]
1520
 
            directories_to_expand = set()
1521
 
            items = self.parent_id_basename_to_file_id.iteritems(keys)
1522
 
            next_file_ids = set([item[1] for item in items])
1523
 
            next_file_ids = next_file_ids.difference(interesting)
1524
 
            interesting.update(next_file_ids)
1525
 
            for entry in self._getitems(next_file_ids):
1526
 
                if entry.kind == 'directory':
1527
 
                    directories_to_expand.add(entry.file_id)
1528
 
                children_of_parent_id.setdefault(entry.parent_id, set()
1529
 
                                                 ).add(entry.file_id)
1530
 
        return interesting, children_of_parent_id
1531
 
 
1532
 
    def filter(self, specific_fileids):
1533
 
        """Get an inventory view filtered against a set of file-ids.
1534
 
 
1535
 
        Children of directories and parents are included.
1536
 
 
1537
 
        The result may or may not reference the underlying inventory
1538
 
        so it should be treated as immutable.
1539
 
        """
1540
 
        (interesting,
1541
 
         parent_to_children) = self._expand_fileids_to_parents_and_children(
1542
 
                                specific_fileids)
1543
 
        # There is some overlap here, but we assume that all interesting items
1544
 
        # are in the _fileid_to_entry_cache because we had to read them to
1545
 
        # determine if they were a dir we wanted to recurse, or just a file
1546
 
        # This should give us all the entries we'll want to add, so start
1547
 
        # adding
1548
 
        other = Inventory(self.root_id)
1549
 
        other.root.revision = self.root.revision
1550
 
        other.revision_id = self.revision_id
1551
 
        if not interesting or not parent_to_children:
1552
 
            # empty filter, or filtering entrys that don't exist
1553
 
            # (if even 1 existed, then we would have populated
1554
 
            # parent_to_children with at least the tree root.)
1555
 
            return other
1556
 
        cache = self._fileid_to_entry_cache
1557
 
        remaining_children = collections.deque(parent_to_children[self.root_id])
1558
 
        while remaining_children:
1559
 
            file_id = remaining_children.popleft()
1560
 
            ie = cache[file_id]
1561
 
            if ie.kind == 'directory':
1562
 
                ie = ie.copy() # We create a copy to depopulate the .children attribute
1563
 
            # TODO: depending on the uses of 'other' we should probably alwyas
1564
 
            #       '.copy()' to prevent someone from mutating other and
1565
 
            #       invaliding our internal cache
1566
 
            other.add(ie)
1567
 
            if file_id in parent_to_children:
1568
 
                remaining_children.extend(parent_to_children[file_id])
1569
 
        return other
1570
 
 
1571
1506
    @staticmethod
1572
1507
    def _bytes_to_utf8name_key(bytes):
1573
1508
        """Get the file_id, revision_id key out of bytes."""
1575
1510
        # to filter out empty names because of non rich-root...
1576
1511
        sections = bytes.split('\n')
1577
1512
        kind, file_id = sections[0].split(': ')
1578
 
        return (sections[2], intern(file_id), intern(sections[3]))
 
1513
        return (sections[2], file_id, sections[3])
1579
1514
 
1580
1515
    def _bytes_to_entry(self, bytes):
1581
1516
        """Deserialise a serialised entry."""
1603
1538
            result.reference_revision = sections[4]
1604
1539
        else:
1605
1540
            raise ValueError("Not a serialised entry %r" % bytes)
1606
 
        result.file_id = intern(result.file_id)
1607
 
        result.revision = intern(sections[3])
 
1541
        result.revision = sections[3]
1608
1542
        if result.parent_id == '':
1609
1543
            result.parent_id = None
1610
1544
        self._fileid_to_entry_cache[result.file_id] = result
1611
1545
        return result
1612
1546
 
 
1547
    def _get_mutable_inventory(self):
 
1548
        """See CommonInventory._get_mutable_inventory."""
 
1549
        entries = self.iter_entries()
 
1550
        inv = Inventory(None, self.revision_id)
 
1551
        for path, inv_entry in entries:
 
1552
            inv.add(inv_entry.copy())
 
1553
        return inv
 
1554
 
1613
1555
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1614
1556
        propagate_caches=False):
1615
1557
        """Create a new CHKInventory by applying inventory_delta to this one.
1616
1558
 
1617
 
        See the inventory developers documentation for the theory behind
1618
 
        inventory deltas.
1619
 
 
1620
1559
        :param inventory_delta: The inventory delta to apply. See
1621
1560
            Inventory.apply_delta for details.
1622
1561
        :param new_revision_id: The revision id of the resulting CHKInventory.
1624
1563
          copied to and updated for the result.
1625
1564
        :return: The new CHKInventory.
1626
1565
        """
1627
 
        split = osutils.split
1628
1566
        result = CHKInventory(self._search_key_name)
1629
1567
        if propagate_caches:
1630
1568
            # Just propagate the path-to-fileid cache for now
1639
1577
            search_key_func=search_key_func)
1640
1578
        result.id_to_entry._ensure_root()
1641
1579
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
1642
 
        # Change to apply to the parent_id_basename delta. The dict maps
1643
 
        # (parent_id, basename) -> (old_key, new_value). We use a dict because
1644
 
        # when a path has its id replaced (e.g. the root is changed, or someone
1645
 
        # does bzr mv a b, bzr mv c a, we should output a single change to this
1646
 
        # map rather than two.
1647
 
        parent_id_basename_delta = {}
 
1580
        parent_id_basename_delta = []
1648
1581
        if self.parent_id_basename_to_file_id is not None:
1649
1582
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1650
1583
                self.parent_id_basename_to_file_id._store,
1660
1593
            result.parent_id_basename_to_file_id = None
1661
1594
        result.root_id = self.root_id
1662
1595
        id_to_entry_delta = []
1663
 
        # inventory_delta is only traversed once, so we just update the
1664
 
        # variable.
1665
 
        # Check for repeated file ids
1666
 
        inventory_delta = _check_delta_unique_ids(inventory_delta)
1667
 
        # Repeated old paths
1668
 
        inventory_delta = _check_delta_unique_old_paths(inventory_delta)
1669
 
        # Check for repeated new paths
1670
 
        inventory_delta = _check_delta_unique_new_paths(inventory_delta)
1671
 
        # Check for entries that don't match the fileid
1672
 
        inventory_delta = _check_delta_ids_match_entry(inventory_delta)
1673
 
        # Check for nonsense fileids
1674
 
        inventory_delta = _check_delta_ids_are_valid(inventory_delta)
1675
 
        # Check for new_path <-> entry consistency
1676
 
        inventory_delta = _check_delta_new_path_entry_both_or_None(
1677
 
            inventory_delta)
1678
 
        # All changed entries need to have their parents be directories and be
1679
 
        # at the right path. This set contains (path, id) tuples.
1680
 
        parents = set()
1681
 
        # When we delete an item, all the children of it must be either deleted
1682
 
        # or altered in their own right. As we batch process the change via
1683
 
        # CHKMap.apply_delta, we build a set of things to use to validate the
1684
 
        # delta.
1685
 
        deletes = set()
1686
 
        altered = set()
1687
1596
        for old_path, new_path, file_id, entry in inventory_delta:
1688
1597
            # file id changes
1689
1598
            if new_path == '':
1698
1607
                        del result._path_to_fileid_cache[old_path]
1699
1608
                    except KeyError:
1700
1609
                        pass
1701
 
                deletes.add(file_id)
1702
1610
            else:
1703
 
                new_key = StaticTuple(file_id,)
 
1611
                new_key = (file_id,)
1704
1612
                new_value = result._entry_to_bytes(entry)
1705
1613
                # Update caches. It's worth doing this whether
1706
1614
                # we're propagating the old caches or not.
1707
1615
                result._path_to_fileid_cache[new_path] = file_id
1708
 
                parents.add((split(new_path)[0], entry.parent_id))
1709
1616
            if old_path is None:
1710
1617
                old_key = None
1711
1618
            else:
1712
 
                old_key = StaticTuple(file_id,)
1713
 
                if self.id2path(file_id) != old_path:
1714
 
                    raise errors.InconsistentDelta(old_path, file_id,
1715
 
                        "Entry was at wrong other path %r." %
1716
 
                        self.id2path(file_id))
1717
 
                altered.add(file_id)
1718
 
            id_to_entry_delta.append(StaticTuple(old_key, new_key, new_value))
 
1619
                old_key = (file_id,)
 
1620
            id_to_entry_delta.append((old_key, new_key, new_value))
1719
1621
            if result.parent_id_basename_to_file_id is not None:
1720
1622
                # parent_id, basename changes
1721
1623
                if old_path is None:
1729
1631
                else:
1730
1632
                    new_key = self._parent_id_basename_key(entry)
1731
1633
                    new_value = file_id
1732
 
                # If the two keys are the same, the value will be unchanged
1733
 
                # as its always the file id for this entry.
1734
1634
                if old_key != new_key:
1735
 
                    # Transform a change into explicit delete/add preserving
1736
 
                    # a possible match on the key from a different file id.
1737
 
                    if old_key is not None:
1738
 
                        parent_id_basename_delta.setdefault(
1739
 
                            old_key, [None, None])[0] = old_key
1740
 
                    if new_key is not None:
1741
 
                        parent_id_basename_delta.setdefault(
1742
 
                            new_key, [None, None])[1] = new_value
1743
 
        # validate that deletes are complete.
1744
 
        for file_id in deletes:
1745
 
            entry = self[file_id]
1746
 
            if entry.kind != 'directory':
1747
 
                continue
1748
 
            # This loop could potentially be better by using the id_basename
1749
 
            # map to just get the child file ids.
1750
 
            for child in entry.children.values():
1751
 
                if child.file_id not in altered:
1752
 
                    raise errors.InconsistentDelta(self.id2path(child.file_id),
1753
 
                        child.file_id, "Child not deleted or reparented when "
1754
 
                        "parent deleted.")
 
1635
                    # If the two keys are the same, the value will be unchanged
 
1636
                    # as its always the file id.
 
1637
                    parent_id_basename_delta.append((old_key, new_key, new_value))
1755
1638
        result.id_to_entry.apply_delta(id_to_entry_delta)
1756
1639
        if parent_id_basename_delta:
1757
 
            # Transform the parent_id_basename delta data into a linear delta
1758
 
            # with only one record for a given key. Optimally this would allow
1759
 
            # re-keying, but its simpler to just output that as a delete+add
1760
 
            # to spend less time calculating the delta.
1761
 
            delta_list = []
1762
 
            for key, (old_key, value) in parent_id_basename_delta.iteritems():
1763
 
                if value is not None:
1764
 
                    delta_list.append((old_key, key, value))
1765
 
                else:
1766
 
                    delta_list.append((old_key, None, None))
1767
 
            result.parent_id_basename_to_file_id.apply_delta(delta_list)
1768
 
        parents.discard(('', None))
1769
 
        for parent_path, parent in parents:
1770
 
            try:
1771
 
                if result[parent].kind != 'directory':
1772
 
                    raise errors.InconsistentDelta(result.id2path(parent), parent,
1773
 
                        'Not a directory, but given children')
1774
 
            except errors.NoSuchId:
1775
 
                raise errors.InconsistentDelta("<unknown>", parent,
1776
 
                    "Parent is not present in resulting inventory.")
1777
 
            if result.path2id(parent_path) != parent:
1778
 
                raise errors.InconsistentDelta(parent_path, parent,
1779
 
                    "Parent has wrong path %r." % result.path2id(parent_path))
 
1640
            result.parent_id_basename_to_file_id.apply_delta(parent_id_basename_delta)
1780
1641
        return result
1781
1642
 
1782
1643
    @classmethod
1808
1669
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
1809
1670
                                      % (key, bytes))
1810
1671
            info[key] = value
1811
 
        revision_id = intern(info['revision_id'])
1812
 
        root_id = intern(info['root_id'])
1813
 
        search_key_name = intern(info.get('search_key_name', 'plain'))
1814
 
        parent_id_basename_to_file_id = intern(info.get(
1815
 
            'parent_id_basename_to_file_id', None))
1816
 
        if not parent_id_basename_to_file_id.startswith('sha1:'):
1817
 
            raise ValueError('parent_id_basename_to_file_id should be a sha1'
1818
 
                             ' key not %r' % (parent_id_basename_to_file_id,))
 
1672
        revision_id = info['revision_id']
 
1673
        root_id = info['root_id']
 
1674
        search_key_name = info.get('search_key_name', 'plain')
 
1675
        parent_id_basename_to_file_id = info.get(
 
1676
            'parent_id_basename_to_file_id', None)
1819
1677
        id_to_entry = info['id_to_entry']
1820
 
        if not id_to_entry.startswith('sha1:'):
1821
 
            raise ValueError('id_to_entry should be a sha1'
1822
 
                             ' key not %r' % (id_to_entry,))
1823
1678
 
1824
1679
        result = CHKInventory(search_key_name)
1825
1680
        result.revision_id = revision_id
1828
1683
                            result._search_key_name)
1829
1684
        if parent_id_basename_to_file_id is not None:
1830
1685
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1831
 
                chk_store, StaticTuple(parent_id_basename_to_file_id,),
 
1686
                chk_store, (parent_id_basename_to_file_id,),
1832
1687
                search_key_func=search_key_func)
1833
1688
        else:
1834
1689
            result.parent_id_basename_to_file_id = None
1835
1690
 
1836
 
        result.id_to_entry = chk_map.CHKMap(chk_store,
1837
 
                                            StaticTuple(id_to_entry,),
 
1691
        result.id_to_entry = chk_map.CHKMap(chk_store, (id_to_entry,),
1838
1692
                                            search_key_func=search_key_func)
1839
1693
        if (result.revision_id,) != expected_revision_id:
1840
1694
            raise ValueError("Mismatched revision id and expected: %r, %r" %
1853
1707
        :param maximum_size: The CHKMap node size limit.
1854
1708
        :param search_key_name: The identifier for the search key function
1855
1709
        """
1856
 
        result = klass(search_key_name)
 
1710
        result = CHKInventory(search_key_name)
1857
1711
        result.revision_id = inventory.revision_id
1858
1712
        result.root_id = inventory.root.file_id
1859
 
 
1860
 
        entry_to_bytes = result._entry_to_bytes
1861
 
        parent_id_basename_key = result._parent_id_basename_key
1862
 
        id_to_entry_dict = {}
1863
 
        parent_id_basename_dict = {}
 
1713
        search_key_func = chk_map.search_key_registry.get(search_key_name)
 
1714
        result.id_to_entry = chk_map.CHKMap(chk_store, None, search_key_func)
 
1715
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
 
1716
        file_id_delta = []
 
1717
        result.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
 
1718
            None, search_key_func)
 
1719
        result.parent_id_basename_to_file_id._root_node.set_maximum_size(
 
1720
            maximum_size)
 
1721
        result.parent_id_basename_to_file_id._root_node._key_width = 2
 
1722
        parent_id_delta = []
1864
1723
        for path, entry in inventory.iter_entries():
1865
 
            key = StaticTuple(entry.file_id,).intern()
1866
 
            id_to_entry_dict[key] = entry_to_bytes(entry)
1867
 
            p_id_key = parent_id_basename_key(entry)
1868
 
            parent_id_basename_dict[p_id_key] = entry.file_id
1869
 
 
1870
 
        result._populate_from_dicts(chk_store, id_to_entry_dict,
1871
 
            parent_id_basename_dict, maximum_size=maximum_size)
 
1724
            file_id_delta.append((None, (entry.file_id,),
 
1725
                result._entry_to_bytes(entry)))
 
1726
            parent_id_delta.append(
 
1727
                (None, result._parent_id_basename_key(entry),
 
1728
                 entry.file_id))
 
1729
        result.id_to_entry.apply_delta(file_id_delta)
 
1730
        result.parent_id_basename_to_file_id.apply_delta(parent_id_delta)
1872
1731
        return result
1873
1732
 
1874
 
    def _populate_from_dicts(self, chk_store, id_to_entry_dict,
1875
 
                             parent_id_basename_dict, maximum_size):
1876
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1877
 
        root_key = chk_map.CHKMap.from_dict(chk_store, id_to_entry_dict,
1878
 
                   maximum_size=maximum_size, key_width=1,
1879
 
                   search_key_func=search_key_func)
1880
 
        self.id_to_entry = chk_map.CHKMap(chk_store, root_key,
1881
 
                                          search_key_func)
1882
 
        root_key = chk_map.CHKMap.from_dict(chk_store,
1883
 
                   parent_id_basename_dict,
1884
 
                   maximum_size=maximum_size, key_width=2,
1885
 
                   search_key_func=search_key_func)
1886
 
        self.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
1887
 
                                                    root_key, search_key_func)
1888
 
 
1889
1733
    def _parent_id_basename_key(self, entry):
1890
1734
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
1891
1735
        if entry.parent_id is not None:
1892
1736
            parent_id = entry.parent_id
1893
1737
        else:
1894
1738
            parent_id = ''
1895
 
        return StaticTuple(parent_id, entry.name.encode('utf8')).intern()
 
1739
        return parent_id, entry.name.encode('utf8')
1896
1740
 
1897
1741
    def __getitem__(self, file_id):
1898
1742
        """map a single file_id -> InventoryEntry."""
1903
1747
            return result
1904
1748
        try:
1905
1749
            return self._bytes_to_entry(
1906
 
                self.id_to_entry.iteritems([StaticTuple(file_id,)]).next()[1])
 
1750
                self.id_to_entry.iteritems([(file_id,)]).next()[1])
1907
1751
        except StopIteration:
1908
1752
            # really we're passing an inventory, not a tree...
1909
1753
            raise errors.NoSuchId(self, file_id)
1910
1754
 
1911
 
    def _getitems(self, file_ids):
1912
 
        """Similar to __getitem__, but lets you query for multiple.
1913
 
        
1914
 
        The returned order is undefined. And currently if an item doesn't
1915
 
        exist, it isn't included in the output.
1916
 
        """
1917
 
        result = []
1918
 
        remaining = []
1919
 
        for file_id in file_ids:
1920
 
            entry = self._fileid_to_entry_cache.get(file_id, None)
1921
 
            if entry is None:
1922
 
                remaining.append(file_id)
1923
 
            else:
1924
 
                result.append(entry)
1925
 
        file_keys = [StaticTuple(f,).intern() for f in remaining]
1926
 
        for file_key, value in self.id_to_entry.iteritems(file_keys):
1927
 
            entry = self._bytes_to_entry(value)
1928
 
            result.append(entry)
1929
 
            self._fileid_to_entry_cache[entry.file_id] = entry
1930
 
        return result
1931
 
 
1932
1755
    def has_id(self, file_id):
1933
1756
        # Perhaps have an explicit 'contains' method on CHKMap ?
1934
1757
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
1935
1758
            return True
1936
 
        return len(list(
1937
 
            self.id_to_entry.iteritems([StaticTuple(file_id,)]))) == 1
 
1759
        return len(list(self.id_to_entry.iteritems([(file_id,)]))) == 1
1938
1760
 
1939
1761
    def is_root(self, file_id):
1940
1762
        return file_id == self.root_id
1956
1778
 
1957
1779
    def iter_just_entries(self):
1958
1780
        """Iterate over all entries.
1959
 
 
 
1781
        
1960
1782
        Unlike iter_entries(), just the entries are returned (not (path, ie))
1961
1783
        and the order of entries is undefined.
1962
1784
 
1970
1792
                self._fileid_to_entry_cache[file_id] = ie
1971
1793
            yield ie
1972
1794
 
1973
 
    def _preload_cache(self):
1974
 
        """Make sure all file-ids are in _fileid_to_entry_cache"""
1975
 
        if self._fully_cached:
1976
 
            return # No need to do it again
1977
 
        # The optimal sort order is to use iteritems() directly
1978
 
        cache = self._fileid_to_entry_cache
1979
 
        for key, entry in self.id_to_entry.iteritems():
1980
 
            file_id = key[0]
1981
 
            if file_id not in cache:
1982
 
                ie = self._bytes_to_entry(entry)
1983
 
                cache[file_id] = ie
1984
 
            else:
1985
 
                ie = cache[file_id]
1986
 
        last_parent_id = last_parent_ie = None
1987
 
        pid_items = self.parent_id_basename_to_file_id.iteritems()
1988
 
        for key, child_file_id in pid_items:
1989
 
            if key == ('', ''): # This is the root
1990
 
                if child_file_id != self.root_id:
1991
 
                    raise ValueError('Data inconsistency detected.'
1992
 
                        ' We expected data with key ("","") to match'
1993
 
                        ' the root id, but %s != %s'
1994
 
                        % (child_file_id, self.root_id))
1995
 
                continue
1996
 
            parent_id, basename = key
1997
 
            ie = cache[child_file_id]
1998
 
            if parent_id == last_parent_id:
1999
 
                parent_ie = last_parent_ie
2000
 
            else:
2001
 
                parent_ie = cache[parent_id]
2002
 
            if parent_ie.kind != 'directory':
2003
 
                raise ValueError('Data inconsistency detected.'
2004
 
                    ' An entry in the parent_id_basename_to_file_id map'
2005
 
                    ' has parent_id {%s} but the kind of that object'
2006
 
                    ' is %r not "directory"' % (parent_id, parent_ie.kind))
2007
 
            if parent_ie._children is None:
2008
 
                parent_ie._children = {}
2009
 
            basename = basename.decode('utf-8')
2010
 
            if basename in parent_ie._children:
2011
 
                existing_ie = parent_ie._children[basename]
2012
 
                if existing_ie != ie:
2013
 
                    raise ValueError('Data inconsistency detected.'
2014
 
                        ' Two entries with basename %r were found'
2015
 
                        ' in the parent entry {%s}'
2016
 
                        % (basename, parent_id))
2017
 
            if basename != ie.name:
2018
 
                raise ValueError('Data inconsistency detected.'
2019
 
                    ' In the parent_id_basename_to_file_id map, file_id'
2020
 
                    ' {%s} is listed as having basename %r, but in the'
2021
 
                    ' id_to_entry map it is %r'
2022
 
                    % (child_file_id, basename, ie.name))
2023
 
            parent_ie._children[basename] = ie
2024
 
        self._fully_cached = True
2025
 
 
2026
1795
    def iter_changes(self, basis):
2027
1796
        """Generate a Tree.iter_changes change list between this and basis.
2028
1797
 
2122
1891
            delta.append((old_path, new_path, file_id, entry))
2123
1892
        return delta
2124
1893
 
2125
 
    def path2id(self, relpath):
 
1894
    def path2id(self, name):
2126
1895
        """See CommonInventory.path2id()."""
2127
 
        # TODO: perhaps support negative hits?
2128
 
        result = self._path_to_fileid_cache.get(relpath, None)
2129
 
        if result is not None:
2130
 
            return result
2131
 
        if isinstance(relpath, basestring):
2132
 
            names = osutils.splitpath(relpath)
2133
 
        else:
2134
 
            names = relpath
2135
 
        current_id = self.root_id
2136
 
        if current_id is None:
2137
 
            return None
2138
 
        parent_id_index = self.parent_id_basename_to_file_id
2139
 
        cur_path = None
2140
 
        for basename in names:
2141
 
            if cur_path is None:
2142
 
                cur_path = basename
2143
 
            else:
2144
 
                cur_path = cur_path + '/' + basename
2145
 
            basename_utf8 = basename.encode('utf8')
2146
 
            file_id = self._path_to_fileid_cache.get(cur_path, None)
2147
 
            if file_id is None:
2148
 
                key_filter = [StaticTuple(current_id, basename_utf8)]
2149
 
                items = parent_id_index.iteritems(key_filter)
2150
 
                for (parent_id, name_utf8), file_id in items:
2151
 
                    if parent_id != current_id or name_utf8 != basename_utf8:
2152
 
                        raise errors.BzrError("corrupt inventory lookup! "
2153
 
                            "%r %r %r %r" % (parent_id, current_id, name_utf8,
2154
 
                            basename_utf8))
2155
 
                if file_id is None:
2156
 
                    return None
2157
 
                else:
2158
 
                    self._path_to_fileid_cache[cur_path] = file_id
2159
 
            current_id = file_id
2160
 
        return current_id
 
1896
        result = self._path_to_fileid_cache.get(name, None)
 
1897
        if result is None:
 
1898
            result = CommonInventory.path2id(self, name)
 
1899
            self._path_to_fileid_cache[name] = result
 
1900
        return result
2161
1901
 
2162
1902
    def to_lines(self):
2163
1903
        """Serialise the inventory to lines."""
2167
1907
            lines.append('search_key_name: %s\n' % (self._search_key_name,))
2168
1908
            lines.append("root_id: %s\n" % self.root_id)
2169
1909
            lines.append('parent_id_basename_to_file_id: %s\n' %
2170
 
                (self.parent_id_basename_to_file_id.key()[0],))
 
1910
                self.parent_id_basename_to_file_id.key())
2171
1911
            lines.append("revision_id: %s\n" % self.revision_id)
2172
 
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
 
1912
            lines.append("id_to_entry: %s\n" % self.id_to_entry.key())
2173
1913
        else:
2174
1914
            lines.append("revision_id: %s\n" % self.revision_id)
2175
1915
            lines.append("root_id: %s\n" % self.root_id)
2176
1916
            if self.parent_id_basename_to_file_id is not None:
2177
1917
                lines.append('parent_id_basename_to_file_id: %s\n' %
2178
 
                    (self.parent_id_basename_to_file_id.key()[0],))
2179
 
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
 
1918
                    self.parent_id_basename_to_file_id.key())
 
1919
            lines.append("id_to_entry: %s\n" % self.id_to_entry.key())
2180
1920
        return lines
2181
1921
 
2182
1922
    @property
2188
1928
class CHKInventoryDirectory(InventoryDirectory):
2189
1929
    """A directory in an inventory."""
2190
1930
 
2191
 
    __slots__ = ['_children', '_chk_inventory']
 
1931
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
1932
                 'text_id', 'parent_id', '_children', 'executable',
 
1933
                 'revision', 'symlink_target', 'reference_revision',
 
1934
                 '_chk_inventory']
2192
1935
 
2193
1936
    def __init__(self, file_id, name, parent_id, chk_inventory):
2194
1937
        # Don't call InventoryDirectory.__init__ - it isn't right for this
2195
1938
        # class.
2196
1939
        InventoryEntry.__init__(self, file_id, name, parent_id)
2197
1940
        self._children = None
 
1941
        self.kind = 'directory'
2198
1942
        self._chk_inventory = chk_inventory
2199
1943
 
2200
1944
    @property
2219
1963
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
2220
1964
        child_keys = set()
2221
1965
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
2222
 
            key_filter=[StaticTuple(self.file_id,)]):
2223
 
            child_keys.add(StaticTuple(file_id,))
 
1966
            key_filter=[(self.file_id,)]):
 
1967
            child_keys.add((file_id,))
2224
1968
        cached = set()
2225
1969
        for file_id_key in child_keys:
2226
1970
            entry = self._chk_inventory._fileid_to_entry_cache.get(
2259
2003
    try:
2260
2004
        factory = entry_factory[kind]
2261
2005
    except KeyError:
2262
 
        raise errors.BadFileKindError(name, kind)
 
2006
        raise BzrError("unknown kind %r" % kind)
2263
2007
    return factory(file_id, name, parent_id)
2264
2008
 
2265
2009
 
2285
2029
    return name
2286
2030
 
2287
2031
 
2288
 
_NAME_RE = lazy_regex.lazy_compile(r'^[^/\\]+$')
 
2032
_NAME_RE = None
2289
2033
 
2290
2034
def is_valid_name(name):
 
2035
    global _NAME_RE
 
2036
    if _NAME_RE is None:
 
2037
        _NAME_RE = re.compile(r'^[^/\\]+$')
 
2038
 
2291
2039
    return bool(_NAME_RE.match(name))
2292
 
 
2293
 
 
2294
 
def _check_delta_unique_ids(delta):
2295
 
    """Decorate a delta and check that the file ids in it are unique.
2296
 
 
2297
 
    :return: A generator over delta.
2298
 
    """
2299
 
    ids = set()
2300
 
    for item in delta:
2301
 
        length = len(ids) + 1
2302
 
        ids.add(item[2])
2303
 
        if len(ids) != length:
2304
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2305
 
                "repeated file_id")
2306
 
        yield item
2307
 
 
2308
 
 
2309
 
def _check_delta_unique_new_paths(delta):
2310
 
    """Decorate a delta and check that the new paths in it are unique.
2311
 
 
2312
 
    :return: A generator over delta.
2313
 
    """
2314
 
    paths = set()
2315
 
    for item in delta:
2316
 
        length = len(paths) + 1
2317
 
        path = item[1]
2318
 
        if path is not None:
2319
 
            paths.add(path)
2320
 
            if len(paths) != length:
2321
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2322
 
        yield item
2323
 
 
2324
 
 
2325
 
def _check_delta_unique_old_paths(delta):
2326
 
    """Decorate a delta and check that the old paths in it are unique.
2327
 
 
2328
 
    :return: A generator over delta.
2329
 
    """
2330
 
    paths = set()
2331
 
    for item in delta:
2332
 
        length = len(paths) + 1
2333
 
        path = item[0]
2334
 
        if path is not None:
2335
 
            paths.add(path)
2336
 
            if len(paths) != length:
2337
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2338
 
        yield item
2339
 
 
2340
 
 
2341
 
def _check_delta_ids_are_valid(delta):
2342
 
    """Decorate a delta and check that the ids in it are valid.
2343
 
 
2344
 
    :return: A generator over delta.
2345
 
    """
2346
 
    for item in delta:
2347
 
        entry = item[3]
2348
 
        if item[2] is None:
2349
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2350
 
                "entry with file_id None %r" % entry)
2351
 
        if type(item[2]) != str:
2352
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2353
 
                "entry with non bytes file_id %r" % entry)
2354
 
        yield item
2355
 
 
2356
 
 
2357
 
def _check_delta_ids_match_entry(delta):
2358
 
    """Decorate a delta and check that the ids in it match the entry.file_id.
2359
 
 
2360
 
    :return: A generator over delta.
2361
 
    """
2362
 
    for item in delta:
2363
 
        entry = item[3]
2364
 
        if entry is not None:
2365
 
            if entry.file_id != item[2]:
2366
 
                raise errors.InconsistentDelta(item[0] or item[1], item[2],
2367
 
                    "mismatched id with %r" % entry)
2368
 
        yield item
2369
 
 
2370
 
 
2371
 
def _check_delta_new_path_entry_both_or_None(delta):
2372
 
    """Decorate a delta and check that the new_path and entry are paired.
2373
 
 
2374
 
    :return: A generator over delta.
2375
 
    """
2376
 
    for item in delta:
2377
 
        new_path = item[1]
2378
 
        entry = item[3]
2379
 
        if new_path is None and entry is not None:
2380
 
            raise errors.InconsistentDelta(item[0], item[1],
2381
 
                "Entry with no new_path")
2382
 
        if new_path is not None and entry is None:
2383
 
            raise errors.InconsistentDelta(new_path, item[1],
2384
 
                "new_path with no entry")
2385
 
        yield item
2386
 
 
2387
 
 
2388
 
def mutable_inventory_from_tree(tree):
2389
 
    """Create a new inventory that has the same contents as a specified tree.
2390
 
 
2391
 
    :param tree: Revision tree to create inventory from
2392
 
    """
2393
 
    entries = tree.iter_entries_by_dir()
2394
 
    inv = Inventory(None, tree.get_revision_id())
2395
 
    for path, inv_entry in entries:
2396
 
        inv.add(inv_entry.copy())
2397
 
    return inv