~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/inventory.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2010-09-01 08:02:42 UTC
  • mfrom: (5390.3.3 faster-revert-593560)
  • Revision ID: pqm@pqm.ubuntu.com-20100901080242-esg62ody4frwmy66
(spiv) Avoid repeatedly calling self.target.all_file_ids() in
 InterTree.iter_changes. (Andrew Bennetts)

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
 
1
# Copyright (C) 2005-2010 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
27
27
# created, but it's not for now.
28
28
ROOT_ID = "TREE_ROOT"
29
29
 
30
 
from copy import deepcopy
31
 
 
32
30
from bzrlib.lazy_import import lazy_import
33
31
lazy_import(globals(), """
34
32
import collections
 
33
import copy
35
34
import os
36
35
import re
37
36
import tarfile
38
37
 
39
 
import bzrlib
40
38
from bzrlib import (
41
39
    chk_map,
42
40
    errors,
43
41
    generate_ids,
44
42
    osutils,
45
 
    symbol_versioning,
46
 
    workingtree,
47
43
    )
48
44
""")
49
45
 
51
47
    BzrCheckError,
52
48
    BzrError,
53
49
    )
54
 
from bzrlib.symbol_versioning import deprecated_in, deprecated_method
55
50
from bzrlib.trace import mutter
 
51
from bzrlib.static_tuple import StaticTuple
56
52
 
57
53
 
58
54
class InventoryEntry(object):
132
128
    RENAMED = 'renamed'
133
129
    MODIFIED_AND_RENAMED = 'modified and renamed'
134
130
 
135
 
    __slots__ = []
 
131
    __slots__ = ['file_id', 'revision', 'parent_id', 'name']
 
132
 
 
133
    # Attributes that all InventoryEntry instances are expected to have, but
 
134
    # that don't vary for all kinds of entry.  (e.g. symlink_target is only
 
135
    # relevant to InventoryLink, so there's no reason to make every
 
136
    # InventoryFile instance allocate space to hold a value for it.)
 
137
    # Attributes that only vary for files: executable, text_sha1, text_size,
 
138
    # text_id
 
139
    executable = False
 
140
    text_sha1 = None
 
141
    text_size = None
 
142
    text_id = None
 
143
    # Attributes that only vary for symlinks: symlink_target
 
144
    symlink_target = None
 
145
    # Attributes that only vary for tree-references: reference_revision
 
146
    reference_revision = None
 
147
 
136
148
 
137
149
    def detect_changes(self, old_entry):
138
150
        """Return a (text_modified, meta_modified) from this to old_entry.
177
189
                    candidates[ie.revision] = ie
178
190
        return candidates
179
191
 
180
 
    @deprecated_method(deprecated_in((1, 6, 0)))
181
 
    def get_tar_item(self, root, dp, now, tree):
182
 
        """Get a tarfile item and a file stream for its content."""
183
 
        item = tarfile.TarInfo(osutils.pathjoin(root, dp).encode('utf8'))
184
 
        # TODO: would be cool to actually set it to the timestamp of the
185
 
        # revision it was last changed
186
 
        item.mtime = now
187
 
        fileobj = self._put_in_tar(item, tree)
188
 
        return item, fileobj
189
 
 
190
192
    def has_text(self):
191
193
        """Return true if the object this entry represents has textual data.
192
194
 
198
200
        """
199
201
        return False
200
202
 
201
 
    def __init__(self, file_id, name, parent_id, text_id=None):
 
203
    def __init__(self, file_id, name, parent_id):
202
204
        """Create an InventoryEntry
203
205
 
204
206
        The filename must be a single component, relative to the
215
217
        """
216
218
        if '/' in name or '\\' in name:
217
219
            raise errors.InvalidEntryName(name=name)
218
 
        self.executable = False
 
220
        self.file_id = file_id
219
221
        self.revision = None
220
 
        self.text_sha1 = None
221
 
        self.text_size = None
222
 
        self.file_id = file_id
223
222
        self.name = name
224
 
        self.text_id = text_id
225
223
        self.parent_id = parent_id
226
 
        self.symlink_target = None
227
 
        self.reference_revision = None
228
224
 
229
225
    def kind_character(self):
230
226
        """Return a short kind indicator useful for appending to names."""
232
228
 
233
229
    known_kinds = ('file', 'directory', 'symlink')
234
230
 
235
 
    def _put_in_tar(self, item, tree):
236
 
        """populate item for stashing in a tar, and return the content stream.
237
 
 
238
 
        If no content is available, return None.
239
 
        """
240
 
        raise BzrError("don't know how to export {%s} of kind %r" %
241
 
                       (self.file_id, self.kind))
242
 
 
243
 
    @deprecated_method(deprecated_in((1, 6, 0)))
244
 
    def put_on_disk(self, dest, dp, tree):
245
 
        """Create a representation of self on disk in the prefix dest.
246
 
 
247
 
        This is a template method - implement _put_on_disk in subclasses.
248
 
        """
249
 
        fullpath = osutils.pathjoin(dest, dp)
250
 
        self._put_on_disk(fullpath, tree)
251
 
        # mutter("  export {%s} kind %s to %s", self.file_id,
252
 
        #         self.kind, fullpath)
253
 
 
254
 
    def _put_on_disk(self, fullpath, tree):
255
 
        """Put this entry onto disk at fullpath, from tree tree."""
256
 
        raise BzrError("don't know how to export {%s} of kind %r" % (self.file_id, self.kind))
257
 
 
258
231
    def sorted_children(self):
259
232
        return sorted(self.children.items())
260
233
 
262
235
    def versionable_kind(kind):
263
236
        return (kind in ('file', 'directory', 'symlink', 'tree-reference'))
264
237
 
265
 
    def check(self, checker, rev_id, inv, tree):
 
238
    def check(self, checker, rev_id, inv):
266
239
        """Check this inventory entry is intact.
267
240
 
268
241
        This is a template method, override _check for kind specific
274
247
        :param rev_id: Revision id from which this InventoryEntry was loaded.
275
248
             Not necessarily the last-changed revision for this file.
276
249
        :param inv: Inventory from which the entry was loaded.
277
 
        :param tree: RevisionTree for this entry.
278
250
        """
279
251
        if self.parent_id is not None:
280
252
            if not inv.has_id(self.parent_id):
281
253
                raise BzrCheckError('missing parent {%s} in inventory for revision {%s}'
282
254
                        % (self.parent_id, rev_id))
283
 
        self._check(checker, rev_id, tree)
 
255
        checker._add_entry_to_text_key_references(inv, self)
 
256
        self._check(checker, rev_id)
284
257
 
285
 
    def _check(self, checker, rev_id, tree):
 
258
    def _check(self, checker, rev_id):
286
259
        """Check this inventory entry for kind specific errors."""
287
 
        raise BzrCheckError('unknown entry kind %r in revision {%s}' %
288
 
                            (self.kind, rev_id))
 
260
        checker._report_items.append(
 
261
            'unknown entry kind %r in revision {%s}' % (self.kind, rev_id))
289
262
 
290
263
    def copy(self):
291
264
        """Clone this inventory entry."""
398
371
        pass
399
372
 
400
373
 
401
 
class RootEntry(InventoryEntry):
402
 
 
403
 
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
404
 
                 'text_id', 'parent_id', 'children', 'executable',
405
 
                 'revision', 'symlink_target', 'reference_revision']
406
 
 
407
 
    def _check(self, checker, rev_id, tree):
408
 
        """See InventoryEntry._check"""
409
 
 
410
 
    def __init__(self, file_id):
411
 
        self.file_id = file_id
412
 
        self.children = {}
413
 
        self.kind = 'directory'
414
 
        self.parent_id = None
415
 
        self.name = u''
416
 
        self.revision = None
417
 
        symbol_versioning.warn('RootEntry is deprecated as of bzr 0.10.'
418
 
                               '  Please use InventoryDirectory instead.',
419
 
                               DeprecationWarning, stacklevel=2)
420
 
 
421
 
    def __eq__(self, other):
422
 
        if not isinstance(other, RootEntry):
423
 
            return NotImplemented
424
 
 
425
 
        return (self.file_id == other.file_id) \
426
 
               and (self.children == other.children)
427
 
 
428
 
 
429
374
class InventoryDirectory(InventoryEntry):
430
375
    """A directory in an inventory."""
431
376
 
432
 
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
433
 
                 'text_id', 'parent_id', 'children', 'executable',
434
 
                 'revision', 'symlink_target', 'reference_revision']
435
 
 
436
 
    def _check(self, checker, rev_id, tree):
 
377
    __slots__ = ['children']
 
378
 
 
379
    kind = 'directory'
 
380
 
 
381
    def _check(self, checker, rev_id):
437
382
        """See InventoryEntry._check"""
438
 
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
439
 
            raise BzrCheckError('directory {%s} has text in revision {%s}'
440
 
                                % (self.file_id, rev_id))
 
383
        # In non rich root repositories we do not expect a file graph for the
 
384
        # root.
 
385
        if self.name == '' and not checker.rich_roots:
 
386
            return
 
387
        # Directories are stored as an empty file, but the file should exist
 
388
        # to provide a per-fileid log. The hash of every directory content is
 
389
        # "da..." below (the sha1sum of '').
 
390
        checker.add_pending_item(rev_id,
 
391
            ('texts', self.file_id, self.revision), 'text',
 
392
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
441
393
 
442
394
    def copy(self):
443
395
        other = InventoryDirectory(self.file_id, self.name, self.parent_id)
449
401
    def __init__(self, file_id, name, parent_id):
450
402
        super(InventoryDirectory, self).__init__(file_id, name, parent_id)
451
403
        self.children = {}
452
 
        self.kind = 'directory'
453
404
 
454
405
    def kind_character(self):
455
406
        """See InventoryEntry.kind_character."""
456
407
        return '/'
457
408
 
458
 
    def _put_in_tar(self, item, tree):
459
 
        """See InventoryEntry._put_in_tar."""
460
 
        item.type = tarfile.DIRTYPE
461
 
        fileobj = None
462
 
        item.name += '/'
463
 
        item.size = 0
464
 
        item.mode = 0755
465
 
        return fileobj
466
 
 
467
 
    def _put_on_disk(self, fullpath, tree):
468
 
        """See InventoryEntry._put_on_disk."""
469
 
        os.mkdir(fullpath)
470
 
 
471
409
 
472
410
class InventoryFile(InventoryEntry):
473
411
    """A file in an inventory."""
474
412
 
475
 
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
476
 
                 'text_id', 'parent_id', 'children', 'executable',
477
 
                 'revision', 'symlink_target', 'reference_revision']
478
 
 
479
 
    def _check(self, checker, tree_revision_id, tree):
 
413
    __slots__ = ['text_sha1', 'text_size', 'text_id', 'executable']
 
414
 
 
415
    kind = 'file'
 
416
 
 
417
    def __init__(self, file_id, name, parent_id):
 
418
        super(InventoryFile, self).__init__(file_id, name, parent_id)
 
419
        self.text_sha1 = None
 
420
        self.text_size = None
 
421
        self.text_id = None
 
422
        self.executable = False
 
423
 
 
424
    def _check(self, checker, tree_revision_id):
480
425
        """See InventoryEntry._check"""
481
 
        key = (self.file_id, self.revision)
482
 
        if key in checker.checked_texts:
483
 
            prev_sha = checker.checked_texts[key]
484
 
            if prev_sha != self.text_sha1:
485
 
                raise BzrCheckError(
486
 
                    'mismatched sha1 on {%s} in {%s} (%s != %s) %r' %
487
 
                    (self.file_id, tree_revision_id, prev_sha, self.text_sha1,
488
 
                     t))
489
 
            else:
490
 
                checker.repeated_text_cnt += 1
491
 
                return
492
 
 
493
 
        checker.checked_text_cnt += 1
494
 
        # We can't check the length, because Weave doesn't store that
495
 
        # information, and the whole point of looking at the weave's
496
 
        # sha1sum is that we don't have to extract the text.
497
 
        if (self.text_sha1 != tree._repository.texts.get_sha1s([key])[key]):
498
 
            raise BzrCheckError('text {%s} version {%s} wrong sha1' % key)
499
 
        checker.checked_texts[key] = self.text_sha1
 
426
        # TODO: check size too.
 
427
        checker.add_pending_item(tree_revision_id,
 
428
            ('texts', self.file_id, self.revision), 'text',
 
429
             self.text_sha1)
 
430
        if self.text_size is None:
 
431
            checker._report_items.append(
 
432
                'fileid {%s} in {%s} has None for text_size' % (self.file_id,
 
433
                tree_revision_id))
500
434
 
501
435
    def copy(self):
502
436
        other = InventoryFile(self.file_id, self.name, self.parent_id)
534
468
        """See InventoryEntry.has_text."""
535
469
        return True
536
470
 
537
 
    def __init__(self, file_id, name, parent_id):
538
 
        super(InventoryFile, self).__init__(file_id, name, parent_id)
539
 
        self.kind = 'file'
540
 
 
541
471
    def kind_character(self):
542
472
        """See InventoryEntry.kind_character."""
543
473
        return ''
544
474
 
545
 
    def _put_in_tar(self, item, tree):
546
 
        """See InventoryEntry._put_in_tar."""
547
 
        item.type = tarfile.REGTYPE
548
 
        fileobj = tree.get_file(self.file_id)
549
 
        item.size = self.text_size
550
 
        if tree.is_executable(self.file_id):
551
 
            item.mode = 0755
552
 
        else:
553
 
            item.mode = 0644
554
 
        return fileobj
555
 
 
556
 
    def _put_on_disk(self, fullpath, tree):
557
 
        """See InventoryEntry._put_on_disk."""
558
 
        osutils.pumpfile(tree.get_file(self.file_id), file(fullpath, 'wb'))
559
 
        if tree.is_executable(self.file_id):
560
 
            os.chmod(fullpath, 0755)
561
 
 
562
475
    def _read_tree_state(self, path, work_tree):
563
476
        """See InventoryEntry._read_tree_state."""
564
477
        self.text_sha1 = work_tree.get_file_sha1(self.file_id, path=path)
596
509
class InventoryLink(InventoryEntry):
597
510
    """A file in an inventory."""
598
511
 
599
 
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
600
 
                 'text_id', 'parent_id', 'children', 'executable',
601
 
                 'revision', 'symlink_target', 'reference_revision']
602
 
 
603
 
    def _check(self, checker, rev_id, tree):
 
512
    __slots__ = ['symlink_target']
 
513
 
 
514
    kind = 'symlink'
 
515
 
 
516
    def __init__(self, file_id, name, parent_id):
 
517
        super(InventoryLink, self).__init__(file_id, name, parent_id)
 
518
        self.symlink_target = None
 
519
 
 
520
    def _check(self, checker, tree_revision_id):
604
521
        """See InventoryEntry._check"""
605
 
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
606
 
            raise BzrCheckError('symlink {%s} has text in revision {%s}'
607
 
                    % (self.file_id, rev_id))
608
522
        if self.symlink_target is None:
609
 
            raise BzrCheckError('symlink {%s} has no target in revision {%s}'
610
 
                    % (self.file_id, rev_id))
 
523
            checker._report_items.append(
 
524
                'symlink {%s} has no target in revision {%s}'
 
525
                    % (self.file_id, tree_revision_id))
 
526
        # Symlinks are stored as ''
 
527
        checker.add_pending_item(tree_revision_id,
 
528
            ('texts', self.file_id, self.revision), 'text',
 
529
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
611
530
 
612
531
    def copy(self):
613
532
        other = InventoryLink(self.file_id, self.name, self.parent_id)
643
562
        differ = DiffSymlink(old_tree, new_tree, output_to)
644
563
        return differ.diff_symlink(old_target, new_target)
645
564
 
646
 
    def __init__(self, file_id, name, parent_id):
647
 
        super(InventoryLink, self).__init__(file_id, name, parent_id)
648
 
        self.kind = 'symlink'
649
 
 
650
565
    def kind_character(self):
651
566
        """See InventoryEntry.kind_character."""
652
567
        return ''
653
568
 
654
 
    def _put_in_tar(self, item, tree):
655
 
        """See InventoryEntry._put_in_tar."""
656
 
        item.type = tarfile.SYMTYPE
657
 
        fileobj = None
658
 
        item.size = 0
659
 
        item.mode = 0755
660
 
        item.linkname = self.symlink_target
661
 
        return fileobj
662
 
 
663
 
    def _put_on_disk(self, fullpath, tree):
664
 
        """See InventoryEntry._put_on_disk."""
665
 
        try:
666
 
            os.symlink(self.symlink_target, fullpath)
667
 
        except OSError,e:
668
 
            raise BzrError("Failed to create symlink %r -> %r, error: %s" % (fullpath, self.symlink_target, e))
669
 
 
670
569
    def _read_tree_state(self, path, work_tree):
671
570
        """See InventoryEntry._read_tree_state."""
672
571
        self.symlink_target = work_tree.get_symlink_target(self.file_id)
684
583
 
685
584
class TreeReference(InventoryEntry):
686
585
 
 
586
    __slots__ = ['reference_revision']
 
587
 
687
588
    kind = 'tree-reference'
688
589
 
689
590
    def __init__(self, file_id, name, parent_id, revision=None,
714
615
 
715
616
 
716
617
class CommonInventory(object):
717
 
    """Basic inventory logic, defined in terms of primitives like has_id."""
 
618
    """Basic inventory logic, defined in terms of primitives like has_id.
 
619
 
 
620
    An inventory is the metadata about the contents of a tree.
 
621
 
 
622
    This is broadly a map from file_id to entries such as directories, files,
 
623
    symlinks and tree references. Each entry maintains its own metadata like
 
624
    SHA1 and length for files, or children for a directory.
 
625
 
 
626
    Entries can be looked up either by path or by file_id.
 
627
 
 
628
    InventoryEntry objects must not be modified after they are
 
629
    inserted, other than through the Inventory API.
 
630
    """
718
631
 
719
632
    def __contains__(self, file_id):
720
633
        """True if this entry contains a file with given id.
733
646
        """
734
647
        return self.has_id(file_id)
735
648
 
 
649
    def has_filename(self, filename):
 
650
        return bool(self.path2id(filename))
 
651
 
736
652
    def id2path(self, file_id):
737
653
        """Return as a string the path to file_id.
738
654
 
741
657
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
742
658
        >>> print i.id2path('foo-id')
743
659
        src/foo.c
 
660
 
 
661
        :raises NoSuchId: If file_id is not present in the inventory.
744
662
        """
745
663
        # get all names, skipping root
746
664
        return '/'.join(reversed(
747
665
            [parent.name for parent in
748
666
             self._iter_file_id_parents(file_id)][:-1]))
749
667
 
750
 
    def iter_entries(self, from_dir=None):
751
 
        """Return (path, entry) pairs, in order by name."""
 
668
    def iter_entries(self, from_dir=None, recursive=True):
 
669
        """Return (path, entry) pairs, in order by name.
 
670
        
 
671
        :param from_dir: if None, start from the root,
 
672
          otherwise start from this directory (either file-id or entry)
 
673
        :param recursive: recurse into directories or not
 
674
        """
752
675
        if from_dir is None:
753
676
            if self.root is None:
754
677
                return
761
684
        # 440ms/663ms (inline/total) to 116ms/116ms
762
685
        children = from_dir.children.items()
763
686
        children.sort()
 
687
        if not recursive:
 
688
            for name, ie in children:
 
689
                yield name, ie
 
690
            return
764
691
        children = collections.deque(children)
765
692
        stack = [(u'', children)]
766
693
        while stack:
928
855
        descend(self.root, u'')
929
856
        return accum
930
857
 
931
 
    def path2id(self, name):
 
858
    def path2id(self, relpath):
932
859
        """Walk down through directories to return entry of last component.
933
860
 
934
 
        names may be either a list of path components, or a single
935
 
        string, in which case it is automatically split.
 
861
        :param relpath: may be either a list of path components, or a single
 
862
            string, in which case it is automatically split.
936
863
 
937
864
        This returns the entry of the last component in the path,
938
865
        which may be either a file or a directory.
939
866
 
940
867
        Returns None IFF the path is not found.
941
868
        """
942
 
        if isinstance(name, basestring):
943
 
            name = osutils.splitpath(name)
944
 
 
945
 
        # mutter("lookup path %r" % name)
 
869
        if isinstance(relpath, basestring):
 
870
            names = osutils.splitpath(relpath)
 
871
        else:
 
872
            names = relpath
946
873
 
947
874
        try:
948
875
            parent = self.root
951
878
            return None
952
879
        if parent is None:
953
880
            return None
954
 
        for f in name:
 
881
        for f in names:
955
882
            try:
956
883
                children = getattr(parent, 'children', None)
957
884
                if children is None:
1012
939
 
1013
940
 
1014
941
class Inventory(CommonInventory):
1015
 
    """Inventory of versioned files in a tree.
1016
 
 
1017
 
    This describes which file_id is present at each point in the tree,
1018
 
    and possibly the SHA-1 or other information about the file.
1019
 
    Entries can be looked up either by path or by file_id.
1020
 
 
1021
 
    The inventory represents a typical unix file tree, with
1022
 
    directories containing files and subdirectories.  We never store
1023
 
    the full path to a file, because renaming a directory implicitly
1024
 
    moves all of its contents.  This class internally maintains a
 
942
    """Mutable dict based in-memory inventory.
 
943
 
 
944
    We never store the full path to a file, because renaming a directory
 
945
    implicitly moves all of its contents.  This class internally maintains a
1025
946
    lookup tree that allows the children under a directory to be
1026
947
    returned quickly.
1027
948
 
1028
 
    InventoryEntry objects must not be modified after they are
1029
 
    inserted, other than through the Inventory API.
1030
 
 
1031
949
    >>> inv = Inventory()
1032
950
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
1033
951
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1034
952
    >>> inv['123-123'].name
1035
953
    'hello.c'
1036
954
 
1037
 
    May be treated as an iterator or set to look up file ids:
 
955
    Id's may be looked up from paths:
1038
956
 
1039
 
    >>> bool(inv.path2id('hello.c'))
1040
 
    True
 
957
    >>> inv.path2id('hello.c')
 
958
    '123-123'
1041
959
    >>> '123-123' in inv
1042
960
    True
1043
961
 
1044
 
    May also look up by name:
 
962
    There are iterators over the contents:
1045
963
 
1046
 
    >>> [x[0] for x in inv.iter_entries()]
 
964
    >>> [entry[0] for entry in inv.iter_entries()]
1047
965
    ['', u'hello.c']
1048
 
    >>> inv = Inventory('TREE_ROOT-12345678-12345678')
1049
 
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
1050
 
    Traceback (most recent call last):
1051
 
    BzrError: parent_id {TREE_ROOT} not in inventory
1052
 
    >>> inv.add(InventoryFile('123-123', 'hello.c', 'TREE_ROOT-12345678-12345678'))
1053
 
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT-12345678-12345678', sha1=None, len=None, revision=None)
1054
966
    """
 
967
 
1055
968
    def __init__(self, root_id=ROOT_ID, revision_id=None):
1056
969
        """Create or read an inventory.
1057
970
 
1081
994
    def apply_delta(self, delta):
1082
995
        """Apply a delta to this inventory.
1083
996
 
 
997
        See the inventory developers documentation for the theory behind
 
998
        inventory deltas.
 
999
 
 
1000
        If delta application fails the inventory is left in an indeterminate
 
1001
        state and must not be used.
 
1002
 
1084
1003
        :param delta: A list of changes to apply. After all the changes are
1085
1004
            applied the final inventory must be internally consistent, but it
1086
1005
            is ok to supply changes which, if only half-applied would have an
1117
1036
        """
1118
1037
        # Check that the delta is legal. It would be nice if this could be
1119
1038
        # done within the loops below but it's safer to validate the delta
1120
 
        # before starting to mutate the inventory.
1121
 
        unique_file_ids = set([f for _, _, f, _ in delta])
1122
 
        if len(unique_file_ids) != len(delta):
1123
 
            raise AssertionError("a file-id appears multiple times in %r"
1124
 
                    % (delta,))
1125
 
        del unique_file_ids
 
1039
        # before starting to mutate the inventory, as there isn't a rollback
 
1040
        # facility.
 
1041
        list(_check_delta_unique_ids(_check_delta_unique_new_paths(
 
1042
            _check_delta_unique_old_paths(_check_delta_ids_match_entry(
 
1043
            _check_delta_ids_are_valid(
 
1044
            _check_delta_new_path_entry_both_or_None(
 
1045
            delta)))))))
1126
1046
 
1127
1047
        children = {}
1128
1048
        # Remove all affected items which were in the original inventory,
1131
1051
        # modified children remaining by the time we examine it.
1132
1052
        for old_path, file_id in sorted(((op, f) for op, np, f, e in delta
1133
1053
                                        if op is not None), reverse=True):
1134
 
            if file_id not in self:
1135
 
                # adds come later
1136
 
                continue
1137
1054
            # Preserve unaltered children of file_id for later reinsertion.
1138
1055
            file_id_children = getattr(self[file_id], 'children', {})
1139
1056
            if len(file_id_children):
1140
1057
                children[file_id] = file_id_children
 
1058
            if self.id2path(file_id) != old_path:
 
1059
                raise errors.InconsistentDelta(old_path, file_id,
 
1060
                    "Entry was at wrong other path %r." % self.id2path(file_id))
1141
1061
            # Remove file_id and the unaltered children. If file_id is not
1142
1062
            # being deleted it will be reinserted back later.
1143
1063
            self.remove_recursive_id(file_id)
1146
1066
        # longest, ensuring that items which were modified and whose parents in
1147
1067
        # the resulting inventory were also modified, are inserted after their
1148
1068
        # parents.
1149
 
        for new_path, new_entry in sorted((np, e) for op, np, f, e in
 
1069
        for new_path, f, new_entry in sorted((np, f, e) for op, np, f, e in
1150
1070
                                          delta if np is not None):
1151
1071
            if new_entry.kind == 'directory':
1152
1072
                # Pop the child which to allow detection of children whose
1157
1077
                replacement.revision = new_entry.revision
1158
1078
                replacement.children = children.pop(replacement.file_id, {})
1159
1079
                new_entry = replacement
1160
 
            self.add(new_entry)
 
1080
            try:
 
1081
                self.add(new_entry)
 
1082
            except errors.DuplicateFileId:
 
1083
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
 
1084
                    "New id is already present in target.")
 
1085
            except AttributeError:
 
1086
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
 
1087
                    "Parent is not a directory.")
 
1088
            if self.id2path(new_entry.file_id) != new_path:
 
1089
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
 
1090
                    "New path is not consistent with parent path.")
1161
1091
        if len(children):
1162
1092
            # Get the parent id that was deleted
1163
1093
            parent_id, children = children.popitem()
1164
1094
            raise errors.InconsistentDelta("<deleted>", parent_id,
1165
1095
                "The file id was deleted but its children were not deleted.")
1166
1096
 
 
1097
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
 
1098
                              propagate_caches=False):
 
1099
        """See CHKInventory.create_by_apply_delta()"""
 
1100
        new_inv = self.copy()
 
1101
        new_inv.apply_delta(inventory_delta)
 
1102
        new_inv.revision_id = new_revision_id
 
1103
        return new_inv
 
1104
 
1167
1105
    def _set_root(self, ie):
1168
1106
        self.root = ie
1169
1107
        self._byid = {self.root.file_id: self.root}
1183
1121
 
1184
1122
    def _get_mutable_inventory(self):
1185
1123
        """See CommonInventory._get_mutable_inventory."""
1186
 
        return deepcopy(self)
 
1124
        return copy.deepcopy(self)
1187
1125
 
1188
1126
    def __iter__(self):
1189
1127
        """Iterate over all file-ids."""
1240
1178
    def add(self, entry):
1241
1179
        """Add entry to inventory.
1242
1180
 
1243
 
        To add  a file to a branch ready to be committed, use Branch.add,
1244
 
        which calls this.
1245
 
 
1246
 
        Returns the new entry object.
 
1181
        :return: entry
1247
1182
        """
1248
1183
        if entry.file_id in self._byid:
1249
1184
            raise errors.DuplicateFileId(entry.file_id,
1250
1185
                                         self._byid[entry.file_id])
1251
 
 
1252
1186
        if entry.parent_id is None:
1253
1187
            self.root = entry
1254
1188
        else:
1255
1189
            try:
1256
1190
                parent = self._byid[entry.parent_id]
1257
1191
            except KeyError:
1258
 
                raise BzrError("parent_id {%s} not in inventory" %
1259
 
                               entry.parent_id)
1260
 
 
 
1192
                raise errors.InconsistentDelta("<unknown>", entry.parent_id,
 
1193
                    "Parent not in inventory.")
1261
1194
            if entry.name in parent.children:
1262
 
                raise BzrError("%s is already versioned" %
1263
 
                        osutils.pathjoin(self.id2path(parent.file_id),
1264
 
                        entry.name).encode('utf-8'))
 
1195
                raise errors.InconsistentDelta(
 
1196
                    self.id2path(parent.children[entry.name].file_id),
 
1197
                    entry.file_id,
 
1198
                    "Path already versioned")
1265
1199
            parent.children[entry.name] = entry
1266
1200
        return self._add_child(entry)
1267
1201
 
1342
1276
            yield ie
1343
1277
            file_id = ie.parent_id
1344
1278
 
1345
 
    def has_filename(self, names):
1346
 
        return bool(self.path2id(names))
1347
 
 
1348
1279
    def has_id(self, file_id):
1349
1280
        return (file_id in self._byid)
1350
1281
 
1460
1391
        self._fileid_to_entry_cache = {}
1461
1392
        self._path_to_fileid_cache = {}
1462
1393
        self._search_key_name = search_key_name
 
1394
        self.root_id = None
 
1395
 
 
1396
    def __eq__(self, other):
 
1397
        """Compare two sets by comparing their contents."""
 
1398
        if not isinstance(other, CHKInventory):
 
1399
            return NotImplemented
 
1400
 
 
1401
        this_key = self.id_to_entry.key()
 
1402
        other_key = other.id_to_entry.key()
 
1403
        this_pid_key = self.parent_id_basename_to_file_id.key()
 
1404
        other_pid_key = other.parent_id_basename_to_file_id.key()
 
1405
        if None in (this_key, this_pid_key, other_key, other_pid_key):
 
1406
            return False
 
1407
        return this_key == other_key and this_pid_key == other_pid_key
1463
1408
 
1464
1409
    def _entry_to_bytes(self, entry):
1465
1410
        """Serialise entry as a single bytestring.
1503
1448
        else:
1504
1449
            raise ValueError("unknown kind %r" % entry.kind)
1505
1450
 
 
1451
    def _expand_fileids_to_parents_and_children(self, file_ids):
 
1452
        """Give a more wholistic view starting with the given file_ids.
 
1453
 
 
1454
        For any file_id which maps to a directory, we will include all children
 
1455
        of that directory. We will also include all directories which are
 
1456
        parents of the given file_ids, but we will not include their children.
 
1457
 
 
1458
        eg:
 
1459
          /     # TREE_ROOT
 
1460
          foo/  # foo-id
 
1461
            baz # baz-id
 
1462
            frob/ # frob-id
 
1463
              fringle # fringle-id
 
1464
          bar/  # bar-id
 
1465
            bing # bing-id
 
1466
 
 
1467
        if given [foo-id] we will include
 
1468
            TREE_ROOT as interesting parents
 
1469
        and 
 
1470
            foo-id, baz-id, frob-id, fringle-id
 
1471
        As interesting ids.
 
1472
        """
 
1473
        interesting = set()
 
1474
        # TODO: Pre-pass over the list of fileids to see if anything is already
 
1475
        #       deserialized in self._fileid_to_entry_cache
 
1476
 
 
1477
        directories_to_expand = set()
 
1478
        children_of_parent_id = {}
 
1479
        # It is okay if some of the fileids are missing
 
1480
        for entry in self._getitems(file_ids):
 
1481
            if entry.kind == 'directory':
 
1482
                directories_to_expand.add(entry.file_id)
 
1483
            interesting.add(entry.parent_id)
 
1484
            children_of_parent_id.setdefault(entry.parent_id, []
 
1485
                                             ).append(entry.file_id)
 
1486
 
 
1487
        # Now, interesting has all of the direct parents, but not the
 
1488
        # parents of those parents. It also may have some duplicates with
 
1489
        # specific_fileids
 
1490
        remaining_parents = interesting.difference(file_ids)
 
1491
        # When we hit the TREE_ROOT, we'll get an interesting parent of None,
 
1492
        # but we don't actually want to recurse into that
 
1493
        interesting.add(None) # this will auto-filter it in the loop
 
1494
        remaining_parents.discard(None) 
 
1495
        while remaining_parents:
 
1496
            next_parents = set()
 
1497
            for entry in self._getitems(remaining_parents):
 
1498
                next_parents.add(entry.parent_id)
 
1499
                children_of_parent_id.setdefault(entry.parent_id, []
 
1500
                                                 ).append(entry.file_id)
 
1501
            # Remove any search tips we've already processed
 
1502
            remaining_parents = next_parents.difference(interesting)
 
1503
            interesting.update(remaining_parents)
 
1504
            # We should probably also .difference(directories_to_expand)
 
1505
        interesting.update(file_ids)
 
1506
        interesting.discard(None)
 
1507
        while directories_to_expand:
 
1508
            # Expand directories by looking in the
 
1509
            # parent_id_basename_to_file_id map
 
1510
            keys = [StaticTuple(f,).intern() for f in directories_to_expand]
 
1511
            directories_to_expand = set()
 
1512
            items = self.parent_id_basename_to_file_id.iteritems(keys)
 
1513
            next_file_ids = set([item[1] for item in items])
 
1514
            next_file_ids = next_file_ids.difference(interesting)
 
1515
            interesting.update(next_file_ids)
 
1516
            for entry in self._getitems(next_file_ids):
 
1517
                if entry.kind == 'directory':
 
1518
                    directories_to_expand.add(entry.file_id)
 
1519
                children_of_parent_id.setdefault(entry.parent_id, []
 
1520
                                                 ).append(entry.file_id)
 
1521
        return interesting, children_of_parent_id
 
1522
 
 
1523
    def filter(self, specific_fileids):
 
1524
        """Get an inventory view filtered against a set of file-ids.
 
1525
 
 
1526
        Children of directories and parents are included.
 
1527
 
 
1528
        The result may or may not reference the underlying inventory
 
1529
        so it should be treated as immutable.
 
1530
        """
 
1531
        (interesting,
 
1532
         parent_to_children) = self._expand_fileids_to_parents_and_children(
 
1533
                                specific_fileids)
 
1534
        # There is some overlap here, but we assume that all interesting items
 
1535
        # are in the _fileid_to_entry_cache because we had to read them to
 
1536
        # determine if they were a dir we wanted to recurse, or just a file
 
1537
        # This should give us all the entries we'll want to add, so start
 
1538
        # adding
 
1539
        other = Inventory(self.root_id)
 
1540
        other.root.revision = self.root.revision
 
1541
        other.revision_id = self.revision_id
 
1542
        if not interesting or not parent_to_children:
 
1543
            # empty filter, or filtering entrys that don't exist
 
1544
            # (if even 1 existed, then we would have populated
 
1545
            # parent_to_children with at least the tree root.)
 
1546
            return other
 
1547
        cache = self._fileid_to_entry_cache
 
1548
        remaining_children = collections.deque(parent_to_children[self.root_id])
 
1549
        while remaining_children:
 
1550
            file_id = remaining_children.popleft()
 
1551
            ie = cache[file_id]
 
1552
            if ie.kind == 'directory':
 
1553
                ie = ie.copy() # We create a copy to depopulate the .children attribute
 
1554
            # TODO: depending on the uses of 'other' we should probably alwyas
 
1555
            #       '.copy()' to prevent someone from mutating other and
 
1556
            #       invaliding our internal cache
 
1557
            other.add(ie)
 
1558
            if file_id in parent_to_children:
 
1559
                remaining_children.extend(parent_to_children[file_id])
 
1560
        return other
 
1561
 
1506
1562
    @staticmethod
1507
1563
    def _bytes_to_utf8name_key(bytes):
1508
1564
        """Get the file_id, revision_id key out of bytes."""
1510
1566
        # to filter out empty names because of non rich-root...
1511
1567
        sections = bytes.split('\n')
1512
1568
        kind, file_id = sections[0].split(': ')
1513
 
        return (sections[2], file_id, sections[3])
 
1569
        return (sections[2], intern(file_id), intern(sections[3]))
1514
1570
 
1515
1571
    def _bytes_to_entry(self, bytes):
1516
1572
        """Deserialise a serialised entry."""
1538
1594
            result.reference_revision = sections[4]
1539
1595
        else:
1540
1596
            raise ValueError("Not a serialised entry %r" % bytes)
1541
 
        result.revision = sections[3]
1542
 
        if result.parent_id == '':
1543
 
            result.parent_id = None
1544
 
        self._fileid_to_entry_cache[result.file_id] = result
1545
 
        return result
1546
 
 
1547
 
    def _get_mutable_inventory(self):
1548
 
        """See CommonInventory._get_mutable_inventory."""
1549
 
        entries = self.iter_entries()
1550
 
        if self.root_id is not None:
1551
 
            entries.next()
1552
 
        inv = Inventory(self.root_id, self.revision_id)
1553
 
        for path, inv_entry in entries:
1554
 
            inv.add(inv_entry)
1555
 
        return inv
1556
 
 
1557
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1558
 
        propagate_caches=False):
1559
 
        """Create a new CHKInventory by applying inventory_delta to this one.
1560
 
 
1561
 
        :param inventory_delta: The inventory delta to apply. See
1562
 
            Inventory.apply_delta for details.
1563
 
        :param new_revision_id: The revision id of the resulting CHKInventory.
1564
 
        :param propagate_caches: If True, the caches for this inventory are
1565
 
          copied to and updated for the result.
1566
 
        :return: The new CHKInventory.
1567
 
        """
1568
 
        result = CHKInventory(self._search_key_name)
1569
 
        if propagate_caches:
1570
 
            # Just propagate the path-to-fileid cache for now
1571
 
            result._path_to_fileid_cache = dict(self._path_to_fileid_cache.iteritems())
1572
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1573
 
        self.id_to_entry._ensure_root()
1574
 
        maximum_size = self.id_to_entry._root_node.maximum_size
1575
 
        result.revision_id = new_revision_id
1576
 
        result.id_to_entry = chk_map.CHKMap(
1577
 
            self.id_to_entry._store,
1578
 
            self.id_to_entry.key(),
1579
 
            search_key_func=search_key_func)
1580
 
        result.id_to_entry._ensure_root()
1581
 
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
1582
 
        parent_id_basename_delta = []
1583
 
        if self.parent_id_basename_to_file_id is not None:
1584
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1585
 
                self.parent_id_basename_to_file_id._store,
1586
 
                self.parent_id_basename_to_file_id.key(),
1587
 
                search_key_func=search_key_func)
1588
 
            result.parent_id_basename_to_file_id._ensure_root()
1589
 
            self.parent_id_basename_to_file_id._ensure_root()
1590
 
            result_p_id_root = result.parent_id_basename_to_file_id._root_node
1591
 
            p_id_root = self.parent_id_basename_to_file_id._root_node
1592
 
            result_p_id_root.set_maximum_size(p_id_root.maximum_size)
1593
 
            result_p_id_root._key_width = p_id_root._key_width
1594
 
        else:
1595
 
            result.parent_id_basename_to_file_id = None
1596
 
        result.root_id = self.root_id
1597
 
        id_to_entry_delta = []
1598
 
        for old_path, new_path, file_id, entry in inventory_delta:
1599
 
            # file id changes
1600
 
            if new_path == '':
1601
 
                result.root_id = file_id
1602
 
            if new_path is None:
1603
 
                # Make a delete:
1604
 
                new_key = None
1605
 
                new_value = None
1606
 
                # Update caches
1607
 
                if propagate_caches:
1608
 
                    try:
1609
 
                        del result._path_to_fileid_cache[old_path]
1610
 
                    except KeyError:
1611
 
                        pass
1612
 
            else:
1613
 
                new_key = (file_id,)
1614
 
                new_value = result._entry_to_bytes(entry)
1615
 
                # Update caches. It's worth doing this whether
1616
 
                # we're propagating the old caches or not.
1617
 
                result._path_to_fileid_cache[new_path] = file_id
1618
 
            if old_path is None:
1619
 
                old_key = None
1620
 
            else:
1621
 
                old_key = (file_id,)
1622
 
            id_to_entry_delta.append((old_key, new_key, new_value))
1623
 
            if result.parent_id_basename_to_file_id is not None:
1624
 
                # parent_id, basename changes
1625
 
                if old_path is None:
1626
 
                    old_key = None
1627
 
                else:
1628
 
                    old_entry = self[file_id]
1629
 
                    old_key = self._parent_id_basename_key(old_entry)
1630
 
                if new_path is None:
1631
 
                    new_key = None
1632
 
                    new_value = None
1633
 
                else:
1634
 
                    new_key = self._parent_id_basename_key(entry)
1635
 
                    new_value = file_id
1636
 
                if old_key != new_key:
1637
 
                    # If the two keys are the same, the value will be unchanged
1638
 
                    # as its always the file id.
1639
 
                    parent_id_basename_delta.append((old_key, new_key, new_value))
1640
 
        result.id_to_entry.apply_delta(id_to_entry_delta)
1641
 
        if parent_id_basename_delta:
1642
 
            result.parent_id_basename_to_file_id.apply_delta(parent_id_basename_delta)
1643
 
        return result
1644
 
 
1645
 
    @classmethod
1646
 
    def deserialise(klass, chk_store, bytes, expected_revision_id):
1647
 
        """Deserialise a CHKInventory.
1648
 
 
1649
 
        :param chk_store: A CHK capable VersionedFiles instance.
1650
 
        :param bytes: The serialised bytes.
1651
 
        :param expected_revision_id: The revision ID we think this inventory is
1652
 
            for.
1653
 
        :return: A CHKInventory
1654
 
        """
1655
 
        lines = bytes.split('\n')
1656
 
        assert lines[-1] == ''
1657
 
        lines.pop()
1658
 
        if lines[0] != 'chkinventory:':
1659
 
            raise ValueError("not a serialised CHKInventory: %r" % bytes)
1660
 
        info = {}
1661
 
        allowed_keys = frozenset(['root_id', 'revision_id', 'search_key_name',
1662
 
                                  'parent_id_basename_to_file_id',
1663
 
                                  'id_to_entry'])
1664
 
        for line in lines[1:]:
1665
 
            key, value = line.split(': ', 1)
1666
 
            if key not in allowed_keys:
1667
 
                raise errors.BzrError('Unknown key in inventory: %r\n%r'
1668
 
                                      % (key, bytes))
1669
 
            if key in info:
1670
 
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
1671
 
                                      % (key, bytes))
1672
 
            info[key] = value
1673
 
        revision_id = info['revision_id']
1674
 
        root_id = info['root_id']
1675
 
        search_key_name = info.get('search_key_name', 'plain')
1676
 
        parent_id_basename_to_file_id = info.get(
1677
 
            'parent_id_basename_to_file_id', None)
1678
 
        id_to_entry = info['id_to_entry']
1679
 
 
1680
 
        result = CHKInventory(search_key_name)
1681
 
        result.revision_id = revision_id
1682
 
        result.root_id = root_id
1683
 
        search_key_func = chk_map.search_key_registry.get(
1684
 
                            result._search_key_name)
1685
 
        if parent_id_basename_to_file_id is not None:
1686
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1687
 
                chk_store, (parent_id_basename_to_file_id,),
1688
 
                search_key_func=search_key_func)
1689
 
        else:
1690
 
            result.parent_id_basename_to_file_id = None
1691
 
 
1692
 
        result.id_to_entry = chk_map.CHKMap(chk_store, (id_to_entry,),
1693
 
                                            search_key_func=search_key_func)
1694
 
        if (result.revision_id,) != expected_revision_id:
1695
 
            raise ValueError("Mismatched revision id and expected: %r, %r" %
1696
 
                (result.revision_id, expected_revision_id))
1697
 
        return result
1698
 
 
1699
 
    @classmethod
1700
 
    def from_inventory(klass, chk_store, inventory, maximum_size=0, search_key_name='plain'):
1701
 
        """Create a CHKInventory from an existing inventory.
1702
 
 
1703
 
        The content of inventory is copied into the chk_store, and a
1704
 
        CHKInventory referencing that is returned.
1705
 
 
1706
 
        :param chk_store: A CHK capable VersionedFiles instance.
1707
 
        :param inventory: The inventory to copy.
1708
 
        :param maximum_size: The CHKMap node size limit.
1709
 
        :param search_key_name: The identifier for the search key function
1710
 
        """
1711
 
        result = CHKInventory(search_key_name)
1712
 
        result.revision_id = inventory.revision_id
1713
 
        result.root_id = inventory.root.file_id
1714
 
        search_key_func = chk_map.search_key_registry.get(search_key_name)
1715
 
        result.id_to_entry = chk_map.CHKMap(chk_store, None, search_key_func)
1716
 
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
1717
 
        file_id_delta = []
1718
 
        result.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
1719
 
            None, search_key_func)
1720
 
        result.parent_id_basename_to_file_id._root_node.set_maximum_size(
1721
 
            maximum_size)
1722
 
        result.parent_id_basename_to_file_id._root_node._key_width = 2
1723
 
        parent_id_delta = []
1724
 
        for path, entry in inventory.iter_entries():
1725
 
            file_id_delta.append((None, (entry.file_id,),
1726
 
                result._entry_to_bytes(entry)))
1727
 
            parent_id_delta.append(
1728
 
                (None, result._parent_id_basename_key(entry),
1729
 
                 entry.file_id))
1730
 
        result.id_to_entry.apply_delta(file_id_delta)
1731
 
        result.parent_id_basename_to_file_id.apply_delta(parent_id_delta)
1732
 
        return result
1733
 
 
1734
 
    def _parent_id_basename_key(self, entry):
1735
 
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
1736
 
        if entry.parent_id is not None:
1737
 
            parent_id = entry.parent_id
1738
 
        else:
1739
 
            parent_id = ''
1740
 
        return parent_id, entry.name.encode('utf8')
1741
 
 
1742
 
    def __getitem__(self, file_id):
1743
 
        """map a single file_id -> InventoryEntry."""
1744
 
        if file_id is None:
1745
 
            raise errors.NoSuchId(self, file_id)
1746
 
        result = self._fileid_to_entry_cache.get(file_id, None)
1747
 
        if result is not None:
1748
 
            return result
1749
 
        try:
1750
 
            return self._bytes_to_entry(
1751
 
                self.id_to_entry.iteritems([(file_id,)]).next()[1])
1752
 
        except StopIteration:
1753
 
            # really we're passing an inventory, not a tree...
1754
 
            raise errors.NoSuchId(self, file_id)
1755
 
 
1756
 
    def has_id(self, file_id):
1757
 
        # Perhaps have an explicit 'contains' method on CHKMap ?
1758
 
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
1759
 
            return True
1760
 
        return len(list(self.id_to_entry.iteritems([(file_id,)]))) == 1
1761
 
 
1762
 
    def is_root(self, file_id):
1763
 
        return file_id == self.root_id
1764
 
 
1765
 
    def _iter_file_id_parents(self, file_id):
1766
 
        """Yield the parents of file_id up to the root."""
1767
 
        while file_id is not None:
1768
 
            try:
1769
 
                ie = self[file_id]
1770
 
            except KeyError:
1771
 
                raise errors.NoSuchId(tree=self, file_id=file_id)
1772
 
            yield ie
1773
 
            file_id = ie.parent_id
1774
 
 
1775
 
    def __iter__(self):
1776
 
        """Iterate over all file-ids."""
1777
 
        for key, _ in self.id_to_entry.iteritems():
1778
 
            yield key[-1]
1779
 
 
1780
 
    def iter_just_entries(self):
1781
 
        """Iterate over all entries.
1782
 
        
1783
 
        Unlike iter_entries(), just the entries are returned (not (path, ie))
1784
 
        and the order of entries is undefined.
1785
 
 
1786
 
        XXX: We may not want to merge this into bzr.dev.
1787
 
        """
1788
 
        for key, entry in self.id_to_entry.iteritems():
1789
 
            file_id = key[0]
1790
 
            ie = self._fileid_to_entry_cache.get(file_id, None)
1791
 
            if ie is None:
1792
 
                ie = self._bytes_to_entry(entry)
1793
 
                self._fileid_to_entry_cache[file_id] = ie
1794
 
            yield ie
1795
 
 
1796
 
    def iter_changes(self, basis):
1797
 
        """Generate a Tree.iter_changes change list between this and basis.
1798
 
 
1799
 
        :param basis: Another CHKInventory.
1800
 
        :return: An iterator over the changes between self and basis, as per
1801
 
            tree.iter_changes().
1802
 
        """
1803
 
        # We want: (file_id, (path_in_source, path_in_target),
1804
 
        # changed_content, versioned, parent, name, kind,
1805
 
        # executable)
1806
 
        for key, basis_value, self_value in \
1807
 
            self.id_to_entry.iter_changes(basis.id_to_entry):
1808
 
            file_id = key[0]
1809
 
            if basis_value is not None:
1810
 
                basis_entry = basis._bytes_to_entry(basis_value)
1811
 
                path_in_source = basis.id2path(file_id)
1812
 
                basis_parent = basis_entry.parent_id
1813
 
                basis_name = basis_entry.name
1814
 
                basis_executable = basis_entry.executable
1815
 
            else:
1816
 
                path_in_source = None
1817
 
                basis_parent = None
1818
 
                basis_name = None
1819
 
                basis_executable = None
1820
 
            if self_value is not None:
1821
 
                self_entry = self._bytes_to_entry(self_value)
1822
 
                path_in_target = self.id2path(file_id)
1823
 
                self_parent = self_entry.parent_id
1824
 
                self_name = self_entry.name
1825
 
                self_executable = self_entry.executable
1826
 
            else:
1827
 
                path_in_target = None
1828
 
                self_parent = None
1829
 
                self_name = None
1830
 
                self_executable = None
1831
 
            if basis_value is None:
1832
 
                # add
1833
 
                kind = (None, self_entry.kind)
1834
 
                versioned = (False, True)
1835
 
            elif self_value is None:
1836
 
                # delete
1837
 
                kind = (basis_entry.kind, None)
1838
 
                versioned = (True, False)
1839
 
            else:
1840
 
                kind = (basis_entry.kind, self_entry.kind)
1841
 
                versioned = (True, True)
1842
 
            changed_content = False
1843
 
            if kind[0] != kind[1]:
1844
 
                changed_content = True
1845
 
            elif kind[0] == 'file':
1846
 
                if (self_entry.text_size != basis_entry.text_size or
1847
 
                    self_entry.text_sha1 != basis_entry.text_sha1):
1848
 
                    changed_content = True
1849
 
            elif kind[0] == 'symlink':
1850
 
                if self_entry.symlink_target != basis_entry.symlink_target:
1851
 
                    changed_content = True
1852
 
            elif kind[0] == 'tree-reference':
1853
 
                if (self_entry.reference_revision !=
1854
 
                    basis_entry.reference_revision):
1855
 
                    changed_content = True
1856
 
            parent = (basis_parent, self_parent)
1857
 
            name = (basis_name, self_name)
1858
 
            executable = (basis_executable, self_executable)
1859
 
            if (not changed_content
1860
 
                and parent[0] == parent[1]
1861
 
                and name[0] == name[1]
1862
 
                and executable[0] == executable[1]):
1863
 
                # Could happen when only the revision changed for a directory
1864
 
                # for instance.
1865
 
                continue
1866
 
            yield (file_id, (path_in_source, path_in_target), changed_content,
1867
 
                versioned, parent, name, kind, executable)
1868
 
 
1869
 
    def __len__(self):
1870
 
        """Return the number of entries in the inventory."""
1871
 
        return len(self.id_to_entry)
1872
 
 
1873
 
    def _make_delta(self, old):
1874
 
        """Make an inventory delta from two inventories."""
1875
 
        if type(old) != CHKInventory:
1876
 
            return CommonInventory._make_delta(self, old)
1877
 
        delta = []
1878
 
        for key, old_value, self_value in \
1879
 
            self.id_to_entry.iter_changes(old.id_to_entry):
1880
 
            file_id = key[0]
1881
 
            if old_value is not None:
1882
 
                old_path = old.id2path(file_id)
1883
 
            else:
1884
 
                old_path = None
1885
 
            if self_value is not None:
1886
 
                entry = self._bytes_to_entry(self_value)
1887
 
                self._fileid_to_entry_cache[file_id] = entry
1888
 
                new_path = self.id2path(file_id)
1889
 
            else:
1890
 
                entry = None
1891
 
                new_path = None
1892
 
            delta.append((old_path, new_path, file_id, entry))
1893
 
        return delta
1894
 
 
1895
 
    def path2id(self, name):
1896
 
        """See CommonInventory.path2id()."""
1897
 
        result = self._path_to_fileid_cache.get(name, None)
1898
 
        if result is None:
1899
 
            result = CommonInventory.path2id(self, name)
1900
 
            self._path_to_fileid_cache[name] = result
1901
 
        return result
1902
 
 
1903
 
    def to_lines(self):
1904
 
        """Serialise the inventory to lines."""
1905
 
        lines = ["chkinventory:\n"]
1906
 
        if self._search_key_name != 'plain':
1907
 
            # custom ordering grouping things that don't change together
1908
 
            lines.append('search_key_name: %s\n' % (self._search_key_name,))
1909
 
            lines.append("root_id: %s\n" % self.root_id)
1910
 
            lines.append('parent_id_basename_to_file_id: %s\n' %
1911
 
                self.parent_id_basename_to_file_id.key())
1912
 
            lines.append("revision_id: %s\n" % self.revision_id)
1913
 
            lines.append("id_to_entry: %s\n" % self.id_to_entry.key())
1914
 
        else:
1915
 
            lines.append("revision_id: %s\n" % self.revision_id)
1916
 
            lines.append("root_id: %s\n" % self.root_id)
1917
 
            if self.parent_id_basename_to_file_id is not None:
1918
 
                lines.append('parent_id_basename_to_file_id: %s\n' %
1919
 
                    self.parent_id_basename_to_file_id.key())
1920
 
            lines.append("id_to_entry: %s\n" % self.id_to_entry.key())
1921
 
        return lines
1922
 
 
1923
 
    @property
1924
 
    def root(self):
1925
 
        """Get the root entry."""
1926
 
        return self[self.root_id]
1927
 
 
1928
 
 
1929
 
class CHKInventoryDirectory(InventoryDirectory):
1930
 
    """A directory in an inventory."""
1931
 
 
1932
 
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
1933
 
                 'text_id', 'parent_id', '_children', 'executable',
1934
 
                 'revision', 'symlink_target', 'reference_revision',
1935
 
                 '_chk_inventory']
1936
 
 
1937
 
    def __init__(self, file_id, name, parent_id, chk_inventory):
1938
 
        # Don't call InventoryDirectory.__init__ - it isn't right for this
1939
 
        # class.
1940
 
        InventoryEntry.__init__(self, file_id, name, parent_id)
1941
 
        self._children = None
1942
 
        self.kind = 'directory'
1943
 
        self._chk_inventory = chk_inventory
1944
 
 
1945
 
    @property
1946
 
    def children(self):
1947
 
        """Access the list of children of this directory.
1948
 
 
1949
 
        With a parent_id_basename_to_file_id index, loads all the children,
1950
 
        without loads the entire index. Without is bad. A more sophisticated
1951
 
        proxy object might be nice, to allow partial loading of children as
1952
 
        well when specific names are accessed. (So path traversal can be
1953
 
        written in the obvious way but not examine siblings.).
1954
 
        """
1955
 
        if self._children is not None:
1956
 
            return self._children
1957
 
        # No longer supported
1958
 
        if self._chk_inventory.parent_id_basename_to_file_id is None:
1959
 
            raise AssertionError("Inventories without"
1960
 
                " parent_id_basename_to_file_id are no longer supported")
1961
 
        result = {}
1962
 
        # XXX: Todo - use proxy objects for the children rather than loading
1963
 
        # all when the attribute is referenced.
1964
 
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
1965
 
        child_keys = set()
1966
 
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
1967
 
            key_filter=[(self.file_id,)]):
1968
 
            child_keys.add((file_id,))
1969
 
        cached = set()
1970
 
        for file_id_key in child_keys:
1971
 
            entry = self._chk_inventory._fileid_to_entry_cache.get(
1972
 
                file_id_key[0], None)
1973
 
            if entry is not None:
1974
 
                result[entry.name] = entry
1975
 
                cached.add(file_id_key)
1976
 
        child_keys.difference_update(cached)
1977
 
        # populate; todo: do by name
1978
 
        id_to_entry = self._chk_inventory.id_to_entry
1979
 
        for file_id_key, bytes in id_to_entry.iteritems(child_keys):
1980
 
            entry = self._chk_inventory._bytes_to_entry(bytes)
1981
 
            result[entry.name] = entry
1982
 
            self._chk_inventory._fileid_to_entry_cache[file_id_key[0]] = entry
1983
 
        self._children = result
1984
 
        return result
1985
 
 
1986
 
 
1987
 
class CHKInventory(CommonInventory):
1988
 
    """An inventory persisted in a CHK store.
1989
 
 
1990
 
    By design, a CHKInventory is immutable so many of the methods
1991
 
    supported by Inventory - add, rename, apply_delta, etc - are *not*
1992
 
    supported. To create a new CHKInventory, use create_by_apply_delta()
1993
 
    or from_inventory(), say.
1994
 
 
1995
 
    Internally, a CHKInventory has one or two CHKMaps:
1996
 
 
1997
 
    * id_to_entry - a map from (file_id,) => InventoryEntry as bytes
1998
 
    * parent_id_basename_to_file_id - a map from (parent_id, basename_utf8)
1999
 
        => file_id as bytes
2000
 
 
2001
 
    The second map is optional and not present in early CHkRepository's.
2002
 
 
2003
 
    No caching is performed: every method call or item access will perform
2004
 
    requests to the storage layer. As such, keep references to objects you
2005
 
    want to reuse.
2006
 
    """
2007
 
 
2008
 
    def __init__(self, search_key_name):
2009
 
        CommonInventory.__init__(self)
2010
 
        self._fileid_to_entry_cache = {}
2011
 
        self._path_to_fileid_cache = {}
2012
 
        self._search_key_name = search_key_name
2013
 
 
2014
 
    def _entry_to_bytes(self, entry):
2015
 
        """Serialise entry as a single bytestring.
2016
 
 
2017
 
        :param Entry: An inventory entry.
2018
 
        :return: A bytestring for the entry.
2019
 
 
2020
 
        The BNF:
2021
 
        ENTRY ::= FILE | DIR | SYMLINK | TREE
2022
 
        FILE ::= "file: " COMMON SEP SHA SEP SIZE SEP EXECUTABLE
2023
 
        DIR ::= "dir: " COMMON
2024
 
        SYMLINK ::= "symlink: " COMMON SEP TARGET_UTF8
2025
 
        TREE ::= "tree: " COMMON REFERENCE_REVISION
2026
 
        COMMON ::= FILE_ID SEP PARENT_ID SEP NAME_UTF8 SEP REVISION
2027
 
        SEP ::= "\n"
2028
 
        """
2029
 
        if entry.parent_id is not None:
2030
 
            parent_str = entry.parent_id
2031
 
        else:
2032
 
            parent_str = ''
2033
 
        name_str = entry.name.encode("utf8")
2034
 
        if entry.kind == 'file':
2035
 
            if entry.executable:
2036
 
                exec_str = "Y"
2037
 
            else:
2038
 
                exec_str = "N"
2039
 
            return "file: %s\n%s\n%s\n%s\n%s\n%d\n%s" % (
2040
 
                entry.file_id, parent_str, name_str, entry.revision,
2041
 
                entry.text_sha1, entry.text_size, exec_str)
2042
 
        elif entry.kind == 'directory':
2043
 
            return "dir: %s\n%s\n%s\n%s" % (
2044
 
                entry.file_id, parent_str, name_str, entry.revision)
2045
 
        elif entry.kind == 'symlink':
2046
 
            return "symlink: %s\n%s\n%s\n%s\n%s" % (
2047
 
                entry.file_id, parent_str, name_str, entry.revision,
2048
 
                entry.symlink_target.encode("utf8"))
2049
 
        elif entry.kind == 'tree-reference':
2050
 
            return "tree: %s\n%s\n%s\n%s\n%s" % (
2051
 
                entry.file_id, parent_str, name_str, entry.revision,
2052
 
                entry.reference_revision)
2053
 
        else:
2054
 
            raise ValueError("unknown kind %r" % entry.kind)
2055
 
 
2056
 
    def _bytes_to_entry(self, bytes):
2057
 
        """Deserialise a serialised entry."""
2058
 
        sections = bytes.split('\n')
2059
 
        if sections[0].startswith("file: "):
2060
 
            result = InventoryFile(sections[0][6:],
2061
 
                sections[2].decode('utf8'),
2062
 
                sections[1])
2063
 
            result.text_sha1 = sections[4]
2064
 
            result.text_size = int(sections[5])
2065
 
            result.executable = sections[6] == "Y"
2066
 
        elif sections[0].startswith("dir: "):
2067
 
            result = CHKInventoryDirectory(sections[0][5:],
2068
 
                sections[2].decode('utf8'),
2069
 
                sections[1], self)
2070
 
        elif sections[0].startswith("symlink: "):
2071
 
            result = InventoryLink(sections[0][9:],
2072
 
                sections[2].decode('utf8'),
2073
 
                sections[1])
2074
 
            result.symlink_target = sections[4]
2075
 
        elif sections[0].startswith("tree: "):
2076
 
            result = TreeReference(sections[0][6:],
2077
 
                sections[2].decode('utf8'),
2078
 
                sections[1])
2079
 
            result.reference_revision = sections[4]
2080
 
        else:
2081
 
            raise ValueError("Not a serialised entry %r" % bytes)
2082
 
        result.revision = sections[3]
2083
 
        if result.parent_id == '':
2084
 
            result.parent_id = None
2085
 
        self._fileid_to_entry_cache[result.file_id] = result
2086
 
        return result
2087
 
 
2088
 
    def _get_mutable_inventory(self):
2089
 
        """See CommonInventory._get_mutable_inventory."""
2090
 
        entries = self.iter_entries()
2091
 
        if self.root_id is not None:
2092
 
            entries.next()
2093
 
        inv = Inventory(self.root_id, self.revision_id)
2094
 
        for path, inv_entry in entries:
2095
 
            inv.add(inv_entry)
2096
 
        return inv
2097
 
 
2098
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
2099
 
        propagate_caches=False):
2100
 
        """Create a new CHKInventory by applying inventory_delta to this one.
2101
 
 
2102
 
        :param inventory_delta: The inventory delta to apply. See
2103
 
            Inventory.apply_delta for details.
2104
 
        :param new_revision_id: The revision id of the resulting CHKInventory.
2105
 
        :param propagate_caches: If True, the caches for this inventory are
2106
 
          copied to and updated for the result.
2107
 
        :return: The new CHKInventory.
2108
 
        """
2109
 
        result = CHKInventory(self._search_key_name)
2110
 
        if propagate_caches:
2111
 
            # Just propagate the path-to-fileid cache for now
2112
 
            result._path_to_fileid_cache = dict(self._path_to_fileid_cache.iteritems())
2113
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
2114
 
        self.id_to_entry._ensure_root()
2115
 
        maximum_size = self.id_to_entry._root_node.maximum_size
2116
 
        result.revision_id = new_revision_id
2117
 
        result.id_to_entry = chk_map.CHKMap(
2118
 
            self.id_to_entry._store,
2119
 
            self.id_to_entry.key(),
2120
 
            search_key_func=search_key_func)
2121
 
        result.id_to_entry._ensure_root()
2122
 
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
2123
 
        parent_id_basename_delta = []
2124
 
        if self.parent_id_basename_to_file_id is not None:
2125
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
2126
 
                self.parent_id_basename_to_file_id._store,
2127
 
                self.parent_id_basename_to_file_id.key(),
2128
 
                search_key_func=search_key_func)
2129
 
            result.parent_id_basename_to_file_id._ensure_root()
2130
 
            self.parent_id_basename_to_file_id._ensure_root()
2131
 
            result_p_id_root = result.parent_id_basename_to_file_id._root_node
2132
 
            p_id_root = self.parent_id_basename_to_file_id._root_node
2133
 
            result_p_id_root.set_maximum_size(p_id_root.maximum_size)
2134
 
            result_p_id_root._key_width = p_id_root._key_width
2135
 
        else:
2136
 
            result.parent_id_basename_to_file_id = None
2137
 
        result.root_id = self.root_id
2138
 
        id_to_entry_delta = []
2139
 
        for old_path, new_path, file_id, entry in inventory_delta:
2140
 
            # file id changes
2141
 
            if new_path == '':
2142
 
                result.root_id = file_id
2143
 
            if new_path is None:
2144
 
                # Make a delete:
2145
 
                new_key = None
2146
 
                new_value = None
2147
 
                # Update caches
2148
 
                if propagate_caches:
2149
 
                    try:
2150
 
                        del result._path_to_fileid_cache[old_path]
2151
 
                    except KeyError:
2152
 
                        pass
2153
 
            else:
2154
 
                new_key = (file_id,)
2155
 
                new_value = result._entry_to_bytes(entry)
2156
 
                # Update caches. It's worth doing this whether
2157
 
                # we're propagating the old caches or not.
2158
 
                result._path_to_fileid_cache[new_path] = file_id
2159
 
            if old_path is None:
2160
 
                old_key = None
2161
 
            else:
2162
 
                old_key = (file_id,)
2163
 
            id_to_entry_delta.append((old_key, new_key, new_value))
2164
 
            if result.parent_id_basename_to_file_id is not None:
2165
 
                # parent_id, basename changes
2166
 
                if old_path is None:
2167
 
                    old_key = None
2168
 
                else:
2169
 
                    old_entry = self[file_id]
2170
 
                    old_key = self._parent_id_basename_key(old_entry)
2171
 
                if new_path is None:
2172
 
                    new_key = None
2173
 
                    new_value = None
2174
 
                else:
2175
 
                    new_key = self._parent_id_basename_key(entry)
2176
 
                    new_value = file_id
2177
 
                if old_key != new_key:
2178
 
                    # If the two keys are the same, the value will be unchanged
2179
 
                    # as its always the file id.
2180
 
                    parent_id_basename_delta.append((old_key, new_key, new_value))
2181
 
        result.id_to_entry.apply_delta(id_to_entry_delta)
2182
 
        if parent_id_basename_delta:
2183
 
            result.parent_id_basename_to_file_id.apply_delta(parent_id_basename_delta)
2184
 
        return result
2185
 
 
2186
 
    @classmethod
2187
 
    def deserialise(klass, chk_store, bytes, expected_revision_id):
2188
 
        """Deserialise a CHKInventory.
2189
 
 
2190
 
        :param chk_store: A CHK capable VersionedFiles instance.
2191
 
        :param bytes: The serialised bytes.
2192
 
        :param expected_revision_id: The revision ID we think this inventory is
2193
 
            for.
2194
 
        :return: A CHKInventory
2195
 
        """
2196
 
        lines = bytes.split('\n')
2197
 
        assert lines[-1] == ''
2198
 
        lines.pop()
2199
 
        if lines[0] != 'chkinventory:':
2200
 
            raise ValueError("not a serialised CHKInventory: %r" % bytes)
2201
 
        info = {}
2202
 
        allowed_keys = frozenset(['root_id', 'revision_id', 'search_key_name',
2203
 
                                  'parent_id_basename_to_file_id',
2204
 
                                  'id_to_entry'])
2205
 
        for line in lines[1:]:
2206
 
            key, value = line.split(': ', 1)
2207
 
            if key not in allowed_keys:
2208
 
                raise errors.BzrError('Unknown key in inventory: %r\n%r'
2209
 
                                      % (key, bytes))
2210
 
            if key in info:
2211
 
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
2212
 
                                      % (key, bytes))
2213
 
            info[key] = value
2214
 
        revision_id = info['revision_id']
2215
 
        root_id = info['root_id']
2216
 
        search_key_name = info.get('search_key_name', 'plain')
2217
 
        parent_id_basename_to_file_id = info.get(
2218
 
            'parent_id_basename_to_file_id', None)
2219
 
        id_to_entry = info['id_to_entry']
2220
 
 
2221
 
        result = CHKInventory(search_key_name)
2222
 
        result.revision_id = revision_id
2223
 
        result.root_id = root_id
2224
 
        search_key_func = chk_map.search_key_registry.get(
2225
 
                            result._search_key_name)
2226
 
        if parent_id_basename_to_file_id is not None:
2227
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
2228
 
                chk_store, (parent_id_basename_to_file_id,),
2229
 
                search_key_func=search_key_func)
2230
 
        else:
2231
 
            result.parent_id_basename_to_file_id = None
2232
 
 
2233
 
        result.id_to_entry = chk_map.CHKMap(chk_store, (id_to_entry,),
2234
 
                                            search_key_func=search_key_func)
2235
 
        if (result.revision_id,) != expected_revision_id:
2236
 
            raise ValueError("Mismatched revision id and expected: %r, %r" %
2237
 
                (result.revision_id, expected_revision_id))
2238
 
        return result
2239
 
 
2240
 
    @classmethod
2241
 
    def from_inventory(klass, chk_store, inventory, maximum_size=0, search_key_name='plain'):
2242
 
        """Create a CHKInventory from an existing inventory.
2243
 
 
2244
 
        The content of inventory is copied into the chk_store, and a
2245
 
        CHKInventory referencing that is returned.
2246
 
 
2247
 
        :param chk_store: A CHK capable VersionedFiles instance.
2248
 
        :param inventory: The inventory to copy.
2249
 
        :param maximum_size: The CHKMap node size limit.
2250
 
        :param search_key_name: The identifier for the search key function
2251
 
        """
2252
 
        result = CHKInventory(search_key_name)
2253
 
        result.revision_id = inventory.revision_id
2254
 
        result.root_id = inventory.root.file_id
2255
 
        search_key_func = chk_map.search_key_registry.get(search_key_name)
2256
 
        result.id_to_entry = chk_map.CHKMap(chk_store, None, search_key_func)
2257
 
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
2258
 
        file_id_delta = []
2259
 
        result.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
2260
 
            None, search_key_func)
2261
 
        result.parent_id_basename_to_file_id._root_node.set_maximum_size(
2262
 
            maximum_size)
2263
 
        result.parent_id_basename_to_file_id._root_node._key_width = 2
2264
 
        parent_id_delta = []
2265
 
        for path, entry in inventory.iter_entries():
2266
 
            file_id_delta.append((None, (entry.file_id,),
2267
 
                result._entry_to_bytes(entry)))
2268
 
            parent_id_delta.append(
2269
 
                (None, result._parent_id_basename_key(entry),
2270
 
                 entry.file_id))
2271
 
        result.id_to_entry.apply_delta(file_id_delta)
2272
 
        result.parent_id_basename_to_file_id.apply_delta(parent_id_delta)
2273
 
        return result
2274
 
 
2275
 
    def _parent_id_basename_key(self, entry):
2276
 
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
2277
 
        if entry.parent_id is not None:
2278
 
            parent_id = entry.parent_id
2279
 
        else:
2280
 
            parent_id = ''
2281
 
        return parent_id, entry.name.encode('utf8')
2282
 
 
2283
 
    def __getitem__(self, file_id):
2284
 
        """map a single file_id -> InventoryEntry."""
2285
 
        if file_id is None:
2286
 
            raise errors.NoSuchId(self, file_id)
2287
 
        result = self._fileid_to_entry_cache.get(file_id, None)
2288
 
        if result is not None:
2289
 
            return result
2290
 
        try:
2291
 
            return self._bytes_to_entry(
2292
 
                self.id_to_entry.iteritems([(file_id,)]).next()[1])
2293
 
        except StopIteration:
2294
 
            # really we're passing an inventory, not a tree...
2295
 
            raise errors.NoSuchId(self, file_id)
2296
 
 
2297
 
    def has_id(self, file_id):
2298
 
        # Perhaps have an explicit 'contains' method on CHKMap ?
2299
 
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
2300
 
            return True
2301
 
        return len(list(self.id_to_entry.iteritems([(file_id,)]))) == 1
2302
 
 
2303
 
    def is_root(self, file_id):
2304
 
        return file_id == self.root_id
2305
 
 
2306
 
    def _iter_file_id_parents(self, file_id):
2307
 
        """Yield the parents of file_id up to the root."""
2308
 
        while file_id is not None:
2309
 
            try:
2310
 
                ie = self[file_id]
2311
 
            except KeyError:
2312
 
                raise errors.NoSuchId(tree=self, file_id=file_id)
2313
 
            yield ie
2314
 
            file_id = ie.parent_id
2315
 
 
2316
 
    def __iter__(self):
2317
 
        """Iterate over all file-ids."""
2318
 
        for key, _ in self.id_to_entry.iteritems():
2319
 
            yield key[-1]
2320
 
 
2321
 
    def iter_just_entries(self):
2322
 
        """Iterate over all entries.
2323
 
        
2324
 
        Unlike iter_entries(), just the entries are returned (not (path, ie))
2325
 
        and the order of entries is undefined.
2326
 
 
2327
 
        XXX: We may not want to merge this into bzr.dev.
2328
 
        """
2329
 
        for key, entry in self.id_to_entry.iteritems():
2330
 
            file_id = key[0]
2331
 
            ie = self._fileid_to_entry_cache.get(file_id, None)
2332
 
            if ie is None:
2333
 
                ie = self._bytes_to_entry(entry)
2334
 
                self._fileid_to_entry_cache[file_id] = ie
2335
 
            yield ie
2336
 
 
2337
 
    def iter_changes(self, basis):
2338
 
        """Generate a Tree.iter_changes change list between this and basis.
2339
 
 
2340
 
        :param basis: Another CHKInventory.
2341
 
        :return: An iterator over the changes between self and basis, as per
2342
 
            tree.iter_changes().
2343
 
        """
2344
 
        # We want: (file_id, (path_in_source, path_in_target),
2345
 
        # changed_content, versioned, parent, name, kind,
2346
 
        # executable)
2347
 
        for key, basis_value, self_value in \
2348
 
            self.id_to_entry.iter_changes(basis.id_to_entry):
2349
 
            file_id = key[0]
2350
 
            if basis_value is not None:
2351
 
                basis_entry = basis._bytes_to_entry(basis_value)
2352
 
                path_in_source = basis.id2path(file_id)
2353
 
                basis_parent = basis_entry.parent_id
2354
 
                basis_name = basis_entry.name
2355
 
                basis_executable = basis_entry.executable
2356
 
            else:
2357
 
                path_in_source = None
2358
 
                basis_parent = None
2359
 
                basis_name = None
2360
 
                basis_executable = None
2361
 
            if self_value is not None:
2362
 
                self_entry = self._bytes_to_entry(self_value)
2363
 
                path_in_target = self.id2path(file_id)
2364
 
                self_parent = self_entry.parent_id
2365
 
                self_name = self_entry.name
2366
 
                self_executable = self_entry.executable
2367
 
            else:
2368
 
                path_in_target = None
2369
 
                self_parent = None
2370
 
                self_name = None
2371
 
                self_executable = None
2372
 
            if basis_value is None:
2373
 
                # add
2374
 
                kind = (None, self_entry.kind)
2375
 
                versioned = (False, True)
2376
 
            elif self_value is None:
2377
 
                # delete
2378
 
                kind = (basis_entry.kind, None)
2379
 
                versioned = (True, False)
2380
 
            else:
2381
 
                kind = (basis_entry.kind, self_entry.kind)
2382
 
                versioned = (True, True)
2383
 
            changed_content = False
2384
 
            if kind[0] != kind[1]:
2385
 
                changed_content = True
2386
 
            elif kind[0] == 'file':
2387
 
                if (self_entry.text_size != basis_entry.text_size or
2388
 
                    self_entry.text_sha1 != basis_entry.text_sha1):
2389
 
                    changed_content = True
2390
 
            elif kind[0] == 'symlink':
2391
 
                if self_entry.symlink_target != basis_entry.symlink_target:
2392
 
                    changed_content = True
2393
 
            elif kind[0] == 'tree-reference':
2394
 
                if (self_entry.reference_revision !=
2395
 
                    basis_entry.reference_revision):
2396
 
                    changed_content = True
2397
 
            parent = (basis_parent, self_parent)
2398
 
            name = (basis_name, self_name)
2399
 
            executable = (basis_executable, self_executable)
2400
 
            if (not changed_content
2401
 
                and parent[0] == parent[1]
2402
 
                and name[0] == name[1]
2403
 
                and executable[0] == executable[1]):
2404
 
                # Could happen when only the revision changed for a directory
2405
 
                # for instance.
2406
 
                continue
2407
 
            yield (file_id, (path_in_source, path_in_target), changed_content,
2408
 
                versioned, parent, name, kind, executable)
2409
 
 
2410
 
    def __len__(self):
2411
 
        """Return the number of entries in the inventory."""
2412
 
        return len(self.id_to_entry)
2413
 
 
2414
 
    def _make_delta(self, old):
2415
 
        """Make an inventory delta from two inventories."""
2416
 
        if type(old) != CHKInventory:
2417
 
            return CommonInventory._make_delta(self, old)
2418
 
        delta = []
2419
 
        for key, old_value, self_value in \
2420
 
            self.id_to_entry.iter_changes(old.id_to_entry):
2421
 
            file_id = key[0]
2422
 
            if old_value is not None:
2423
 
                old_path = old.id2path(file_id)
2424
 
            else:
2425
 
                old_path = None
2426
 
            if self_value is not None:
2427
 
                entry = self._bytes_to_entry(self_value)
2428
 
                self._fileid_to_entry_cache[file_id] = entry
2429
 
                new_path = self.id2path(file_id)
2430
 
            else:
2431
 
                entry = None
2432
 
                new_path = None
2433
 
            delta.append((old_path, new_path, file_id, entry))
2434
 
        return delta
2435
 
 
2436
 
    def path2id(self, name):
2437
 
        """See CommonInventory.path2id()."""
2438
 
        result = self._path_to_fileid_cache.get(name, None)
2439
 
        if result is None:
2440
 
            result = CommonInventory.path2id(self, name)
2441
 
            self._path_to_fileid_cache[name] = result
2442
 
        return result
2443
 
 
2444
 
    def to_lines(self):
2445
 
        """Serialise the inventory to lines."""
2446
 
        lines = ["chkinventory:\n"]
2447
 
        if self._search_key_name != 'plain':
2448
 
            # custom ordering grouping things that don't change together
2449
 
            lines.append('search_key_name: %s\n' % (self._search_key_name,))
2450
 
            lines.append("root_id: %s\n" % self.root_id)
2451
 
            lines.append('parent_id_basename_to_file_id: %s\n' %
2452
 
                self.parent_id_basename_to_file_id.key())
2453
 
            lines.append("revision_id: %s\n" % self.revision_id)
2454
 
            lines.append("id_to_entry: %s\n" % self.id_to_entry.key())
2455
 
        else:
2456
 
            lines.append("revision_id: %s\n" % self.revision_id)
2457
 
            lines.append("root_id: %s\n" % self.root_id)
2458
 
            if self.parent_id_basename_to_file_id is not None:
2459
 
                lines.append('parent_id_basename_to_file_id: %s\n' %
2460
 
                    self.parent_id_basename_to_file_id.key())
2461
 
            lines.append("id_to_entry: %s\n" % self.id_to_entry.key())
2462
 
        return lines
2463
 
 
2464
 
    @property
2465
 
    def root(self):
2466
 
        """Get the root entry."""
2467
 
        return self[self.root_id]
2468
 
 
2469
 
 
2470
 
class CHKInventoryDirectory(InventoryDirectory):
2471
 
    """A directory in an inventory."""
2472
 
 
2473
 
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
2474
 
                 'text_id', 'parent_id', '_children', 'executable',
2475
 
                 'revision', 'symlink_target', 'reference_revision',
2476
 
                 '_chk_inventory']
2477
 
 
2478
 
    def __init__(self, file_id, name, parent_id, chk_inventory):
2479
 
        # Don't call InventoryDirectory.__init__ - it isn't right for this
2480
 
        # class.
2481
 
        InventoryEntry.__init__(self, file_id, name, parent_id)
2482
 
        self._children = None
2483
 
        self.kind = 'directory'
2484
 
        self._chk_inventory = chk_inventory
2485
 
 
2486
 
    @property
2487
 
    def children(self):
2488
 
        """Access the list of children of this directory.
2489
 
 
2490
 
        With a parent_id_basename_to_file_id index, loads all the children,
2491
 
        without loads the entire index. Without is bad. A more sophisticated
2492
 
        proxy object might be nice, to allow partial loading of children as
2493
 
        well when specific names are accessed. (So path traversal can be
2494
 
        written in the obvious way but not examine siblings.).
2495
 
        """
2496
 
        if self._children is not None:
2497
 
            return self._children
2498
 
        # No longer supported
2499
 
        if self._chk_inventory.parent_id_basename_to_file_id is None:
2500
 
            raise AssertionError("Inventories without"
2501
 
                " parent_id_basename_to_file_id are no longer supported")
2502
 
        result = {}
2503
 
        # XXX: Todo - use proxy objects for the children rather than loading
2504
 
        # all when the attribute is referenced.
2505
 
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
2506
 
        child_keys = set()
2507
 
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
2508
 
            key_filter=[(self.file_id,)]):
2509
 
            child_keys.add((file_id,))
2510
 
        cached = set()
2511
 
        for file_id_key in child_keys:
2512
 
            entry = self._chk_inventory._fileid_to_entry_cache.get(
2513
 
                file_id_key[0], None)
2514
 
            if entry is not None:
2515
 
                result[entry.name] = entry
2516
 
                cached.add(file_id_key)
2517
 
        child_keys.difference_update(cached)
2518
 
        # populate; todo: do by name
2519
 
        id_to_entry = self._chk_inventory.id_to_entry
2520
 
        for file_id_key, bytes in id_to_entry.iteritems(child_keys):
2521
 
            entry = self._chk_inventory._bytes_to_entry(bytes)
2522
 
            result[entry.name] = entry
2523
 
            self._chk_inventory._fileid_to_entry_cache[file_id_key[0]] = entry
2524
 
        self._children = result
2525
 
        return result
2526
 
 
 
1597
        result.file_id = intern(result.file_id)
 
1598
        result.revision = intern(sections[3])
 
1599
        if result.parent_id == '':
 
1600
            result.parent_id = None
 
1601
        self._fileid_to_entry_cache[result.file_id] = result
 
1602
        return result
 
1603
 
 
1604
    def _get_mutable_inventory(self):
 
1605
        """See CommonInventory._get_mutable_inventory."""
 
1606
        entries = self.iter_entries()
 
1607
        inv = Inventory(None, self.revision_id)
 
1608
        for path, inv_entry in entries:
 
1609
            inv.add(inv_entry.copy())
 
1610
        return inv
 
1611
 
 
1612
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
 
1613
        propagate_caches=False):
 
1614
        """Create a new CHKInventory by applying inventory_delta to this one.
 
1615
 
 
1616
        See the inventory developers documentation for the theory behind
 
1617
        inventory deltas.
 
1618
 
 
1619
        :param inventory_delta: The inventory delta to apply. See
 
1620
            Inventory.apply_delta for details.
 
1621
        :param new_revision_id: The revision id of the resulting CHKInventory.
 
1622
        :param propagate_caches: If True, the caches for this inventory are
 
1623
          copied to and updated for the result.
 
1624
        :return: The new CHKInventory.
 
1625
        """
 
1626
        split = osutils.split
 
1627
        result = CHKInventory(self._search_key_name)
 
1628
        if propagate_caches:
 
1629
            # Just propagate the path-to-fileid cache for now
 
1630
            result._path_to_fileid_cache = dict(self._path_to_fileid_cache.iteritems())
 
1631
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
 
1632
        self.id_to_entry._ensure_root()
 
1633
        maximum_size = self.id_to_entry._root_node.maximum_size
 
1634
        result.revision_id = new_revision_id
 
1635
        result.id_to_entry = chk_map.CHKMap(
 
1636
            self.id_to_entry._store,
 
1637
            self.id_to_entry.key(),
 
1638
            search_key_func=search_key_func)
 
1639
        result.id_to_entry._ensure_root()
 
1640
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
 
1641
        # Change to apply to the parent_id_basename delta. The dict maps
 
1642
        # (parent_id, basename) -> (old_key, new_value). We use a dict because
 
1643
        # when a path has its id replaced (e.g. the root is changed, or someone
 
1644
        # does bzr mv a b, bzr mv c a, we should output a single change to this
 
1645
        # map rather than two.
 
1646
        parent_id_basename_delta = {}
 
1647
        if self.parent_id_basename_to_file_id is not None:
 
1648
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
 
1649
                self.parent_id_basename_to_file_id._store,
 
1650
                self.parent_id_basename_to_file_id.key(),
 
1651
                search_key_func=search_key_func)
 
1652
            result.parent_id_basename_to_file_id._ensure_root()
 
1653
            self.parent_id_basename_to_file_id._ensure_root()
 
1654
            result_p_id_root = result.parent_id_basename_to_file_id._root_node
 
1655
            p_id_root = self.parent_id_basename_to_file_id._root_node
 
1656
            result_p_id_root.set_maximum_size(p_id_root.maximum_size)
 
1657
            result_p_id_root._key_width = p_id_root._key_width
 
1658
        else:
 
1659
            result.parent_id_basename_to_file_id = None
 
1660
        result.root_id = self.root_id
 
1661
        id_to_entry_delta = []
 
1662
        # inventory_delta is only traversed once, so we just update the
 
1663
        # variable.
 
1664
        # Check for repeated file ids
 
1665
        inventory_delta = _check_delta_unique_ids(inventory_delta)
 
1666
        # Repeated old paths
 
1667
        inventory_delta = _check_delta_unique_old_paths(inventory_delta)
 
1668
        # Check for repeated new paths
 
1669
        inventory_delta = _check_delta_unique_new_paths(inventory_delta)
 
1670
        # Check for entries that don't match the fileid
 
1671
        inventory_delta = _check_delta_ids_match_entry(inventory_delta)
 
1672
        # Check for nonsense fileids
 
1673
        inventory_delta = _check_delta_ids_are_valid(inventory_delta)
 
1674
        # Check for new_path <-> entry consistency
 
1675
        inventory_delta = _check_delta_new_path_entry_both_or_None(
 
1676
            inventory_delta)
 
1677
        # All changed entries need to have their parents be directories and be
 
1678
        # at the right path. This set contains (path, id) tuples.
 
1679
        parents = set()
 
1680
        # When we delete an item, all the children of it must be either deleted
 
1681
        # or altered in their own right. As we batch process the change via
 
1682
        # CHKMap.apply_delta, we build a set of things to use to validate the
 
1683
        # delta.
 
1684
        deletes = set()
 
1685
        altered = set()
 
1686
        for old_path, new_path, file_id, entry in inventory_delta:
 
1687
            # file id changes
 
1688
            if new_path == '':
 
1689
                result.root_id = file_id
 
1690
            if new_path is None:
 
1691
                # Make a delete:
 
1692
                new_key = None
 
1693
                new_value = None
 
1694
                # Update caches
 
1695
                if propagate_caches:
 
1696
                    try:
 
1697
                        del result._path_to_fileid_cache[old_path]
 
1698
                    except KeyError:
 
1699
                        pass
 
1700
                deletes.add(file_id)
 
1701
            else:
 
1702
                new_key = StaticTuple(file_id,)
 
1703
                new_value = result._entry_to_bytes(entry)
 
1704
                # Update caches. It's worth doing this whether
 
1705
                # we're propagating the old caches or not.
 
1706
                result._path_to_fileid_cache[new_path] = file_id
 
1707
                parents.add((split(new_path)[0], entry.parent_id))
 
1708
            if old_path is None:
 
1709
                old_key = None
 
1710
            else:
 
1711
                old_key = StaticTuple(file_id,)
 
1712
                if self.id2path(file_id) != old_path:
 
1713
                    raise errors.InconsistentDelta(old_path, file_id,
 
1714
                        "Entry was at wrong other path %r." %
 
1715
                        self.id2path(file_id))
 
1716
                altered.add(file_id)
 
1717
            id_to_entry_delta.append(StaticTuple(old_key, new_key, new_value))
 
1718
            if result.parent_id_basename_to_file_id is not None:
 
1719
                # parent_id, basename changes
 
1720
                if old_path is None:
 
1721
                    old_key = None
 
1722
                else:
 
1723
                    old_entry = self[file_id]
 
1724
                    old_key = self._parent_id_basename_key(old_entry)
 
1725
                if new_path is None:
 
1726
                    new_key = None
 
1727
                    new_value = None
 
1728
                else:
 
1729
                    new_key = self._parent_id_basename_key(entry)
 
1730
                    new_value = file_id
 
1731
                # If the two keys are the same, the value will be unchanged
 
1732
                # as its always the file id for this entry.
 
1733
                if old_key != new_key:
 
1734
                    # Transform a change into explicit delete/add preserving
 
1735
                    # a possible match on the key from a different file id.
 
1736
                    if old_key is not None:
 
1737
                        parent_id_basename_delta.setdefault(
 
1738
                            old_key, [None, None])[0] = old_key
 
1739
                    if new_key is not None:
 
1740
                        parent_id_basename_delta.setdefault(
 
1741
                            new_key, [None, None])[1] = new_value
 
1742
        # validate that deletes are complete.
 
1743
        for file_id in deletes:
 
1744
            entry = self[file_id]
 
1745
            if entry.kind != 'directory':
 
1746
                continue
 
1747
            # This loop could potentially be better by using the id_basename
 
1748
            # map to just get the child file ids.
 
1749
            for child in entry.children.values():
 
1750
                if child.file_id not in altered:
 
1751
                    raise errors.InconsistentDelta(self.id2path(child.file_id),
 
1752
                        child.file_id, "Child not deleted or reparented when "
 
1753
                        "parent deleted.")
 
1754
        result.id_to_entry.apply_delta(id_to_entry_delta)
 
1755
        if parent_id_basename_delta:
 
1756
            # Transform the parent_id_basename delta data into a linear delta
 
1757
            # with only one record for a given key. Optimally this would allow
 
1758
            # re-keying, but its simpler to just output that as a delete+add
 
1759
            # to spend less time calculating the delta.
 
1760
            delta_list = []
 
1761
            for key, (old_key, value) in parent_id_basename_delta.iteritems():
 
1762
                if value is not None:
 
1763
                    delta_list.append((old_key, key, value))
 
1764
                else:
 
1765
                    delta_list.append((old_key, None, None))
 
1766
            result.parent_id_basename_to_file_id.apply_delta(delta_list)
 
1767
        parents.discard(('', None))
 
1768
        for parent_path, parent in parents:
 
1769
            try:
 
1770
                if result[parent].kind != 'directory':
 
1771
                    raise errors.InconsistentDelta(result.id2path(parent), parent,
 
1772
                        'Not a directory, but given children')
 
1773
            except errors.NoSuchId:
 
1774
                raise errors.InconsistentDelta("<unknown>", parent,
 
1775
                    "Parent is not present in resulting inventory.")
 
1776
            if result.path2id(parent_path) != parent:
 
1777
                raise errors.InconsistentDelta(parent_path, parent,
 
1778
                    "Parent has wrong path %r." % result.path2id(parent_path))
 
1779
        return result
 
1780
 
 
1781
    @classmethod
 
1782
    def deserialise(klass, chk_store, bytes, expected_revision_id):
 
1783
        """Deserialise a CHKInventory.
 
1784
 
 
1785
        :param chk_store: A CHK capable VersionedFiles instance.
 
1786
        :param bytes: The serialised bytes.
 
1787
        :param expected_revision_id: The revision ID we think this inventory is
 
1788
            for.
 
1789
        :return: A CHKInventory
 
1790
        """
 
1791
        lines = bytes.split('\n')
 
1792
        if lines[-1] != '':
 
1793
            raise AssertionError('bytes to deserialize must end with an eol')
 
1794
        lines.pop()
 
1795
        if lines[0] != 'chkinventory:':
 
1796
            raise ValueError("not a serialised CHKInventory: %r" % bytes)
 
1797
        info = {}
 
1798
        allowed_keys = frozenset(['root_id', 'revision_id', 'search_key_name',
 
1799
                                  'parent_id_basename_to_file_id',
 
1800
                                  'id_to_entry'])
 
1801
        for line in lines[1:]:
 
1802
            key, value = line.split(': ', 1)
 
1803
            if key not in allowed_keys:
 
1804
                raise errors.BzrError('Unknown key in inventory: %r\n%r'
 
1805
                                      % (key, bytes))
 
1806
            if key in info:
 
1807
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
 
1808
                                      % (key, bytes))
 
1809
            info[key] = value
 
1810
        revision_id = intern(info['revision_id'])
 
1811
        root_id = intern(info['root_id'])
 
1812
        search_key_name = intern(info.get('search_key_name', 'plain'))
 
1813
        parent_id_basename_to_file_id = intern(info.get(
 
1814
            'parent_id_basename_to_file_id', None))
 
1815
        if not parent_id_basename_to_file_id.startswith('sha1:'):
 
1816
            raise ValueError('parent_id_basename_to_file_id should be a sha1'
 
1817
                             ' key not %r' % (parent_id_basename_to_file_id,))
 
1818
        id_to_entry = info['id_to_entry']
 
1819
        if not id_to_entry.startswith('sha1:'):
 
1820
            raise ValueError('id_to_entry should be a sha1'
 
1821
                             ' key not %r' % (id_to_entry,))
 
1822
 
 
1823
        result = CHKInventory(search_key_name)
 
1824
        result.revision_id = revision_id
 
1825
        result.root_id = root_id
 
1826
        search_key_func = chk_map.search_key_registry.get(
 
1827
                            result._search_key_name)
 
1828
        if parent_id_basename_to_file_id is not None:
 
1829
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
 
1830
                chk_store, StaticTuple(parent_id_basename_to_file_id,),
 
1831
                search_key_func=search_key_func)
 
1832
        else:
 
1833
            result.parent_id_basename_to_file_id = None
 
1834
 
 
1835
        result.id_to_entry = chk_map.CHKMap(chk_store,
 
1836
                                            StaticTuple(id_to_entry,),
 
1837
                                            search_key_func=search_key_func)
 
1838
        if (result.revision_id,) != expected_revision_id:
 
1839
            raise ValueError("Mismatched revision id and expected: %r, %r" %
 
1840
                (result.revision_id, expected_revision_id))
 
1841
        return result
 
1842
 
 
1843
    @classmethod
 
1844
    def from_inventory(klass, chk_store, inventory, maximum_size=0, search_key_name='plain'):
 
1845
        """Create a CHKInventory from an existing inventory.
 
1846
 
 
1847
        The content of inventory is copied into the chk_store, and a
 
1848
        CHKInventory referencing that is returned.
 
1849
 
 
1850
        :param chk_store: A CHK capable VersionedFiles instance.
 
1851
        :param inventory: The inventory to copy.
 
1852
        :param maximum_size: The CHKMap node size limit.
 
1853
        :param search_key_name: The identifier for the search key function
 
1854
        """
 
1855
        result = klass(search_key_name)
 
1856
        result.revision_id = inventory.revision_id
 
1857
        result.root_id = inventory.root.file_id
 
1858
 
 
1859
        entry_to_bytes = result._entry_to_bytes
 
1860
        parent_id_basename_key = result._parent_id_basename_key
 
1861
        id_to_entry_dict = {}
 
1862
        parent_id_basename_dict = {}
 
1863
        for path, entry in inventory.iter_entries():
 
1864
            key = StaticTuple(entry.file_id,).intern()
 
1865
            id_to_entry_dict[key] = entry_to_bytes(entry)
 
1866
            p_id_key = parent_id_basename_key(entry)
 
1867
            parent_id_basename_dict[p_id_key] = entry.file_id
 
1868
 
 
1869
        result._populate_from_dicts(chk_store, id_to_entry_dict,
 
1870
            parent_id_basename_dict, maximum_size=maximum_size)
 
1871
        return result
 
1872
 
 
1873
    def _populate_from_dicts(self, chk_store, id_to_entry_dict,
 
1874
                             parent_id_basename_dict, maximum_size):
 
1875
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
 
1876
        root_key = chk_map.CHKMap.from_dict(chk_store, id_to_entry_dict,
 
1877
                   maximum_size=maximum_size, key_width=1,
 
1878
                   search_key_func=search_key_func)
 
1879
        self.id_to_entry = chk_map.CHKMap(chk_store, root_key,
 
1880
                                          search_key_func)
 
1881
        root_key = chk_map.CHKMap.from_dict(chk_store,
 
1882
                   parent_id_basename_dict,
 
1883
                   maximum_size=maximum_size, key_width=2,
 
1884
                   search_key_func=search_key_func)
 
1885
        self.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
 
1886
                                                    root_key, search_key_func)
 
1887
 
 
1888
    def _parent_id_basename_key(self, entry):
 
1889
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
 
1890
        if entry.parent_id is not None:
 
1891
            parent_id = entry.parent_id
 
1892
        else:
 
1893
            parent_id = ''
 
1894
        return StaticTuple(parent_id, entry.name.encode('utf8')).intern()
 
1895
 
 
1896
    def __getitem__(self, file_id):
 
1897
        """map a single file_id -> InventoryEntry."""
 
1898
        if file_id is None:
 
1899
            raise errors.NoSuchId(self, file_id)
 
1900
        result = self._fileid_to_entry_cache.get(file_id, None)
 
1901
        if result is not None:
 
1902
            return result
 
1903
        try:
 
1904
            return self._bytes_to_entry(
 
1905
                self.id_to_entry.iteritems([StaticTuple(file_id,)]).next()[1])
 
1906
        except StopIteration:
 
1907
            # really we're passing an inventory, not a tree...
 
1908
            raise errors.NoSuchId(self, file_id)
 
1909
 
 
1910
    def _getitems(self, file_ids):
 
1911
        """Similar to __getitem__, but lets you query for multiple.
 
1912
        
 
1913
        The returned order is undefined. And currently if an item doesn't
 
1914
        exist, it isn't included in the output.
 
1915
        """
 
1916
        result = []
 
1917
        remaining = []
 
1918
        for file_id in file_ids:
 
1919
            entry = self._fileid_to_entry_cache.get(file_id, None)
 
1920
            if entry is None:
 
1921
                remaining.append(file_id)
 
1922
            else:
 
1923
                result.append(entry)
 
1924
        file_keys = [StaticTuple(f,).intern() for f in remaining]
 
1925
        for file_key, value in self.id_to_entry.iteritems(file_keys):
 
1926
            entry = self._bytes_to_entry(value)
 
1927
            result.append(entry)
 
1928
            self._fileid_to_entry_cache[entry.file_id] = entry
 
1929
        return result
 
1930
 
 
1931
    def has_id(self, file_id):
 
1932
        # Perhaps have an explicit 'contains' method on CHKMap ?
 
1933
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
 
1934
            return True
 
1935
        return len(list(
 
1936
            self.id_to_entry.iteritems([StaticTuple(file_id,)]))) == 1
 
1937
 
 
1938
    def is_root(self, file_id):
 
1939
        return file_id == self.root_id
 
1940
 
 
1941
    def _iter_file_id_parents(self, file_id):
 
1942
        """Yield the parents of file_id up to the root."""
 
1943
        while file_id is not None:
 
1944
            try:
 
1945
                ie = self[file_id]
 
1946
            except KeyError:
 
1947
                raise errors.NoSuchId(tree=self, file_id=file_id)
 
1948
            yield ie
 
1949
            file_id = ie.parent_id
 
1950
 
 
1951
    def __iter__(self):
 
1952
        """Iterate over all file-ids."""
 
1953
        for key, _ in self.id_to_entry.iteritems():
 
1954
            yield key[-1]
 
1955
 
 
1956
    def iter_just_entries(self):
 
1957
        """Iterate over all entries.
 
1958
        
 
1959
        Unlike iter_entries(), just the entries are returned (not (path, ie))
 
1960
        and the order of entries is undefined.
 
1961
 
 
1962
        XXX: We may not want to merge this into bzr.dev.
 
1963
        """
 
1964
        for key, entry in self.id_to_entry.iteritems():
 
1965
            file_id = key[0]
 
1966
            ie = self._fileid_to_entry_cache.get(file_id, None)
 
1967
            if ie is None:
 
1968
                ie = self._bytes_to_entry(entry)
 
1969
                self._fileid_to_entry_cache[file_id] = ie
 
1970
            yield ie
 
1971
 
 
1972
    def iter_changes(self, basis):
 
1973
        """Generate a Tree.iter_changes change list between this and basis.
 
1974
 
 
1975
        :param basis: Another CHKInventory.
 
1976
        :return: An iterator over the changes between self and basis, as per
 
1977
            tree.iter_changes().
 
1978
        """
 
1979
        # We want: (file_id, (path_in_source, path_in_target),
 
1980
        # changed_content, versioned, parent, name, kind,
 
1981
        # executable)
 
1982
        for key, basis_value, self_value in \
 
1983
            self.id_to_entry.iter_changes(basis.id_to_entry):
 
1984
            file_id = key[0]
 
1985
            if basis_value is not None:
 
1986
                basis_entry = basis._bytes_to_entry(basis_value)
 
1987
                path_in_source = basis.id2path(file_id)
 
1988
                basis_parent = basis_entry.parent_id
 
1989
                basis_name = basis_entry.name
 
1990
                basis_executable = basis_entry.executable
 
1991
            else:
 
1992
                path_in_source = None
 
1993
                basis_parent = None
 
1994
                basis_name = None
 
1995
                basis_executable = None
 
1996
            if self_value is not None:
 
1997
                self_entry = self._bytes_to_entry(self_value)
 
1998
                path_in_target = self.id2path(file_id)
 
1999
                self_parent = self_entry.parent_id
 
2000
                self_name = self_entry.name
 
2001
                self_executable = self_entry.executable
 
2002
            else:
 
2003
                path_in_target = None
 
2004
                self_parent = None
 
2005
                self_name = None
 
2006
                self_executable = None
 
2007
            if basis_value is None:
 
2008
                # add
 
2009
                kind = (None, self_entry.kind)
 
2010
                versioned = (False, True)
 
2011
            elif self_value is None:
 
2012
                # delete
 
2013
                kind = (basis_entry.kind, None)
 
2014
                versioned = (True, False)
 
2015
            else:
 
2016
                kind = (basis_entry.kind, self_entry.kind)
 
2017
                versioned = (True, True)
 
2018
            changed_content = False
 
2019
            if kind[0] != kind[1]:
 
2020
                changed_content = True
 
2021
            elif kind[0] == 'file':
 
2022
                if (self_entry.text_size != basis_entry.text_size or
 
2023
                    self_entry.text_sha1 != basis_entry.text_sha1):
 
2024
                    changed_content = True
 
2025
            elif kind[0] == 'symlink':
 
2026
                if self_entry.symlink_target != basis_entry.symlink_target:
 
2027
                    changed_content = True
 
2028
            elif kind[0] == 'tree-reference':
 
2029
                if (self_entry.reference_revision !=
 
2030
                    basis_entry.reference_revision):
 
2031
                    changed_content = True
 
2032
            parent = (basis_parent, self_parent)
 
2033
            name = (basis_name, self_name)
 
2034
            executable = (basis_executable, self_executable)
 
2035
            if (not changed_content
 
2036
                and parent[0] == parent[1]
 
2037
                and name[0] == name[1]
 
2038
                and executable[0] == executable[1]):
 
2039
                # Could happen when only the revision changed for a directory
 
2040
                # for instance.
 
2041
                continue
 
2042
            yield (file_id, (path_in_source, path_in_target), changed_content,
 
2043
                versioned, parent, name, kind, executable)
 
2044
 
 
2045
    def __len__(self):
 
2046
        """Return the number of entries in the inventory."""
 
2047
        return len(self.id_to_entry)
 
2048
 
 
2049
    def _make_delta(self, old):
 
2050
        """Make an inventory delta from two inventories."""
 
2051
        if type(old) != CHKInventory:
 
2052
            return CommonInventory._make_delta(self, old)
 
2053
        delta = []
 
2054
        for key, old_value, self_value in \
 
2055
            self.id_to_entry.iter_changes(old.id_to_entry):
 
2056
            file_id = key[0]
 
2057
            if old_value is not None:
 
2058
                old_path = old.id2path(file_id)
 
2059
            else:
 
2060
                old_path = None
 
2061
            if self_value is not None:
 
2062
                entry = self._bytes_to_entry(self_value)
 
2063
                self._fileid_to_entry_cache[file_id] = entry
 
2064
                new_path = self.id2path(file_id)
 
2065
            else:
 
2066
                entry = None
 
2067
                new_path = None
 
2068
            delta.append((old_path, new_path, file_id, entry))
 
2069
        return delta
 
2070
 
 
2071
    def path2id(self, relpath):
 
2072
        """See CommonInventory.path2id()."""
 
2073
        # TODO: perhaps support negative hits?
 
2074
        result = self._path_to_fileid_cache.get(relpath, None)
 
2075
        if result is not None:
 
2076
            return result
 
2077
        if isinstance(relpath, basestring):
 
2078
            names = osutils.splitpath(relpath)
 
2079
        else:
 
2080
            names = relpath
 
2081
        current_id = self.root_id
 
2082
        if current_id is None:
 
2083
            return None
 
2084
        parent_id_index = self.parent_id_basename_to_file_id
 
2085
        cur_path = None
 
2086
        for basename in names:
 
2087
            if cur_path is None:
 
2088
                cur_path = basename
 
2089
            else:
 
2090
                cur_path = cur_path + '/' + basename
 
2091
            basename_utf8 = basename.encode('utf8')
 
2092
            file_id = self._path_to_fileid_cache.get(cur_path, None)
 
2093
            if file_id is None:
 
2094
                key_filter = [StaticTuple(current_id, basename_utf8)]
 
2095
                items = parent_id_index.iteritems(key_filter)
 
2096
                for (parent_id, name_utf8), file_id in items:
 
2097
                    if parent_id != current_id or name_utf8 != basename_utf8:
 
2098
                        raise errors.BzrError("corrupt inventory lookup! "
 
2099
                            "%r %r %r %r" % (parent_id, current_id, name_utf8,
 
2100
                            basename_utf8))
 
2101
                if file_id is None:
 
2102
                    return None
 
2103
                else:
 
2104
                    self._path_to_fileid_cache[cur_path] = file_id
 
2105
            current_id = file_id
 
2106
        return current_id
 
2107
 
 
2108
    def to_lines(self):
 
2109
        """Serialise the inventory to lines."""
 
2110
        lines = ["chkinventory:\n"]
 
2111
        if self._search_key_name != 'plain':
 
2112
            # custom ordering grouping things that don't change together
 
2113
            lines.append('search_key_name: %s\n' % (self._search_key_name,))
 
2114
            lines.append("root_id: %s\n" % self.root_id)
 
2115
            lines.append('parent_id_basename_to_file_id: %s\n' %
 
2116
                (self.parent_id_basename_to_file_id.key()[0],))
 
2117
            lines.append("revision_id: %s\n" % self.revision_id)
 
2118
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
 
2119
        else:
 
2120
            lines.append("revision_id: %s\n" % self.revision_id)
 
2121
            lines.append("root_id: %s\n" % self.root_id)
 
2122
            if self.parent_id_basename_to_file_id is not None:
 
2123
                lines.append('parent_id_basename_to_file_id: %s\n' %
 
2124
                    (self.parent_id_basename_to_file_id.key()[0],))
 
2125
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
 
2126
        return lines
 
2127
 
 
2128
    @property
 
2129
    def root(self):
 
2130
        """Get the root entry."""
 
2131
        return self[self.root_id]
 
2132
 
 
2133
 
 
2134
class CHKInventoryDirectory(InventoryDirectory):
 
2135
    """A directory in an inventory."""
 
2136
 
 
2137
    __slots__ = ['_children', '_chk_inventory']
 
2138
 
 
2139
    def __init__(self, file_id, name, parent_id, chk_inventory):
 
2140
        # Don't call InventoryDirectory.__init__ - it isn't right for this
 
2141
        # class.
 
2142
        InventoryEntry.__init__(self, file_id, name, parent_id)
 
2143
        self._children = None
 
2144
        self._chk_inventory = chk_inventory
 
2145
 
 
2146
    @property
 
2147
    def children(self):
 
2148
        """Access the list of children of this directory.
 
2149
 
 
2150
        With a parent_id_basename_to_file_id index, loads all the children,
 
2151
        without loads the entire index. Without is bad. A more sophisticated
 
2152
        proxy object might be nice, to allow partial loading of children as
 
2153
        well when specific names are accessed. (So path traversal can be
 
2154
        written in the obvious way but not examine siblings.).
 
2155
        """
 
2156
        if self._children is not None:
 
2157
            return self._children
 
2158
        # No longer supported
 
2159
        if self._chk_inventory.parent_id_basename_to_file_id is None:
 
2160
            raise AssertionError("Inventories without"
 
2161
                " parent_id_basename_to_file_id are no longer supported")
 
2162
        result = {}
 
2163
        # XXX: Todo - use proxy objects for the children rather than loading
 
2164
        # all when the attribute is referenced.
 
2165
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
 
2166
        child_keys = set()
 
2167
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
 
2168
            key_filter=[StaticTuple(self.file_id,)]):
 
2169
            child_keys.add(StaticTuple(file_id,))
 
2170
        cached = set()
 
2171
        for file_id_key in child_keys:
 
2172
            entry = self._chk_inventory._fileid_to_entry_cache.get(
 
2173
                file_id_key[0], None)
 
2174
            if entry is not None:
 
2175
                result[entry.name] = entry
 
2176
                cached.add(file_id_key)
 
2177
        child_keys.difference_update(cached)
 
2178
        # populate; todo: do by name
 
2179
        id_to_entry = self._chk_inventory.id_to_entry
 
2180
        for file_id_key, bytes in id_to_entry.iteritems(child_keys):
 
2181
            entry = self._chk_inventory._bytes_to_entry(bytes)
 
2182
            result[entry.name] = entry
 
2183
            self._chk_inventory._fileid_to_entry_cache[file_id_key[0]] = entry
 
2184
        self._children = result
 
2185
        return result
2527
2186
 
2528
2187
entry_factory = {
2529
2188
    'directory': InventoryDirectory,
2546
2205
    try:
2547
2206
        factory = entry_factory[kind]
2548
2207
    except KeyError:
2549
 
        raise BzrError("unknown kind %r" % kind)
 
2208
        raise errors.BadFileKindError(name, kind)
2550
2209
    return factory(file_id, name, parent_id)
2551
2210
 
2552
2211
 
2580
2239
        _NAME_RE = re.compile(r'^[^/\\]+$')
2581
2240
 
2582
2241
    return bool(_NAME_RE.match(name))
 
2242
 
 
2243
 
 
2244
def _check_delta_unique_ids(delta):
 
2245
    """Decorate a delta and check that the file ids in it are unique.
 
2246
 
 
2247
    :return: A generator over delta.
 
2248
    """
 
2249
    ids = set()
 
2250
    for item in delta:
 
2251
        length = len(ids) + 1
 
2252
        ids.add(item[2])
 
2253
        if len(ids) != length:
 
2254
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
 
2255
                "repeated file_id")
 
2256
        yield item
 
2257
 
 
2258
 
 
2259
def _check_delta_unique_new_paths(delta):
 
2260
    """Decorate a delta and check that the new paths in it are unique.
 
2261
 
 
2262
    :return: A generator over delta.
 
2263
    """
 
2264
    paths = set()
 
2265
    for item in delta:
 
2266
        length = len(paths) + 1
 
2267
        path = item[1]
 
2268
        if path is not None:
 
2269
            paths.add(path)
 
2270
            if len(paths) != length:
 
2271
                raise errors.InconsistentDelta(path, item[2], "repeated path")
 
2272
        yield item
 
2273
 
 
2274
 
 
2275
def _check_delta_unique_old_paths(delta):
 
2276
    """Decorate a delta and check that the old paths in it are unique.
 
2277
 
 
2278
    :return: A generator over delta.
 
2279
    """
 
2280
    paths = set()
 
2281
    for item in delta:
 
2282
        length = len(paths) + 1
 
2283
        path = item[0]
 
2284
        if path is not None:
 
2285
            paths.add(path)
 
2286
            if len(paths) != length:
 
2287
                raise errors.InconsistentDelta(path, item[2], "repeated path")
 
2288
        yield item
 
2289
 
 
2290
 
 
2291
def _check_delta_ids_are_valid(delta):
 
2292
    """Decorate a delta and check that the ids in it are valid.
 
2293
 
 
2294
    :return: A generator over delta.
 
2295
    """
 
2296
    for item in delta:
 
2297
        entry = item[3]
 
2298
        if item[2] is None:
 
2299
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
 
2300
                "entry with file_id None %r" % entry)
 
2301
        if type(item[2]) != str:
 
2302
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
 
2303
                "entry with non bytes file_id %r" % entry)
 
2304
        yield item
 
2305
 
 
2306
 
 
2307
def _check_delta_ids_match_entry(delta):
 
2308
    """Decorate a delta and check that the ids in it match the entry.file_id.
 
2309
 
 
2310
    :return: A generator over delta.
 
2311
    """
 
2312
    for item in delta:
 
2313
        entry = item[3]
 
2314
        if entry is not None:
 
2315
            if entry.file_id != item[2]:
 
2316
                raise errors.InconsistentDelta(item[0] or item[1], item[2],
 
2317
                    "mismatched id with %r" % entry)
 
2318
        yield item
 
2319
 
 
2320
 
 
2321
def _check_delta_new_path_entry_both_or_None(delta):
 
2322
    """Decorate a delta and check that the new_path and entry are paired.
 
2323
 
 
2324
    :return: A generator over delta.
 
2325
    """
 
2326
    for item in delta:
 
2327
        new_path = item[1]
 
2328
        entry = item[3]
 
2329
        if new_path is None and entry is not None:
 
2330
            raise errors.InconsistentDelta(item[0], item[1],
 
2331
                "Entry with no new_path")
 
2332
        if new_path is not None and entry is None:
 
2333
            raise errors.InconsistentDelta(new_path, item[1],
 
2334
                "new_path with no entry")
 
2335
        yield item