~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/inventory.py

  • Committer: John Arbash Meinel
  • Date: 2009-03-27 22:29:55 UTC
  • mto: (3735.39.2 clean)
  • mto: This revision was merged to the branch mainline in revision 4280.
  • Revision ID: john@arbash-meinel.com-20090327222955-utifmfm888zerixt
Implement apply_delta_to_source which doesn't have to malloc another string.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
27
27
# created, but it's not for now.
28
28
ROOT_ID = "TREE_ROOT"
29
29
 
 
30
from copy import deepcopy
 
31
 
30
32
from bzrlib.lazy_import import lazy_import
31
33
lazy_import(globals(), """
32
34
import collections
33
 
import copy
34
35
import os
35
36
import re
36
37
import tarfile
37
38
 
 
39
import bzrlib
38
40
from bzrlib import (
39
41
    chk_map,
40
42
    errors,
41
43
    generate_ids,
42
44
    osutils,
 
45
    symbol_versioning,
 
46
    workingtree,
43
47
    )
44
48
""")
45
49
 
47
51
    BzrCheckError,
48
52
    BzrError,
49
53
    )
 
54
from bzrlib.symbol_versioning import deprecated_in, deprecated_method
50
55
from bzrlib.trace import mutter
51
 
from bzrlib.static_tuple import StaticTuple
52
56
 
53
57
 
54
58
class InventoryEntry(object):
128
132
    RENAMED = 'renamed'
129
133
    MODIFIED_AND_RENAMED = 'modified and renamed'
130
134
 
131
 
    __slots__ = ['file_id', 'revision', 'parent_id', 'name']
132
 
 
133
 
    # Attributes that all InventoryEntry instances are expected to have, but
134
 
    # that don't vary for all kinds of entry.  (e.g. symlink_target is only
135
 
    # relevant to InventoryLink, so there's no reason to make every
136
 
    # InventoryFile instance allocate space to hold a value for it.)
137
 
    # Attributes that only vary for files: executable, text_sha1, text_size,
138
 
    # text_id
139
 
    executable = False
140
 
    text_sha1 = None
141
 
    text_size = None
142
 
    text_id = None
143
 
    # Attributes that only vary for symlinks: symlink_target
144
 
    symlink_target = None
145
 
    # Attributes that only vary for tree-references: reference_revision
146
 
    reference_revision = None
147
 
 
 
135
    __slots__ = []
148
136
 
149
137
    def detect_changes(self, old_entry):
150
138
        """Return a (text_modified, meta_modified) from this to old_entry.
189
177
                    candidates[ie.revision] = ie
190
178
        return candidates
191
179
 
 
180
    @deprecated_method(deprecated_in((1, 6, 0)))
 
181
    def get_tar_item(self, root, dp, now, tree):
 
182
        """Get a tarfile item and a file stream for its content."""
 
183
        item = tarfile.TarInfo(osutils.pathjoin(root, dp).encode('utf8'))
 
184
        # TODO: would be cool to actually set it to the timestamp of the
 
185
        # revision it was last changed
 
186
        item.mtime = now
 
187
        fileobj = self._put_in_tar(item, tree)
 
188
        return item, fileobj
 
189
 
192
190
    def has_text(self):
193
191
        """Return true if the object this entry represents has textual data.
194
192
 
200
198
        """
201
199
        return False
202
200
 
203
 
    def __init__(self, file_id, name, parent_id):
 
201
    def __init__(self, file_id, name, parent_id, text_id=None):
204
202
        """Create an InventoryEntry
205
203
 
206
204
        The filename must be a single component, relative to the
217
215
        """
218
216
        if '/' in name or '\\' in name:
219
217
            raise errors.InvalidEntryName(name=name)
 
218
        self.executable = False
 
219
        self.revision = None
 
220
        self.text_sha1 = None
 
221
        self.text_size = None
220
222
        self.file_id = file_id
221
 
        self.revision = None
222
223
        self.name = name
 
224
        self.text_id = text_id
223
225
        self.parent_id = parent_id
 
226
        self.symlink_target = None
 
227
        self.reference_revision = None
224
228
 
225
229
    def kind_character(self):
226
230
        """Return a short kind indicator useful for appending to names."""
228
232
 
229
233
    known_kinds = ('file', 'directory', 'symlink')
230
234
 
 
235
    def _put_in_tar(self, item, tree):
 
236
        """populate item for stashing in a tar, and return the content stream.
 
237
 
 
238
        If no content is available, return None.
 
239
        """
 
240
        raise BzrError("don't know how to export {%s} of kind %r" %
 
241
                       (self.file_id, self.kind))
 
242
 
 
243
    @deprecated_method(deprecated_in((1, 6, 0)))
 
244
    def put_on_disk(self, dest, dp, tree):
 
245
        """Create a representation of self on disk in the prefix dest.
 
246
 
 
247
        This is a template method - implement _put_on_disk in subclasses.
 
248
        """
 
249
        fullpath = osutils.pathjoin(dest, dp)
 
250
        self._put_on_disk(fullpath, tree)
 
251
        # mutter("  export {%s} kind %s to %s", self.file_id,
 
252
        #         self.kind, fullpath)
 
253
 
 
254
    def _put_on_disk(self, fullpath, tree):
 
255
        """Put this entry onto disk at fullpath, from tree tree."""
 
256
        raise BzrError("don't know how to export {%s} of kind %r" % (self.file_id, self.kind))
 
257
 
231
258
    def sorted_children(self):
232
259
        return sorted(self.children.items())
233
260
 
235
262
    def versionable_kind(kind):
236
263
        return (kind in ('file', 'directory', 'symlink', 'tree-reference'))
237
264
 
238
 
    def check(self, checker, rev_id, inv):
 
265
    def check(self, checker, rev_id, inv, tree):
239
266
        """Check this inventory entry is intact.
240
267
 
241
268
        This is a template method, override _check for kind specific
247
274
        :param rev_id: Revision id from which this InventoryEntry was loaded.
248
275
             Not necessarily the last-changed revision for this file.
249
276
        :param inv: Inventory from which the entry was loaded.
 
277
        :param tree: RevisionTree for this entry.
250
278
        """
251
279
        if self.parent_id is not None:
252
280
            if not inv.has_id(self.parent_id):
253
281
                raise BzrCheckError('missing parent {%s} in inventory for revision {%s}'
254
282
                        % (self.parent_id, rev_id))
255
 
        checker._add_entry_to_text_key_references(inv, self)
256
 
        self._check(checker, rev_id)
 
283
        self._check(checker, rev_id, tree)
257
284
 
258
 
    def _check(self, checker, rev_id):
 
285
    def _check(self, checker, rev_id, tree):
259
286
        """Check this inventory entry for kind specific errors."""
260
 
        checker._report_items.append(
261
 
            'unknown entry kind %r in revision {%s}' % (self.kind, rev_id))
 
287
        raise BzrCheckError('unknown entry kind %r in revision {%s}' %
 
288
                            (self.kind, rev_id))
262
289
 
263
290
    def copy(self):
264
291
        """Clone this inventory entry."""
371
398
        pass
372
399
 
373
400
 
 
401
class RootEntry(InventoryEntry):
 
402
 
 
403
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
404
                 'text_id', 'parent_id', 'children', 'executable',
 
405
                 'revision', 'symlink_target', 'reference_revision']
 
406
 
 
407
    def _check(self, checker, rev_id, tree):
 
408
        """See InventoryEntry._check"""
 
409
 
 
410
    def __init__(self, file_id):
 
411
        self.file_id = file_id
 
412
        self.children = {}
 
413
        self.kind = 'directory'
 
414
        self.parent_id = None
 
415
        self.name = u''
 
416
        self.revision = None
 
417
        symbol_versioning.warn('RootEntry is deprecated as of bzr 0.10.'
 
418
                               '  Please use InventoryDirectory instead.',
 
419
                               DeprecationWarning, stacklevel=2)
 
420
 
 
421
    def __eq__(self, other):
 
422
        if not isinstance(other, RootEntry):
 
423
            return NotImplemented
 
424
 
 
425
        return (self.file_id == other.file_id) \
 
426
               and (self.children == other.children)
 
427
 
 
428
 
374
429
class InventoryDirectory(InventoryEntry):
375
430
    """A directory in an inventory."""
376
431
 
377
 
    __slots__ = ['children']
378
 
 
379
 
    kind = 'directory'
380
 
 
381
 
    def _check(self, checker, rev_id):
 
432
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
433
                 'text_id', 'parent_id', 'children', 'executable',
 
434
                 'revision', 'symlink_target', 'reference_revision']
 
435
 
 
436
    def _check(self, checker, rev_id, tree):
382
437
        """See InventoryEntry._check"""
383
 
        # In non rich root repositories we do not expect a file graph for the
384
 
        # root.
385
 
        if self.name == '' and not checker.rich_roots:
386
 
            return
387
 
        # Directories are stored as an empty file, but the file should exist
388
 
        # to provide a per-fileid log. The hash of every directory content is
389
 
        # "da..." below (the sha1sum of '').
390
 
        checker.add_pending_item(rev_id,
391
 
            ('texts', self.file_id, self.revision), 'text',
392
 
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
 
438
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
 
439
            raise BzrCheckError('directory {%s} has text in revision {%s}'
 
440
                                % (self.file_id, rev_id))
393
441
 
394
442
    def copy(self):
395
443
        other = InventoryDirectory(self.file_id, self.name, self.parent_id)
401
449
    def __init__(self, file_id, name, parent_id):
402
450
        super(InventoryDirectory, self).__init__(file_id, name, parent_id)
403
451
        self.children = {}
 
452
        self.kind = 'directory'
404
453
 
405
454
    def kind_character(self):
406
455
        """See InventoryEntry.kind_character."""
407
456
        return '/'
408
457
 
 
458
    def _put_in_tar(self, item, tree):
 
459
        """See InventoryEntry._put_in_tar."""
 
460
        item.type = tarfile.DIRTYPE
 
461
        fileobj = None
 
462
        item.name += '/'
 
463
        item.size = 0
 
464
        item.mode = 0755
 
465
        return fileobj
 
466
 
 
467
    def _put_on_disk(self, fullpath, tree):
 
468
        """See InventoryEntry._put_on_disk."""
 
469
        os.mkdir(fullpath)
 
470
 
409
471
 
410
472
class InventoryFile(InventoryEntry):
411
473
    """A file in an inventory."""
412
474
 
413
 
    __slots__ = ['text_sha1', 'text_size', 'text_id', 'executable']
414
 
 
415
 
    kind = 'file'
416
 
 
417
 
    def __init__(self, file_id, name, parent_id):
418
 
        super(InventoryFile, self).__init__(file_id, name, parent_id)
419
 
        self.text_sha1 = None
420
 
        self.text_size = None
421
 
        self.text_id = None
422
 
        self.executable = False
423
 
 
424
 
    def _check(self, checker, tree_revision_id):
 
475
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
476
                 'text_id', 'parent_id', 'children', 'executable',
 
477
                 'revision', 'symlink_target', 'reference_revision']
 
478
 
 
479
    def _check(self, checker, tree_revision_id, tree):
425
480
        """See InventoryEntry._check"""
426
 
        # TODO: check size too.
427
 
        checker.add_pending_item(tree_revision_id,
428
 
            ('texts', self.file_id, self.revision), 'text',
429
 
             self.text_sha1)
430
 
        if self.text_size is None:
431
 
            checker._report_items.append(
432
 
                'fileid {%s} in {%s} has None for text_size' % (self.file_id,
433
 
                tree_revision_id))
 
481
        key = (self.file_id, self.revision)
 
482
        if key in checker.checked_texts:
 
483
            prev_sha = checker.checked_texts[key]
 
484
            if prev_sha != self.text_sha1:
 
485
                raise BzrCheckError(
 
486
                    'mismatched sha1 on {%s} in {%s} (%s != %s) %r' %
 
487
                    (self.file_id, tree_revision_id, prev_sha, self.text_sha1,
 
488
                     t))
 
489
            else:
 
490
                checker.repeated_text_cnt += 1
 
491
                return
 
492
 
 
493
        checker.checked_text_cnt += 1
 
494
        # We can't check the length, because Weave doesn't store that
 
495
        # information, and the whole point of looking at the weave's
 
496
        # sha1sum is that we don't have to extract the text.
 
497
        if (self.text_sha1 != tree._repository.texts.get_sha1s([key])[key]):
 
498
            raise BzrCheckError('text {%s} version {%s} wrong sha1' % key)
 
499
        checker.checked_texts[key] = self.text_sha1
434
500
 
435
501
    def copy(self):
436
502
        other = InventoryFile(self.file_id, self.name, self.parent_id)
468
534
        """See InventoryEntry.has_text."""
469
535
        return True
470
536
 
 
537
    def __init__(self, file_id, name, parent_id):
 
538
        super(InventoryFile, self).__init__(file_id, name, parent_id)
 
539
        self.kind = 'file'
 
540
 
471
541
    def kind_character(self):
472
542
        """See InventoryEntry.kind_character."""
473
543
        return ''
474
544
 
 
545
    def _put_in_tar(self, item, tree):
 
546
        """See InventoryEntry._put_in_tar."""
 
547
        item.type = tarfile.REGTYPE
 
548
        fileobj = tree.get_file(self.file_id)
 
549
        item.size = self.text_size
 
550
        if tree.is_executable(self.file_id):
 
551
            item.mode = 0755
 
552
        else:
 
553
            item.mode = 0644
 
554
        return fileobj
 
555
 
 
556
    def _put_on_disk(self, fullpath, tree):
 
557
        """See InventoryEntry._put_on_disk."""
 
558
        osutils.pumpfile(tree.get_file(self.file_id), file(fullpath, 'wb'))
 
559
        if tree.is_executable(self.file_id):
 
560
            os.chmod(fullpath, 0755)
 
561
 
475
562
    def _read_tree_state(self, path, work_tree):
476
563
        """See InventoryEntry._read_tree_state."""
477
564
        self.text_sha1 = work_tree.get_file_sha1(self.file_id, path=path)
509
596
class InventoryLink(InventoryEntry):
510
597
    """A file in an inventory."""
511
598
 
512
 
    __slots__ = ['symlink_target']
513
 
 
514
 
    kind = 'symlink'
515
 
 
516
 
    def __init__(self, file_id, name, parent_id):
517
 
        super(InventoryLink, self).__init__(file_id, name, parent_id)
518
 
        self.symlink_target = None
519
 
 
520
 
    def _check(self, checker, tree_revision_id):
 
599
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
600
                 'text_id', 'parent_id', 'children', 'executable',
 
601
                 'revision', 'symlink_target', 'reference_revision']
 
602
 
 
603
    def _check(self, checker, rev_id, tree):
521
604
        """See InventoryEntry._check"""
 
605
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
 
606
            raise BzrCheckError('symlink {%s} has text in revision {%s}'
 
607
                    % (self.file_id, rev_id))
522
608
        if self.symlink_target is None:
523
 
            checker._report_items.append(
524
 
                'symlink {%s} has no target in revision {%s}'
525
 
                    % (self.file_id, tree_revision_id))
526
 
        # Symlinks are stored as ''
527
 
        checker.add_pending_item(tree_revision_id,
528
 
            ('texts', self.file_id, self.revision), 'text',
529
 
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
 
609
            raise BzrCheckError('symlink {%s} has no target in revision {%s}'
 
610
                    % (self.file_id, rev_id))
530
611
 
531
612
    def copy(self):
532
613
        other = InventoryLink(self.file_id, self.name, self.parent_id)
562
643
        differ = DiffSymlink(old_tree, new_tree, output_to)
563
644
        return differ.diff_symlink(old_target, new_target)
564
645
 
 
646
    def __init__(self, file_id, name, parent_id):
 
647
        super(InventoryLink, self).__init__(file_id, name, parent_id)
 
648
        self.kind = 'symlink'
 
649
 
565
650
    def kind_character(self):
566
651
        """See InventoryEntry.kind_character."""
567
652
        return ''
568
653
 
 
654
    def _put_in_tar(self, item, tree):
 
655
        """See InventoryEntry._put_in_tar."""
 
656
        item.type = tarfile.SYMTYPE
 
657
        fileobj = None
 
658
        item.size = 0
 
659
        item.mode = 0755
 
660
        item.linkname = self.symlink_target
 
661
        return fileobj
 
662
 
 
663
    def _put_on_disk(self, fullpath, tree):
 
664
        """See InventoryEntry._put_on_disk."""
 
665
        try:
 
666
            os.symlink(self.symlink_target, fullpath)
 
667
        except OSError,e:
 
668
            raise BzrError("Failed to create symlink %r -> %r, error: %s" % (fullpath, self.symlink_target, e))
 
669
 
569
670
    def _read_tree_state(self, path, work_tree):
570
671
        """See InventoryEntry._read_tree_state."""
571
672
        self.symlink_target = work_tree.get_symlink_target(self.file_id)
583
684
 
584
685
class TreeReference(InventoryEntry):
585
686
 
586
 
    __slots__ = ['reference_revision']
587
 
 
588
687
    kind = 'tree-reference'
589
688
 
590
689
    def __init__(self, file_id, name, parent_id, revision=None,
615
714
 
616
715
 
617
716
class CommonInventory(object):
618
 
    """Basic inventory logic, defined in terms of primitives like has_id.
619
 
 
620
 
    An inventory is the metadata about the contents of a tree.
621
 
 
622
 
    This is broadly a map from file_id to entries such as directories, files,
623
 
    symlinks and tree references. Each entry maintains its own metadata like
624
 
    SHA1 and length for files, or children for a directory.
625
 
 
626
 
    Entries can be looked up either by path or by file_id.
627
 
 
628
 
    InventoryEntry objects must not be modified after they are
629
 
    inserted, other than through the Inventory API.
630
 
    """
 
717
    """Basic inventory logic, defined in terms of primitives like has_id."""
631
718
 
632
719
    def __contains__(self, file_id):
633
720
        """True if this entry contains a file with given id.
646
733
        """
647
734
        return self.has_id(file_id)
648
735
 
649
 
    def has_filename(self, filename):
650
 
        return bool(self.path2id(filename))
651
 
 
652
736
    def id2path(self, file_id):
653
737
        """Return as a string the path to file_id.
654
738
 
657
741
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
658
742
        >>> print i.id2path('foo-id')
659
743
        src/foo.c
660
 
 
661
 
        :raises NoSuchId: If file_id is not present in the inventory.
662
744
        """
663
745
        # get all names, skipping root
664
746
        return '/'.join(reversed(
665
747
            [parent.name for parent in
666
748
             self._iter_file_id_parents(file_id)][:-1]))
667
749
 
668
 
    def iter_entries(self, from_dir=None, recursive=True):
669
 
        """Return (path, entry) pairs, in order by name.
670
 
        
671
 
        :param from_dir: if None, start from the root,
672
 
          otherwise start from this directory (either file-id or entry)
673
 
        :param recursive: recurse into directories or not
674
 
        """
 
750
    def iter_entries(self, from_dir=None):
 
751
        """Return (path, entry) pairs, in order by name."""
675
752
        if from_dir is None:
676
753
            if self.root is None:
677
754
                return
684
761
        # 440ms/663ms (inline/total) to 116ms/116ms
685
762
        children = from_dir.children.items()
686
763
        children.sort()
687
 
        if not recursive:
688
 
            for name, ie in children:
689
 
                yield name, ie
690
 
            return
691
764
        children = collections.deque(children)
692
765
        stack = [(u'', children)]
693
766
        while stack:
855
928
        descend(self.root, u'')
856
929
        return accum
857
930
 
858
 
    def path2id(self, relpath):
 
931
    def path2id(self, name):
859
932
        """Walk down through directories to return entry of last component.
860
933
 
861
 
        :param relpath: may be either a list of path components, or a single
862
 
            string, in which case it is automatically split.
 
934
        names may be either a list of path components, or a single
 
935
        string, in which case it is automatically split.
863
936
 
864
937
        This returns the entry of the last component in the path,
865
938
        which may be either a file or a directory.
866
939
 
867
940
        Returns None IFF the path is not found.
868
941
        """
869
 
        if isinstance(relpath, basestring):
870
 
            names = osutils.splitpath(relpath)
871
 
        else:
872
 
            names = relpath
 
942
        if isinstance(name, basestring):
 
943
            name = osutils.splitpath(name)
 
944
 
 
945
        # mutter("lookup path %r" % name)
873
946
 
874
947
        try:
875
948
            parent = self.root
878
951
            return None
879
952
        if parent is None:
880
953
            return None
881
 
        for f in names:
 
954
        for f in name:
882
955
            try:
883
956
                children = getattr(parent, 'children', None)
884
957
                if children is None:
939
1012
 
940
1013
 
941
1014
class Inventory(CommonInventory):
942
 
    """Mutable dict based in-memory inventory.
943
 
 
944
 
    We never store the full path to a file, because renaming a directory
945
 
    implicitly moves all of its contents.  This class internally maintains a
 
1015
    """Inventory of versioned files in a tree.
 
1016
 
 
1017
    This describes which file_id is present at each point in the tree,
 
1018
    and possibly the SHA-1 or other information about the file.
 
1019
    Entries can be looked up either by path or by file_id.
 
1020
 
 
1021
    The inventory represents a typical unix file tree, with
 
1022
    directories containing files and subdirectories.  We never store
 
1023
    the full path to a file, because renaming a directory implicitly
 
1024
    moves all of its contents.  This class internally maintains a
946
1025
    lookup tree that allows the children under a directory to be
947
1026
    returned quickly.
948
1027
 
 
1028
    InventoryEntry objects must not be modified after they are
 
1029
    inserted, other than through the Inventory API.
 
1030
 
949
1031
    >>> inv = Inventory()
950
1032
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
951
1033
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
952
1034
    >>> inv['123-123'].name
953
1035
    'hello.c'
954
1036
 
955
 
    Id's may be looked up from paths:
 
1037
    May be treated as an iterator or set to look up file ids:
956
1038
 
957
 
    >>> inv.path2id('hello.c')
958
 
    '123-123'
 
1039
    >>> bool(inv.path2id('hello.c'))
 
1040
    True
959
1041
    >>> '123-123' in inv
960
1042
    True
961
1043
 
962
 
    There are iterators over the contents:
 
1044
    May also look up by name:
963
1045
 
964
 
    >>> [entry[0] for entry in inv.iter_entries()]
 
1046
    >>> [x[0] for x in inv.iter_entries()]
965
1047
    ['', u'hello.c']
 
1048
    >>> inv = Inventory('TREE_ROOT-12345678-12345678')
 
1049
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
1050
    Traceback (most recent call last):
 
1051
    BzrError: parent_id {TREE_ROOT} not in inventory
 
1052
    >>> inv.add(InventoryFile('123-123', 'hello.c', 'TREE_ROOT-12345678-12345678'))
 
1053
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT-12345678-12345678', sha1=None, len=None, revision=None)
966
1054
    """
967
 
 
968
1055
    def __init__(self, root_id=ROOT_ID, revision_id=None):
969
1056
        """Create or read an inventory.
970
1057
 
994
1081
    def apply_delta(self, delta):
995
1082
        """Apply a delta to this inventory.
996
1083
 
997
 
        See the inventory developers documentation for the theory behind
998
 
        inventory deltas.
999
 
 
1000
 
        If delta application fails the inventory is left in an indeterminate
1001
 
        state and must not be used.
1002
 
 
1003
1084
        :param delta: A list of changes to apply. After all the changes are
1004
1085
            applied the final inventory must be internally consistent, but it
1005
1086
            is ok to supply changes which, if only half-applied would have an
1036
1117
        """
1037
1118
        # Check that the delta is legal. It would be nice if this could be
1038
1119
        # done within the loops below but it's safer to validate the delta
1039
 
        # before starting to mutate the inventory, as there isn't a rollback
1040
 
        # facility.
1041
 
        list(_check_delta_unique_ids(_check_delta_unique_new_paths(
1042
 
            _check_delta_unique_old_paths(_check_delta_ids_match_entry(
1043
 
            _check_delta_ids_are_valid(
1044
 
            _check_delta_new_path_entry_both_or_None(
1045
 
            delta)))))))
 
1120
        # before starting to mutate the inventory.
 
1121
        unique_file_ids = set([f for _, _, f, _ in delta])
 
1122
        if len(unique_file_ids) != len(delta):
 
1123
            raise AssertionError("a file-id appears multiple times in %r"
 
1124
                    % (delta,))
 
1125
        del unique_file_ids
1046
1126
 
1047
1127
        children = {}
1048
1128
        # Remove all affected items which were in the original inventory,
1051
1131
        # modified children remaining by the time we examine it.
1052
1132
        for old_path, file_id in sorted(((op, f) for op, np, f, e in delta
1053
1133
                                        if op is not None), reverse=True):
 
1134
            if file_id not in self:
 
1135
                # adds come later
 
1136
                continue
1054
1137
            # Preserve unaltered children of file_id for later reinsertion.
1055
1138
            file_id_children = getattr(self[file_id], 'children', {})
1056
1139
            if len(file_id_children):
1057
1140
                children[file_id] = file_id_children
1058
 
            if self.id2path(file_id) != old_path:
1059
 
                raise errors.InconsistentDelta(old_path, file_id,
1060
 
                    "Entry was at wrong other path %r." % self.id2path(file_id))
1061
1141
            # Remove file_id and the unaltered children. If file_id is not
1062
1142
            # being deleted it will be reinserted back later.
1063
1143
            self.remove_recursive_id(file_id)
1066
1146
        # longest, ensuring that items which were modified and whose parents in
1067
1147
        # the resulting inventory were also modified, are inserted after their
1068
1148
        # parents.
1069
 
        for new_path, f, new_entry in sorted((np, f, e) for op, np, f, e in
 
1149
        for new_path, new_entry in sorted((np, e) for op, np, f, e in
1070
1150
                                          delta if np is not None):
1071
1151
            if new_entry.kind == 'directory':
1072
1152
                # Pop the child which to allow detection of children whose
1077
1157
                replacement.revision = new_entry.revision
1078
1158
                replacement.children = children.pop(replacement.file_id, {})
1079
1159
                new_entry = replacement
1080
 
            try:
1081
 
                self.add(new_entry)
1082
 
            except errors.DuplicateFileId:
1083
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1084
 
                    "New id is already present in target.")
1085
 
            except AttributeError:
1086
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1087
 
                    "Parent is not a directory.")
1088
 
            if self.id2path(new_entry.file_id) != new_path:
1089
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1090
 
                    "New path is not consistent with parent path.")
 
1160
            self.add(new_entry)
1091
1161
        if len(children):
1092
1162
            # Get the parent id that was deleted
1093
1163
            parent_id, children = children.popitem()
1094
1164
            raise errors.InconsistentDelta("<deleted>", parent_id,
1095
1165
                "The file id was deleted but its children were not deleted.")
1096
1166
 
1097
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1098
 
                              propagate_caches=False):
1099
 
        """See CHKInventory.create_by_apply_delta()"""
1100
 
        new_inv = self.copy()
1101
 
        new_inv.apply_delta(inventory_delta)
1102
 
        new_inv.revision_id = new_revision_id
1103
 
        return new_inv
1104
 
 
1105
1167
    def _set_root(self, ie):
1106
1168
        self.root = ie
1107
1169
        self._byid = {self.root.file_id: self.root}
1121
1183
 
1122
1184
    def _get_mutable_inventory(self):
1123
1185
        """See CommonInventory._get_mutable_inventory."""
1124
 
        return copy.deepcopy(self)
 
1186
        return deepcopy(self)
1125
1187
 
1126
1188
    def __iter__(self):
1127
1189
        """Iterate over all file-ids."""
1178
1240
    def add(self, entry):
1179
1241
        """Add entry to inventory.
1180
1242
 
1181
 
        :return: entry
 
1243
        To add  a file to a branch ready to be committed, use Branch.add,
 
1244
        which calls this.
 
1245
 
 
1246
        Returns the new entry object.
1182
1247
        """
1183
1248
        if entry.file_id in self._byid:
1184
1249
            raise errors.DuplicateFileId(entry.file_id,
1185
1250
                                         self._byid[entry.file_id])
 
1251
 
1186
1252
        if entry.parent_id is None:
1187
1253
            self.root = entry
1188
1254
        else:
1189
1255
            try:
1190
1256
                parent = self._byid[entry.parent_id]
1191
1257
            except KeyError:
1192
 
                raise errors.InconsistentDelta("<unknown>", entry.parent_id,
1193
 
                    "Parent not in inventory.")
 
1258
                raise BzrError("parent_id {%s} not in inventory" %
 
1259
                               entry.parent_id)
 
1260
 
1194
1261
            if entry.name in parent.children:
1195
 
                raise errors.InconsistentDelta(
1196
 
                    self.id2path(parent.children[entry.name].file_id),
1197
 
                    entry.file_id,
1198
 
                    "Path already versioned")
 
1262
                raise BzrError("%s is already versioned" %
 
1263
                        osutils.pathjoin(self.id2path(parent.file_id),
 
1264
                        entry.name).encode('utf-8'))
1199
1265
            parent.children[entry.name] = entry
1200
1266
        return self._add_child(entry)
1201
1267
 
1276
1342
            yield ie
1277
1343
            file_id = ie.parent_id
1278
1344
 
 
1345
    def has_filename(self, names):
 
1346
        return bool(self.path2id(names))
 
1347
 
1279
1348
    def has_id(self, file_id):
1280
1349
        return (file_id in self._byid)
1281
1350
 
1391
1460
        self._fileid_to_entry_cache = {}
1392
1461
        self._path_to_fileid_cache = {}
1393
1462
        self._search_key_name = search_key_name
1394
 
        self.root_id = None
1395
 
 
1396
 
    def __eq__(self, other):
1397
 
        """Compare two sets by comparing their contents."""
1398
 
        if not isinstance(other, CHKInventory):
1399
 
            return NotImplemented
1400
 
 
1401
 
        this_key = self.id_to_entry.key()
1402
 
        other_key = other.id_to_entry.key()
1403
 
        this_pid_key = self.parent_id_basename_to_file_id.key()
1404
 
        other_pid_key = other.parent_id_basename_to_file_id.key()
1405
 
        if None in (this_key, this_pid_key, other_key, other_pid_key):
1406
 
            return False
1407
 
        return this_key == other_key and this_pid_key == other_pid_key
1408
1463
 
1409
1464
    def _entry_to_bytes(self, entry):
1410
1465
        """Serialise entry as a single bytestring.
1448
1503
        else:
1449
1504
            raise ValueError("unknown kind %r" % entry.kind)
1450
1505
 
1451
 
    def _expand_fileids_to_parents_and_children(self, file_ids):
1452
 
        """Give a more wholistic view starting with the given file_ids.
1453
 
 
1454
 
        For any file_id which maps to a directory, we will include all children
1455
 
        of that directory. We will also include all directories which are
1456
 
        parents of the given file_ids, but we will not include their children.
1457
 
 
1458
 
        eg:
1459
 
          /     # TREE_ROOT
1460
 
          foo/  # foo-id
1461
 
            baz # baz-id
1462
 
            frob/ # frob-id
1463
 
              fringle # fringle-id
1464
 
          bar/  # bar-id
1465
 
            bing # bing-id
1466
 
 
1467
 
        if given [foo-id] we will include
1468
 
            TREE_ROOT as interesting parents
1469
 
        and 
1470
 
            foo-id, baz-id, frob-id, fringle-id
1471
 
        As interesting ids.
1472
 
        """
1473
 
        interesting = set()
1474
 
        # TODO: Pre-pass over the list of fileids to see if anything is already
1475
 
        #       deserialized in self._fileid_to_entry_cache
1476
 
 
1477
 
        directories_to_expand = set()
1478
 
        children_of_parent_id = {}
1479
 
        # It is okay if some of the fileids are missing
1480
 
        for entry in self._getitems(file_ids):
1481
 
            if entry.kind == 'directory':
1482
 
                directories_to_expand.add(entry.file_id)
1483
 
            interesting.add(entry.parent_id)
1484
 
            children_of_parent_id.setdefault(entry.parent_id, []
1485
 
                                             ).append(entry.file_id)
1486
 
 
1487
 
        # Now, interesting has all of the direct parents, but not the
1488
 
        # parents of those parents. It also may have some duplicates with
1489
 
        # specific_fileids
1490
 
        remaining_parents = interesting.difference(file_ids)
1491
 
        # When we hit the TREE_ROOT, we'll get an interesting parent of None,
1492
 
        # but we don't actually want to recurse into that
1493
 
        interesting.add(None) # this will auto-filter it in the loop
1494
 
        remaining_parents.discard(None) 
1495
 
        while remaining_parents:
1496
 
            next_parents = set()
1497
 
            for entry in self._getitems(remaining_parents):
1498
 
                next_parents.add(entry.parent_id)
1499
 
                children_of_parent_id.setdefault(entry.parent_id, []
1500
 
                                                 ).append(entry.file_id)
1501
 
            # Remove any search tips we've already processed
1502
 
            remaining_parents = next_parents.difference(interesting)
1503
 
            interesting.update(remaining_parents)
1504
 
            # We should probably also .difference(directories_to_expand)
1505
 
        interesting.update(file_ids)
1506
 
        interesting.discard(None)
1507
 
        while directories_to_expand:
1508
 
            # Expand directories by looking in the
1509
 
            # parent_id_basename_to_file_id map
1510
 
            keys = [StaticTuple(f,).intern() for f in directories_to_expand]
1511
 
            directories_to_expand = set()
1512
 
            items = self.parent_id_basename_to_file_id.iteritems(keys)
1513
 
            next_file_ids = set([item[1] for item in items])
1514
 
            next_file_ids = next_file_ids.difference(interesting)
1515
 
            interesting.update(next_file_ids)
1516
 
            for entry in self._getitems(next_file_ids):
1517
 
                if entry.kind == 'directory':
1518
 
                    directories_to_expand.add(entry.file_id)
1519
 
                children_of_parent_id.setdefault(entry.parent_id, []
1520
 
                                                 ).append(entry.file_id)
1521
 
        return interesting, children_of_parent_id
1522
 
 
1523
 
    def filter(self, specific_fileids):
1524
 
        """Get an inventory view filtered against a set of file-ids.
1525
 
 
1526
 
        Children of directories and parents are included.
1527
 
 
1528
 
        The result may or may not reference the underlying inventory
1529
 
        so it should be treated as immutable.
1530
 
        """
1531
 
        (interesting,
1532
 
         parent_to_children) = self._expand_fileids_to_parents_and_children(
1533
 
                                specific_fileids)
1534
 
        # There is some overlap here, but we assume that all interesting items
1535
 
        # are in the _fileid_to_entry_cache because we had to read them to
1536
 
        # determine if they were a dir we wanted to recurse, or just a file
1537
 
        # This should give us all the entries we'll want to add, so start
1538
 
        # adding
1539
 
        other = Inventory(self.root_id)
1540
 
        other.root.revision = self.root.revision
1541
 
        other.revision_id = self.revision_id
1542
 
        if not interesting or not parent_to_children:
1543
 
            # empty filter, or filtering entrys that don't exist
1544
 
            # (if even 1 existed, then we would have populated
1545
 
            # parent_to_children with at least the tree root.)
1546
 
            return other
1547
 
        cache = self._fileid_to_entry_cache
1548
 
        remaining_children = collections.deque(parent_to_children[self.root_id])
1549
 
        while remaining_children:
1550
 
            file_id = remaining_children.popleft()
1551
 
            ie = cache[file_id]
1552
 
            if ie.kind == 'directory':
1553
 
                ie = ie.copy() # We create a copy to depopulate the .children attribute
1554
 
            # TODO: depending on the uses of 'other' we should probably alwyas
1555
 
            #       '.copy()' to prevent someone from mutating other and
1556
 
            #       invaliding our internal cache
1557
 
            other.add(ie)
1558
 
            if file_id in parent_to_children:
1559
 
                remaining_children.extend(parent_to_children[file_id])
1560
 
        return other
1561
 
 
1562
1506
    @staticmethod
1563
1507
    def _bytes_to_utf8name_key(bytes):
1564
1508
        """Get the file_id, revision_id key out of bytes."""
1566
1510
        # to filter out empty names because of non rich-root...
1567
1511
        sections = bytes.split('\n')
1568
1512
        kind, file_id = sections[0].split(': ')
1569
 
        return (sections[2], intern(file_id), intern(sections[3]))
 
1513
        return (sections[2], file_id, sections[3])
1570
1514
 
1571
1515
    def _bytes_to_entry(self, bytes):
1572
1516
        """Deserialise a serialised entry."""
1594
1538
            result.reference_revision = sections[4]
1595
1539
        else:
1596
1540
            raise ValueError("Not a serialised entry %r" % bytes)
1597
 
        result.file_id = intern(result.file_id)
1598
 
        result.revision = intern(sections[3])
1599
 
        if result.parent_id == '':
1600
 
            result.parent_id = None
1601
 
        self._fileid_to_entry_cache[result.file_id] = result
1602
 
        return result
1603
 
 
1604
 
    def _get_mutable_inventory(self):
1605
 
        """See CommonInventory._get_mutable_inventory."""
1606
 
        entries = self.iter_entries()
1607
 
        inv = Inventory(None, self.revision_id)
1608
 
        for path, inv_entry in entries:
1609
 
            inv.add(inv_entry.copy())
1610
 
        return inv
1611
 
 
1612
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1613
 
        propagate_caches=False):
1614
 
        """Create a new CHKInventory by applying inventory_delta to this one.
1615
 
 
1616
 
        See the inventory developers documentation for the theory behind
1617
 
        inventory deltas.
1618
 
 
1619
 
        :param inventory_delta: The inventory delta to apply. See
1620
 
            Inventory.apply_delta for details.
1621
 
        :param new_revision_id: The revision id of the resulting CHKInventory.
1622
 
        :param propagate_caches: If True, the caches for this inventory are
1623
 
          copied to and updated for the result.
1624
 
        :return: The new CHKInventory.
1625
 
        """
1626
 
        split = osutils.split
1627
 
        result = CHKInventory(self._search_key_name)
1628
 
        if propagate_caches:
1629
 
            # Just propagate the path-to-fileid cache for now
1630
 
            result._path_to_fileid_cache = dict(self._path_to_fileid_cache.iteritems())
1631
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1632
 
        self.id_to_entry._ensure_root()
1633
 
        maximum_size = self.id_to_entry._root_node.maximum_size
1634
 
        result.revision_id = new_revision_id
1635
 
        result.id_to_entry = chk_map.CHKMap(
1636
 
            self.id_to_entry._store,
1637
 
            self.id_to_entry.key(),
1638
 
            search_key_func=search_key_func)
1639
 
        result.id_to_entry._ensure_root()
1640
 
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
1641
 
        # Change to apply to the parent_id_basename delta. The dict maps
1642
 
        # (parent_id, basename) -> (old_key, new_value). We use a dict because
1643
 
        # when a path has its id replaced (e.g. the root is changed, or someone
1644
 
        # does bzr mv a b, bzr mv c a, we should output a single change to this
1645
 
        # map rather than two.
1646
 
        parent_id_basename_delta = {}
1647
 
        if self.parent_id_basename_to_file_id is not None:
1648
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1649
 
                self.parent_id_basename_to_file_id._store,
1650
 
                self.parent_id_basename_to_file_id.key(),
1651
 
                search_key_func=search_key_func)
1652
 
            result.parent_id_basename_to_file_id._ensure_root()
1653
 
            self.parent_id_basename_to_file_id._ensure_root()
1654
 
            result_p_id_root = result.parent_id_basename_to_file_id._root_node
1655
 
            p_id_root = self.parent_id_basename_to_file_id._root_node
1656
 
            result_p_id_root.set_maximum_size(p_id_root.maximum_size)
1657
 
            result_p_id_root._key_width = p_id_root._key_width
1658
 
        else:
1659
 
            result.parent_id_basename_to_file_id = None
1660
 
        result.root_id = self.root_id
1661
 
        id_to_entry_delta = []
1662
 
        # inventory_delta is only traversed once, so we just update the
1663
 
        # variable.
1664
 
        # Check for repeated file ids
1665
 
        inventory_delta = _check_delta_unique_ids(inventory_delta)
1666
 
        # Repeated old paths
1667
 
        inventory_delta = _check_delta_unique_old_paths(inventory_delta)
1668
 
        # Check for repeated new paths
1669
 
        inventory_delta = _check_delta_unique_new_paths(inventory_delta)
1670
 
        # Check for entries that don't match the fileid
1671
 
        inventory_delta = _check_delta_ids_match_entry(inventory_delta)
1672
 
        # Check for nonsense fileids
1673
 
        inventory_delta = _check_delta_ids_are_valid(inventory_delta)
1674
 
        # Check for new_path <-> entry consistency
1675
 
        inventory_delta = _check_delta_new_path_entry_both_or_None(
1676
 
            inventory_delta)
1677
 
        # All changed entries need to have their parents be directories and be
1678
 
        # at the right path. This set contains (path, id) tuples.
1679
 
        parents = set()
1680
 
        # When we delete an item, all the children of it must be either deleted
1681
 
        # or altered in their own right. As we batch process the change via
1682
 
        # CHKMap.apply_delta, we build a set of things to use to validate the
1683
 
        # delta.
1684
 
        deletes = set()
1685
 
        altered = set()
1686
 
        for old_path, new_path, file_id, entry in inventory_delta:
1687
 
            # file id changes
1688
 
            if new_path == '':
1689
 
                result.root_id = file_id
1690
 
            if new_path is None:
1691
 
                # Make a delete:
1692
 
                new_key = None
1693
 
                new_value = None
1694
 
                # Update caches
1695
 
                if propagate_caches:
1696
 
                    try:
1697
 
                        del result._path_to_fileid_cache[old_path]
1698
 
                    except KeyError:
1699
 
                        pass
1700
 
                deletes.add(file_id)
1701
 
            else:
1702
 
                new_key = StaticTuple(file_id,)
1703
 
                new_value = result._entry_to_bytes(entry)
1704
 
                # Update caches. It's worth doing this whether
1705
 
                # we're propagating the old caches or not.
1706
 
                result._path_to_fileid_cache[new_path] = file_id
1707
 
                parents.add((split(new_path)[0], entry.parent_id))
1708
 
            if old_path is None:
1709
 
                old_key = None
1710
 
            else:
1711
 
                old_key = StaticTuple(file_id,)
1712
 
                if self.id2path(file_id) != old_path:
1713
 
                    raise errors.InconsistentDelta(old_path, file_id,
1714
 
                        "Entry was at wrong other path %r." %
1715
 
                        self.id2path(file_id))
1716
 
                altered.add(file_id)
1717
 
            id_to_entry_delta.append(StaticTuple(old_key, new_key, new_value))
1718
 
            if result.parent_id_basename_to_file_id is not None:
1719
 
                # parent_id, basename changes
1720
 
                if old_path is None:
1721
 
                    old_key = None
1722
 
                else:
1723
 
                    old_entry = self[file_id]
1724
 
                    old_key = self._parent_id_basename_key(old_entry)
1725
 
                if new_path is None:
1726
 
                    new_key = None
1727
 
                    new_value = None
1728
 
                else:
1729
 
                    new_key = self._parent_id_basename_key(entry)
1730
 
                    new_value = file_id
1731
 
                # If the two keys are the same, the value will be unchanged
1732
 
                # as its always the file id for this entry.
1733
 
                if old_key != new_key:
1734
 
                    # Transform a change into explicit delete/add preserving
1735
 
                    # a possible match on the key from a different file id.
1736
 
                    if old_key is not None:
1737
 
                        parent_id_basename_delta.setdefault(
1738
 
                            old_key, [None, None])[0] = old_key
1739
 
                    if new_key is not None:
1740
 
                        parent_id_basename_delta.setdefault(
1741
 
                            new_key, [None, None])[1] = new_value
1742
 
        # validate that deletes are complete.
1743
 
        for file_id in deletes:
1744
 
            entry = self[file_id]
1745
 
            if entry.kind != 'directory':
1746
 
                continue
1747
 
            # This loop could potentially be better by using the id_basename
1748
 
            # map to just get the child file ids.
1749
 
            for child in entry.children.values():
1750
 
                if child.file_id not in altered:
1751
 
                    raise errors.InconsistentDelta(self.id2path(child.file_id),
1752
 
                        child.file_id, "Child not deleted or reparented when "
1753
 
                        "parent deleted.")
1754
 
        result.id_to_entry.apply_delta(id_to_entry_delta)
1755
 
        if parent_id_basename_delta:
1756
 
            # Transform the parent_id_basename delta data into a linear delta
1757
 
            # with only one record for a given key. Optimally this would allow
1758
 
            # re-keying, but its simpler to just output that as a delete+add
1759
 
            # to spend less time calculating the delta.
1760
 
            delta_list = []
1761
 
            for key, (old_key, value) in parent_id_basename_delta.iteritems():
1762
 
                if value is not None:
1763
 
                    delta_list.append((old_key, key, value))
1764
 
                else:
1765
 
                    delta_list.append((old_key, None, None))
1766
 
            result.parent_id_basename_to_file_id.apply_delta(delta_list)
1767
 
        parents.discard(('', None))
1768
 
        for parent_path, parent in parents:
1769
 
            try:
1770
 
                if result[parent].kind != 'directory':
1771
 
                    raise errors.InconsistentDelta(result.id2path(parent), parent,
1772
 
                        'Not a directory, but given children')
1773
 
            except errors.NoSuchId:
1774
 
                raise errors.InconsistentDelta("<unknown>", parent,
1775
 
                    "Parent is not present in resulting inventory.")
1776
 
            if result.path2id(parent_path) != parent:
1777
 
                raise errors.InconsistentDelta(parent_path, parent,
1778
 
                    "Parent has wrong path %r." % result.path2id(parent_path))
1779
 
        return result
1780
 
 
1781
 
    @classmethod
1782
 
    def deserialise(klass, chk_store, bytes, expected_revision_id):
1783
 
        """Deserialise a CHKInventory.
1784
 
 
1785
 
        :param chk_store: A CHK capable VersionedFiles instance.
1786
 
        :param bytes: The serialised bytes.
1787
 
        :param expected_revision_id: The revision ID we think this inventory is
1788
 
            for.
1789
 
        :return: A CHKInventory
1790
 
        """
1791
 
        lines = bytes.split('\n')
1792
 
        if lines[-1] != '':
1793
 
            raise AssertionError('bytes to deserialize must end with an eol')
1794
 
        lines.pop()
1795
 
        if lines[0] != 'chkinventory:':
1796
 
            raise ValueError("not a serialised CHKInventory: %r" % bytes)
1797
 
        info = {}
1798
 
        allowed_keys = frozenset(['root_id', 'revision_id', 'search_key_name',
1799
 
                                  'parent_id_basename_to_file_id',
1800
 
                                  'id_to_entry'])
1801
 
        for line in lines[1:]:
1802
 
            key, value = line.split(': ', 1)
1803
 
            if key not in allowed_keys:
1804
 
                raise errors.BzrError('Unknown key in inventory: %r\n%r'
1805
 
                                      % (key, bytes))
1806
 
            if key in info:
1807
 
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
1808
 
                                      % (key, bytes))
1809
 
            info[key] = value
1810
 
        revision_id = intern(info['revision_id'])
1811
 
        root_id = intern(info['root_id'])
1812
 
        search_key_name = intern(info.get('search_key_name', 'plain'))
1813
 
        parent_id_basename_to_file_id = intern(info.get(
1814
 
            'parent_id_basename_to_file_id', None))
1815
 
        if not parent_id_basename_to_file_id.startswith('sha1:'):
1816
 
            raise ValueError('parent_id_basename_to_file_id should be a sha1'
1817
 
                             ' key not %r' % (parent_id_basename_to_file_id,))
1818
 
        id_to_entry = info['id_to_entry']
1819
 
        if not id_to_entry.startswith('sha1:'):
1820
 
            raise ValueError('id_to_entry should be a sha1'
1821
 
                             ' key not %r' % (id_to_entry,))
1822
 
 
1823
 
        result = CHKInventory(search_key_name)
1824
 
        result.revision_id = revision_id
1825
 
        result.root_id = root_id
1826
 
        search_key_func = chk_map.search_key_registry.get(
1827
 
                            result._search_key_name)
1828
 
        if parent_id_basename_to_file_id is not None:
1829
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1830
 
                chk_store, StaticTuple(parent_id_basename_to_file_id,),
1831
 
                search_key_func=search_key_func)
1832
 
        else:
1833
 
            result.parent_id_basename_to_file_id = None
1834
 
 
1835
 
        result.id_to_entry = chk_map.CHKMap(chk_store,
1836
 
                                            StaticTuple(id_to_entry,),
1837
 
                                            search_key_func=search_key_func)
1838
 
        if (result.revision_id,) != expected_revision_id:
1839
 
            raise ValueError("Mismatched revision id and expected: %r, %r" %
1840
 
                (result.revision_id, expected_revision_id))
1841
 
        return result
1842
 
 
1843
 
    @classmethod
1844
 
    def from_inventory(klass, chk_store, inventory, maximum_size=0, search_key_name='plain'):
1845
 
        """Create a CHKInventory from an existing inventory.
1846
 
 
1847
 
        The content of inventory is copied into the chk_store, and a
1848
 
        CHKInventory referencing that is returned.
1849
 
 
1850
 
        :param chk_store: A CHK capable VersionedFiles instance.
1851
 
        :param inventory: The inventory to copy.
1852
 
        :param maximum_size: The CHKMap node size limit.
1853
 
        :param search_key_name: The identifier for the search key function
1854
 
        """
1855
 
        result = klass(search_key_name)
1856
 
        result.revision_id = inventory.revision_id
1857
 
        result.root_id = inventory.root.file_id
1858
 
 
1859
 
        entry_to_bytes = result._entry_to_bytes
1860
 
        parent_id_basename_key = result._parent_id_basename_key
1861
 
        id_to_entry_dict = {}
1862
 
        parent_id_basename_dict = {}
1863
 
        for path, entry in inventory.iter_entries():
1864
 
            key = StaticTuple(entry.file_id,).intern()
1865
 
            id_to_entry_dict[key] = entry_to_bytes(entry)
1866
 
            p_id_key = parent_id_basename_key(entry)
1867
 
            parent_id_basename_dict[p_id_key] = entry.file_id
1868
 
 
1869
 
        result._populate_from_dicts(chk_store, id_to_entry_dict,
1870
 
            parent_id_basename_dict, maximum_size=maximum_size)
1871
 
        return result
1872
 
 
1873
 
    def _populate_from_dicts(self, chk_store, id_to_entry_dict,
1874
 
                             parent_id_basename_dict, maximum_size):
1875
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1876
 
        root_key = chk_map.CHKMap.from_dict(chk_store, id_to_entry_dict,
1877
 
                   maximum_size=maximum_size, key_width=1,
1878
 
                   search_key_func=search_key_func)
1879
 
        self.id_to_entry = chk_map.CHKMap(chk_store, root_key,
1880
 
                                          search_key_func)
1881
 
        root_key = chk_map.CHKMap.from_dict(chk_store,
1882
 
                   parent_id_basename_dict,
1883
 
                   maximum_size=maximum_size, key_width=2,
1884
 
                   search_key_func=search_key_func)
1885
 
        self.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
1886
 
                                                    root_key, search_key_func)
1887
 
 
1888
 
    def _parent_id_basename_key(self, entry):
1889
 
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
1890
 
        if entry.parent_id is not None:
1891
 
            parent_id = entry.parent_id
1892
 
        else:
1893
 
            parent_id = ''
1894
 
        return StaticTuple(parent_id, entry.name.encode('utf8')).intern()
1895
 
 
1896
 
    def __getitem__(self, file_id):
1897
 
        """map a single file_id -> InventoryEntry."""
1898
 
        if file_id is None:
1899
 
            raise errors.NoSuchId(self, file_id)
1900
 
        result = self._fileid_to_entry_cache.get(file_id, None)
1901
 
        if result is not None:
1902
 
            return result
1903
 
        try:
1904
 
            return self._bytes_to_entry(
1905
 
                self.id_to_entry.iteritems([StaticTuple(file_id,)]).next()[1])
1906
 
        except StopIteration:
1907
 
            # really we're passing an inventory, not a tree...
1908
 
            raise errors.NoSuchId(self, file_id)
1909
 
 
1910
 
    def _getitems(self, file_ids):
1911
 
        """Similar to __getitem__, but lets you query for multiple.
1912
 
        
1913
 
        The returned order is undefined. And currently if an item doesn't
1914
 
        exist, it isn't included in the output.
1915
 
        """
1916
 
        result = []
1917
 
        remaining = []
1918
 
        for file_id in file_ids:
1919
 
            entry = self._fileid_to_entry_cache.get(file_id, None)
1920
 
            if entry is None:
1921
 
                remaining.append(file_id)
1922
 
            else:
1923
 
                result.append(entry)
1924
 
        file_keys = [StaticTuple(f,).intern() for f in remaining]
1925
 
        for file_key, value in self.id_to_entry.iteritems(file_keys):
1926
 
            entry = self._bytes_to_entry(value)
1927
 
            result.append(entry)
1928
 
            self._fileid_to_entry_cache[entry.file_id] = entry
1929
 
        return result
1930
 
 
1931
 
    def has_id(self, file_id):
1932
 
        # Perhaps have an explicit 'contains' method on CHKMap ?
1933
 
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
1934
 
            return True
1935
 
        return len(list(
1936
 
            self.id_to_entry.iteritems([StaticTuple(file_id,)]))) == 1
1937
 
 
1938
 
    def is_root(self, file_id):
1939
 
        return file_id == self.root_id
1940
 
 
1941
 
    def _iter_file_id_parents(self, file_id):
1942
 
        """Yield the parents of file_id up to the root."""
1943
 
        while file_id is not None:
1944
 
            try:
1945
 
                ie = self[file_id]
1946
 
            except KeyError:
1947
 
                raise errors.NoSuchId(tree=self, file_id=file_id)
1948
 
            yield ie
1949
 
            file_id = ie.parent_id
1950
 
 
1951
 
    def __iter__(self):
1952
 
        """Iterate over all file-ids."""
1953
 
        for key, _ in self.id_to_entry.iteritems():
1954
 
            yield key[-1]
1955
 
 
1956
 
    def iter_just_entries(self):
1957
 
        """Iterate over all entries.
1958
 
        
1959
 
        Unlike iter_entries(), just the entries are returned (not (path, ie))
1960
 
        and the order of entries is undefined.
1961
 
 
1962
 
        XXX: We may not want to merge this into bzr.dev.
1963
 
        """
1964
 
        for key, entry in self.id_to_entry.iteritems():
1965
 
            file_id = key[0]
1966
 
            ie = self._fileid_to_entry_cache.get(file_id, None)
1967
 
            if ie is None:
1968
 
                ie = self._bytes_to_entry(entry)
1969
 
                self._fileid_to_entry_cache[file_id] = ie
1970
 
            yield ie
1971
 
 
1972
 
    def iter_changes(self, basis):
1973
 
        """Generate a Tree.iter_changes change list between this and basis.
1974
 
 
1975
 
        :param basis: Another CHKInventory.
1976
 
        :return: An iterator over the changes between self and basis, as per
1977
 
            tree.iter_changes().
1978
 
        """
1979
 
        # We want: (file_id, (path_in_source, path_in_target),
1980
 
        # changed_content, versioned, parent, name, kind,
1981
 
        # executable)
1982
 
        for key, basis_value, self_value in \
1983
 
            self.id_to_entry.iter_changes(basis.id_to_entry):
1984
 
            file_id = key[0]
1985
 
            if basis_value is not None:
1986
 
                basis_entry = basis._bytes_to_entry(basis_value)
1987
 
                path_in_source = basis.id2path(file_id)
1988
 
                basis_parent = basis_entry.parent_id
1989
 
                basis_name = basis_entry.name
1990
 
                basis_executable = basis_entry.executable
1991
 
            else:
1992
 
                path_in_source = None
1993
 
                basis_parent = None
1994
 
                basis_name = None
1995
 
                basis_executable = None
1996
 
            if self_value is not None:
1997
 
                self_entry = self._bytes_to_entry(self_value)
1998
 
                path_in_target = self.id2path(file_id)
1999
 
                self_parent = self_entry.parent_id
2000
 
                self_name = self_entry.name
2001
 
                self_executable = self_entry.executable
2002
 
            else:
2003
 
                path_in_target = None
2004
 
                self_parent = None
2005
 
                self_name = None
2006
 
                self_executable = None
2007
 
            if basis_value is None:
2008
 
                # add
2009
 
                kind = (None, self_entry.kind)
2010
 
                versioned = (False, True)
2011
 
            elif self_value is None:
2012
 
                # delete
2013
 
                kind = (basis_entry.kind, None)
2014
 
                versioned = (True, False)
2015
 
            else:
2016
 
                kind = (basis_entry.kind, self_entry.kind)
2017
 
                versioned = (True, True)
2018
 
            changed_content = False
2019
 
            if kind[0] != kind[1]:
2020
 
                changed_content = True
2021
 
            elif kind[0] == 'file':
2022
 
                if (self_entry.text_size != basis_entry.text_size or
2023
 
                    self_entry.text_sha1 != basis_entry.text_sha1):
2024
 
                    changed_content = True
2025
 
            elif kind[0] == 'symlink':
2026
 
                if self_entry.symlink_target != basis_entry.symlink_target:
2027
 
                    changed_content = True
2028
 
            elif kind[0] == 'tree-reference':
2029
 
                if (self_entry.reference_revision !=
2030
 
                    basis_entry.reference_revision):
2031
 
                    changed_content = True
2032
 
            parent = (basis_parent, self_parent)
2033
 
            name = (basis_name, self_name)
2034
 
            executable = (basis_executable, self_executable)
2035
 
            if (not changed_content
2036
 
                and parent[0] == parent[1]
2037
 
                and name[0] == name[1]
2038
 
                and executable[0] == executable[1]):
2039
 
                # Could happen when only the revision changed for a directory
2040
 
                # for instance.
2041
 
                continue
2042
 
            yield (file_id, (path_in_source, path_in_target), changed_content,
2043
 
                versioned, parent, name, kind, executable)
2044
 
 
2045
 
    def __len__(self):
2046
 
        """Return the number of entries in the inventory."""
2047
 
        return len(self.id_to_entry)
2048
 
 
2049
 
    def _make_delta(self, old):
2050
 
        """Make an inventory delta from two inventories."""
2051
 
        if type(old) != CHKInventory:
2052
 
            return CommonInventory._make_delta(self, old)
2053
 
        delta = []
2054
 
        for key, old_value, self_value in \
2055
 
            self.id_to_entry.iter_changes(old.id_to_entry):
2056
 
            file_id = key[0]
2057
 
            if old_value is not None:
2058
 
                old_path = old.id2path(file_id)
2059
 
            else:
2060
 
                old_path = None
2061
 
            if self_value is not None:
2062
 
                entry = self._bytes_to_entry(self_value)
2063
 
                self._fileid_to_entry_cache[file_id] = entry
2064
 
                new_path = self.id2path(file_id)
2065
 
            else:
2066
 
                entry = None
2067
 
                new_path = None
2068
 
            delta.append((old_path, new_path, file_id, entry))
2069
 
        return delta
2070
 
 
2071
 
    def path2id(self, relpath):
2072
 
        """See CommonInventory.path2id()."""
2073
 
        # TODO: perhaps support negative hits?
2074
 
        result = self._path_to_fileid_cache.get(relpath, None)
2075
 
        if result is not None:
2076
 
            return result
2077
 
        if isinstance(relpath, basestring):
2078
 
            names = osutils.splitpath(relpath)
2079
 
        else:
2080
 
            names = relpath
2081
 
        current_id = self.root_id
2082
 
        if current_id is None:
2083
 
            return None
2084
 
        parent_id_index = self.parent_id_basename_to_file_id
2085
 
        cur_path = None
2086
 
        for basename in names:
2087
 
            if cur_path is None:
2088
 
                cur_path = basename
2089
 
            else:
2090
 
                cur_path = cur_path + '/' + basename
2091
 
            basename_utf8 = basename.encode('utf8')
2092
 
            file_id = self._path_to_fileid_cache.get(cur_path, None)
2093
 
            if file_id is None:
2094
 
                key_filter = [StaticTuple(current_id, basename_utf8)]
2095
 
                items = parent_id_index.iteritems(key_filter)
2096
 
                for (parent_id, name_utf8), file_id in items:
2097
 
                    if parent_id != current_id or name_utf8 != basename_utf8:
2098
 
                        raise errors.BzrError("corrupt inventory lookup! "
2099
 
                            "%r %r %r %r" % (parent_id, current_id, name_utf8,
2100
 
                            basename_utf8))
2101
 
                if file_id is None:
2102
 
                    return None
2103
 
                else:
2104
 
                    self._path_to_fileid_cache[cur_path] = file_id
2105
 
            current_id = file_id
2106
 
        return current_id
2107
 
 
2108
 
    def to_lines(self):
2109
 
        """Serialise the inventory to lines."""
2110
 
        lines = ["chkinventory:\n"]
2111
 
        if self._search_key_name != 'plain':
2112
 
            # custom ordering grouping things that don't change together
2113
 
            lines.append('search_key_name: %s\n' % (self._search_key_name,))
2114
 
            lines.append("root_id: %s\n" % self.root_id)
2115
 
            lines.append('parent_id_basename_to_file_id: %s\n' %
2116
 
                (self.parent_id_basename_to_file_id.key()[0],))
2117
 
            lines.append("revision_id: %s\n" % self.revision_id)
2118
 
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
2119
 
        else:
2120
 
            lines.append("revision_id: %s\n" % self.revision_id)
2121
 
            lines.append("root_id: %s\n" % self.root_id)
2122
 
            if self.parent_id_basename_to_file_id is not None:
2123
 
                lines.append('parent_id_basename_to_file_id: %s\n' %
2124
 
                    (self.parent_id_basename_to_file_id.key()[0],))
2125
 
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
2126
 
        return lines
2127
 
 
2128
 
    @property
2129
 
    def root(self):
2130
 
        """Get the root entry."""
2131
 
        return self[self.root_id]
2132
 
 
2133
 
 
2134
 
class CHKInventoryDirectory(InventoryDirectory):
2135
 
    """A directory in an inventory."""
2136
 
 
2137
 
    __slots__ = ['_children', '_chk_inventory']
2138
 
 
2139
 
    def __init__(self, file_id, name, parent_id, chk_inventory):
2140
 
        # Don't call InventoryDirectory.__init__ - it isn't right for this
2141
 
        # class.
2142
 
        InventoryEntry.__init__(self, file_id, name, parent_id)
2143
 
        self._children = None
2144
 
        self._chk_inventory = chk_inventory
2145
 
 
2146
 
    @property
2147
 
    def children(self):
2148
 
        """Access the list of children of this directory.
2149
 
 
2150
 
        With a parent_id_basename_to_file_id index, loads all the children,
2151
 
        without loads the entire index. Without is bad. A more sophisticated
2152
 
        proxy object might be nice, to allow partial loading of children as
2153
 
        well when specific names are accessed. (So path traversal can be
2154
 
        written in the obvious way but not examine siblings.).
2155
 
        """
2156
 
        if self._children is not None:
2157
 
            return self._children
2158
 
        # No longer supported
2159
 
        if self._chk_inventory.parent_id_basename_to_file_id is None:
2160
 
            raise AssertionError("Inventories without"
2161
 
                " parent_id_basename_to_file_id are no longer supported")
2162
 
        result = {}
2163
 
        # XXX: Todo - use proxy objects for the children rather than loading
2164
 
        # all when the attribute is referenced.
2165
 
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
2166
 
        child_keys = set()
2167
 
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
2168
 
            key_filter=[StaticTuple(self.file_id,)]):
2169
 
            child_keys.add(StaticTuple(file_id,))
2170
 
        cached = set()
2171
 
        for file_id_key in child_keys:
2172
 
            entry = self._chk_inventory._fileid_to_entry_cache.get(
2173
 
                file_id_key[0], None)
2174
 
            if entry is not None:
2175
 
                result[entry.name] = entry
2176
 
                cached.add(file_id_key)
2177
 
        child_keys.difference_update(cached)
2178
 
        # populate; todo: do by name
2179
 
        id_to_entry = self._chk_inventory.id_to_entry
2180
 
        for file_id_key, bytes in id_to_entry.iteritems(child_keys):
2181
 
            entry = self._chk_inventory._bytes_to_entry(bytes)
2182
 
            result[entry.name] = entry
2183
 
            self._chk_inventory._fileid_to_entry_cache[file_id_key[0]] = entry
2184
 
        self._children = result
2185
 
        return result
 
1541
        result.revision = sections[3]
 
1542
        if result.parent_id == '':
 
1543
            result.parent_id = None
 
1544
        self._fileid_to_entry_cache[result.file_id] = result
 
1545
        return result
 
1546
 
 
1547
    def _get_mutable_inventory(self):
 
1548
        """See CommonInventory._get_mutable_inventory."""
 
1549
        entries = self.iter_entries()
 
1550
        if self.root_id is not None:
 
1551
            entries.next()
 
1552
        inv = Inventory(self.root_id, self.revision_id)
 
1553
        for path, inv_entry in entries:
 
1554
            inv.add(inv_entry)
 
1555
        return inv
 
1556
 
 
1557
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
 
1558
        propagate_caches=False):
 
1559
        """Create a new CHKInventory by applying inventory_delta to this one.
 
1560
 
 
1561
        :param inventory_delta: The inventory delta to apply. See
 
1562
            Inventory.apply_delta for details.
 
1563
        :param new_revision_id: The revision id of the resulting CHKInventory.
 
1564
        :param propagate_caches: If True, the caches for this inventory are
 
1565
          copied to and updated for the result.
 
1566
        :return: The new CHKInventory.
 
1567
        """
 
1568
        result = CHKInventory(self._search_key_name)
 
1569
        if propagate_caches:
 
1570
            # Just propagate the path-to-fileid cache for now
 
1571
            result._path_to_fileid_cache = dict(self._path_to_fileid_cache.iteritems())
 
1572
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
 
1573
        self.id_to_entry._ensure_root()
 
1574
        maximum_size = self.id_to_entry._root_node.maximum_size
 
1575
        result.revision_id = new_revision_id
 
1576
        result.id_to_entry = chk_map.CHKMap(
 
1577
            self.id_to_entry._store,
 
1578
            self.id_to_entry.key(),
 
1579
            search_key_func=search_key_func)
 
1580
        result.id_to_entry._ensure_root()
 
1581
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
 
1582
        parent_id_basename_delta = []
 
1583
        if self.parent_id_basename_to_file_id is not None:
 
1584
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
 
1585
                self.parent_id_basename_to_file_id._store,
 
1586
                self.parent_id_basename_to_file_id.key(),
 
1587
                search_key_func=search_key_func)
 
1588
            result.parent_id_basename_to_file_id._ensure_root()
 
1589
            self.parent_id_basename_to_file_id._ensure_root()
 
1590
            result_p_id_root = result.parent_id_basename_to_file_id._root_node
 
1591
            p_id_root = self.parent_id_basename_to_file_id._root_node
 
1592
            result_p_id_root.set_maximum_size(p_id_root.maximum_size)
 
1593
            result_p_id_root._key_width = p_id_root._key_width
 
1594
        else:
 
1595
            result.parent_id_basename_to_file_id = None
 
1596
        result.root_id = self.root_id
 
1597
        id_to_entry_delta = []
 
1598
        for old_path, new_path, file_id, entry in inventory_delta:
 
1599
            # file id changes
 
1600
            if new_path == '':
 
1601
                result.root_id = file_id
 
1602
            if new_path is None:
 
1603
                # Make a delete:
 
1604
                new_key = None
 
1605
                new_value = None
 
1606
                # Update caches
 
1607
                if propagate_caches:
 
1608
                    try:
 
1609
                        del result._path_to_fileid_cache[old_path]
 
1610
                    except KeyError:
 
1611
                        pass
 
1612
            else:
 
1613
                new_key = (file_id,)
 
1614
                new_value = result._entry_to_bytes(entry)
 
1615
                # Update caches. It's worth doing this whether
 
1616
                # we're propagating the old caches or not.
 
1617
                result._path_to_fileid_cache[new_path] = file_id
 
1618
            if old_path is None:
 
1619
                old_key = None
 
1620
            else:
 
1621
                old_key = (file_id,)
 
1622
            id_to_entry_delta.append((old_key, new_key, new_value))
 
1623
            if result.parent_id_basename_to_file_id is not None:
 
1624
                # parent_id, basename changes
 
1625
                if old_path is None:
 
1626
                    old_key = None
 
1627
                else:
 
1628
                    old_entry = self[file_id]
 
1629
                    old_key = self._parent_id_basename_key(old_entry)
 
1630
                if new_path is None:
 
1631
                    new_key = None
 
1632
                    new_value = None
 
1633
                else:
 
1634
                    new_key = self._parent_id_basename_key(entry)
 
1635
                    new_value = file_id
 
1636
                if old_key != new_key:
 
1637
                    # If the two keys are the same, the value will be unchanged
 
1638
                    # as its always the file id.
 
1639
                    parent_id_basename_delta.append((old_key, new_key, new_value))
 
1640
        result.id_to_entry.apply_delta(id_to_entry_delta)
 
1641
        if parent_id_basename_delta:
 
1642
            result.parent_id_basename_to_file_id.apply_delta(parent_id_basename_delta)
 
1643
        return result
 
1644
 
 
1645
    @classmethod
 
1646
    def deserialise(klass, chk_store, bytes, expected_revision_id):
 
1647
        """Deserialise a CHKInventory.
 
1648
 
 
1649
        :param chk_store: A CHK capable VersionedFiles instance.
 
1650
        :param bytes: The serialised bytes.
 
1651
        :param expected_revision_id: The revision ID we think this inventory is
 
1652
            for.
 
1653
        :return: A CHKInventory
 
1654
        """
 
1655
        lines = bytes.split('\n')
 
1656
        assert lines[-1] == ''
 
1657
        lines.pop()
 
1658
        if lines[0] != 'chkinventory:':
 
1659
            raise ValueError("not a serialised CHKInventory: %r" % bytes)
 
1660
        info = {}
 
1661
        allowed_keys = frozenset(['root_id', 'revision_id', 'search_key_name',
 
1662
                                  'parent_id_basename_to_file_id',
 
1663
                                  'id_to_entry'])
 
1664
        for line in lines[1:]:
 
1665
            key, value = line.split(': ', 1)
 
1666
            if key not in allowed_keys:
 
1667
                raise errors.BzrError('Unknown key in inventory: %r\n%r'
 
1668
                                      % (key, bytes))
 
1669
            if key in info:
 
1670
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
 
1671
                                      % (key, bytes))
 
1672
            info[key] = value
 
1673
        revision_id = info['revision_id']
 
1674
        root_id = info['root_id']
 
1675
        search_key_name = info.get('search_key_name', 'plain')
 
1676
        parent_id_basename_to_file_id = info.get(
 
1677
            'parent_id_basename_to_file_id', None)
 
1678
        id_to_entry = info['id_to_entry']
 
1679
 
 
1680
        result = CHKInventory(search_key_name)
 
1681
        result.revision_id = revision_id
 
1682
        result.root_id = root_id
 
1683
        search_key_func = chk_map.search_key_registry.get(
 
1684
                            result._search_key_name)
 
1685
        if parent_id_basename_to_file_id is not None:
 
1686
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
 
1687
                chk_store, (parent_id_basename_to_file_id,),
 
1688
                search_key_func=search_key_func)
 
1689
        else:
 
1690
            result.parent_id_basename_to_file_id = None
 
1691
 
 
1692
        result.id_to_entry = chk_map.CHKMap(chk_store, (id_to_entry,),
 
1693
                                            search_key_func=search_key_func)
 
1694
        if (result.revision_id,) != expected_revision_id:
 
1695
            raise ValueError("Mismatched revision id and expected: %r, %r" %
 
1696
                (result.revision_id, expected_revision_id))
 
1697
        return result
 
1698
 
 
1699
    @classmethod
 
1700
    def from_inventory(klass, chk_store, inventory, maximum_size=0, search_key_name='plain'):
 
1701
        """Create a CHKInventory from an existing inventory.
 
1702
 
 
1703
        The content of inventory is copied into the chk_store, and a
 
1704
        CHKInventory referencing that is returned.
 
1705
 
 
1706
        :param chk_store: A CHK capable VersionedFiles instance.
 
1707
        :param inventory: The inventory to copy.
 
1708
        :param maximum_size: The CHKMap node size limit.
 
1709
        :param search_key_name: The identifier for the search key function
 
1710
        """
 
1711
        result = CHKInventory(search_key_name)
 
1712
        result.revision_id = inventory.revision_id
 
1713
        result.root_id = inventory.root.file_id
 
1714
        search_key_func = chk_map.search_key_registry.get(search_key_name)
 
1715
        result.id_to_entry = chk_map.CHKMap(chk_store, None, search_key_func)
 
1716
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
 
1717
        file_id_delta = []
 
1718
        result.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
 
1719
            None, search_key_func)
 
1720
        result.parent_id_basename_to_file_id._root_node.set_maximum_size(
 
1721
            maximum_size)
 
1722
        result.parent_id_basename_to_file_id._root_node._key_width = 2
 
1723
        parent_id_delta = []
 
1724
        for path, entry in inventory.iter_entries():
 
1725
            file_id_delta.append((None, (entry.file_id,),
 
1726
                result._entry_to_bytes(entry)))
 
1727
            parent_id_delta.append(
 
1728
                (None, result._parent_id_basename_key(entry),
 
1729
                 entry.file_id))
 
1730
        result.id_to_entry.apply_delta(file_id_delta)
 
1731
        result.parent_id_basename_to_file_id.apply_delta(parent_id_delta)
 
1732
        return result
 
1733
 
 
1734
    def _parent_id_basename_key(self, entry):
 
1735
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
 
1736
        if entry.parent_id is not None:
 
1737
            parent_id = entry.parent_id
 
1738
        else:
 
1739
            parent_id = ''
 
1740
        return parent_id, entry.name.encode('utf8')
 
1741
 
 
1742
    def __getitem__(self, file_id):
 
1743
        """map a single file_id -> InventoryEntry."""
 
1744
        if file_id is None:
 
1745
            raise errors.NoSuchId(self, file_id)
 
1746
        result = self._fileid_to_entry_cache.get(file_id, None)
 
1747
        if result is not None:
 
1748
            return result
 
1749
        try:
 
1750
            return self._bytes_to_entry(
 
1751
                self.id_to_entry.iteritems([(file_id,)]).next()[1])
 
1752
        except StopIteration:
 
1753
            # really we're passing an inventory, not a tree...
 
1754
            raise errors.NoSuchId(self, file_id)
 
1755
 
 
1756
    def has_id(self, file_id):
 
1757
        # Perhaps have an explicit 'contains' method on CHKMap ?
 
1758
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
 
1759
            return True
 
1760
        return len(list(self.id_to_entry.iteritems([(file_id,)]))) == 1
 
1761
 
 
1762
    def is_root(self, file_id):
 
1763
        return file_id == self.root_id
 
1764
 
 
1765
    def _iter_file_id_parents(self, file_id):
 
1766
        """Yield the parents of file_id up to the root."""
 
1767
        while file_id is not None:
 
1768
            try:
 
1769
                ie = self[file_id]
 
1770
            except KeyError:
 
1771
                raise errors.NoSuchId(tree=self, file_id=file_id)
 
1772
            yield ie
 
1773
            file_id = ie.parent_id
 
1774
 
 
1775
    def __iter__(self):
 
1776
        """Iterate over all file-ids."""
 
1777
        for key, _ in self.id_to_entry.iteritems():
 
1778
            yield key[-1]
 
1779
 
 
1780
    def iter_just_entries(self):
 
1781
        """Iterate over all entries.
 
1782
        
 
1783
        Unlike iter_entries(), just the entries are returned (not (path, ie))
 
1784
        and the order of entries is undefined.
 
1785
 
 
1786
        XXX: We may not want to merge this into bzr.dev.
 
1787
        """
 
1788
        for key, entry in self.id_to_entry.iteritems():
 
1789
            file_id = key[0]
 
1790
            ie = self._fileid_to_entry_cache.get(file_id, None)
 
1791
            if ie is None:
 
1792
                ie = self._bytes_to_entry(entry)
 
1793
                self._fileid_to_entry_cache[file_id] = ie
 
1794
            yield ie
 
1795
 
 
1796
    def iter_changes(self, basis):
 
1797
        """Generate a Tree.iter_changes change list between this and basis.
 
1798
 
 
1799
        :param basis: Another CHKInventory.
 
1800
        :return: An iterator over the changes between self and basis, as per
 
1801
            tree.iter_changes().
 
1802
        """
 
1803
        # We want: (file_id, (path_in_source, path_in_target),
 
1804
        # changed_content, versioned, parent, name, kind,
 
1805
        # executable)
 
1806
        for key, basis_value, self_value in \
 
1807
            self.id_to_entry.iter_changes(basis.id_to_entry):
 
1808
            file_id = key[0]
 
1809
            if basis_value is not None:
 
1810
                basis_entry = basis._bytes_to_entry(basis_value)
 
1811
                path_in_source = basis.id2path(file_id)
 
1812
                basis_parent = basis_entry.parent_id
 
1813
                basis_name = basis_entry.name
 
1814
                basis_executable = basis_entry.executable
 
1815
            else:
 
1816
                path_in_source = None
 
1817
                basis_parent = None
 
1818
                basis_name = None
 
1819
                basis_executable = None
 
1820
            if self_value is not None:
 
1821
                self_entry = self._bytes_to_entry(self_value)
 
1822
                path_in_target = self.id2path(file_id)
 
1823
                self_parent = self_entry.parent_id
 
1824
                self_name = self_entry.name
 
1825
                self_executable = self_entry.executable
 
1826
            else:
 
1827
                path_in_target = None
 
1828
                self_parent = None
 
1829
                self_name = None
 
1830
                self_executable = None
 
1831
            if basis_value is None:
 
1832
                # add
 
1833
                kind = (None, self_entry.kind)
 
1834
                versioned = (False, True)
 
1835
            elif self_value is None:
 
1836
                # delete
 
1837
                kind = (basis_entry.kind, None)
 
1838
                versioned = (True, False)
 
1839
            else:
 
1840
                kind = (basis_entry.kind, self_entry.kind)
 
1841
                versioned = (True, True)
 
1842
            changed_content = False
 
1843
            if kind[0] != kind[1]:
 
1844
                changed_content = True
 
1845
            elif kind[0] == 'file':
 
1846
                if (self_entry.text_size != basis_entry.text_size or
 
1847
                    self_entry.text_sha1 != basis_entry.text_sha1):
 
1848
                    changed_content = True
 
1849
            elif kind[0] == 'symlink':
 
1850
                if self_entry.symlink_target != basis_entry.symlink_target:
 
1851
                    changed_content = True
 
1852
            elif kind[0] == 'tree-reference':
 
1853
                if (self_entry.reference_revision !=
 
1854
                    basis_entry.reference_revision):
 
1855
                    changed_content = True
 
1856
            parent = (basis_parent, self_parent)
 
1857
            name = (basis_name, self_name)
 
1858
            executable = (basis_executable, self_executable)
 
1859
            if (not changed_content
 
1860
                and parent[0] == parent[1]
 
1861
                and name[0] == name[1]
 
1862
                and executable[0] == executable[1]):
 
1863
                # Could happen when only the revision changed for a directory
 
1864
                # for instance.
 
1865
                continue
 
1866
            yield (file_id, (path_in_source, path_in_target), changed_content,
 
1867
                versioned, parent, name, kind, executable)
 
1868
 
 
1869
    def __len__(self):
 
1870
        """Return the number of entries in the inventory."""
 
1871
        return len(self.id_to_entry)
 
1872
 
 
1873
    def _make_delta(self, old):
 
1874
        """Make an inventory delta from two inventories."""
 
1875
        if type(old) != CHKInventory:
 
1876
            return CommonInventory._make_delta(self, old)
 
1877
        delta = []
 
1878
        for key, old_value, self_value in \
 
1879
            self.id_to_entry.iter_changes(old.id_to_entry):
 
1880
            file_id = key[0]
 
1881
            if old_value is not None:
 
1882
                old_path = old.id2path(file_id)
 
1883
            else:
 
1884
                old_path = None
 
1885
            if self_value is not None:
 
1886
                entry = self._bytes_to_entry(self_value)
 
1887
                self._fileid_to_entry_cache[file_id] = entry
 
1888
                new_path = self.id2path(file_id)
 
1889
            else:
 
1890
                entry = None
 
1891
                new_path = None
 
1892
            delta.append((old_path, new_path, file_id, entry))
 
1893
        return delta
 
1894
 
 
1895
    def path2id(self, name):
 
1896
        """See CommonInventory.path2id()."""
 
1897
        result = self._path_to_fileid_cache.get(name, None)
 
1898
        if result is None:
 
1899
            result = CommonInventory.path2id(self, name)
 
1900
            self._path_to_fileid_cache[name] = result
 
1901
        return result
 
1902
 
 
1903
    def to_lines(self):
 
1904
        """Serialise the inventory to lines."""
 
1905
        lines = ["chkinventory:\n"]
 
1906
        if self._search_key_name != 'plain':
 
1907
            # custom ordering grouping things that don't change together
 
1908
            lines.append('search_key_name: %s\n' % (self._search_key_name,))
 
1909
            lines.append("root_id: %s\n" % self.root_id)
 
1910
            lines.append('parent_id_basename_to_file_id: %s\n' %
 
1911
                self.parent_id_basename_to_file_id.key())
 
1912
            lines.append("revision_id: %s\n" % self.revision_id)
 
1913
            lines.append("id_to_entry: %s\n" % self.id_to_entry.key())
 
1914
        else:
 
1915
            lines.append("revision_id: %s\n" % self.revision_id)
 
1916
            lines.append("root_id: %s\n" % self.root_id)
 
1917
            if self.parent_id_basename_to_file_id is not None:
 
1918
                lines.append('parent_id_basename_to_file_id: %s\n' %
 
1919
                    self.parent_id_basename_to_file_id.key())
 
1920
            lines.append("id_to_entry: %s\n" % self.id_to_entry.key())
 
1921
        return lines
 
1922
 
 
1923
    @property
 
1924
    def root(self):
 
1925
        """Get the root entry."""
 
1926
        return self[self.root_id]
 
1927
 
 
1928
 
 
1929
class CHKInventoryDirectory(InventoryDirectory):
 
1930
    """A directory in an inventory."""
 
1931
 
 
1932
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
1933
                 'text_id', 'parent_id', '_children', 'executable',
 
1934
                 'revision', 'symlink_target', 'reference_revision',
 
1935
                 '_chk_inventory']
 
1936
 
 
1937
    def __init__(self, file_id, name, parent_id, chk_inventory):
 
1938
        # Don't call InventoryDirectory.__init__ - it isn't right for this
 
1939
        # class.
 
1940
        InventoryEntry.__init__(self, file_id, name, parent_id)
 
1941
        self._children = None
 
1942
        self.kind = 'directory'
 
1943
        self._chk_inventory = chk_inventory
 
1944
 
 
1945
    @property
 
1946
    def children(self):
 
1947
        """Access the list of children of this directory.
 
1948
 
 
1949
        With a parent_id_basename_to_file_id index, loads all the children,
 
1950
        without loads the entire index. Without is bad. A more sophisticated
 
1951
        proxy object might be nice, to allow partial loading of children as
 
1952
        well when specific names are accessed. (So path traversal can be
 
1953
        written in the obvious way but not examine siblings.).
 
1954
        """
 
1955
        if self._children is not None:
 
1956
            return self._children
 
1957
        # No longer supported
 
1958
        if self._chk_inventory.parent_id_basename_to_file_id is None:
 
1959
            raise AssertionError("Inventories without"
 
1960
                " parent_id_basename_to_file_id are no longer supported")
 
1961
        result = {}
 
1962
        # XXX: Todo - use proxy objects for the children rather than loading
 
1963
        # all when the attribute is referenced.
 
1964
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
 
1965
        child_keys = set()
 
1966
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
 
1967
            key_filter=[(self.file_id,)]):
 
1968
            child_keys.add((file_id,))
 
1969
        cached = set()
 
1970
        for file_id_key in child_keys:
 
1971
            entry = self._chk_inventory._fileid_to_entry_cache.get(
 
1972
                file_id_key[0], None)
 
1973
            if entry is not None:
 
1974
                result[entry.name] = entry
 
1975
                cached.add(file_id_key)
 
1976
        child_keys.difference_update(cached)
 
1977
        # populate; todo: do by name
 
1978
        id_to_entry = self._chk_inventory.id_to_entry
 
1979
        for file_id_key, bytes in id_to_entry.iteritems(child_keys):
 
1980
            entry = self._chk_inventory._bytes_to_entry(bytes)
 
1981
            result[entry.name] = entry
 
1982
            self._chk_inventory._fileid_to_entry_cache[file_id_key[0]] = entry
 
1983
        self._children = result
 
1984
        return result
 
1985
 
 
1986
 
 
1987
class CHKInventory(CommonInventory):
 
1988
    """An inventory persisted in a CHK store.
 
1989
 
 
1990
    By design, a CHKInventory is immutable so many of the methods
 
1991
    supported by Inventory - add, rename, apply_delta, etc - are *not*
 
1992
    supported. To create a new CHKInventory, use create_by_apply_delta()
 
1993
    or from_inventory(), say.
 
1994
 
 
1995
    Internally, a CHKInventory has one or two CHKMaps:
 
1996
 
 
1997
    * id_to_entry - a map from (file_id,) => InventoryEntry as bytes
 
1998
    * parent_id_basename_to_file_id - a map from (parent_id, basename_utf8)
 
1999
        => file_id as bytes
 
2000
 
 
2001
    The second map is optional and not present in early CHkRepository's.
 
2002
 
 
2003
    No caching is performed: every method call or item access will perform
 
2004
    requests to the storage layer. As such, keep references to objects you
 
2005
    want to reuse.
 
2006
    """
 
2007
 
 
2008
    def __init__(self, search_key_name):
 
2009
        CommonInventory.__init__(self)
 
2010
        self._fileid_to_entry_cache = {}
 
2011
        self._path_to_fileid_cache = {}
 
2012
        self._search_key_name = search_key_name
 
2013
 
 
2014
    def _entry_to_bytes(self, entry):
 
2015
        """Serialise entry as a single bytestring.
 
2016
 
 
2017
        :param Entry: An inventory entry.
 
2018
        :return: A bytestring for the entry.
 
2019
 
 
2020
        The BNF:
 
2021
        ENTRY ::= FILE | DIR | SYMLINK | TREE
 
2022
        FILE ::= "file: " COMMON SEP SHA SEP SIZE SEP EXECUTABLE
 
2023
        DIR ::= "dir: " COMMON
 
2024
        SYMLINK ::= "symlink: " COMMON SEP TARGET_UTF8
 
2025
        TREE ::= "tree: " COMMON REFERENCE_REVISION
 
2026
        COMMON ::= FILE_ID SEP PARENT_ID SEP NAME_UTF8 SEP REVISION
 
2027
        SEP ::= "\n"
 
2028
        """
 
2029
        if entry.parent_id is not None:
 
2030
            parent_str = entry.parent_id
 
2031
        else:
 
2032
            parent_str = ''
 
2033
        name_str = entry.name.encode("utf8")
 
2034
        if entry.kind == 'file':
 
2035
            if entry.executable:
 
2036
                exec_str = "Y"
 
2037
            else:
 
2038
                exec_str = "N"
 
2039
            return "file: %s\n%s\n%s\n%s\n%s\n%d\n%s" % (
 
2040
                entry.file_id, parent_str, name_str, entry.revision,
 
2041
                entry.text_sha1, entry.text_size, exec_str)
 
2042
        elif entry.kind == 'directory':
 
2043
            return "dir: %s\n%s\n%s\n%s" % (
 
2044
                entry.file_id, parent_str, name_str, entry.revision)
 
2045
        elif entry.kind == 'symlink':
 
2046
            return "symlink: %s\n%s\n%s\n%s\n%s" % (
 
2047
                entry.file_id, parent_str, name_str, entry.revision,
 
2048
                entry.symlink_target.encode("utf8"))
 
2049
        elif entry.kind == 'tree-reference':
 
2050
            return "tree: %s\n%s\n%s\n%s\n%s" % (
 
2051
                entry.file_id, parent_str, name_str, entry.revision,
 
2052
                entry.reference_revision)
 
2053
        else:
 
2054
            raise ValueError("unknown kind %r" % entry.kind)
 
2055
 
 
2056
    def _bytes_to_entry(self, bytes):
 
2057
        """Deserialise a serialised entry."""
 
2058
        sections = bytes.split('\n')
 
2059
        if sections[0].startswith("file: "):
 
2060
            result = InventoryFile(sections[0][6:],
 
2061
                sections[2].decode('utf8'),
 
2062
                sections[1])
 
2063
            result.text_sha1 = sections[4]
 
2064
            result.text_size = int(sections[5])
 
2065
            result.executable = sections[6] == "Y"
 
2066
        elif sections[0].startswith("dir: "):
 
2067
            result = CHKInventoryDirectory(sections[0][5:],
 
2068
                sections[2].decode('utf8'),
 
2069
                sections[1], self)
 
2070
        elif sections[0].startswith("symlink: "):
 
2071
            result = InventoryLink(sections[0][9:],
 
2072
                sections[2].decode('utf8'),
 
2073
                sections[1])
 
2074
            result.symlink_target = sections[4]
 
2075
        elif sections[0].startswith("tree: "):
 
2076
            result = TreeReference(sections[0][6:],
 
2077
                sections[2].decode('utf8'),
 
2078
                sections[1])
 
2079
            result.reference_revision = sections[4]
 
2080
        else:
 
2081
            raise ValueError("Not a serialised entry %r" % bytes)
 
2082
        result.revision = sections[3]
 
2083
        if result.parent_id == '':
 
2084
            result.parent_id = None
 
2085
        self._fileid_to_entry_cache[result.file_id] = result
 
2086
        return result
 
2087
 
 
2088
    def _get_mutable_inventory(self):
 
2089
        """See CommonInventory._get_mutable_inventory."""
 
2090
        entries = self.iter_entries()
 
2091
        if self.root_id is not None:
 
2092
            entries.next()
 
2093
        inv = Inventory(self.root_id, self.revision_id)
 
2094
        for path, inv_entry in entries:
 
2095
            inv.add(inv_entry)
 
2096
        return inv
 
2097
 
 
2098
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
 
2099
        propagate_caches=False):
 
2100
        """Create a new CHKInventory by applying inventory_delta to this one.
 
2101
 
 
2102
        :param inventory_delta: The inventory delta to apply. See
 
2103
            Inventory.apply_delta for details.
 
2104
        :param new_revision_id: The revision id of the resulting CHKInventory.
 
2105
        :param propagate_caches: If True, the caches for this inventory are
 
2106
          copied to and updated for the result.
 
2107
        :return: The new CHKInventory.
 
2108
        """
 
2109
        result = CHKInventory(self._search_key_name)
 
2110
        if propagate_caches:
 
2111
            # Just propagate the path-to-fileid cache for now
 
2112
            result._path_to_fileid_cache = dict(self._path_to_fileid_cache.iteritems())
 
2113
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
 
2114
        self.id_to_entry._ensure_root()
 
2115
        maximum_size = self.id_to_entry._root_node.maximum_size
 
2116
        result.revision_id = new_revision_id
 
2117
        result.id_to_entry = chk_map.CHKMap(
 
2118
            self.id_to_entry._store,
 
2119
            self.id_to_entry.key(),
 
2120
            search_key_func=search_key_func)
 
2121
        result.id_to_entry._ensure_root()
 
2122
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
 
2123
        parent_id_basename_delta = []
 
2124
        if self.parent_id_basename_to_file_id is not None:
 
2125
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
 
2126
                self.parent_id_basename_to_file_id._store,
 
2127
                self.parent_id_basename_to_file_id.key(),
 
2128
                search_key_func=search_key_func)
 
2129
            result.parent_id_basename_to_file_id._ensure_root()
 
2130
            self.parent_id_basename_to_file_id._ensure_root()
 
2131
            result_p_id_root = result.parent_id_basename_to_file_id._root_node
 
2132
            p_id_root = self.parent_id_basename_to_file_id._root_node
 
2133
            result_p_id_root.set_maximum_size(p_id_root.maximum_size)
 
2134
            result_p_id_root._key_width = p_id_root._key_width
 
2135
        else:
 
2136
            result.parent_id_basename_to_file_id = None
 
2137
        result.root_id = self.root_id
 
2138
        id_to_entry_delta = []
 
2139
        for old_path, new_path, file_id, entry in inventory_delta:
 
2140
            # file id changes
 
2141
            if new_path == '':
 
2142
                result.root_id = file_id
 
2143
            if new_path is None:
 
2144
                # Make a delete:
 
2145
                new_key = None
 
2146
                new_value = None
 
2147
                # Update caches
 
2148
                if propagate_caches:
 
2149
                    try:
 
2150
                        del result._path_to_fileid_cache[old_path]
 
2151
                    except KeyError:
 
2152
                        pass
 
2153
            else:
 
2154
                new_key = (file_id,)
 
2155
                new_value = result._entry_to_bytes(entry)
 
2156
                # Update caches. It's worth doing this whether
 
2157
                # we're propagating the old caches or not.
 
2158
                result._path_to_fileid_cache[new_path] = file_id
 
2159
            if old_path is None:
 
2160
                old_key = None
 
2161
            else:
 
2162
                old_key = (file_id,)
 
2163
            id_to_entry_delta.append((old_key, new_key, new_value))
 
2164
            if result.parent_id_basename_to_file_id is not None:
 
2165
                # parent_id, basename changes
 
2166
                if old_path is None:
 
2167
                    old_key = None
 
2168
                else:
 
2169
                    old_entry = self[file_id]
 
2170
                    old_key = self._parent_id_basename_key(old_entry)
 
2171
                if new_path is None:
 
2172
                    new_key = None
 
2173
                    new_value = None
 
2174
                else:
 
2175
                    new_key = self._parent_id_basename_key(entry)
 
2176
                    new_value = file_id
 
2177
                if old_key != new_key:
 
2178
                    # If the two keys are the same, the value will be unchanged
 
2179
                    # as its always the file id.
 
2180
                    parent_id_basename_delta.append((old_key, new_key, new_value))
 
2181
        result.id_to_entry.apply_delta(id_to_entry_delta)
 
2182
        if parent_id_basename_delta:
 
2183
            result.parent_id_basename_to_file_id.apply_delta(parent_id_basename_delta)
 
2184
        return result
 
2185
 
 
2186
    @classmethod
 
2187
    def deserialise(klass, chk_store, bytes, expected_revision_id):
 
2188
        """Deserialise a CHKInventory.
 
2189
 
 
2190
        :param chk_store: A CHK capable VersionedFiles instance.
 
2191
        :param bytes: The serialised bytes.
 
2192
        :param expected_revision_id: The revision ID we think this inventory is
 
2193
            for.
 
2194
        :return: A CHKInventory
 
2195
        """
 
2196
        lines = bytes.split('\n')
 
2197
        assert lines[-1] == ''
 
2198
        lines.pop()
 
2199
        if lines[0] != 'chkinventory:':
 
2200
            raise ValueError("not a serialised CHKInventory: %r" % bytes)
 
2201
        info = {}
 
2202
        allowed_keys = frozenset(['root_id', 'revision_id', 'search_key_name',
 
2203
                                  'parent_id_basename_to_file_id',
 
2204
                                  'id_to_entry'])
 
2205
        for line in lines[1:]:
 
2206
            key, value = line.split(': ', 1)
 
2207
            if key not in allowed_keys:
 
2208
                raise errors.BzrError('Unknown key in inventory: %r\n%r'
 
2209
                                      % (key, bytes))
 
2210
            if key in info:
 
2211
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
 
2212
                                      % (key, bytes))
 
2213
            info[key] = value
 
2214
        revision_id = info['revision_id']
 
2215
        root_id = info['root_id']
 
2216
        search_key_name = info.get('search_key_name', 'plain')
 
2217
        parent_id_basename_to_file_id = info.get(
 
2218
            'parent_id_basename_to_file_id', None)
 
2219
        id_to_entry = info['id_to_entry']
 
2220
 
 
2221
        result = CHKInventory(search_key_name)
 
2222
        result.revision_id = revision_id
 
2223
        result.root_id = root_id
 
2224
        search_key_func = chk_map.search_key_registry.get(
 
2225
                            result._search_key_name)
 
2226
        if parent_id_basename_to_file_id is not None:
 
2227
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
 
2228
                chk_store, (parent_id_basename_to_file_id,),
 
2229
                search_key_func=search_key_func)
 
2230
        else:
 
2231
            result.parent_id_basename_to_file_id = None
 
2232
 
 
2233
        result.id_to_entry = chk_map.CHKMap(chk_store, (id_to_entry,),
 
2234
                                            search_key_func=search_key_func)
 
2235
        if (result.revision_id,) != expected_revision_id:
 
2236
            raise ValueError("Mismatched revision id and expected: %r, %r" %
 
2237
                (result.revision_id, expected_revision_id))
 
2238
        return result
 
2239
 
 
2240
    @classmethod
 
2241
    def from_inventory(klass, chk_store, inventory, maximum_size=0, search_key_name='plain'):
 
2242
        """Create a CHKInventory from an existing inventory.
 
2243
 
 
2244
        The content of inventory is copied into the chk_store, and a
 
2245
        CHKInventory referencing that is returned.
 
2246
 
 
2247
        :param chk_store: A CHK capable VersionedFiles instance.
 
2248
        :param inventory: The inventory to copy.
 
2249
        :param maximum_size: The CHKMap node size limit.
 
2250
        :param search_key_name: The identifier for the search key function
 
2251
        """
 
2252
        result = CHKInventory(search_key_name)
 
2253
        result.revision_id = inventory.revision_id
 
2254
        result.root_id = inventory.root.file_id
 
2255
        search_key_func = chk_map.search_key_registry.get(search_key_name)
 
2256
        result.id_to_entry = chk_map.CHKMap(chk_store, None, search_key_func)
 
2257
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
 
2258
        file_id_delta = []
 
2259
        result.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
 
2260
            None, search_key_func)
 
2261
        result.parent_id_basename_to_file_id._root_node.set_maximum_size(
 
2262
            maximum_size)
 
2263
        result.parent_id_basename_to_file_id._root_node._key_width = 2
 
2264
        parent_id_delta = []
 
2265
        for path, entry in inventory.iter_entries():
 
2266
            file_id_delta.append((None, (entry.file_id,),
 
2267
                result._entry_to_bytes(entry)))
 
2268
            parent_id_delta.append(
 
2269
                (None, result._parent_id_basename_key(entry),
 
2270
                 entry.file_id))
 
2271
        result.id_to_entry.apply_delta(file_id_delta)
 
2272
        result.parent_id_basename_to_file_id.apply_delta(parent_id_delta)
 
2273
        return result
 
2274
 
 
2275
    def _parent_id_basename_key(self, entry):
 
2276
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
 
2277
        if entry.parent_id is not None:
 
2278
            parent_id = entry.parent_id
 
2279
        else:
 
2280
            parent_id = ''
 
2281
        return parent_id, entry.name.encode('utf8')
 
2282
 
 
2283
    def __getitem__(self, file_id):
 
2284
        """map a single file_id -> InventoryEntry."""
 
2285
        if file_id is None:
 
2286
            raise errors.NoSuchId(self, file_id)
 
2287
        result = self._fileid_to_entry_cache.get(file_id, None)
 
2288
        if result is not None:
 
2289
            return result
 
2290
        try:
 
2291
            return self._bytes_to_entry(
 
2292
                self.id_to_entry.iteritems([(file_id,)]).next()[1])
 
2293
        except StopIteration:
 
2294
            # really we're passing an inventory, not a tree...
 
2295
            raise errors.NoSuchId(self, file_id)
 
2296
 
 
2297
    def has_id(self, file_id):
 
2298
        # Perhaps have an explicit 'contains' method on CHKMap ?
 
2299
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
 
2300
            return True
 
2301
        return len(list(self.id_to_entry.iteritems([(file_id,)]))) == 1
 
2302
 
 
2303
    def is_root(self, file_id):
 
2304
        return file_id == self.root_id
 
2305
 
 
2306
    def _iter_file_id_parents(self, file_id):
 
2307
        """Yield the parents of file_id up to the root."""
 
2308
        while file_id is not None:
 
2309
            try:
 
2310
                ie = self[file_id]
 
2311
            except KeyError:
 
2312
                raise errors.NoSuchId(tree=self, file_id=file_id)
 
2313
            yield ie
 
2314
            file_id = ie.parent_id
 
2315
 
 
2316
    def __iter__(self):
 
2317
        """Iterate over all file-ids."""
 
2318
        for key, _ in self.id_to_entry.iteritems():
 
2319
            yield key[-1]
 
2320
 
 
2321
    def iter_just_entries(self):
 
2322
        """Iterate over all entries.
 
2323
        
 
2324
        Unlike iter_entries(), just the entries are returned (not (path, ie))
 
2325
        and the order of entries is undefined.
 
2326
 
 
2327
        XXX: We may not want to merge this into bzr.dev.
 
2328
        """
 
2329
        for key, entry in self.id_to_entry.iteritems():
 
2330
            file_id = key[0]
 
2331
            ie = self._fileid_to_entry_cache.get(file_id, None)
 
2332
            if ie is None:
 
2333
                ie = self._bytes_to_entry(entry)
 
2334
                self._fileid_to_entry_cache[file_id] = ie
 
2335
            yield ie
 
2336
 
 
2337
    def iter_changes(self, basis):
 
2338
        """Generate a Tree.iter_changes change list between this and basis.
 
2339
 
 
2340
        :param basis: Another CHKInventory.
 
2341
        :return: An iterator over the changes between self and basis, as per
 
2342
            tree.iter_changes().
 
2343
        """
 
2344
        # We want: (file_id, (path_in_source, path_in_target),
 
2345
        # changed_content, versioned, parent, name, kind,
 
2346
        # executable)
 
2347
        for key, basis_value, self_value in \
 
2348
            self.id_to_entry.iter_changes(basis.id_to_entry):
 
2349
            file_id = key[0]
 
2350
            if basis_value is not None:
 
2351
                basis_entry = basis._bytes_to_entry(basis_value)
 
2352
                path_in_source = basis.id2path(file_id)
 
2353
                basis_parent = basis_entry.parent_id
 
2354
                basis_name = basis_entry.name
 
2355
                basis_executable = basis_entry.executable
 
2356
            else:
 
2357
                path_in_source = None
 
2358
                basis_parent = None
 
2359
                basis_name = None
 
2360
                basis_executable = None
 
2361
            if self_value is not None:
 
2362
                self_entry = self._bytes_to_entry(self_value)
 
2363
                path_in_target = self.id2path(file_id)
 
2364
                self_parent = self_entry.parent_id
 
2365
                self_name = self_entry.name
 
2366
                self_executable = self_entry.executable
 
2367
            else:
 
2368
                path_in_target = None
 
2369
                self_parent = None
 
2370
                self_name = None
 
2371
                self_executable = None
 
2372
            if basis_value is None:
 
2373
                # add
 
2374
                kind = (None, self_entry.kind)
 
2375
                versioned = (False, True)
 
2376
            elif self_value is None:
 
2377
                # delete
 
2378
                kind = (basis_entry.kind, None)
 
2379
                versioned = (True, False)
 
2380
            else:
 
2381
                kind = (basis_entry.kind, self_entry.kind)
 
2382
                versioned = (True, True)
 
2383
            changed_content = False
 
2384
            if kind[0] != kind[1]:
 
2385
                changed_content = True
 
2386
            elif kind[0] == 'file':
 
2387
                if (self_entry.text_size != basis_entry.text_size or
 
2388
                    self_entry.text_sha1 != basis_entry.text_sha1):
 
2389
                    changed_content = True
 
2390
            elif kind[0] == 'symlink':
 
2391
                if self_entry.symlink_target != basis_entry.symlink_target:
 
2392
                    changed_content = True
 
2393
            elif kind[0] == 'tree-reference':
 
2394
                if (self_entry.reference_revision !=
 
2395
                    basis_entry.reference_revision):
 
2396
                    changed_content = True
 
2397
            parent = (basis_parent, self_parent)
 
2398
            name = (basis_name, self_name)
 
2399
            executable = (basis_executable, self_executable)
 
2400
            if (not changed_content
 
2401
                and parent[0] == parent[1]
 
2402
                and name[0] == name[1]
 
2403
                and executable[0] == executable[1]):
 
2404
                # Could happen when only the revision changed for a directory
 
2405
                # for instance.
 
2406
                continue
 
2407
            yield (file_id, (path_in_source, path_in_target), changed_content,
 
2408
                versioned, parent, name, kind, executable)
 
2409
 
 
2410
    def __len__(self):
 
2411
        """Return the number of entries in the inventory."""
 
2412
        return len(self.id_to_entry)
 
2413
 
 
2414
    def _make_delta(self, old):
 
2415
        """Make an inventory delta from two inventories."""
 
2416
        if type(old) != CHKInventory:
 
2417
            return CommonInventory._make_delta(self, old)
 
2418
        delta = []
 
2419
        for key, old_value, self_value in \
 
2420
            self.id_to_entry.iter_changes(old.id_to_entry):
 
2421
            file_id = key[0]
 
2422
            if old_value is not None:
 
2423
                old_path = old.id2path(file_id)
 
2424
            else:
 
2425
                old_path = None
 
2426
            if self_value is not None:
 
2427
                entry = self._bytes_to_entry(self_value)
 
2428
                self._fileid_to_entry_cache[file_id] = entry
 
2429
                new_path = self.id2path(file_id)
 
2430
            else:
 
2431
                entry = None
 
2432
                new_path = None
 
2433
            delta.append((old_path, new_path, file_id, entry))
 
2434
        return delta
 
2435
 
 
2436
    def path2id(self, name):
 
2437
        """See CommonInventory.path2id()."""
 
2438
        result = self._path_to_fileid_cache.get(name, None)
 
2439
        if result is None:
 
2440
            result = CommonInventory.path2id(self, name)
 
2441
            self._path_to_fileid_cache[name] = result
 
2442
        return result
 
2443
 
 
2444
    def to_lines(self):
 
2445
        """Serialise the inventory to lines."""
 
2446
        lines = ["chkinventory:\n"]
 
2447
        if self._search_key_name != 'plain':
 
2448
            # custom ordering grouping things that don't change together
 
2449
            lines.append('search_key_name: %s\n' % (self._search_key_name,))
 
2450
            lines.append("root_id: %s\n" % self.root_id)
 
2451
            lines.append('parent_id_basename_to_file_id: %s\n' %
 
2452
                self.parent_id_basename_to_file_id.key())
 
2453
            lines.append("revision_id: %s\n" % self.revision_id)
 
2454
            lines.append("id_to_entry: %s\n" % self.id_to_entry.key())
 
2455
        else:
 
2456
            lines.append("revision_id: %s\n" % self.revision_id)
 
2457
            lines.append("root_id: %s\n" % self.root_id)
 
2458
            if self.parent_id_basename_to_file_id is not None:
 
2459
                lines.append('parent_id_basename_to_file_id: %s\n' %
 
2460
                    self.parent_id_basename_to_file_id.key())
 
2461
            lines.append("id_to_entry: %s\n" % self.id_to_entry.key())
 
2462
        return lines
 
2463
 
 
2464
    @property
 
2465
    def root(self):
 
2466
        """Get the root entry."""
 
2467
        return self[self.root_id]
 
2468
 
 
2469
 
 
2470
class CHKInventoryDirectory(InventoryDirectory):
 
2471
    """A directory in an inventory."""
 
2472
 
 
2473
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
2474
                 'text_id', 'parent_id', '_children', 'executable',
 
2475
                 'revision', 'symlink_target', 'reference_revision',
 
2476
                 '_chk_inventory']
 
2477
 
 
2478
    def __init__(self, file_id, name, parent_id, chk_inventory):
 
2479
        # Don't call InventoryDirectory.__init__ - it isn't right for this
 
2480
        # class.
 
2481
        InventoryEntry.__init__(self, file_id, name, parent_id)
 
2482
        self._children = None
 
2483
        self.kind = 'directory'
 
2484
        self._chk_inventory = chk_inventory
 
2485
 
 
2486
    @property
 
2487
    def children(self):
 
2488
        """Access the list of children of this directory.
 
2489
 
 
2490
        With a parent_id_basename_to_file_id index, loads all the children,
 
2491
        without loads the entire index. Without is bad. A more sophisticated
 
2492
        proxy object might be nice, to allow partial loading of children as
 
2493
        well when specific names are accessed. (So path traversal can be
 
2494
        written in the obvious way but not examine siblings.).
 
2495
        """
 
2496
        if self._children is not None:
 
2497
            return self._children
 
2498
        # No longer supported
 
2499
        if self._chk_inventory.parent_id_basename_to_file_id is None:
 
2500
            raise AssertionError("Inventories without"
 
2501
                " parent_id_basename_to_file_id are no longer supported")
 
2502
        result = {}
 
2503
        # XXX: Todo - use proxy objects for the children rather than loading
 
2504
        # all when the attribute is referenced.
 
2505
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
 
2506
        child_keys = set()
 
2507
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
 
2508
            key_filter=[(self.file_id,)]):
 
2509
            child_keys.add((file_id,))
 
2510
        cached = set()
 
2511
        for file_id_key in child_keys:
 
2512
            entry = self._chk_inventory._fileid_to_entry_cache.get(
 
2513
                file_id_key[0], None)
 
2514
            if entry is not None:
 
2515
                result[entry.name] = entry
 
2516
                cached.add(file_id_key)
 
2517
        child_keys.difference_update(cached)
 
2518
        # populate; todo: do by name
 
2519
        id_to_entry = self._chk_inventory.id_to_entry
 
2520
        for file_id_key, bytes in id_to_entry.iteritems(child_keys):
 
2521
            entry = self._chk_inventory._bytes_to_entry(bytes)
 
2522
            result[entry.name] = entry
 
2523
            self._chk_inventory._fileid_to_entry_cache[file_id_key[0]] = entry
 
2524
        self._children = result
 
2525
        return result
 
2526
 
2186
2527
 
2187
2528
entry_factory = {
2188
2529
    'directory': InventoryDirectory,
2205
2546
    try:
2206
2547
        factory = entry_factory[kind]
2207
2548
    except KeyError:
2208
 
        raise errors.BadFileKindError(name, kind)
 
2549
        raise BzrError("unknown kind %r" % kind)
2209
2550
    return factory(file_id, name, parent_id)
2210
2551
 
2211
2552
 
2239
2580
        _NAME_RE = re.compile(r'^[^/\\]+$')
2240
2581
 
2241
2582
    return bool(_NAME_RE.match(name))
2242
 
 
2243
 
 
2244
 
def _check_delta_unique_ids(delta):
2245
 
    """Decorate a delta and check that the file ids in it are unique.
2246
 
 
2247
 
    :return: A generator over delta.
2248
 
    """
2249
 
    ids = set()
2250
 
    for item in delta:
2251
 
        length = len(ids) + 1
2252
 
        ids.add(item[2])
2253
 
        if len(ids) != length:
2254
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2255
 
                "repeated file_id")
2256
 
        yield item
2257
 
 
2258
 
 
2259
 
def _check_delta_unique_new_paths(delta):
2260
 
    """Decorate a delta and check that the new paths in it are unique.
2261
 
 
2262
 
    :return: A generator over delta.
2263
 
    """
2264
 
    paths = set()
2265
 
    for item in delta:
2266
 
        length = len(paths) + 1
2267
 
        path = item[1]
2268
 
        if path is not None:
2269
 
            paths.add(path)
2270
 
            if len(paths) != length:
2271
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2272
 
        yield item
2273
 
 
2274
 
 
2275
 
def _check_delta_unique_old_paths(delta):
2276
 
    """Decorate a delta and check that the old paths in it are unique.
2277
 
 
2278
 
    :return: A generator over delta.
2279
 
    """
2280
 
    paths = set()
2281
 
    for item in delta:
2282
 
        length = len(paths) + 1
2283
 
        path = item[0]
2284
 
        if path is not None:
2285
 
            paths.add(path)
2286
 
            if len(paths) != length:
2287
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2288
 
        yield item
2289
 
 
2290
 
 
2291
 
def _check_delta_ids_are_valid(delta):
2292
 
    """Decorate a delta and check that the ids in it are valid.
2293
 
 
2294
 
    :return: A generator over delta.
2295
 
    """
2296
 
    for item in delta:
2297
 
        entry = item[3]
2298
 
        if item[2] is None:
2299
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2300
 
                "entry with file_id None %r" % entry)
2301
 
        if type(item[2]) != str:
2302
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2303
 
                "entry with non bytes file_id %r" % entry)
2304
 
        yield item
2305
 
 
2306
 
 
2307
 
def _check_delta_ids_match_entry(delta):
2308
 
    """Decorate a delta and check that the ids in it match the entry.file_id.
2309
 
 
2310
 
    :return: A generator over delta.
2311
 
    """
2312
 
    for item in delta:
2313
 
        entry = item[3]
2314
 
        if entry is not None:
2315
 
            if entry.file_id != item[2]:
2316
 
                raise errors.InconsistentDelta(item[0] or item[1], item[2],
2317
 
                    "mismatched id with %r" % entry)
2318
 
        yield item
2319
 
 
2320
 
 
2321
 
def _check_delta_new_path_entry_both_or_None(delta):
2322
 
    """Decorate a delta and check that the new_path and entry are paired.
2323
 
 
2324
 
    :return: A generator over delta.
2325
 
    """
2326
 
    for item in delta:
2327
 
        new_path = item[1]
2328
 
        entry = item[3]
2329
 
        if new_path is None and entry is not None:
2330
 
            raise errors.InconsistentDelta(item[0], item[1],
2331
 
                "Entry with no new_path")
2332
 
        if new_path is not None and entry is None:
2333
 
            raise errors.InconsistentDelta(new_path, item[1],
2334
 
                "new_path with no entry")
2335
 
        yield item