~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/inventory.py

  • Committer: John Arbash Meinel
  • Date: 2009-06-19 17:53:37 UTC
  • mto: This revision was merged to the branch mainline in revision 4466.
  • Revision ID: john@arbash-meinel.com-20090619175337-uozt3bntdd48lh4z
Update time_graph to use X:1 ratios rather than 0.xxx ratios.
It is just easier to track now that the new code is much faster.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
27
27
# created, but it's not for now.
28
28
ROOT_ID = "TREE_ROOT"
29
29
 
 
30
from copy import deepcopy
 
31
 
30
32
from bzrlib.lazy_import import lazy_import
31
33
lazy_import(globals(), """
32
34
import collections
33
 
import copy
34
35
import os
35
36
import re
36
37
import tarfile
37
38
 
 
39
import bzrlib
38
40
from bzrlib import (
39
41
    chk_map,
40
42
    errors,
41
43
    generate_ids,
42
44
    osutils,
 
45
    symbol_versioning,
 
46
    workingtree,
43
47
    )
44
48
""")
45
49
 
47
51
    BzrCheckError,
48
52
    BzrError,
49
53
    )
 
54
from bzrlib.symbol_versioning import deprecated_in, deprecated_method
50
55
from bzrlib.trace import mutter
51
 
from bzrlib.static_tuple import StaticTuple
52
56
 
53
57
 
54
58
class InventoryEntry(object):
128
132
    RENAMED = 'renamed'
129
133
    MODIFIED_AND_RENAMED = 'modified and renamed'
130
134
 
131
 
    __slots__ = ['file_id', 'revision', 'parent_id', 'name']
132
 
 
133
 
    # Attributes that all InventoryEntry instances are expected to have, but
134
 
    # that don't vary for all kinds of entry.  (e.g. symlink_target is only
135
 
    # relevant to InventoryLink, so there's no reason to make every
136
 
    # InventoryFile instance allocate space to hold a value for it.)
137
 
    # Attributes that only vary for files: executable, text_sha1, text_size,
138
 
    # text_id
139
 
    executable = False
140
 
    text_sha1 = None
141
 
    text_size = None
142
 
    text_id = None
143
 
    # Attributes that only vary for symlinks: symlink_target
144
 
    symlink_target = None
145
 
    # Attributes that only vary for tree-references: reference_revision
146
 
    reference_revision = None
147
 
 
 
135
    __slots__ = []
148
136
 
149
137
    def detect_changes(self, old_entry):
150
138
        """Return a (text_modified, meta_modified) from this to old_entry.
189
177
                    candidates[ie.revision] = ie
190
178
        return candidates
191
179
 
 
180
    @deprecated_method(deprecated_in((1, 6, 0)))
 
181
    def get_tar_item(self, root, dp, now, tree):
 
182
        """Get a tarfile item and a file stream for its content."""
 
183
        item = tarfile.TarInfo(osutils.pathjoin(root, dp).encode('utf8'))
 
184
        # TODO: would be cool to actually set it to the timestamp of the
 
185
        # revision it was last changed
 
186
        item.mtime = now
 
187
        fileobj = self._put_in_tar(item, tree)
 
188
        return item, fileobj
 
189
 
192
190
    def has_text(self):
193
191
        """Return true if the object this entry represents has textual data.
194
192
 
200
198
        """
201
199
        return False
202
200
 
203
 
    def __init__(self, file_id, name, parent_id):
 
201
    def __init__(self, file_id, name, parent_id, text_id=None):
204
202
        """Create an InventoryEntry
205
203
 
206
204
        The filename must be a single component, relative to the
217
215
        """
218
216
        if '/' in name or '\\' in name:
219
217
            raise errors.InvalidEntryName(name=name)
 
218
        self.executable = False
 
219
        self.revision = None
 
220
        self.text_sha1 = None
 
221
        self.text_size = None
220
222
        self.file_id = file_id
221
 
        self.revision = None
222
223
        self.name = name
 
224
        self.text_id = text_id
223
225
        self.parent_id = parent_id
 
226
        self.symlink_target = None
 
227
        self.reference_revision = None
224
228
 
225
229
    def kind_character(self):
226
230
        """Return a short kind indicator useful for appending to names."""
228
232
 
229
233
    known_kinds = ('file', 'directory', 'symlink')
230
234
 
 
235
    def _put_in_tar(self, item, tree):
 
236
        """populate item for stashing in a tar, and return the content stream.
 
237
 
 
238
        If no content is available, return None.
 
239
        """
 
240
        raise BzrError("don't know how to export {%s} of kind %r" %
 
241
                       (self.file_id, self.kind))
 
242
 
 
243
    @deprecated_method(deprecated_in((1, 6, 0)))
 
244
    def put_on_disk(self, dest, dp, tree):
 
245
        """Create a representation of self on disk in the prefix dest.
 
246
 
 
247
        This is a template method - implement _put_on_disk in subclasses.
 
248
        """
 
249
        fullpath = osutils.pathjoin(dest, dp)
 
250
        self._put_on_disk(fullpath, tree)
 
251
        # mutter("  export {%s} kind %s to %s", self.file_id,
 
252
        #         self.kind, fullpath)
 
253
 
 
254
    def _put_on_disk(self, fullpath, tree):
 
255
        """Put this entry onto disk at fullpath, from tree tree."""
 
256
        raise BzrError("don't know how to export {%s} of kind %r" % (self.file_id, self.kind))
 
257
 
231
258
    def sorted_children(self):
232
259
        return sorted(self.children.items())
233
260
 
235
262
    def versionable_kind(kind):
236
263
        return (kind in ('file', 'directory', 'symlink', 'tree-reference'))
237
264
 
238
 
    def check(self, checker, rev_id, inv):
 
265
    def check(self, checker, rev_id, inv, tree):
239
266
        """Check this inventory entry is intact.
240
267
 
241
268
        This is a template method, override _check for kind specific
247
274
        :param rev_id: Revision id from which this InventoryEntry was loaded.
248
275
             Not necessarily the last-changed revision for this file.
249
276
        :param inv: Inventory from which the entry was loaded.
 
277
        :param tree: RevisionTree for this entry.
250
278
        """
251
279
        if self.parent_id is not None:
252
280
            if not inv.has_id(self.parent_id):
253
281
                raise BzrCheckError('missing parent {%s} in inventory for revision {%s}'
254
282
                        % (self.parent_id, rev_id))
255
 
        checker._add_entry_to_text_key_references(inv, self)
256
 
        self._check(checker, rev_id)
 
283
        self._check(checker, rev_id, tree)
257
284
 
258
 
    def _check(self, checker, rev_id):
 
285
    def _check(self, checker, rev_id, tree):
259
286
        """Check this inventory entry for kind specific errors."""
260
 
        checker._report_items.append(
261
 
            'unknown entry kind %r in revision {%s}' % (self.kind, rev_id))
 
287
        raise BzrCheckError('unknown entry kind %r in revision {%s}' %
 
288
                            (self.kind, rev_id))
262
289
 
263
290
    def copy(self):
264
291
        """Clone this inventory entry."""
371
398
        pass
372
399
 
373
400
 
 
401
class RootEntry(InventoryEntry):
 
402
 
 
403
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
404
                 'text_id', 'parent_id', 'children', 'executable',
 
405
                 'revision', 'symlink_target', 'reference_revision']
 
406
 
 
407
    def _check(self, checker, rev_id, tree):
 
408
        """See InventoryEntry._check"""
 
409
 
 
410
    def __init__(self, file_id):
 
411
        self.file_id = file_id
 
412
        self.children = {}
 
413
        self.kind = 'directory'
 
414
        self.parent_id = None
 
415
        self.name = u''
 
416
        self.revision = None
 
417
        symbol_versioning.warn('RootEntry is deprecated as of bzr 0.10.'
 
418
                               '  Please use InventoryDirectory instead.',
 
419
                               DeprecationWarning, stacklevel=2)
 
420
 
 
421
    def __eq__(self, other):
 
422
        if not isinstance(other, RootEntry):
 
423
            return NotImplemented
 
424
 
 
425
        return (self.file_id == other.file_id) \
 
426
               and (self.children == other.children)
 
427
 
 
428
 
374
429
class InventoryDirectory(InventoryEntry):
375
430
    """A directory in an inventory."""
376
431
 
377
 
    __slots__ = ['children']
378
 
 
379
 
    kind = 'directory'
380
 
 
381
 
    def _check(self, checker, rev_id):
 
432
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
433
                 'text_id', 'parent_id', 'children', 'executable',
 
434
                 'revision', 'symlink_target', 'reference_revision']
 
435
 
 
436
    def _check(self, checker, rev_id, tree):
382
437
        """See InventoryEntry._check"""
383
 
        # In non rich root repositories we do not expect a file graph for the
384
 
        # root.
385
 
        if self.name == '' and not checker.rich_roots:
386
 
            return
387
 
        # Directories are stored as an empty file, but the file should exist
388
 
        # to provide a per-fileid log. The hash of every directory content is
389
 
        # "da..." below (the sha1sum of '').
390
 
        checker.add_pending_item(rev_id,
391
 
            ('texts', self.file_id, self.revision), 'text',
392
 
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
 
438
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
 
439
            raise BzrCheckError('directory {%s} has text in revision {%s}'
 
440
                                % (self.file_id, rev_id))
393
441
 
394
442
    def copy(self):
395
443
        other = InventoryDirectory(self.file_id, self.name, self.parent_id)
401
449
    def __init__(self, file_id, name, parent_id):
402
450
        super(InventoryDirectory, self).__init__(file_id, name, parent_id)
403
451
        self.children = {}
 
452
        self.kind = 'directory'
404
453
 
405
454
    def kind_character(self):
406
455
        """See InventoryEntry.kind_character."""
407
456
        return '/'
408
457
 
 
458
    def _put_in_tar(self, item, tree):
 
459
        """See InventoryEntry._put_in_tar."""
 
460
        item.type = tarfile.DIRTYPE
 
461
        fileobj = None
 
462
        item.name += '/'
 
463
        item.size = 0
 
464
        item.mode = 0755
 
465
        return fileobj
 
466
 
 
467
    def _put_on_disk(self, fullpath, tree):
 
468
        """See InventoryEntry._put_on_disk."""
 
469
        os.mkdir(fullpath)
 
470
 
409
471
 
410
472
class InventoryFile(InventoryEntry):
411
473
    """A file in an inventory."""
412
474
 
413
 
    __slots__ = ['text_sha1', 'text_size', 'text_id', 'executable']
414
 
 
415
 
    kind = 'file'
416
 
 
417
 
    def __init__(self, file_id, name, parent_id):
418
 
        super(InventoryFile, self).__init__(file_id, name, parent_id)
419
 
        self.text_sha1 = None
420
 
        self.text_size = None
421
 
        self.text_id = None
422
 
        self.executable = False
423
 
 
424
 
    def _check(self, checker, tree_revision_id):
 
475
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
476
                 'text_id', 'parent_id', 'children', 'executable',
 
477
                 'revision', 'symlink_target', 'reference_revision']
 
478
 
 
479
    def _check(self, checker, tree_revision_id, tree):
425
480
        """See InventoryEntry._check"""
426
 
        # TODO: check size too.
427
 
        checker.add_pending_item(tree_revision_id,
428
 
            ('texts', self.file_id, self.revision), 'text',
429
 
             self.text_sha1)
430
 
        if self.text_size is None:
431
 
            checker._report_items.append(
432
 
                'fileid {%s} in {%s} has None for text_size' % (self.file_id,
433
 
                tree_revision_id))
 
481
        key = (self.file_id, self.revision)
 
482
        if key in checker.checked_texts:
 
483
            prev_sha = checker.checked_texts[key]
 
484
            if prev_sha != self.text_sha1:
 
485
                raise BzrCheckError(
 
486
                    'mismatched sha1 on {%s} in {%s} (%s != %s) %r' %
 
487
                    (self.file_id, tree_revision_id, prev_sha, self.text_sha1,
 
488
                     t))
 
489
            else:
 
490
                checker.repeated_text_cnt += 1
 
491
                return
 
492
 
 
493
        checker.checked_text_cnt += 1
 
494
        # We can't check the length, because Weave doesn't store that
 
495
        # information, and the whole point of looking at the weave's
 
496
        # sha1sum is that we don't have to extract the text.
 
497
        if (self.text_sha1 != tree._repository.texts.get_sha1s([key])[key]):
 
498
            raise BzrCheckError('text {%s} version {%s} wrong sha1' % key)
 
499
        checker.checked_texts[key] = self.text_sha1
434
500
 
435
501
    def copy(self):
436
502
        other = InventoryFile(self.file_id, self.name, self.parent_id)
468
534
        """See InventoryEntry.has_text."""
469
535
        return True
470
536
 
 
537
    def __init__(self, file_id, name, parent_id):
 
538
        super(InventoryFile, self).__init__(file_id, name, parent_id)
 
539
        self.kind = 'file'
 
540
 
471
541
    def kind_character(self):
472
542
        """See InventoryEntry.kind_character."""
473
543
        return ''
474
544
 
 
545
    def _put_in_tar(self, item, tree):
 
546
        """See InventoryEntry._put_in_tar."""
 
547
        item.type = tarfile.REGTYPE
 
548
        fileobj = tree.get_file(self.file_id)
 
549
        item.size = self.text_size
 
550
        if tree.is_executable(self.file_id):
 
551
            item.mode = 0755
 
552
        else:
 
553
            item.mode = 0644
 
554
        return fileobj
 
555
 
 
556
    def _put_on_disk(self, fullpath, tree):
 
557
        """See InventoryEntry._put_on_disk."""
 
558
        osutils.pumpfile(tree.get_file(self.file_id), file(fullpath, 'wb'))
 
559
        if tree.is_executable(self.file_id):
 
560
            os.chmod(fullpath, 0755)
 
561
 
475
562
    def _read_tree_state(self, path, work_tree):
476
563
        """See InventoryEntry._read_tree_state."""
477
564
        self.text_sha1 = work_tree.get_file_sha1(self.file_id, path=path)
509
596
class InventoryLink(InventoryEntry):
510
597
    """A file in an inventory."""
511
598
 
512
 
    __slots__ = ['symlink_target']
513
 
 
514
 
    kind = 'symlink'
515
 
 
516
 
    def __init__(self, file_id, name, parent_id):
517
 
        super(InventoryLink, self).__init__(file_id, name, parent_id)
518
 
        self.symlink_target = None
519
 
 
520
 
    def _check(self, checker, tree_revision_id):
 
599
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
600
                 'text_id', 'parent_id', 'children', 'executable',
 
601
                 'revision', 'symlink_target', 'reference_revision']
 
602
 
 
603
    def _check(self, checker, rev_id, tree):
521
604
        """See InventoryEntry._check"""
 
605
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
 
606
            raise BzrCheckError('symlink {%s} has text in revision {%s}'
 
607
                    % (self.file_id, rev_id))
522
608
        if self.symlink_target is None:
523
 
            checker._report_items.append(
524
 
                'symlink {%s} has no target in revision {%s}'
525
 
                    % (self.file_id, tree_revision_id))
526
 
        # Symlinks are stored as ''
527
 
        checker.add_pending_item(tree_revision_id,
528
 
            ('texts', self.file_id, self.revision), 'text',
529
 
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
 
609
            raise BzrCheckError('symlink {%s} has no target in revision {%s}'
 
610
                    % (self.file_id, rev_id))
530
611
 
531
612
    def copy(self):
532
613
        other = InventoryLink(self.file_id, self.name, self.parent_id)
562
643
        differ = DiffSymlink(old_tree, new_tree, output_to)
563
644
        return differ.diff_symlink(old_target, new_target)
564
645
 
 
646
    def __init__(self, file_id, name, parent_id):
 
647
        super(InventoryLink, self).__init__(file_id, name, parent_id)
 
648
        self.kind = 'symlink'
 
649
 
565
650
    def kind_character(self):
566
651
        """See InventoryEntry.kind_character."""
567
652
        return ''
568
653
 
 
654
    def _put_in_tar(self, item, tree):
 
655
        """See InventoryEntry._put_in_tar."""
 
656
        item.type = tarfile.SYMTYPE
 
657
        fileobj = None
 
658
        item.size = 0
 
659
        item.mode = 0755
 
660
        item.linkname = self.symlink_target
 
661
        return fileobj
 
662
 
 
663
    def _put_on_disk(self, fullpath, tree):
 
664
        """See InventoryEntry._put_on_disk."""
 
665
        try:
 
666
            os.symlink(self.symlink_target, fullpath)
 
667
        except OSError,e:
 
668
            raise BzrError("Failed to create symlink %r -> %r, error: %s" % (fullpath, self.symlink_target, e))
 
669
 
569
670
    def _read_tree_state(self, path, work_tree):
570
671
        """See InventoryEntry._read_tree_state."""
571
672
        self.symlink_target = work_tree.get_symlink_target(self.file_id)
583
684
 
584
685
class TreeReference(InventoryEntry):
585
686
 
586
 
    __slots__ = ['reference_revision']
587
 
 
588
687
    kind = 'tree-reference'
589
688
 
590
689
    def __init__(self, file_id, name, parent_id, revision=None,
615
714
 
616
715
 
617
716
class CommonInventory(object):
618
 
    """Basic inventory logic, defined in terms of primitives like has_id.
619
 
 
620
 
    An inventory is the metadata about the contents of a tree.
621
 
 
622
 
    This is broadly a map from file_id to entries such as directories, files,
623
 
    symlinks and tree references. Each entry maintains its own metadata like
624
 
    SHA1 and length for files, or children for a directory.
625
 
 
626
 
    Entries can be looked up either by path or by file_id.
627
 
 
628
 
    InventoryEntry objects must not be modified after they are
629
 
    inserted, other than through the Inventory API.
630
 
    """
 
717
    """Basic inventory logic, defined in terms of primitives like has_id."""
631
718
 
632
719
    def __contains__(self, file_id):
633
720
        """True if this entry contains a file with given id.
646
733
        """
647
734
        return self.has_id(file_id)
648
735
 
649
 
    def has_filename(self, filename):
650
 
        return bool(self.path2id(filename))
651
 
 
652
736
    def id2path(self, file_id):
653
737
        """Return as a string the path to file_id.
654
738
 
657
741
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
658
742
        >>> print i.id2path('foo-id')
659
743
        src/foo.c
660
 
 
661
 
        :raises NoSuchId: If file_id is not present in the inventory.
662
744
        """
663
745
        # get all names, skipping root
664
746
        return '/'.join(reversed(
836
918
                if ie.kind == 'directory':
837
919
                    descend(ie, child_path)
838
920
 
839
 
        if self.root is not None:
840
 
            descend(self.root, u'')
 
921
        descend(self.root, u'')
841
922
        return accum
842
923
 
843
924
    def directories(self):
856
937
        descend(self.root, u'')
857
938
        return accum
858
939
 
859
 
    def path2id(self, relpath):
 
940
    def path2id(self, name):
860
941
        """Walk down through directories to return entry of last component.
861
942
 
862
 
        :param relpath: may be either a list of path components, or a single
863
 
            string, in which case it is automatically split.
 
943
        names may be either a list of path components, or a single
 
944
        string, in which case it is automatically split.
864
945
 
865
946
        This returns the entry of the last component in the path,
866
947
        which may be either a file or a directory.
867
948
 
868
949
        Returns None IFF the path is not found.
869
950
        """
870
 
        if isinstance(relpath, basestring):
871
 
            names = osutils.splitpath(relpath)
872
 
        else:
873
 
            names = relpath
 
951
        if isinstance(name, basestring):
 
952
            name = osutils.splitpath(name)
 
953
 
 
954
        # mutter("lookup path %r" % name)
874
955
 
875
956
        try:
876
957
            parent = self.root
879
960
            return None
880
961
        if parent is None:
881
962
            return None
882
 
        for f in names:
 
963
        for f in name:
883
964
            try:
884
965
                children = getattr(parent, 'children', None)
885
966
                if children is None:
940
1021
 
941
1022
 
942
1023
class Inventory(CommonInventory):
943
 
    """Mutable dict based in-memory inventory.
944
 
 
945
 
    We never store the full path to a file, because renaming a directory
946
 
    implicitly moves all of its contents.  This class internally maintains a
 
1024
    """Inventory of versioned files in a tree.
 
1025
 
 
1026
    This describes which file_id is present at each point in the tree,
 
1027
    and possibly the SHA-1 or other information about the file.
 
1028
    Entries can be looked up either by path or by file_id.
 
1029
 
 
1030
    The inventory represents a typical unix file tree, with
 
1031
    directories containing files and subdirectories.  We never store
 
1032
    the full path to a file, because renaming a directory implicitly
 
1033
    moves all of its contents.  This class internally maintains a
947
1034
    lookup tree that allows the children under a directory to be
948
1035
    returned quickly.
949
1036
 
 
1037
    InventoryEntry objects must not be modified after they are
 
1038
    inserted, other than through the Inventory API.
 
1039
 
950
1040
    >>> inv = Inventory()
951
1041
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
952
1042
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
953
1043
    >>> inv['123-123'].name
954
1044
    'hello.c'
955
1045
 
956
 
    Id's may be looked up from paths:
 
1046
    May be treated as an iterator or set to look up file ids:
957
1047
 
958
 
    >>> inv.path2id('hello.c')
959
 
    '123-123'
 
1048
    >>> bool(inv.path2id('hello.c'))
 
1049
    True
960
1050
    >>> '123-123' in inv
961
1051
    True
962
1052
 
963
 
    There are iterators over the contents:
 
1053
    May also look up by name:
964
1054
 
965
 
    >>> [entry[0] for entry in inv.iter_entries()]
 
1055
    >>> [x[0] for x in inv.iter_entries()]
966
1056
    ['', u'hello.c']
 
1057
    >>> inv = Inventory('TREE_ROOT-12345678-12345678')
 
1058
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
1059
    Traceback (most recent call last):
 
1060
    BzrError: parent_id {TREE_ROOT} not in inventory
 
1061
    >>> inv.add(InventoryFile('123-123', 'hello.c', 'TREE_ROOT-12345678-12345678'))
 
1062
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT-12345678-12345678', sha1=None, len=None, revision=None)
967
1063
    """
968
 
 
969
1064
    def __init__(self, root_id=ROOT_ID, revision_id=None):
970
1065
        """Create or read an inventory.
971
1066
 
995
1090
    def apply_delta(self, delta):
996
1091
        """Apply a delta to this inventory.
997
1092
 
998
 
        See the inventory developers documentation for the theory behind
999
 
        inventory deltas.
1000
 
 
1001
 
        If delta application fails the inventory is left in an indeterminate
1002
 
        state and must not be used.
1003
 
 
1004
1093
        :param delta: A list of changes to apply. After all the changes are
1005
1094
            applied the final inventory must be internally consistent, but it
1006
1095
            is ok to supply changes which, if only half-applied would have an
1037
1126
        """
1038
1127
        # Check that the delta is legal. It would be nice if this could be
1039
1128
        # done within the loops below but it's safer to validate the delta
1040
 
        # before starting to mutate the inventory, as there isn't a rollback
1041
 
        # facility.
1042
 
        list(_check_delta_unique_ids(_check_delta_unique_new_paths(
1043
 
            _check_delta_unique_old_paths(_check_delta_ids_match_entry(
1044
 
            _check_delta_ids_are_valid(
1045
 
            _check_delta_new_path_entry_both_or_None(
1046
 
            delta)))))))
 
1129
        # before starting to mutate the inventory.
 
1130
        unique_file_ids = set([f for _, _, f, _ in delta])
 
1131
        if len(unique_file_ids) != len(delta):
 
1132
            raise AssertionError("a file-id appears multiple times in %r"
 
1133
                    % (delta,))
 
1134
        del unique_file_ids
1047
1135
 
1048
1136
        children = {}
1049
1137
        # Remove all affected items which were in the original inventory,
1052
1140
        # modified children remaining by the time we examine it.
1053
1141
        for old_path, file_id in sorted(((op, f) for op, np, f, e in delta
1054
1142
                                        if op is not None), reverse=True):
 
1143
            if file_id not in self:
 
1144
                # adds come later
 
1145
                continue
1055
1146
            # Preserve unaltered children of file_id for later reinsertion.
1056
1147
            file_id_children = getattr(self[file_id], 'children', {})
1057
1148
            if len(file_id_children):
1058
1149
                children[file_id] = file_id_children
1059
 
            if self.id2path(file_id) != old_path:
1060
 
                raise errors.InconsistentDelta(old_path, file_id,
1061
 
                    "Entry was at wrong other path %r." % self.id2path(file_id))
1062
1150
            # Remove file_id and the unaltered children. If file_id is not
1063
1151
            # being deleted it will be reinserted back later.
1064
1152
            self.remove_recursive_id(file_id)
1067
1155
        # longest, ensuring that items which were modified and whose parents in
1068
1156
        # the resulting inventory were also modified, are inserted after their
1069
1157
        # parents.
1070
 
        for new_path, f, new_entry in sorted((np, f, e) for op, np, f, e in
 
1158
        for new_path, new_entry in sorted((np, e) for op, np, f, e in
1071
1159
                                          delta if np is not None):
1072
1160
            if new_entry.kind == 'directory':
1073
1161
                # Pop the child which to allow detection of children whose
1078
1166
                replacement.revision = new_entry.revision
1079
1167
                replacement.children = children.pop(replacement.file_id, {})
1080
1168
                new_entry = replacement
1081
 
            try:
1082
 
                self.add(new_entry)
1083
 
            except errors.DuplicateFileId:
1084
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1085
 
                    "New id is already present in target.")
1086
 
            except AttributeError:
1087
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1088
 
                    "Parent is not a directory.")
1089
 
            if self.id2path(new_entry.file_id) != new_path:
1090
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1091
 
                    "New path is not consistent with parent path.")
 
1169
            self.add(new_entry)
1092
1170
        if len(children):
1093
1171
            # Get the parent id that was deleted
1094
1172
            parent_id, children = children.popitem()
1095
1173
            raise errors.InconsistentDelta("<deleted>", parent_id,
1096
1174
                "The file id was deleted but its children were not deleted.")
1097
1175
 
1098
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1099
 
                              propagate_caches=False):
1100
 
        """See CHKInventory.create_by_apply_delta()"""
1101
 
        new_inv = self.copy()
1102
 
        new_inv.apply_delta(inventory_delta)
1103
 
        new_inv.revision_id = new_revision_id
1104
 
        return new_inv
1105
 
 
1106
1176
    def _set_root(self, ie):
1107
1177
        self.root = ie
1108
1178
        self._byid = {self.root.file_id: self.root}
1122
1192
 
1123
1193
    def _get_mutable_inventory(self):
1124
1194
        """See CommonInventory._get_mutable_inventory."""
1125
 
        return copy.deepcopy(self)
 
1195
        return deepcopy(self)
1126
1196
 
1127
1197
    def __iter__(self):
1128
1198
        """Iterate over all file-ids."""
1179
1249
    def add(self, entry):
1180
1250
        """Add entry to inventory.
1181
1251
 
1182
 
        :return: entry
 
1252
        To add  a file to a branch ready to be committed, use Branch.add,
 
1253
        which calls this.
 
1254
 
 
1255
        Returns the new entry object.
1183
1256
        """
1184
1257
        if entry.file_id in self._byid:
1185
1258
            raise errors.DuplicateFileId(entry.file_id,
1186
1259
                                         self._byid[entry.file_id])
 
1260
 
1187
1261
        if entry.parent_id is None:
1188
1262
            self.root = entry
1189
1263
        else:
1190
1264
            try:
1191
1265
                parent = self._byid[entry.parent_id]
1192
1266
            except KeyError:
1193
 
                raise errors.InconsistentDelta("<unknown>", entry.parent_id,
1194
 
                    "Parent not in inventory.")
 
1267
                raise BzrError("parent_id {%s} not in inventory" %
 
1268
                               entry.parent_id)
 
1269
 
1195
1270
            if entry.name in parent.children:
1196
 
                raise errors.InconsistentDelta(
1197
 
                    self.id2path(parent.children[entry.name].file_id),
1198
 
                    entry.file_id,
1199
 
                    "Path already versioned")
 
1271
                raise BzrError("%s is already versioned" %
 
1272
                        osutils.pathjoin(self.id2path(parent.file_id),
 
1273
                        entry.name).encode('utf-8'))
1200
1274
            parent.children[entry.name] = entry
1201
1275
        return self._add_child(entry)
1202
1276
 
1277
1351
            yield ie
1278
1352
            file_id = ie.parent_id
1279
1353
 
 
1354
    def has_filename(self, filename):
 
1355
        return bool(self.path2id(filename))
 
1356
 
1280
1357
    def has_id(self, file_id):
1281
1358
        return (file_id in self._byid)
1282
1359
 
1392
1469
        self._fileid_to_entry_cache = {}
1393
1470
        self._path_to_fileid_cache = {}
1394
1471
        self._search_key_name = search_key_name
1395
 
        self.root_id = None
1396
 
 
1397
 
    def __eq__(self, other):
1398
 
        """Compare two sets by comparing their contents."""
1399
 
        if not isinstance(other, CHKInventory):
1400
 
            return NotImplemented
1401
 
 
1402
 
        this_key = self.id_to_entry.key()
1403
 
        other_key = other.id_to_entry.key()
1404
 
        this_pid_key = self.parent_id_basename_to_file_id.key()
1405
 
        other_pid_key = other.parent_id_basename_to_file_id.key()
1406
 
        if None in (this_key, this_pid_key, other_key, other_pid_key):
1407
 
            return False
1408
 
        return this_key == other_key and this_pid_key == other_pid_key
1409
1472
 
1410
1473
    def _entry_to_bytes(self, entry):
1411
1474
        """Serialise entry as a single bytestring.
1449
1512
        else:
1450
1513
            raise ValueError("unknown kind %r" % entry.kind)
1451
1514
 
1452
 
    def _expand_fileids_to_parents_and_children(self, file_ids):
1453
 
        """Give a more wholistic view starting with the given file_ids.
1454
 
 
1455
 
        For any file_id which maps to a directory, we will include all children
1456
 
        of that directory. We will also include all directories which are
1457
 
        parents of the given file_ids, but we will not include their children.
1458
 
 
1459
 
        eg:
1460
 
          /     # TREE_ROOT
1461
 
          foo/  # foo-id
1462
 
            baz # baz-id
1463
 
            frob/ # frob-id
1464
 
              fringle # fringle-id
1465
 
          bar/  # bar-id
1466
 
            bing # bing-id
1467
 
 
1468
 
        if given [foo-id] we will include
1469
 
            TREE_ROOT as interesting parents
1470
 
        and 
1471
 
            foo-id, baz-id, frob-id, fringle-id
1472
 
        As interesting ids.
1473
 
        """
1474
 
        interesting = set()
1475
 
        # TODO: Pre-pass over the list of fileids to see if anything is already
1476
 
        #       deserialized in self._fileid_to_entry_cache
1477
 
 
1478
 
        directories_to_expand = set()
1479
 
        children_of_parent_id = {}
1480
 
        # It is okay if some of the fileids are missing
1481
 
        for entry in self._getitems(file_ids):
1482
 
            if entry.kind == 'directory':
1483
 
                directories_to_expand.add(entry.file_id)
1484
 
            interesting.add(entry.parent_id)
1485
 
            children_of_parent_id.setdefault(entry.parent_id, []
1486
 
                                             ).append(entry.file_id)
1487
 
 
1488
 
        # Now, interesting has all of the direct parents, but not the
1489
 
        # parents of those parents. It also may have some duplicates with
1490
 
        # specific_fileids
1491
 
        remaining_parents = interesting.difference(file_ids)
1492
 
        # When we hit the TREE_ROOT, we'll get an interesting parent of None,
1493
 
        # but we don't actually want to recurse into that
1494
 
        interesting.add(None) # this will auto-filter it in the loop
1495
 
        remaining_parents.discard(None) 
1496
 
        while remaining_parents:
1497
 
            next_parents = set()
1498
 
            for entry in self._getitems(remaining_parents):
1499
 
                next_parents.add(entry.parent_id)
1500
 
                children_of_parent_id.setdefault(entry.parent_id, []
1501
 
                                                 ).append(entry.file_id)
1502
 
            # Remove any search tips we've already processed
1503
 
            remaining_parents = next_parents.difference(interesting)
1504
 
            interesting.update(remaining_parents)
1505
 
            # We should probably also .difference(directories_to_expand)
1506
 
        interesting.update(file_ids)
1507
 
        interesting.discard(None)
1508
 
        while directories_to_expand:
1509
 
            # Expand directories by looking in the
1510
 
            # parent_id_basename_to_file_id map
1511
 
            keys = [StaticTuple(f,).intern() for f in directories_to_expand]
1512
 
            directories_to_expand = set()
1513
 
            items = self.parent_id_basename_to_file_id.iteritems(keys)
1514
 
            next_file_ids = set([item[1] for item in items])
1515
 
            next_file_ids = next_file_ids.difference(interesting)
1516
 
            interesting.update(next_file_ids)
1517
 
            for entry in self._getitems(next_file_ids):
1518
 
                if entry.kind == 'directory':
1519
 
                    directories_to_expand.add(entry.file_id)
1520
 
                children_of_parent_id.setdefault(entry.parent_id, []
1521
 
                                                 ).append(entry.file_id)
1522
 
        return interesting, children_of_parent_id
1523
 
 
1524
 
    def filter(self, specific_fileids):
1525
 
        """Get an inventory view filtered against a set of file-ids.
1526
 
 
1527
 
        Children of directories and parents are included.
1528
 
 
1529
 
        The result may or may not reference the underlying inventory
1530
 
        so it should be treated as immutable.
1531
 
        """
1532
 
        (interesting,
1533
 
         parent_to_children) = self._expand_fileids_to_parents_and_children(
1534
 
                                specific_fileids)
1535
 
        # There is some overlap here, but we assume that all interesting items
1536
 
        # are in the _fileid_to_entry_cache because we had to read them to
1537
 
        # determine if they were a dir we wanted to recurse, or just a file
1538
 
        # This should give us all the entries we'll want to add, so start
1539
 
        # adding
1540
 
        other = Inventory(self.root_id)
1541
 
        other.root.revision = self.root.revision
1542
 
        other.revision_id = self.revision_id
1543
 
        if not interesting or not parent_to_children:
1544
 
            # empty filter, or filtering entrys that don't exist
1545
 
            # (if even 1 existed, then we would have populated
1546
 
            # parent_to_children with at least the tree root.)
1547
 
            return other
1548
 
        cache = self._fileid_to_entry_cache
1549
 
        remaining_children = collections.deque(parent_to_children[self.root_id])
1550
 
        while remaining_children:
1551
 
            file_id = remaining_children.popleft()
1552
 
            ie = cache[file_id]
1553
 
            if ie.kind == 'directory':
1554
 
                ie = ie.copy() # We create a copy to depopulate the .children attribute
1555
 
            # TODO: depending on the uses of 'other' we should probably alwyas
1556
 
            #       '.copy()' to prevent someone from mutating other and
1557
 
            #       invaliding our internal cache
1558
 
            other.add(ie)
1559
 
            if file_id in parent_to_children:
1560
 
                remaining_children.extend(parent_to_children[file_id])
1561
 
        return other
1562
 
 
1563
1515
    @staticmethod
1564
1516
    def _bytes_to_utf8name_key(bytes):
1565
1517
        """Get the file_id, revision_id key out of bytes."""
1567
1519
        # to filter out empty names because of non rich-root...
1568
1520
        sections = bytes.split('\n')
1569
1521
        kind, file_id = sections[0].split(': ')
1570
 
        return (sections[2], intern(file_id), intern(sections[3]))
 
1522
        return (sections[2], file_id, sections[3])
1571
1523
 
1572
1524
    def _bytes_to_entry(self, bytes):
1573
1525
        """Deserialise a serialised entry."""
1595
1547
            result.reference_revision = sections[4]
1596
1548
        else:
1597
1549
            raise ValueError("Not a serialised entry %r" % bytes)
1598
 
        result.file_id = intern(result.file_id)
1599
 
        result.revision = intern(sections[3])
 
1550
        result.revision = sections[3]
1600
1551
        if result.parent_id == '':
1601
1552
            result.parent_id = None
1602
1553
        self._fileid_to_entry_cache[result.file_id] = result
1614
1565
        propagate_caches=False):
1615
1566
        """Create a new CHKInventory by applying inventory_delta to this one.
1616
1567
 
1617
 
        See the inventory developers documentation for the theory behind
1618
 
        inventory deltas.
1619
 
 
1620
1568
        :param inventory_delta: The inventory delta to apply. See
1621
1569
            Inventory.apply_delta for details.
1622
1570
        :param new_revision_id: The revision id of the resulting CHKInventory.
1624
1572
          copied to and updated for the result.
1625
1573
        :return: The new CHKInventory.
1626
1574
        """
1627
 
        split = osutils.split
1628
1575
        result = CHKInventory(self._search_key_name)
1629
1576
        if propagate_caches:
1630
1577
            # Just propagate the path-to-fileid cache for now
1639
1586
            search_key_func=search_key_func)
1640
1587
        result.id_to_entry._ensure_root()
1641
1588
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
1642
 
        # Change to apply to the parent_id_basename delta. The dict maps
1643
 
        # (parent_id, basename) -> (old_key, new_value). We use a dict because
1644
 
        # when a path has its id replaced (e.g. the root is changed, or someone
1645
 
        # does bzr mv a b, bzr mv c a, we should output a single change to this
1646
 
        # map rather than two.
1647
 
        parent_id_basename_delta = {}
 
1589
        parent_id_basename_delta = []
1648
1590
        if self.parent_id_basename_to_file_id is not None:
1649
1591
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1650
1592
                self.parent_id_basename_to_file_id._store,
1660
1602
            result.parent_id_basename_to_file_id = None
1661
1603
        result.root_id = self.root_id
1662
1604
        id_to_entry_delta = []
1663
 
        # inventory_delta is only traversed once, so we just update the
1664
 
        # variable.
1665
 
        # Check for repeated file ids
1666
 
        inventory_delta = _check_delta_unique_ids(inventory_delta)
1667
 
        # Repeated old paths
1668
 
        inventory_delta = _check_delta_unique_old_paths(inventory_delta)
1669
 
        # Check for repeated new paths
1670
 
        inventory_delta = _check_delta_unique_new_paths(inventory_delta)
1671
 
        # Check for entries that don't match the fileid
1672
 
        inventory_delta = _check_delta_ids_match_entry(inventory_delta)
1673
 
        # Check for nonsense fileids
1674
 
        inventory_delta = _check_delta_ids_are_valid(inventory_delta)
1675
 
        # Check for new_path <-> entry consistency
1676
 
        inventory_delta = _check_delta_new_path_entry_both_or_None(
1677
 
            inventory_delta)
1678
 
        # All changed entries need to have their parents be directories and be
1679
 
        # at the right path. This set contains (path, id) tuples.
1680
 
        parents = set()
1681
 
        # When we delete an item, all the children of it must be either deleted
1682
 
        # or altered in their own right. As we batch process the change via
1683
 
        # CHKMap.apply_delta, we build a set of things to use to validate the
1684
 
        # delta.
1685
 
        deletes = set()
1686
 
        altered = set()
1687
1605
        for old_path, new_path, file_id, entry in inventory_delta:
1688
1606
            # file id changes
1689
1607
            if new_path == '':
1698
1616
                        del result._path_to_fileid_cache[old_path]
1699
1617
                    except KeyError:
1700
1618
                        pass
1701
 
                deletes.add(file_id)
1702
1619
            else:
1703
 
                new_key = StaticTuple(file_id,)
 
1620
                new_key = (file_id,)
1704
1621
                new_value = result._entry_to_bytes(entry)
1705
1622
                # Update caches. It's worth doing this whether
1706
1623
                # we're propagating the old caches or not.
1707
1624
                result._path_to_fileid_cache[new_path] = file_id
1708
 
                parents.add((split(new_path)[0], entry.parent_id))
1709
1625
            if old_path is None:
1710
1626
                old_key = None
1711
1627
            else:
1712
 
                old_key = StaticTuple(file_id,)
1713
 
                if self.id2path(file_id) != old_path:
1714
 
                    raise errors.InconsistentDelta(old_path, file_id,
1715
 
                        "Entry was at wrong other path %r." %
1716
 
                        self.id2path(file_id))
1717
 
                altered.add(file_id)
1718
 
            id_to_entry_delta.append(StaticTuple(old_key, new_key, new_value))
 
1628
                old_key = (file_id,)
 
1629
            id_to_entry_delta.append((old_key, new_key, new_value))
1719
1630
            if result.parent_id_basename_to_file_id is not None:
1720
1631
                # parent_id, basename changes
1721
1632
                if old_path is None:
1729
1640
                else:
1730
1641
                    new_key = self._parent_id_basename_key(entry)
1731
1642
                    new_value = file_id
1732
 
                # If the two keys are the same, the value will be unchanged
1733
 
                # as its always the file id for this entry.
1734
1643
                if old_key != new_key:
1735
 
                    # Transform a change into explicit delete/add preserving
1736
 
                    # a possible match on the key from a different file id.
1737
 
                    if old_key is not None:
1738
 
                        parent_id_basename_delta.setdefault(
1739
 
                            old_key, [None, None])[0] = old_key
1740
 
                    if new_key is not None:
1741
 
                        parent_id_basename_delta.setdefault(
1742
 
                            new_key, [None, None])[1] = new_value
1743
 
        # validate that deletes are complete.
1744
 
        for file_id in deletes:
1745
 
            entry = self[file_id]
1746
 
            if entry.kind != 'directory':
1747
 
                continue
1748
 
            # This loop could potentially be better by using the id_basename
1749
 
            # map to just get the child file ids.
1750
 
            for child in entry.children.values():
1751
 
                if child.file_id not in altered:
1752
 
                    raise errors.InconsistentDelta(self.id2path(child.file_id),
1753
 
                        child.file_id, "Child not deleted or reparented when "
1754
 
                        "parent deleted.")
 
1644
                    # If the two keys are the same, the value will be unchanged
 
1645
                    # as its always the file id.
 
1646
                    parent_id_basename_delta.append((old_key, new_key, new_value))
1755
1647
        result.id_to_entry.apply_delta(id_to_entry_delta)
1756
1648
        if parent_id_basename_delta:
1757
 
            # Transform the parent_id_basename delta data into a linear delta
1758
 
            # with only one record for a given key. Optimally this would allow
1759
 
            # re-keying, but its simpler to just output that as a delete+add
1760
 
            # to spend less time calculating the delta.
1761
 
            delta_list = []
1762
 
            for key, (old_key, value) in parent_id_basename_delta.iteritems():
1763
 
                if value is not None:
1764
 
                    delta_list.append((old_key, key, value))
1765
 
                else:
1766
 
                    delta_list.append((old_key, None, None))
1767
 
            result.parent_id_basename_to_file_id.apply_delta(delta_list)
1768
 
        parents.discard(('', None))
1769
 
        for parent_path, parent in parents:
1770
 
            try:
1771
 
                if result[parent].kind != 'directory':
1772
 
                    raise errors.InconsistentDelta(result.id2path(parent), parent,
1773
 
                        'Not a directory, but given children')
1774
 
            except errors.NoSuchId:
1775
 
                raise errors.InconsistentDelta("<unknown>", parent,
1776
 
                    "Parent is not present in resulting inventory.")
1777
 
            if result.path2id(parent_path) != parent:
1778
 
                raise errors.InconsistentDelta(parent_path, parent,
1779
 
                    "Parent has wrong path %r." % result.path2id(parent_path))
 
1649
            result.parent_id_basename_to_file_id.apply_delta(parent_id_basename_delta)
1780
1650
        return result
1781
1651
 
1782
1652
    @classmethod
1808
1678
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
1809
1679
                                      % (key, bytes))
1810
1680
            info[key] = value
1811
 
        revision_id = intern(info['revision_id'])
1812
 
        root_id = intern(info['root_id'])
1813
 
        search_key_name = intern(info.get('search_key_name', 'plain'))
1814
 
        parent_id_basename_to_file_id = intern(info.get(
1815
 
            'parent_id_basename_to_file_id', None))
1816
 
        if not parent_id_basename_to_file_id.startswith('sha1:'):
1817
 
            raise ValueError('parent_id_basename_to_file_id should be a sha1'
1818
 
                             ' key not %r' % (parent_id_basename_to_file_id,))
 
1681
        revision_id = info['revision_id']
 
1682
        root_id = info['root_id']
 
1683
        search_key_name = info.get('search_key_name', 'plain')
 
1684
        parent_id_basename_to_file_id = info.get(
 
1685
            'parent_id_basename_to_file_id', None)
1819
1686
        id_to_entry = info['id_to_entry']
1820
 
        if not id_to_entry.startswith('sha1:'):
1821
 
            raise ValueError('id_to_entry should be a sha1'
1822
 
                             ' key not %r' % (id_to_entry,))
1823
1687
 
1824
1688
        result = CHKInventory(search_key_name)
1825
1689
        result.revision_id = revision_id
1828
1692
                            result._search_key_name)
1829
1693
        if parent_id_basename_to_file_id is not None:
1830
1694
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1831
 
                chk_store, StaticTuple(parent_id_basename_to_file_id,),
 
1695
                chk_store, (parent_id_basename_to_file_id,),
1832
1696
                search_key_func=search_key_func)
1833
1697
        else:
1834
1698
            result.parent_id_basename_to_file_id = None
1835
1699
 
1836
 
        result.id_to_entry = chk_map.CHKMap(chk_store,
1837
 
                                            StaticTuple(id_to_entry,),
 
1700
        result.id_to_entry = chk_map.CHKMap(chk_store, (id_to_entry,),
1838
1701
                                            search_key_func=search_key_func)
1839
1702
        if (result.revision_id,) != expected_revision_id:
1840
1703
            raise ValueError("Mismatched revision id and expected: %r, %r" %
1853
1716
        :param maximum_size: The CHKMap node size limit.
1854
1717
        :param search_key_name: The identifier for the search key function
1855
1718
        """
1856
 
        result = klass(search_key_name)
 
1719
        result = CHKInventory(search_key_name)
1857
1720
        result.revision_id = inventory.revision_id
1858
1721
        result.root_id = inventory.root.file_id
1859
 
 
1860
 
        entry_to_bytes = result._entry_to_bytes
1861
 
        parent_id_basename_key = result._parent_id_basename_key
1862
 
        id_to_entry_dict = {}
1863
 
        parent_id_basename_dict = {}
 
1722
        search_key_func = chk_map.search_key_registry.get(search_key_name)
 
1723
        result.id_to_entry = chk_map.CHKMap(chk_store, None, search_key_func)
 
1724
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
 
1725
        file_id_delta = []
 
1726
        result.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
 
1727
            None, search_key_func)
 
1728
        result.parent_id_basename_to_file_id._root_node.set_maximum_size(
 
1729
            maximum_size)
 
1730
        result.parent_id_basename_to_file_id._root_node._key_width = 2
 
1731
        parent_id_delta = []
1864
1732
        for path, entry in inventory.iter_entries():
1865
 
            key = StaticTuple(entry.file_id,).intern()
1866
 
            id_to_entry_dict[key] = entry_to_bytes(entry)
1867
 
            p_id_key = parent_id_basename_key(entry)
1868
 
            parent_id_basename_dict[p_id_key] = entry.file_id
1869
 
 
1870
 
        result._populate_from_dicts(chk_store, id_to_entry_dict,
1871
 
            parent_id_basename_dict, maximum_size=maximum_size)
 
1733
            file_id_delta.append((None, (entry.file_id,),
 
1734
                result._entry_to_bytes(entry)))
 
1735
            parent_id_delta.append(
 
1736
                (None, result._parent_id_basename_key(entry),
 
1737
                 entry.file_id))
 
1738
        result.id_to_entry.apply_delta(file_id_delta)
 
1739
        result.parent_id_basename_to_file_id.apply_delta(parent_id_delta)
1872
1740
        return result
1873
1741
 
1874
 
    def _populate_from_dicts(self, chk_store, id_to_entry_dict,
1875
 
                             parent_id_basename_dict, maximum_size):
1876
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1877
 
        root_key = chk_map.CHKMap.from_dict(chk_store, id_to_entry_dict,
1878
 
                   maximum_size=maximum_size, key_width=1,
1879
 
                   search_key_func=search_key_func)
1880
 
        self.id_to_entry = chk_map.CHKMap(chk_store, root_key,
1881
 
                                          search_key_func)
1882
 
        root_key = chk_map.CHKMap.from_dict(chk_store,
1883
 
                   parent_id_basename_dict,
1884
 
                   maximum_size=maximum_size, key_width=2,
1885
 
                   search_key_func=search_key_func)
1886
 
        self.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
1887
 
                                                    root_key, search_key_func)
1888
 
 
1889
1742
    def _parent_id_basename_key(self, entry):
1890
1743
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
1891
1744
        if entry.parent_id is not None:
1892
1745
            parent_id = entry.parent_id
1893
1746
        else:
1894
1747
            parent_id = ''
1895
 
        return StaticTuple(parent_id, entry.name.encode('utf8')).intern()
 
1748
        return parent_id, entry.name.encode('utf8')
1896
1749
 
1897
1750
    def __getitem__(self, file_id):
1898
1751
        """map a single file_id -> InventoryEntry."""
1903
1756
            return result
1904
1757
        try:
1905
1758
            return self._bytes_to_entry(
1906
 
                self.id_to_entry.iteritems([StaticTuple(file_id,)]).next()[1])
 
1759
                self.id_to_entry.iteritems([(file_id,)]).next()[1])
1907
1760
        except StopIteration:
1908
1761
            # really we're passing an inventory, not a tree...
1909
1762
            raise errors.NoSuchId(self, file_id)
1910
1763
 
1911
 
    def _getitems(self, file_ids):
1912
 
        """Similar to __getitem__, but lets you query for multiple.
1913
 
        
1914
 
        The returned order is undefined. And currently if an item doesn't
1915
 
        exist, it isn't included in the output.
1916
 
        """
1917
 
        result = []
1918
 
        remaining = []
1919
 
        for file_id in file_ids:
1920
 
            entry = self._fileid_to_entry_cache.get(file_id, None)
1921
 
            if entry is None:
1922
 
                remaining.append(file_id)
1923
 
            else:
1924
 
                result.append(entry)
1925
 
        file_keys = [StaticTuple(f,).intern() for f in remaining]
1926
 
        for file_key, value in self.id_to_entry.iteritems(file_keys):
1927
 
            entry = self._bytes_to_entry(value)
1928
 
            result.append(entry)
1929
 
            self._fileid_to_entry_cache[entry.file_id] = entry
1930
 
        return result
1931
 
 
1932
1764
    def has_id(self, file_id):
1933
1765
        # Perhaps have an explicit 'contains' method on CHKMap ?
1934
1766
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
1935
1767
            return True
1936
 
        return len(list(
1937
 
            self.id_to_entry.iteritems([StaticTuple(file_id,)]))) == 1
 
1768
        return len(list(self.id_to_entry.iteritems([(file_id,)]))) == 1
1938
1769
 
1939
1770
    def is_root(self, file_id):
1940
1771
        return file_id == self.root_id
2069
1900
            delta.append((old_path, new_path, file_id, entry))
2070
1901
        return delta
2071
1902
 
2072
 
    def path2id(self, relpath):
 
1903
    def path2id(self, name):
2073
1904
        """See CommonInventory.path2id()."""
2074
 
        # TODO: perhaps support negative hits?
2075
 
        result = self._path_to_fileid_cache.get(relpath, None)
2076
 
        if result is not None:
2077
 
            return result
2078
 
        if isinstance(relpath, basestring):
2079
 
            names = osutils.splitpath(relpath)
2080
 
        else:
2081
 
            names = relpath
2082
 
        current_id = self.root_id
2083
 
        if current_id is None:
2084
 
            return None
2085
 
        parent_id_index = self.parent_id_basename_to_file_id
2086
 
        cur_path = None
2087
 
        for basename in names:
2088
 
            if cur_path is None:
2089
 
                cur_path = basename
2090
 
            else:
2091
 
                cur_path = cur_path + '/' + basename
2092
 
            basename_utf8 = basename.encode('utf8')
2093
 
            file_id = self._path_to_fileid_cache.get(cur_path, None)
2094
 
            if file_id is None:
2095
 
                key_filter = [StaticTuple(current_id, basename_utf8)]
2096
 
                items = parent_id_index.iteritems(key_filter)
2097
 
                for (parent_id, name_utf8), file_id in items:
2098
 
                    if parent_id != current_id or name_utf8 != basename_utf8:
2099
 
                        raise errors.BzrError("corrupt inventory lookup! "
2100
 
                            "%r %r %r %r" % (parent_id, current_id, name_utf8,
2101
 
                            basename_utf8))
2102
 
                if file_id is None:
2103
 
                    return None
2104
 
                else:
2105
 
                    self._path_to_fileid_cache[cur_path] = file_id
2106
 
            current_id = file_id
2107
 
        return current_id
 
1905
        result = self._path_to_fileid_cache.get(name, None)
 
1906
        if result is None:
 
1907
            result = CommonInventory.path2id(self, name)
 
1908
            self._path_to_fileid_cache[name] = result
 
1909
        return result
2108
1910
 
2109
1911
    def to_lines(self):
2110
1912
        """Serialise the inventory to lines."""
2114
1916
            lines.append('search_key_name: %s\n' % (self._search_key_name,))
2115
1917
            lines.append("root_id: %s\n" % self.root_id)
2116
1918
            lines.append('parent_id_basename_to_file_id: %s\n' %
2117
 
                (self.parent_id_basename_to_file_id.key()[0],))
 
1919
                self.parent_id_basename_to_file_id.key())
2118
1920
            lines.append("revision_id: %s\n" % self.revision_id)
2119
 
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
 
1921
            lines.append("id_to_entry: %s\n" % self.id_to_entry.key())
2120
1922
        else:
2121
1923
            lines.append("revision_id: %s\n" % self.revision_id)
2122
1924
            lines.append("root_id: %s\n" % self.root_id)
2123
1925
            if self.parent_id_basename_to_file_id is not None:
2124
1926
                lines.append('parent_id_basename_to_file_id: %s\n' %
2125
 
                    (self.parent_id_basename_to_file_id.key()[0],))
2126
 
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
 
1927
                    self.parent_id_basename_to_file_id.key())
 
1928
            lines.append("id_to_entry: %s\n" % self.id_to_entry.key())
2127
1929
        return lines
2128
1930
 
2129
1931
    @property
2135
1937
class CHKInventoryDirectory(InventoryDirectory):
2136
1938
    """A directory in an inventory."""
2137
1939
 
2138
 
    __slots__ = ['_children', '_chk_inventory']
 
1940
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
1941
                 'text_id', 'parent_id', '_children', 'executable',
 
1942
                 'revision', 'symlink_target', 'reference_revision',
 
1943
                 '_chk_inventory']
2139
1944
 
2140
1945
    def __init__(self, file_id, name, parent_id, chk_inventory):
2141
1946
        # Don't call InventoryDirectory.__init__ - it isn't right for this
2142
1947
        # class.
2143
1948
        InventoryEntry.__init__(self, file_id, name, parent_id)
2144
1949
        self._children = None
 
1950
        self.kind = 'directory'
2145
1951
        self._chk_inventory = chk_inventory
2146
1952
 
2147
1953
    @property
2166
1972
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
2167
1973
        child_keys = set()
2168
1974
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
2169
 
            key_filter=[StaticTuple(self.file_id,)]):
2170
 
            child_keys.add(StaticTuple(file_id,))
 
1975
            key_filter=[(self.file_id,)]):
 
1976
            child_keys.add((file_id,))
2171
1977
        cached = set()
2172
1978
        for file_id_key in child_keys:
2173
1979
            entry = self._chk_inventory._fileid_to_entry_cache.get(
2206
2012
    try:
2207
2013
        factory = entry_factory[kind]
2208
2014
    except KeyError:
2209
 
        raise errors.BadFileKindError(name, kind)
 
2015
        raise BzrError("unknown kind %r" % kind)
2210
2016
    return factory(file_id, name, parent_id)
2211
2017
 
2212
2018
 
2240
2046
        _NAME_RE = re.compile(r'^[^/\\]+$')
2241
2047
 
2242
2048
    return bool(_NAME_RE.match(name))
2243
 
 
2244
 
 
2245
 
def _check_delta_unique_ids(delta):
2246
 
    """Decorate a delta and check that the file ids in it are unique.
2247
 
 
2248
 
    :return: A generator over delta.
2249
 
    """
2250
 
    ids = set()
2251
 
    for item in delta:
2252
 
        length = len(ids) + 1
2253
 
        ids.add(item[2])
2254
 
        if len(ids) != length:
2255
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2256
 
                "repeated file_id")
2257
 
        yield item
2258
 
 
2259
 
 
2260
 
def _check_delta_unique_new_paths(delta):
2261
 
    """Decorate a delta and check that the new paths in it are unique.
2262
 
 
2263
 
    :return: A generator over delta.
2264
 
    """
2265
 
    paths = set()
2266
 
    for item in delta:
2267
 
        length = len(paths) + 1
2268
 
        path = item[1]
2269
 
        if path is not None:
2270
 
            paths.add(path)
2271
 
            if len(paths) != length:
2272
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2273
 
        yield item
2274
 
 
2275
 
 
2276
 
def _check_delta_unique_old_paths(delta):
2277
 
    """Decorate a delta and check that the old paths in it are unique.
2278
 
 
2279
 
    :return: A generator over delta.
2280
 
    """
2281
 
    paths = set()
2282
 
    for item in delta:
2283
 
        length = len(paths) + 1
2284
 
        path = item[0]
2285
 
        if path is not None:
2286
 
            paths.add(path)
2287
 
            if len(paths) != length:
2288
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2289
 
        yield item
2290
 
 
2291
 
 
2292
 
def _check_delta_ids_are_valid(delta):
2293
 
    """Decorate a delta and check that the ids in it are valid.
2294
 
 
2295
 
    :return: A generator over delta.
2296
 
    """
2297
 
    for item in delta:
2298
 
        entry = item[3]
2299
 
        if item[2] is None:
2300
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2301
 
                "entry with file_id None %r" % entry)
2302
 
        if type(item[2]) != str:
2303
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2304
 
                "entry with non bytes file_id %r" % entry)
2305
 
        yield item
2306
 
 
2307
 
 
2308
 
def _check_delta_ids_match_entry(delta):
2309
 
    """Decorate a delta and check that the ids in it match the entry.file_id.
2310
 
 
2311
 
    :return: A generator over delta.
2312
 
    """
2313
 
    for item in delta:
2314
 
        entry = item[3]
2315
 
        if entry is not None:
2316
 
            if entry.file_id != item[2]:
2317
 
                raise errors.InconsistentDelta(item[0] or item[1], item[2],
2318
 
                    "mismatched id with %r" % entry)
2319
 
        yield item
2320
 
 
2321
 
 
2322
 
def _check_delta_new_path_entry_both_or_None(delta):
2323
 
    """Decorate a delta and check that the new_path and entry are paired.
2324
 
 
2325
 
    :return: A generator over delta.
2326
 
    """
2327
 
    for item in delta:
2328
 
        new_path = item[1]
2329
 
        entry = item[3]
2330
 
        if new_path is None and entry is not None:
2331
 
            raise errors.InconsistentDelta(item[0], item[1],
2332
 
                "Entry with no new_path")
2333
 
        if new_path is not None and entry is None:
2334
 
            raise errors.InconsistentDelta(new_path, item[1],
2335
 
                "new_path with no entry")
2336
 
        yield item