~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/inventory.py

  • Committer: Vincent Ladeuil
  • Date: 2010-03-02 10:21:39 UTC
  • mfrom: (4797.2.24 2.1)
  • mto: This revision was merged to the branch mainline in revision 5069.
  • Revision ID: v.ladeuil+lp@free.fr-20100302102139-b5cba7h6xu13mekg
Merge 2.1 into trunk including fixes for #331095, #507557, #185103, #524184 and #369501

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
 
1
# Copyright (C) 2005-2010 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
 
# FIXME: This refactoring of the workingtree code doesn't seem to keep 
 
17
# FIXME: This refactoring of the workingtree code doesn't seem to keep
18
18
# the WorkingTree's copy of the inventory in sync with the branch.  The
19
19
# branch modifies its working inventory when it does a commit to make
20
20
# missing files permanently removed.
27
27
# created, but it's not for now.
28
28
ROOT_ID = "TREE_ROOT"
29
29
 
30
 
import os
31
 
import re
32
 
import sys
33
 
 
34
30
from bzrlib.lazy_import import lazy_import
35
31
lazy_import(globals(), """
36
32
import collections
 
33
import copy
 
34
import os
 
35
import re
37
36
import tarfile
38
37
 
39
38
import bzrlib
40
39
from bzrlib import (
 
40
    chk_map,
41
41
    errors,
42
42
    generate_ids,
43
43
    osutils,
44
44
    symbol_versioning,
45
 
    workingtree,
46
45
    )
47
46
""")
48
47
 
50
49
    BzrCheckError,
51
50
    BzrError,
52
51
    )
53
 
from bzrlib.symbol_versioning import deprecated_method, zero_ninetyone
 
52
from bzrlib.symbol_versioning import deprecated_in, deprecated_method
54
53
from bzrlib.trace import mutter
 
54
from bzrlib.static_tuple import StaticTuple
55
55
 
56
56
 
57
57
class InventoryEntry(object):
69
69
        file_id of the parent directory, or ROOT_ID
70
70
 
71
71
    revision
72
 
        the revision_id in which this variation of this file was 
 
72
        the revision_id in which this variation of this file was
73
73
        introduced.
74
74
 
75
75
    executable
78
78
 
79
79
    text_sha1
80
80
        sha-1 of the text of the file
81
 
        
 
81
 
82
82
    text_size
83
83
        size in bytes of the text of the file
84
 
        
 
84
 
85
85
    (reading a version 4 tree created a text_id field.)
86
86
 
87
87
    >>> i = Inventory()
90
90
    >>> i.add(InventoryDirectory('123', 'src', ROOT_ID))
91
91
    InventoryDirectory('123', 'src', parent_id='TREE_ROOT', revision=None)
92
92
    >>> i.add(InventoryFile('2323', 'hello.c', parent_id='123'))
93
 
    InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None)
 
93
    InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None, revision=None)
94
94
    >>> shouldbe = {0: '', 1: 'src', 2: 'src/hello.c'}
95
95
    >>> for ix, j in enumerate(i.iter_entries()):
96
96
    ...   print (j[0] == shouldbe[ix], j[1])
97
 
    ... 
 
97
    ...
98
98
    (True, InventoryDirectory('TREE_ROOT', u'', parent_id=None, revision=None))
99
99
    (True, InventoryDirectory('123', 'src', parent_id='TREE_ROOT', revision=None))
100
 
    (True, InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None))
 
100
    (True, InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None, revision=None))
101
101
    >>> i.add(InventoryFile('2324', 'bye.c', '123'))
102
 
    InventoryFile('2324', 'bye.c', parent_id='123', sha1=None, len=None)
 
102
    InventoryFile('2324', 'bye.c', parent_id='123', sha1=None, len=None, revision=None)
103
103
    >>> i.add(InventoryDirectory('2325', 'wibble', '123'))
104
104
    InventoryDirectory('2325', 'wibble', parent_id='123', revision=None)
105
105
    >>> i.path2id('src/wibble')
107
107
    >>> '2325' in i
108
108
    True
109
109
    >>> i.add(InventoryFile('2326', 'wibble.c', '2325'))
110
 
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None)
 
110
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
111
111
    >>> i['2326']
112
 
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None)
 
112
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
113
113
    >>> for path, entry in i.iter_entries():
114
114
    ...     print path
115
 
    ...     assert i.path2id(path)
116
 
    ... 
 
115
    ...
117
116
    <BLANKLINE>
118
117
    src
119
118
    src/bye.c
126
125
 
127
126
    # Constants returned by describe_change()
128
127
    #
129
 
    # TODO: These should probably move to some kind of FileChangeDescription 
130
 
    # class; that's like what's inside a TreeDelta but we want to be able to 
 
128
    # TODO: These should probably move to some kind of FileChangeDescription
 
129
    # class; that's like what's inside a TreeDelta but we want to be able to
131
130
    # generate them just for one file at a time.
132
131
    RENAMED = 'renamed'
133
132
    MODIFIED_AND_RENAMED = 'modified and renamed'
134
 
    
 
133
 
135
134
    __slots__ = []
136
135
 
137
136
    def detect_changes(self, old_entry):
138
137
        """Return a (text_modified, meta_modified) from this to old_entry.
139
 
        
140
 
        _read_tree_state must have been called on self and old_entry prior to 
 
138
 
 
139
        _read_tree_state must have been called on self and old_entry prior to
141
140
        calling detect_changes.
142
141
        """
143
142
        return False, False
144
143
 
145
 
    def diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
146
 
             output_to, reverse=False):
147
 
        """Perform a diff from this to to_entry.
148
 
 
149
 
        text_diff will be used for textual difference calculation.
150
 
        This is a template method, override _diff in child classes.
151
 
        """
152
 
        self._read_tree_state(tree.id2path(self.file_id), tree)
153
 
        if to_entry:
154
 
            # cannot diff from one kind to another - you must do a removal
155
 
            # and an addif they do not match.
156
 
            assert self.kind == to_entry.kind
157
 
            to_entry._read_tree_state(to_tree.id2path(to_entry.file_id),
158
 
                                      to_tree)
159
 
        self._diff(text_diff, from_label, tree, to_label, to_entry, to_tree,
160
 
                   output_to, reverse)
161
 
 
162
144
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
163
145
             output_to, reverse=False):
164
146
        """Perform a diff between two entries of the same kind."""
165
 
    
 
147
 
166
148
    def parent_candidates(self, previous_inventories):
167
149
        """Find possible per-file graph parents.
168
150
 
178
160
        for inv in previous_inventories:
179
161
            if self.file_id in inv:
180
162
                ie = inv[self.file_id]
181
 
                assert ie.file_id == self.file_id
182
163
                if ie.revision in candidates:
183
164
                    # same revision value in two different inventories:
184
165
                    # correct possible inconsistencies:
185
 
                    #     * there was a bug in revision updates with 'x' bit 
 
166
                    #     * there was a bug in revision updates with 'x' bit
186
167
                    #       support.
187
168
                    try:
188
169
                        if candidates[ie.revision].executable != ie.executable:
190
171
                            ie.executable = False
191
172
                    except AttributeError:
192
173
                        pass
193
 
                    # must now be the same.
194
 
                    assert candidates[ie.revision] == ie
195
174
                else:
196
175
                    # add this revision as a candidate.
197
176
                    candidates[ie.revision] = ie
198
177
        return candidates
199
178
 
200
 
    @deprecated_method(zero_ninetyone)
201
 
    def find_previous_heads(self, previous_inventories,
202
 
                            versioned_file_store,
203
 
                            transaction,
204
 
                            entry_vf=None):
205
 
        """Return the revisions and entries that directly precede this.
206
 
 
207
 
        Returned as a map from revision to inventory entry.
208
 
 
209
 
        This is a map containing the file revisions in all parents
210
 
        for which the file exists, and its revision is not a parent of
211
 
        any other. If the file is new, the set will be empty.
212
 
 
213
 
        :param versioned_file_store: A store where ancestry data on this
214
 
                                     file id can be queried.
215
 
        :param transaction: The transaction that queries to the versioned 
216
 
                            file store should be completed under.
217
 
        :param entry_vf: The entry versioned file, if its already available.
218
 
        """
219
 
        candidates = self.parent_candidates(previous_inventories)
220
 
 
221
 
        # revision:ie mapping with one revision for each head.
222
 
        heads = {}
223
 
        # common case optimisation
224
 
        if len(candidates) == 1:
225
 
            # if there is only one candidate revision found
226
 
            # then we can avoid opening the versioned file to access ancestry:
227
 
            # there cannot be any ancestors to eliminate when there is 
228
 
            # only one revision available.
229
 
            return candidates
230
 
        
231
 
        # --- what follows is now encapsulated in repository.get_graph.heads(), 
232
 
        #     but that is not accessible from here as we have no repository
233
 
        #     pointer. Note that the repository.get_graph.heads() call can return
234
 
        #     different results *at the moment* because of the kind-changing check
235
 
        #     we have in parent_candidates().
236
 
 
237
 
        # eliminate ancestors amongst the available candidates:
238
 
        # heads are those that are not an ancestor of any other candidate
239
 
        # - this provides convergence at a per-file level.
240
 
        def get_ancestors(weave, entry):
241
 
            return set(weave.get_ancestry(entry.revision, topo_sorted=False))
242
 
        # revision: ancestor list for each head
243
 
        head_ancestors = {}
244
 
        for ie in candidates.values():
245
 
            # may be an ancestor of a known head:
246
 
            already_present = 0 != len(
247
 
                [head for head in heads 
248
 
                 if ie.revision in head_ancestors[head]])
249
 
            if already_present:
250
 
                # an ancestor of an analyzed candidate.
251
 
                continue
252
 
            # not an ancestor of a known head:
253
 
            # load the versioned file for this file id if needed
254
 
            if entry_vf is None:
255
 
                entry_vf = versioned_file_store.get_weave_or_empty(
256
 
                    self.file_id, transaction)
257
 
            ancestors = get_ancestors(entry_vf, ie)
258
 
            # may knock something else out:
259
 
            check_heads = list(heads.keys())
260
 
            for head in check_heads:
261
 
                if head in ancestors:
262
 
                    # this previously discovered 'head' is not
263
 
                    # really a head - its an ancestor of the newly 
264
 
                    # found head,
265
 
                    heads.pop(head)
266
 
            head_ancestors[ie.revision] = ancestors
267
 
            heads[ie.revision] = ie
268
 
        return heads
269
 
 
 
179
    @deprecated_method(deprecated_in((1, 6, 0)))
270
180
    def get_tar_item(self, root, dp, now, tree):
271
181
        """Get a tarfile item and a file stream for its content."""
272
182
        item = tarfile.TarInfo(osutils.pathjoin(root, dp).encode('utf8'))
289
199
 
290
200
    def __init__(self, file_id, name, parent_id, text_id=None):
291
201
        """Create an InventoryEntry
292
 
        
 
202
 
293
203
        The filename must be a single component, relative to the
294
204
        parent directory; it cannot be a whole path or relative name.
295
205
 
302
212
        Traceback (most recent call last):
303
213
        InvalidEntryName: Invalid entry name: src/hello.c
304
214
        """
305
 
        assert isinstance(name, basestring), name
306
215
        if '/' in name or '\\' in name:
307
216
            raise errors.InvalidEntryName(name=name)
308
217
        self.executable = False
310
219
        self.text_sha1 = None
311
220
        self.text_size = None
312
221
        self.file_id = file_id
313
 
        assert isinstance(file_id, (str, None.__class__)), \
314
 
            'bad type %r for %r' % (type(file_id), file_id)
315
222
        self.name = name
316
223
        self.text_id = text_id
317
224
        self.parent_id = parent_id
332
239
        raise BzrError("don't know how to export {%s} of kind %r" %
333
240
                       (self.file_id, self.kind))
334
241
 
 
242
    @deprecated_method(deprecated_in((1, 6, 0)))
335
243
    def put_on_disk(self, dest, dp, tree):
336
244
        """Create a representation of self on disk in the prefix dest.
337
 
        
 
245
 
338
246
        This is a template method - implement _put_on_disk in subclasses.
339
247
        """
340
248
        fullpath = osutils.pathjoin(dest, dp)
353
261
    def versionable_kind(kind):
354
262
        return (kind in ('file', 'directory', 'symlink', 'tree-reference'))
355
263
 
356
 
    def check(self, checker, rev_id, inv, tree):
 
264
    def check(self, checker, rev_id, inv):
357
265
        """Check this inventory entry is intact.
358
266
 
359
267
        This is a template method, override _check for kind specific
360
268
        tests.
361
269
 
362
 
        :param checker: Check object providing context for the checks; 
 
270
        :param checker: Check object providing context for the checks;
363
271
             can be used to find out what parts of the repository have already
364
272
             been checked.
365
273
        :param rev_id: Revision id from which this InventoryEntry was loaded.
366
274
             Not necessarily the last-changed revision for this file.
367
275
        :param inv: Inventory from which the entry was loaded.
368
 
        :param tree: RevisionTree for this entry.
369
276
        """
370
277
        if self.parent_id is not None:
371
278
            if not inv.has_id(self.parent_id):
372
279
                raise BzrCheckError('missing parent {%s} in inventory for revision {%s}'
373
280
                        % (self.parent_id, rev_id))
374
 
        self._check(checker, rev_id, tree)
 
281
        checker._add_entry_to_text_key_references(inv, self)
 
282
        self._check(checker, rev_id)
375
283
 
376
 
    def _check(self, checker, rev_id, tree):
 
284
    def _check(self, checker, rev_id):
377
285
        """Check this inventory entry for kind specific errors."""
378
 
        raise BzrCheckError('unknown entry kind %r in revision {%s}' % 
379
 
                            (self.kind, rev_id))
 
286
        checker._report_items.append(
 
287
            'unknown entry kind %r in revision {%s}' % (self.kind, rev_id))
380
288
 
381
289
    def copy(self):
382
290
        """Clone this inventory entry."""
385
293
    @staticmethod
386
294
    def describe_change(old_entry, new_entry):
387
295
        """Describe the change between old_entry and this.
388
 
        
 
296
 
389
297
        This smells of being an InterInventoryEntry situation, but as its
390
298
        the first one, we're making it a static method for now.
391
299
 
392
 
        An entry with a different parent, or different name is considered 
 
300
        An entry with a different parent, or different name is considered
393
301
        to be renamed. Reparenting is an internal detail.
394
302
        Note that renaming the parent does not trigger a rename for the
395
303
        child entry itself.
433
341
                   self.revision))
434
342
 
435
343
    def __eq__(self, other):
 
344
        if other is self:
 
345
            # For the case when objects are cached
 
346
            return True
436
347
        if not isinstance(other, InventoryEntry):
437
348
            return NotImplemented
438
349
 
473
384
 
474
385
    def _read_tree_state(self, path, work_tree):
475
386
        """Populate fields in the inventory entry from the given tree.
476
 
        
 
387
 
477
388
        Note that this should be modified to be a noop on virtual trees
478
389
        as all entries created there are prepopulated.
479
390
        """
480
 
        # TODO: Rather than running this manually, we should check the 
 
391
        # TODO: Rather than running this manually, we should check the
481
392
        # working sha1 and other expensive properties when they're
482
393
        # first requested, or preload them if they're already known
483
394
        pass            # nothing to do by default
492
403
                 'text_id', 'parent_id', 'children', 'executable',
493
404
                 'revision', 'symlink_target', 'reference_revision']
494
405
 
495
 
    def _check(self, checker, rev_id, tree):
 
406
    def _check(self, checker, rev_id):
496
407
        """See InventoryEntry._check"""
497
408
 
498
409
    def __init__(self, file_id):
509
420
    def __eq__(self, other):
510
421
        if not isinstance(other, RootEntry):
511
422
            return NotImplemented
512
 
        
 
423
 
513
424
        return (self.file_id == other.file_id) \
514
425
               and (self.children == other.children)
515
426
 
521
432
                 'text_id', 'parent_id', 'children', 'executable',
522
433
                 'revision', 'symlink_target', 'reference_revision']
523
434
 
524
 
    def _check(self, checker, rev_id, tree):
 
435
    def _check(self, checker, rev_id):
525
436
        """See InventoryEntry._check"""
526
 
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
527
 
            raise BzrCheckError('directory {%s} has text in revision {%s}'
 
437
        if (self.text_sha1 is not None or self.text_size is not None or
 
438
            self.text_id is not None):
 
439
            checker._report_items.append('directory {%s} has text in revision {%s}'
528
440
                                % (self.file_id, rev_id))
 
441
        # In non rich root repositories we do not expect a file graph for the
 
442
        # root.
 
443
        if self.name == '' and not checker.rich_roots:
 
444
            return
 
445
        # Directories are stored as an empty file, but the file should exist
 
446
        # to provide a per-fileid log. The hash of every directory content is
 
447
        # "da..." below (the sha1sum of '').
 
448
        checker.add_pending_item(rev_id,
 
449
            ('texts', self.file_id, self.revision), 'text',
 
450
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
529
451
 
530
452
    def copy(self):
531
453
        other = InventoryDirectory(self.file_id, self.name, self.parent_id)
564
486
                 'text_id', 'parent_id', 'children', 'executable',
565
487
                 'revision', 'symlink_target', 'reference_revision']
566
488
 
567
 
    def _check(self, checker, tree_revision_id, tree):
 
489
    def _check(self, checker, tree_revision_id):
568
490
        """See InventoryEntry._check"""
569
 
        t = (self.file_id, self.revision)
570
 
        if t in checker.checked_texts:
571
 
            prev_sha = checker.checked_texts[t]
572
 
            if prev_sha != self.text_sha1:
573
 
                raise BzrCheckError(
574
 
                    'mismatched sha1 on {%s} in {%s} (%s != %s) %r' %
575
 
                    (self.file_id, tree_revision_id, prev_sha, self.text_sha1,
576
 
                     t))
577
 
            else:
578
 
                checker.repeated_text_cnt += 1
579
 
                return
580
 
 
581
 
        if self.file_id not in checker.checked_weaves:
582
 
            mutter('check weave {%s}', self.file_id)
583
 
            w = tree._get_weave(self.file_id)
584
 
            # Not passing a progress bar, because it creates a new
585
 
            # progress, which overwrites the current progress,
586
 
            # and doesn't look nice
587
 
            w.check()
588
 
            checker.checked_weaves[self.file_id] = True
589
 
        else:
590
 
            w = tree._get_weave(self.file_id)
591
 
 
592
 
        mutter('check version {%s} of {%s}', tree_revision_id, self.file_id)
593
 
        checker.checked_text_cnt += 1
594
 
        # We can't check the length, because Weave doesn't store that
595
 
        # information, and the whole point of looking at the weave's
596
 
        # sha1sum is that we don't have to extract the text.
597
 
        if self.text_sha1 != w.get_sha1(self.revision):
598
 
            raise BzrCheckError('text {%s} version {%s} wrong sha1' 
599
 
                                % (self.file_id, self.revision))
600
 
        checker.checked_texts[t] = self.text_sha1
 
491
        # TODO: check size too.
 
492
        checker.add_pending_item(tree_revision_id,
 
493
            ('texts', self.file_id, self.revision), 'text',
 
494
             self.text_sha1)
 
495
        if self.text_size is None:
 
496
            checker._report_items.append(
 
497
                'fileid {%s} in {%s} has None for text_size' % (self.file_id,
 
498
                tree_revision_id))
601
499
 
602
500
    def copy(self):
603
501
        other = InventoryFile(self.file_id, self.name, self.parent_id)
610
508
 
611
509
    def detect_changes(self, old_entry):
612
510
        """See InventoryEntry.detect_changes."""
613
 
        assert self.text_sha1 is not None
614
 
        assert old_entry.text_sha1 is not None
615
511
        text_modified = (self.text_sha1 != old_entry.text_sha1)
616
512
        meta_modified = (self.executable != old_entry.executable)
617
513
        return text_modified, meta_modified
619
515
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
620
516
             output_to, reverse=False):
621
517
        """See InventoryEntry._diff."""
622
 
        try:
623
 
            from_text = tree.get_file(self.file_id).readlines()
624
 
            if to_entry:
625
 
                to_text = to_tree.get_file(to_entry.file_id).readlines()
626
 
            else:
627
 
                to_text = []
628
 
            if not reverse:
629
 
                text_diff(from_label, from_text,
630
 
                          to_label, to_text, output_to)
631
 
            else:
632
 
                text_diff(to_label, to_text,
633
 
                          from_label, from_text, output_to)
634
 
        except errors.BinaryFile:
635
 
            if reverse:
636
 
                label_pair = (to_label, from_label)
637
 
            else:
638
 
                label_pair = (from_label, to_label)
639
 
            output_to.write(
640
 
                  ("Binary files %s and %s differ\n" % label_pair).encode('utf8'))
 
518
        from bzrlib.diff import DiffText
 
519
        from_file_id = self.file_id
 
520
        if to_entry:
 
521
            to_file_id = to_entry.file_id
 
522
        else:
 
523
            to_file_id = None
 
524
        if reverse:
 
525
            to_file_id, from_file_id = from_file_id, to_file_id
 
526
            tree, to_tree = to_tree, tree
 
527
            from_label, to_label = to_label, from_label
 
528
        differ = DiffText(tree, to_tree, output_to, 'utf-8', '', '',
 
529
                          text_diff)
 
530
        return differ.diff_text(from_file_id, to_file_id, from_label, to_label)
641
531
 
642
532
    def has_text(self):
643
533
        """See InventoryEntry.has_text."""
676
566
        self.executable = work_tree.is_executable(self.file_id, path=path)
677
567
 
678
568
    def __repr__(self):
679
 
        return ("%s(%r, %r, parent_id=%r, sha1=%r, len=%s)"
 
569
        return ("%s(%r, %r, parent_id=%r, sha1=%r, len=%s, revision=%s)"
680
570
                % (self.__class__.__name__,
681
571
                   self.file_id,
682
572
                   self.name,
683
573
                   self.parent_id,
684
574
                   self.text_sha1,
685
 
                   self.text_size))
 
575
                   self.text_size,
 
576
                   self.revision))
686
577
 
687
578
    def _forget_tree_state(self):
688
579
        self.text_sha1 = None
708
599
                 'text_id', 'parent_id', 'children', 'executable',
709
600
                 'revision', 'symlink_target', 'reference_revision']
710
601
 
711
 
    def _check(self, checker, rev_id, tree):
 
602
    def _check(self, checker, tree_revision_id):
712
603
        """See InventoryEntry._check"""
713
604
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
714
 
            raise BzrCheckError('symlink {%s} has text in revision {%s}'
715
 
                    % (self.file_id, rev_id))
 
605
            checker._report_items.append(
 
606
               'symlink {%s} has text in revision {%s}'
 
607
                    % (self.file_id, tree_revision_id))
716
608
        if self.symlink_target is None:
717
 
            raise BzrCheckError('symlink {%s} has no target in revision {%s}'
718
 
                    % (self.file_id, rev_id))
 
609
            checker._report_items.append(
 
610
                'symlink {%s} has no target in revision {%s}'
 
611
                    % (self.file_id, tree_revision_id))
 
612
        # Symlinks are stored as ''
 
613
        checker.add_pending_item(tree_revision_id,
 
614
            ('texts', self.file_id, self.revision), 'text',
 
615
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
719
616
 
720
617
    def copy(self):
721
618
        other = InventoryLink(self.file_id, self.name, self.parent_id)
735
632
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
736
633
             output_to, reverse=False):
737
634
        """See InventoryEntry._diff."""
738
 
        from_text = self.symlink_target
 
635
        from bzrlib.diff import DiffSymlink
 
636
        old_target = self.symlink_target
739
637
        if to_entry is not None:
740
 
            to_text = to_entry.symlink_target
741
 
            if reverse:
742
 
                temp = from_text
743
 
                from_text = to_text
744
 
                to_text = temp
745
 
            output_to.write('=== target changed %r => %r\n' % (from_text, to_text))
746
 
        else:
747
 
            if not reverse:
748
 
                output_to.write('=== target was %r\n' % self.symlink_target)
749
 
            else:
750
 
                output_to.write('=== target is %r\n' % self.symlink_target)
 
638
            new_target = to_entry.symlink_target
 
639
        else:
 
640
            new_target = None
 
641
        if not reverse:
 
642
            old_tree = tree
 
643
            new_tree = to_tree
 
644
        else:
 
645
            old_tree = to_tree
 
646
            new_tree = tree
 
647
            new_target, old_target = old_target, new_target
 
648
        differ = DiffSymlink(old_tree, new_tree, output_to)
 
649
        return differ.diff_symlink(old_target, new_target)
751
650
 
752
651
    def __init__(self, file_id, name, parent_id):
753
652
        super(InventoryLink, self).__init__(file_id, name, parent_id)
789
688
 
790
689
 
791
690
class TreeReference(InventoryEntry):
792
 
    
 
691
 
793
692
    kind = 'tree-reference'
794
 
    
 
693
 
795
694
    def __init__(self, file_id, name, parent_id, revision=None,
796
695
                 reference_revision=None):
797
696
        InventoryEntry.__init__(self, file_id, name, parent_id)
809
708
            self.file_id, path)
810
709
 
811
710
    def _forget_tree_state(self):
812
 
        self.reference_revision = None 
 
711
        self.reference_revision = None
813
712
 
814
713
    def _unchanged(self, previous_ie):
815
714
        """See InventoryEntry._unchanged."""
819
718
        return compatible
820
719
 
821
720
 
822
 
class Inventory(object):
823
 
    """Inventory of versioned files in a tree.
824
 
 
825
 
    This describes which file_id is present at each point in the tree,
826
 
    and possibly the SHA-1 or other information about the file.
 
721
class CommonInventory(object):
 
722
    """Basic inventory logic, defined in terms of primitives like has_id.
 
723
 
 
724
    An inventory is the metadata about the contents of a tree.
 
725
 
 
726
    This is broadly a map from file_id to entries such as directories, files,
 
727
    symlinks and tree references. Each entry maintains its own metadata like
 
728
    SHA1 and length for files, or children for a directory.
 
729
 
827
730
    Entries can be looked up either by path or by file_id.
828
731
 
829
 
    The inventory represents a typical unix file tree, with
830
 
    directories containing files and subdirectories.  We never store
831
 
    the full path to a file, because renaming a directory implicitly
832
 
    moves all of its contents.  This class internally maintains a
833
 
    lookup tree that allows the children under a directory to be
834
 
    returned quickly.
835
 
 
836
732
    InventoryEntry objects must not be modified after they are
837
733
    inserted, other than through the Inventory API.
838
 
 
839
 
    >>> inv = Inventory()
840
 
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
841
 
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None)
842
 
    >>> inv['123-123'].name
843
 
    'hello.c'
844
 
 
845
 
    May be treated as an iterator or set to look up file ids:
846
 
    
847
 
    >>> bool(inv.path2id('hello.c'))
848
 
    True
849
 
    >>> '123-123' in inv
850
 
    True
851
 
 
852
 
    May also look up by name:
853
 
 
854
 
    >>> [x[0] for x in inv.iter_entries()]
855
 
    ['', u'hello.c']
856
 
    >>> inv = Inventory('TREE_ROOT-12345678-12345678')
857
 
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
858
 
    Traceback (most recent call last):
859
 
    BzrError: parent_id {TREE_ROOT} not in inventory
860
 
    >>> inv.add(InventoryFile('123-123', 'hello.c', 'TREE_ROOT-12345678-12345678'))
861
 
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT-12345678-12345678', sha1=None, len=None)
862
734
    """
863
 
    def __init__(self, root_id=ROOT_ID, revision_id=None):
864
 
        """Create or read an inventory.
865
 
 
866
 
        If a working directory is specified, the inventory is read
867
 
        from there.  If the file is specified, read from that. If not,
868
 
        the inventory is created empty.
869
 
 
870
 
        The inventory is created with a default root directory, with
871
 
        an id of None.
872
 
        """
873
 
        if root_id is not None:
874
 
            assert root_id.__class__ == str
875
 
            self._set_root(InventoryDirectory(root_id, u'', None))
876
 
        else:
877
 
            self.root = None
878
 
            self._byid = {}
879
 
        self.revision_id = revision_id
880
 
 
881
 
    def __repr__(self):
882
 
        return "<Inventory object at %x, contents=%r>" % (id(self), self._byid)
883
 
 
884
 
    def apply_delta(self, delta):
885
 
        """Apply a delta to this inventory.
886
 
 
887
 
        :param delta: A list of changes to apply. After all the changes are
888
 
            applied the final inventory must be internally consistent, but it
889
 
            is ok to supply changes which, if only half-applied would have an
890
 
            invalid result - such as supplying two changes which rename two
891
 
            files, 'A' and 'B' with each other : [('A', 'B', 'A-id', a_entry),
892
 
            ('B', 'A', 'B-id', b_entry)].
893
 
 
894
 
            Each change is a tuple, of the form (old_path, new_path, file_id,
895
 
            new_entry).
896
 
            
897
 
            When new_path is None, the change indicates the removal of an entry
898
 
            from the inventory and new_entry will be ignored (using None is
899
 
            appropriate). If new_path is not None, then new_entry must be an
900
 
            InventoryEntry instance, which will be incorporated into the
901
 
            inventory (and replace any existing entry with the same file id).
902
 
            
903
 
            When old_path is None, the change indicates the addition of
904
 
            a new entry to the inventory.
905
 
            
906
 
            When neither new_path nor old_path are None, the change is a
907
 
            modification to an entry, such as a rename, reparent, kind change
908
 
            etc. 
909
 
 
910
 
            The children attribute of new_entry is ignored. This is because
911
 
            this method preserves children automatically across alterations to
912
 
            the parent of the children, and cases where the parent id of a
913
 
            child is changing require the child to be passed in as a separate
914
 
            change regardless. E.g. in the recursive deletion of a directory -
915
 
            the directory's children must be included in the delta, or the
916
 
            final inventory will be invalid.
917
 
        """
918
 
        children = {}
919
 
        # Remove all affected items which were in the original inventory,
920
 
        # starting with the longest paths, thus ensuring parents are examined
921
 
        # after their children, which means that everything we examine has no
922
 
        # modified children remaining by the time we examine it.
923
 
        for old_path, file_id in sorted(((op, f) for op, np, f, e in delta
924
 
                                        if op is not None), reverse=True):
925
 
            if file_id not in self:
926
 
                # adds come later
927
 
                continue
928
 
            # Preserve unaltered children of file_id for later reinsertion.
929
 
            children[file_id] = getattr(self[file_id], 'children', {})
930
 
            # Remove file_id and the unaltered children. If file_id is not
931
 
            # being deleted it will be reinserted back later.
932
 
            self.remove_recursive_id(file_id)
933
 
        # Insert all affected which should be in the new inventory, reattaching
934
 
        # their children if they had any. This is done from shortest path to
935
 
        # longest, ensuring that items which were modified and whose parents in
936
 
        # the resulting inventory were also modified, are inserted after their
937
 
        # parents.
938
 
        for new_path, new_entry in sorted((np, e) for op, np, f, e in
939
 
                                          delta if np is not None):
940
 
            if new_entry.kind == 'directory':
941
 
                new_entry.children = children.get(new_entry.file_id, {})
942
 
            self.add(new_entry)
943
 
 
944
 
    def _set_root(self, ie):
945
 
        self.root = ie
946
 
        self._byid = {self.root.file_id: self.root}
947
 
 
948
 
    def copy(self):
949
 
        # TODO: jam 20051218 Should copy also copy the revision_id?
950
 
        entries = self.iter_entries()
951
 
        if self.root is None:
952
 
            return Inventory(root_id=None)
953
 
        other = Inventory(entries.next()[1].file_id)
954
 
        # copy recursively so we know directories will be added before
955
 
        # their children.  There are more efficient ways than this...
956
 
        for path, entry in entries:
957
 
            other.add(entry.copy())
958
 
        return other
959
 
 
960
 
    def __iter__(self):
961
 
        return iter(self._byid)
962
 
 
963
 
    def __len__(self):
964
 
        """Returns number of entries."""
965
 
        return len(self._byid)
966
 
 
967
 
    def iter_entries(self, from_dir=None):
968
 
        """Return (path, entry) pairs, in order by name."""
 
735
 
 
736
    def __contains__(self, file_id):
 
737
        """True if this entry contains a file with given id.
 
738
 
 
739
        >>> inv = Inventory()
 
740
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
 
741
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
742
        >>> '123' in inv
 
743
        True
 
744
        >>> '456' in inv
 
745
        False
 
746
 
 
747
        Note that this method along with __iter__ are not encouraged for use as
 
748
        they are less clear than specific query methods - they may be rmeoved
 
749
        in the future.
 
750
        """
 
751
        return self.has_id(file_id)
 
752
 
 
753
    def has_filename(self, filename):
 
754
        return bool(self.path2id(filename))
 
755
 
 
756
    def id2path(self, file_id):
 
757
        """Return as a string the path to file_id.
 
758
 
 
759
        >>> i = Inventory()
 
760
        >>> e = i.add(InventoryDirectory('src-id', 'src', ROOT_ID))
 
761
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
 
762
        >>> print i.id2path('foo-id')
 
763
        src/foo.c
 
764
 
 
765
        :raises NoSuchId: If file_id is not present in the inventory.
 
766
        """
 
767
        # get all names, skipping root
 
768
        return '/'.join(reversed(
 
769
            [parent.name for parent in
 
770
             self._iter_file_id_parents(file_id)][:-1]))
 
771
 
 
772
    def iter_entries(self, from_dir=None, recursive=True):
 
773
        """Return (path, entry) pairs, in order by name.
 
774
        
 
775
        :param from_dir: if None, start from the root,
 
776
          otherwise start from this directory (either file-id or entry)
 
777
        :param recursive: recurse into directories or not
 
778
        """
969
779
        if from_dir is None:
970
780
            if self.root is None:
971
781
                return
972
782
            from_dir = self.root
973
783
            yield '', self.root
974
784
        elif isinstance(from_dir, basestring):
975
 
            from_dir = self._byid[from_dir]
976
 
            
 
785
            from_dir = self[from_dir]
 
786
 
977
787
        # unrolling the recursive called changed the time from
978
788
        # 440ms/663ms (inline/total) to 116ms/116ms
979
789
        children = from_dir.children.items()
980
790
        children.sort()
 
791
        if not recursive:
 
792
            for name, ie in children:
 
793
                yield name, ie
 
794
            return
981
795
        children = collections.deque(children)
982
796
        stack = [(u'', children)]
983
797
        while stack:
1035
849
                file_id = list(specific_file_ids)[0]
1036
850
                if file_id in self:
1037
851
                    yield self.id2path(file_id), self[file_id]
1038
 
                return 
 
852
                return
1039
853
            from_dir = self.root
1040
854
            if (specific_file_ids is None or yield_parents or
1041
855
                self.root.file_id in specific_file_ids):
1042
856
                yield u'', self.root
1043
857
        elif isinstance(from_dir, basestring):
1044
 
            from_dir = self._byid[from_dir]
 
858
            from_dir = self[from_dir]
1045
859
 
1046
860
        if specific_file_ids is not None:
1047
861
            # TODO: jam 20070302 This could really be done as a loop rather
1048
862
            #       than a bunch of recursive calls.
1049
863
            parents = set()
1050
 
            byid = self._byid
 
864
            byid = self
1051
865
            def add_ancestors(file_id):
1052
866
                if file_id not in byid:
1053
867
                    return
1061
875
                add_ancestors(file_id)
1062
876
        else:
1063
877
            parents = None
1064
 
            
 
878
 
1065
879
        stack = [(u'', from_dir)]
1066
880
        while stack:
1067
881
            cur_relpath, cur_dir = stack.pop()
1071
885
 
1072
886
                child_relpath = cur_relpath + child_name
1073
887
 
1074
 
                if (specific_file_ids is None or 
 
888
                if (specific_file_ids is None or
1075
889
                    child_ie.file_id in specific_file_ids or
1076
890
                    (yield_parents and child_ie.file_id in parents)):
1077
891
                    yield child_relpath, child_ie
1081
895
                        child_dirs.append((child_relpath+'/', child_ie))
1082
896
            stack.extend(reversed(child_dirs))
1083
897
 
 
898
    def _make_delta(self, old):
 
899
        """Make an inventory delta from two inventories."""
 
900
        old_ids = set(old)
 
901
        new_ids = set(self)
 
902
        adds = new_ids - old_ids
 
903
        deletes = old_ids - new_ids
 
904
        common = old_ids.intersection(new_ids)
 
905
        delta = []
 
906
        for file_id in deletes:
 
907
            delta.append((old.id2path(file_id), None, file_id, None))
 
908
        for file_id in adds:
 
909
            delta.append((None, self.id2path(file_id), file_id, self[file_id]))
 
910
        for file_id in common:
 
911
            if old[file_id] != self[file_id]:
 
912
                delta.append((old.id2path(file_id), self.id2path(file_id),
 
913
                    file_id, self[file_id]))
 
914
        return delta
 
915
 
 
916
    def _get_mutable_inventory(self):
 
917
        """Returns a mutable copy of the object.
 
918
 
 
919
        Some inventories are immutable, yet working trees, for example, needs
 
920
        to mutate exisiting inventories instead of creating a new one.
 
921
        """
 
922
        raise NotImplementedError(self._get_mutable_inventory)
 
923
 
1084
924
    def make_entry(self, kind, name, parent_id, file_id=None):
1085
925
        """Simple thunk to bzrlib.inventory.make_entry."""
1086
926
        return make_entry(kind, name, parent_id, file_id)
1109
949
        accum = []
1110
950
        def descend(parent_ie, parent_path):
1111
951
            accum.append((parent_path, parent_ie))
1112
 
            
 
952
 
1113
953
            kids = [(ie.name, ie) for ie in parent_ie.children.itervalues() if ie.kind == 'directory']
1114
954
            kids.sort()
1115
955
 
1118
958
                descend(child_ie, child_path)
1119
959
        descend(self.root, u'')
1120
960
        return accum
 
961
 
 
962
    def path2id(self, relpath):
 
963
        """Walk down through directories to return entry of last component.
 
964
 
 
965
        :param relpath: may be either a list of path components, or a single
 
966
            string, in which case it is automatically split.
 
967
 
 
968
        This returns the entry of the last component in the path,
 
969
        which may be either a file or a directory.
 
970
 
 
971
        Returns None IFF the path is not found.
 
972
        """
 
973
        if isinstance(relpath, basestring):
 
974
            names = osutils.splitpath(relpath)
 
975
        else:
 
976
            names = relpath
 
977
 
 
978
        try:
 
979
            parent = self.root
 
980
        except errors.NoSuchId:
 
981
            # root doesn't exist yet so nothing else can
 
982
            return None
 
983
        if parent is None:
 
984
            return None
 
985
        for f in names:
 
986
            try:
 
987
                children = getattr(parent, 'children', None)
 
988
                if children is None:
 
989
                    return None
 
990
                cie = children[f]
 
991
                parent = cie
 
992
            except KeyError:
 
993
                # or raise an error?
 
994
                return None
 
995
 
 
996
        return parent.file_id
 
997
 
 
998
    def filter(self, specific_fileids):
 
999
        """Get an inventory view filtered against a set of file-ids.
 
1000
 
 
1001
        Children of directories and parents are included.
 
1002
 
 
1003
        The result may or may not reference the underlying inventory
 
1004
        so it should be treated as immutable.
 
1005
        """
 
1006
        interesting_parents = set()
 
1007
        for fileid in specific_fileids:
 
1008
            try:
 
1009
                interesting_parents.update(self.get_idpath(fileid))
 
1010
            except errors.NoSuchId:
 
1011
                # This fileid is not in the inventory - that's ok
 
1012
                pass
 
1013
        entries = self.iter_entries()
 
1014
        if self.root is None:
 
1015
            return Inventory(root_id=None)
 
1016
        other = Inventory(entries.next()[1].file_id)
 
1017
        other.root.revision = self.root.revision
 
1018
        other.revision_id = self.revision_id
 
1019
        directories_to_expand = set()
 
1020
        for path, entry in entries:
 
1021
            file_id = entry.file_id
 
1022
            if (file_id in specific_fileids
 
1023
                or entry.parent_id in directories_to_expand):
 
1024
                if entry.kind == 'directory':
 
1025
                    directories_to_expand.add(file_id)
 
1026
            elif file_id not in interesting_parents:
 
1027
                continue
 
1028
            other.add(entry.copy())
 
1029
        return other
 
1030
 
 
1031
    def get_idpath(self, file_id):
 
1032
        """Return a list of file_ids for the path to an entry.
 
1033
 
 
1034
        The list contains one element for each directory followed by
 
1035
        the id of the file itself.  So the length of the returned list
 
1036
        is equal to the depth of the file in the tree, counting the
 
1037
        root directory as depth 1.
 
1038
        """
 
1039
        p = []
 
1040
        for parent in self._iter_file_id_parents(file_id):
 
1041
            p.insert(0, parent.file_id)
 
1042
        return p
 
1043
 
 
1044
 
 
1045
class Inventory(CommonInventory):
 
1046
    """Mutable dict based in-memory inventory.
 
1047
 
 
1048
    We never store the full path to a file, because renaming a directory
 
1049
    implicitly moves all of its contents.  This class internally maintains a
 
1050
    lookup tree that allows the children under a directory to be
 
1051
    returned quickly.
 
1052
 
 
1053
    >>> inv = Inventory()
 
1054
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
1055
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1056
    >>> inv['123-123'].name
 
1057
    'hello.c'
 
1058
 
 
1059
    Id's may be looked up from paths:
 
1060
 
 
1061
    >>> inv.path2id('hello.c')
 
1062
    '123-123'
 
1063
    >>> '123-123' in inv
 
1064
    True
 
1065
 
 
1066
    There are iterators over the contents:
 
1067
 
 
1068
    >>> [entry[0] for entry in inv.iter_entries()]
 
1069
    ['', u'hello.c']
 
1070
    """
 
1071
 
 
1072
    def __init__(self, root_id=ROOT_ID, revision_id=None):
 
1073
        """Create or read an inventory.
 
1074
 
 
1075
        If a working directory is specified, the inventory is read
 
1076
        from there.  If the file is specified, read from that. If not,
 
1077
        the inventory is created empty.
 
1078
 
 
1079
        The inventory is created with a default root directory, with
 
1080
        an id of None.
 
1081
        """
 
1082
        if root_id is not None:
 
1083
            self._set_root(InventoryDirectory(root_id, u'', None))
 
1084
        else:
 
1085
            self.root = None
 
1086
            self._byid = {}
 
1087
        self.revision_id = revision_id
 
1088
 
 
1089
    def __repr__(self):
 
1090
        # More than one page of ouput is not useful anymore to debug
 
1091
        max_len = 2048
 
1092
        closing = '...}'
 
1093
        contents = repr(self._byid)
 
1094
        if len(contents) > max_len:
 
1095
            contents = contents[:(max_len-len(closing))] + closing
 
1096
        return "<Inventory object at %x, contents=%r>" % (id(self), contents)
 
1097
 
 
1098
    def apply_delta(self, delta):
 
1099
        """Apply a delta to this inventory.
 
1100
 
 
1101
        See the inventory developers documentation for the theory behind
 
1102
        inventory deltas.
 
1103
 
 
1104
        If delta application fails the inventory is left in an indeterminate
 
1105
        state and must not be used.
 
1106
 
 
1107
        :param delta: A list of changes to apply. After all the changes are
 
1108
            applied the final inventory must be internally consistent, but it
 
1109
            is ok to supply changes which, if only half-applied would have an
 
1110
            invalid result - such as supplying two changes which rename two
 
1111
            files, 'A' and 'B' with each other : [('A', 'B', 'A-id', a_entry),
 
1112
            ('B', 'A', 'B-id', b_entry)].
 
1113
 
 
1114
            Each change is a tuple, of the form (old_path, new_path, file_id,
 
1115
            new_entry).
 
1116
 
 
1117
            When new_path is None, the change indicates the removal of an entry
 
1118
            from the inventory and new_entry will be ignored (using None is
 
1119
            appropriate). If new_path is not None, then new_entry must be an
 
1120
            InventoryEntry instance, which will be incorporated into the
 
1121
            inventory (and replace any existing entry with the same file id).
 
1122
 
 
1123
            When old_path is None, the change indicates the addition of
 
1124
            a new entry to the inventory.
 
1125
 
 
1126
            When neither new_path nor old_path are None, the change is a
 
1127
            modification to an entry, such as a rename, reparent, kind change
 
1128
            etc.
 
1129
 
 
1130
            The children attribute of new_entry is ignored. This is because
 
1131
            this method preserves children automatically across alterations to
 
1132
            the parent of the children, and cases where the parent id of a
 
1133
            child is changing require the child to be passed in as a separate
 
1134
            change regardless. E.g. in the recursive deletion of a directory -
 
1135
            the directory's children must be included in the delta, or the
 
1136
            final inventory will be invalid.
 
1137
 
 
1138
            Note that a file_id must only appear once within a given delta.
 
1139
            An AssertionError is raised otherwise.
 
1140
        """
 
1141
        # Check that the delta is legal. It would be nice if this could be
 
1142
        # done within the loops below but it's safer to validate the delta
 
1143
        # before starting to mutate the inventory, as there isn't a rollback
 
1144
        # facility.
 
1145
        list(_check_delta_unique_ids(_check_delta_unique_new_paths(
 
1146
            _check_delta_unique_old_paths(_check_delta_ids_match_entry(
 
1147
            _check_delta_ids_are_valid(
 
1148
            _check_delta_new_path_entry_both_or_None(
 
1149
            delta)))))))
 
1150
 
 
1151
        children = {}
 
1152
        # Remove all affected items which were in the original inventory,
 
1153
        # starting with the longest paths, thus ensuring parents are examined
 
1154
        # after their children, which means that everything we examine has no
 
1155
        # modified children remaining by the time we examine it.
 
1156
        for old_path, file_id in sorted(((op, f) for op, np, f, e in delta
 
1157
                                        if op is not None), reverse=True):
 
1158
            # Preserve unaltered children of file_id for later reinsertion.
 
1159
            file_id_children = getattr(self[file_id], 'children', {})
 
1160
            if len(file_id_children):
 
1161
                children[file_id] = file_id_children
 
1162
            if self.id2path(file_id) != old_path:
 
1163
                raise errors.InconsistentDelta(old_path, file_id,
 
1164
                    "Entry was at wrong other path %r." % self.id2path(file_id))
 
1165
            # Remove file_id and the unaltered children. If file_id is not
 
1166
            # being deleted it will be reinserted back later.
 
1167
            self.remove_recursive_id(file_id)
 
1168
        # Insert all affected which should be in the new inventory, reattaching
 
1169
        # their children if they had any. This is done from shortest path to
 
1170
        # longest, ensuring that items which were modified and whose parents in
 
1171
        # the resulting inventory were also modified, are inserted after their
 
1172
        # parents.
 
1173
        for new_path, f, new_entry in sorted((np, f, e) for op, np, f, e in
 
1174
                                          delta if np is not None):
 
1175
            if new_entry.kind == 'directory':
 
1176
                # Pop the child which to allow detection of children whose
 
1177
                # parents were deleted and which were not reattached to a new
 
1178
                # parent.
 
1179
                replacement = InventoryDirectory(new_entry.file_id,
 
1180
                    new_entry.name, new_entry.parent_id)
 
1181
                replacement.revision = new_entry.revision
 
1182
                replacement.children = children.pop(replacement.file_id, {})
 
1183
                new_entry = replacement
 
1184
            try:
 
1185
                self.add(new_entry)
 
1186
            except errors.DuplicateFileId:
 
1187
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
 
1188
                    "New id is already present in target.")
 
1189
            except AttributeError:
 
1190
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
 
1191
                    "Parent is not a directory.")
 
1192
            if self.id2path(new_entry.file_id) != new_path:
 
1193
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
 
1194
                    "New path is not consistent with parent path.")
 
1195
        if len(children):
 
1196
            # Get the parent id that was deleted
 
1197
            parent_id, children = children.popitem()
 
1198
            raise errors.InconsistentDelta("<deleted>", parent_id,
 
1199
                "The file id was deleted but its children were not deleted.")
 
1200
 
 
1201
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
 
1202
                              propagate_caches=False):
 
1203
        """See CHKInventory.create_by_apply_delta()"""
 
1204
        new_inv = self.copy()
 
1205
        new_inv.apply_delta(inventory_delta)
 
1206
        new_inv.revision_id = new_revision_id
 
1207
        return new_inv
 
1208
 
 
1209
    def _set_root(self, ie):
 
1210
        self.root = ie
 
1211
        self._byid = {self.root.file_id: self.root}
 
1212
 
 
1213
    def copy(self):
 
1214
        # TODO: jam 20051218 Should copy also copy the revision_id?
 
1215
        entries = self.iter_entries()
 
1216
        if self.root is None:
 
1217
            return Inventory(root_id=None)
 
1218
        other = Inventory(entries.next()[1].file_id)
 
1219
        other.root.revision = self.root.revision
 
1220
        # copy recursively so we know directories will be added before
 
1221
        # their children.  There are more efficient ways than this...
 
1222
        for path, entry in entries:
 
1223
            other.add(entry.copy())
 
1224
        return other
 
1225
 
 
1226
    def _get_mutable_inventory(self):
 
1227
        """See CommonInventory._get_mutable_inventory."""
 
1228
        return copy.deepcopy(self)
 
1229
 
 
1230
    def __iter__(self):
 
1231
        """Iterate over all file-ids."""
 
1232
        return iter(self._byid)
 
1233
 
 
1234
    def iter_just_entries(self):
 
1235
        """Iterate over all entries.
1121
1236
        
1122
 
    def __contains__(self, file_id):
1123
 
        """True if this entry contains a file with given id.
 
1237
        Unlike iter_entries(), just the entries are returned (not (path, ie))
 
1238
        and the order of entries is undefined.
1124
1239
 
1125
 
        >>> inv = Inventory()
1126
 
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
1127
 
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None)
1128
 
        >>> '123' in inv
1129
 
        True
1130
 
        >>> '456' in inv
1131
 
        False
 
1240
        XXX: We may not want to merge this into bzr.dev.
1132
1241
        """
1133
 
        return (file_id in self._byid)
 
1242
        if self.root is None:
 
1243
            return
 
1244
        for _, ie in self._byid.iteritems():
 
1245
            yield ie
 
1246
 
 
1247
    def __len__(self):
 
1248
        """Returns number of entries."""
 
1249
        return len(self._byid)
1134
1250
 
1135
1251
    def __getitem__(self, file_id):
1136
1252
        """Return the entry for given file_id.
1137
1253
 
1138
1254
        >>> inv = Inventory()
1139
1255
        >>> inv.add(InventoryFile('123123', 'hello.c', ROOT_ID))
1140
 
        InventoryFile('123123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
1256
        InventoryFile('123123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1141
1257
        >>> inv['123123'].name
1142
1258
        'hello.c'
1143
1259
        """
1169
1285
        To add  a file to a branch ready to be committed, use Branch.add,
1170
1286
        which calls this.
1171
1287
 
1172
 
        Returns the new entry object.
 
1288
        :return: entry
1173
1289
        """
1174
1290
        if entry.file_id in self._byid:
1175
1291
            raise errors.DuplicateFileId(entry.file_id,
1176
1292
                                         self._byid[entry.file_id])
1177
 
 
1178
1293
        if entry.parent_id is None:
1179
 
            assert self.root is None and len(self._byid) == 0
1180
1294
            self.root = entry
1181
1295
        else:
1182
1296
            try:
1183
1297
                parent = self._byid[entry.parent_id]
1184
1298
            except KeyError:
1185
 
                raise BzrError("parent_id {%s} not in inventory" %
1186
 
                               entry.parent_id)
1187
 
 
 
1299
                raise errors.InconsistentDelta("<unknown>", entry.parent_id,
 
1300
                    "Parent not in inventory.")
1188
1301
            if entry.name in parent.children:
1189
 
                raise BzrError("%s is already versioned" %
1190
 
                        osutils.pathjoin(self.id2path(parent.file_id),
1191
 
                        entry.name).encode('utf-8'))
 
1302
                raise errors.InconsistentDelta(
 
1303
                    self.id2path(parent.children[entry.name].file_id),
 
1304
                    entry.file_id,
 
1305
                    "Path already versioned")
1192
1306
            parent.children[entry.name] = entry
1193
1307
        return self._add_child(entry)
1194
1308
 
1198
1312
        The immediate parent must already be versioned.
1199
1313
 
1200
1314
        Returns the new entry object."""
1201
 
        
 
1315
 
1202
1316
        parts = osutils.splitpath(relpath)
1203
1317
 
1204
1318
        if len(parts) == 0:
1220
1334
 
1221
1335
        >>> inv = Inventory()
1222
1336
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
1223
 
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
1337
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1224
1338
        >>> '123' in inv
1225
1339
        True
1226
1340
        >>> del inv['123']
1228
1342
        False
1229
1343
        """
1230
1344
        ie = self[file_id]
1231
 
 
1232
 
        assert ie.parent_id is None or \
1233
 
            self[ie.parent_id].children[ie.name] == ie
1234
 
        
1235
1345
        del self._byid[file_id]
1236
1346
        if ie.parent_id is not None:
1237
1347
            del self[ie.parent_id].children[ie.name]
1244
1354
        >>> i1 == i2
1245
1355
        True
1246
1356
        >>> i1.add(InventoryFile('123', 'foo', ROOT_ID))
1247
 
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None)
 
1357
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1248
1358
        >>> i1 == i2
1249
1359
        False
1250
1360
        >>> i2.add(InventoryFile('123', 'foo', ROOT_ID))
1251
 
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None)
 
1361
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1252
1362
        >>> i1 == i2
1253
1363
        True
1254
1364
        """
1273
1383
            yield ie
1274
1384
            file_id = ie.parent_id
1275
1385
 
1276
 
    def get_idpath(self, file_id):
1277
 
        """Return a list of file_ids for the path to an entry.
1278
 
 
1279
 
        The list contains one element for each directory followed by
1280
 
        the id of the file itself.  So the length of the returned list
1281
 
        is equal to the depth of the file in the tree, counting the
1282
 
        root directory as depth 1.
1283
 
        """
1284
 
        p = []
1285
 
        for parent in self._iter_file_id_parents(file_id):
1286
 
            p.insert(0, parent.file_id)
1287
 
        return p
1288
 
 
1289
 
    def id2path(self, file_id):
1290
 
        """Return as a string the path to file_id.
1291
 
        
1292
 
        >>> i = Inventory()
1293
 
        >>> e = i.add(InventoryDirectory('src-id', 'src', ROOT_ID))
1294
 
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
1295
 
        >>> print i.id2path('foo-id')
1296
 
        src/foo.c
1297
 
        """
1298
 
        # get all names, skipping root
1299
 
        return '/'.join(reversed(
1300
 
            [parent.name for parent in 
1301
 
             self._iter_file_id_parents(file_id)][:-1]))
1302
 
            
1303
 
    def path2id(self, name):
1304
 
        """Walk down through directories to return entry of last component.
1305
 
 
1306
 
        names may be either a list of path components, or a single
1307
 
        string, in which case it is automatically split.
1308
 
 
1309
 
        This returns the entry of the last component in the path,
1310
 
        which may be either a file or a directory.
1311
 
 
1312
 
        Returns None IFF the path is not found.
1313
 
        """
1314
 
        if isinstance(name, basestring):
1315
 
            name = osutils.splitpath(name)
1316
 
 
1317
 
        # mutter("lookup path %r" % name)
1318
 
 
1319
 
        parent = self.root
1320
 
        if parent is None:
1321
 
            return None
1322
 
        for f in name:
1323
 
            try:
1324
 
                children = getattr(parent, 'children', None)
1325
 
                if children is None:
1326
 
                    return None
1327
 
                cie = children[f]
1328
 
                assert cie.name == f
1329
 
                assert cie.parent_id == parent.file_id
1330
 
                parent = cie
1331
 
            except KeyError:
1332
 
                # or raise an error?
1333
 
                return None
1334
 
 
1335
 
        return parent.file_id
1336
 
 
1337
 
    def has_filename(self, names):
1338
 
        return bool(self.path2id(names))
1339
 
 
1340
1386
    def has_id(self, file_id):
1341
1387
        return (file_id in self._byid)
1342
1388
 
 
1389
    def _make_delta(self, old):
 
1390
        """Make an inventory delta from two inventories."""
 
1391
        old_getter = getattr(old, '_byid', old)
 
1392
        new_getter = self._byid
 
1393
        old_ids = set(old_getter)
 
1394
        new_ids = set(new_getter)
 
1395
        adds = new_ids - old_ids
 
1396
        deletes = old_ids - new_ids
 
1397
        if not adds and not deletes:
 
1398
            common = new_ids
 
1399
        else:
 
1400
            common = old_ids.intersection(new_ids)
 
1401
        delta = []
 
1402
        for file_id in deletes:
 
1403
            delta.append((old.id2path(file_id), None, file_id, None))
 
1404
        for file_id in adds:
 
1405
            delta.append((None, self.id2path(file_id), file_id, self[file_id]))
 
1406
        for file_id in common:
 
1407
            new_ie = new_getter[file_id]
 
1408
            old_ie = old_getter[file_id]
 
1409
            # If xml_serializer returns the cached InventoryEntries (rather
 
1410
            # than always doing .copy()), inlining the 'is' check saves 2.7M
 
1411
            # calls to __eq__.  Under lsprof this saves 20s => 6s.
 
1412
            # It is a minor improvement without lsprof.
 
1413
            if old_ie is new_ie or old_ie == new_ie:
 
1414
                continue
 
1415
            else:
 
1416
                delta.append((old.id2path(file_id), self.id2path(file_id),
 
1417
                              file_id, new_ie))
 
1418
        return delta
 
1419
 
1343
1420
    def remove_recursive_id(self, file_id):
1344
1421
        """Remove file_id, and children, from the inventory.
1345
 
        
 
1422
 
1346
1423
        :param file_id: A file_id to remove.
1347
1424
        """
1348
1425
        to_find_delete = [self._byid[file_id]]
1387
1464
 
1388
1465
        del old_parent.children[file_ie.name]
1389
1466
        new_parent.children[new_name] = file_ie
1390
 
        
 
1467
 
1391
1468
        file_ie.name = new_name
1392
1469
        file_ie.parent_id = new_parent_id
1393
1470
 
1395
1472
        return self.root is not None and file_id == self.root.file_id
1396
1473
 
1397
1474
 
 
1475
class CHKInventory(CommonInventory):
 
1476
    """An inventory persisted in a CHK store.
 
1477
 
 
1478
    By design, a CHKInventory is immutable so many of the methods
 
1479
    supported by Inventory - add, rename, apply_delta, etc - are *not*
 
1480
    supported. To create a new CHKInventory, use create_by_apply_delta()
 
1481
    or from_inventory(), say.
 
1482
 
 
1483
    Internally, a CHKInventory has one or two CHKMaps:
 
1484
 
 
1485
    * id_to_entry - a map from (file_id,) => InventoryEntry as bytes
 
1486
    * parent_id_basename_to_file_id - a map from (parent_id, basename_utf8)
 
1487
        => file_id as bytes
 
1488
 
 
1489
    The second map is optional and not present in early CHkRepository's.
 
1490
 
 
1491
    No caching is performed: every method call or item access will perform
 
1492
    requests to the storage layer. As such, keep references to objects you
 
1493
    want to reuse.
 
1494
    """
 
1495
 
 
1496
    def __init__(self, search_key_name):
 
1497
        CommonInventory.__init__(self)
 
1498
        self._fileid_to_entry_cache = {}
 
1499
        self._path_to_fileid_cache = {}
 
1500
        self._search_key_name = search_key_name
 
1501
        self.root_id = None
 
1502
 
 
1503
    def __eq__(self, other):
 
1504
        """Compare two sets by comparing their contents."""
 
1505
        if not isinstance(other, CHKInventory):
 
1506
            return NotImplemented
 
1507
 
 
1508
        this_key = self.id_to_entry.key()
 
1509
        other_key = other.id_to_entry.key()
 
1510
        this_pid_key = self.parent_id_basename_to_file_id.key()
 
1511
        other_pid_key = other.parent_id_basename_to_file_id.key()
 
1512
        if None in (this_key, this_pid_key, other_key, other_pid_key):
 
1513
            return False
 
1514
        return this_key == other_key and this_pid_key == other_pid_key
 
1515
 
 
1516
    def _entry_to_bytes(self, entry):
 
1517
        """Serialise entry as a single bytestring.
 
1518
 
 
1519
        :param Entry: An inventory entry.
 
1520
        :return: A bytestring for the entry.
 
1521
 
 
1522
        The BNF:
 
1523
        ENTRY ::= FILE | DIR | SYMLINK | TREE
 
1524
        FILE ::= "file: " COMMON SEP SHA SEP SIZE SEP EXECUTABLE
 
1525
        DIR ::= "dir: " COMMON
 
1526
        SYMLINK ::= "symlink: " COMMON SEP TARGET_UTF8
 
1527
        TREE ::= "tree: " COMMON REFERENCE_REVISION
 
1528
        COMMON ::= FILE_ID SEP PARENT_ID SEP NAME_UTF8 SEP REVISION
 
1529
        SEP ::= "\n"
 
1530
        """
 
1531
        if entry.parent_id is not None:
 
1532
            parent_str = entry.parent_id
 
1533
        else:
 
1534
            parent_str = ''
 
1535
        name_str = entry.name.encode("utf8")
 
1536
        if entry.kind == 'file':
 
1537
            if entry.executable:
 
1538
                exec_str = "Y"
 
1539
            else:
 
1540
                exec_str = "N"
 
1541
            return "file: %s\n%s\n%s\n%s\n%s\n%d\n%s" % (
 
1542
                entry.file_id, parent_str, name_str, entry.revision,
 
1543
                entry.text_sha1, entry.text_size, exec_str)
 
1544
        elif entry.kind == 'directory':
 
1545
            return "dir: %s\n%s\n%s\n%s" % (
 
1546
                entry.file_id, parent_str, name_str, entry.revision)
 
1547
        elif entry.kind == 'symlink':
 
1548
            return "symlink: %s\n%s\n%s\n%s\n%s" % (
 
1549
                entry.file_id, parent_str, name_str, entry.revision,
 
1550
                entry.symlink_target.encode("utf8"))
 
1551
        elif entry.kind == 'tree-reference':
 
1552
            return "tree: %s\n%s\n%s\n%s\n%s" % (
 
1553
                entry.file_id, parent_str, name_str, entry.revision,
 
1554
                entry.reference_revision)
 
1555
        else:
 
1556
            raise ValueError("unknown kind %r" % entry.kind)
 
1557
 
 
1558
    def _expand_fileids_to_parents_and_children(self, file_ids):
 
1559
        """Give a more wholistic view starting with the given file_ids.
 
1560
 
 
1561
        For any file_id which maps to a directory, we will include all children
 
1562
        of that directory. We will also include all directories which are
 
1563
        parents of the given file_ids, but we will not include their children.
 
1564
 
 
1565
        eg:
 
1566
          /     # TREE_ROOT
 
1567
          foo/  # foo-id
 
1568
            baz # baz-id
 
1569
            frob/ # frob-id
 
1570
              fringle # fringle-id
 
1571
          bar/  # bar-id
 
1572
            bing # bing-id
 
1573
 
 
1574
        if given [foo-id] we will include
 
1575
            TREE_ROOT as interesting parents
 
1576
        and 
 
1577
            foo-id, baz-id, frob-id, fringle-id
 
1578
        As interesting ids.
 
1579
        """
 
1580
        interesting = set()
 
1581
        # TODO: Pre-pass over the list of fileids to see if anything is already
 
1582
        #       deserialized in self._fileid_to_entry_cache
 
1583
 
 
1584
        directories_to_expand = set()
 
1585
        children_of_parent_id = {}
 
1586
        # It is okay if some of the fileids are missing
 
1587
        for entry in self._getitems(file_ids):
 
1588
            if entry.kind == 'directory':
 
1589
                directories_to_expand.add(entry.file_id)
 
1590
            interesting.add(entry.parent_id)
 
1591
            children_of_parent_id.setdefault(entry.parent_id, []
 
1592
                                             ).append(entry.file_id)
 
1593
 
 
1594
        # Now, interesting has all of the direct parents, but not the
 
1595
        # parents of those parents. It also may have some duplicates with
 
1596
        # specific_fileids
 
1597
        remaining_parents = interesting.difference(file_ids)
 
1598
        # When we hit the TREE_ROOT, we'll get an interesting parent of None,
 
1599
        # but we don't actually want to recurse into that
 
1600
        interesting.add(None) # this will auto-filter it in the loop
 
1601
        remaining_parents.discard(None) 
 
1602
        while remaining_parents:
 
1603
            next_parents = set()
 
1604
            for entry in self._getitems(remaining_parents):
 
1605
                next_parents.add(entry.parent_id)
 
1606
                children_of_parent_id.setdefault(entry.parent_id, []
 
1607
                                                 ).append(entry.file_id)
 
1608
            # Remove any search tips we've already processed
 
1609
            remaining_parents = next_parents.difference(interesting)
 
1610
            interesting.update(remaining_parents)
 
1611
            # We should probably also .difference(directories_to_expand)
 
1612
        interesting.update(file_ids)
 
1613
        interesting.discard(None)
 
1614
        while directories_to_expand:
 
1615
            # Expand directories by looking in the
 
1616
            # parent_id_basename_to_file_id map
 
1617
            keys = [StaticTuple(f,).intern() for f in directories_to_expand]
 
1618
            directories_to_expand = set()
 
1619
            items = self.parent_id_basename_to_file_id.iteritems(keys)
 
1620
            next_file_ids = set([item[1] for item in items])
 
1621
            next_file_ids = next_file_ids.difference(interesting)
 
1622
            interesting.update(next_file_ids)
 
1623
            for entry in self._getitems(next_file_ids):
 
1624
                if entry.kind == 'directory':
 
1625
                    directories_to_expand.add(entry.file_id)
 
1626
                children_of_parent_id.setdefault(entry.parent_id, []
 
1627
                                                 ).append(entry.file_id)
 
1628
        return interesting, children_of_parent_id
 
1629
 
 
1630
    def filter(self, specific_fileids):
 
1631
        """Get an inventory view filtered against a set of file-ids.
 
1632
 
 
1633
        Children of directories and parents are included.
 
1634
 
 
1635
        The result may or may not reference the underlying inventory
 
1636
        so it should be treated as immutable.
 
1637
        """
 
1638
        (interesting,
 
1639
         parent_to_children) = self._expand_fileids_to_parents_and_children(
 
1640
                                specific_fileids)
 
1641
        # There is some overlap here, but we assume that all interesting items
 
1642
        # are in the _fileid_to_entry_cache because we had to read them to
 
1643
        # determine if they were a dir we wanted to recurse, or just a file
 
1644
        # This should give us all the entries we'll want to add, so start
 
1645
        # adding
 
1646
        other = Inventory(self.root_id)
 
1647
        other.root.revision = self.root.revision
 
1648
        other.revision_id = self.revision_id
 
1649
        if not interesting or not parent_to_children:
 
1650
            # empty filter, or filtering entrys that don't exist
 
1651
            # (if even 1 existed, then we would have populated
 
1652
            # parent_to_children with at least the tree root.)
 
1653
            return other
 
1654
        cache = self._fileid_to_entry_cache
 
1655
        try:
 
1656
            remaining_children = collections.deque(parent_to_children[self.root_id])
 
1657
        except:
 
1658
            import pdb; pdb.set_trace()
 
1659
            raise
 
1660
        while remaining_children:
 
1661
            file_id = remaining_children.popleft()
 
1662
            ie = cache[file_id]
 
1663
            if ie.kind == 'directory':
 
1664
                ie = ie.copy() # We create a copy to depopulate the .children attribute
 
1665
            # TODO: depending on the uses of 'other' we should probably alwyas
 
1666
            #       '.copy()' to prevent someone from mutating other and
 
1667
            #       invaliding our internal cache
 
1668
            other.add(ie)
 
1669
            if file_id in parent_to_children:
 
1670
                remaining_children.extend(parent_to_children[file_id])
 
1671
        return other
 
1672
 
 
1673
    @staticmethod
 
1674
    def _bytes_to_utf8name_key(bytes):
 
1675
        """Get the file_id, revision_id key out of bytes."""
 
1676
        # We don't normally care about name, except for times when we want
 
1677
        # to filter out empty names because of non rich-root...
 
1678
        sections = bytes.split('\n')
 
1679
        kind, file_id = sections[0].split(': ')
 
1680
        return (sections[2], intern(file_id), intern(sections[3]))
 
1681
 
 
1682
    def _bytes_to_entry(self, bytes):
 
1683
        """Deserialise a serialised entry."""
 
1684
        sections = bytes.split('\n')
 
1685
        if sections[0].startswith("file: "):
 
1686
            result = InventoryFile(sections[0][6:],
 
1687
                sections[2].decode('utf8'),
 
1688
                sections[1])
 
1689
            result.text_sha1 = sections[4]
 
1690
            result.text_size = int(sections[5])
 
1691
            result.executable = sections[6] == "Y"
 
1692
        elif sections[0].startswith("dir: "):
 
1693
            result = CHKInventoryDirectory(sections[0][5:],
 
1694
                sections[2].decode('utf8'),
 
1695
                sections[1], self)
 
1696
        elif sections[0].startswith("symlink: "):
 
1697
            result = InventoryLink(sections[0][9:],
 
1698
                sections[2].decode('utf8'),
 
1699
                sections[1])
 
1700
            result.symlink_target = sections[4].decode('utf8')
 
1701
        elif sections[0].startswith("tree: "):
 
1702
            result = TreeReference(sections[0][6:],
 
1703
                sections[2].decode('utf8'),
 
1704
                sections[1])
 
1705
            result.reference_revision = sections[4]
 
1706
        else:
 
1707
            raise ValueError("Not a serialised entry %r" % bytes)
 
1708
        result.file_id = intern(result.file_id)
 
1709
        result.revision = intern(sections[3])
 
1710
        if result.parent_id == '':
 
1711
            result.parent_id = None
 
1712
        self._fileid_to_entry_cache[result.file_id] = result
 
1713
        return result
 
1714
 
 
1715
    def _get_mutable_inventory(self):
 
1716
        """See CommonInventory._get_mutable_inventory."""
 
1717
        entries = self.iter_entries()
 
1718
        inv = Inventory(None, self.revision_id)
 
1719
        for path, inv_entry in entries:
 
1720
            inv.add(inv_entry.copy())
 
1721
        return inv
 
1722
 
 
1723
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
 
1724
        propagate_caches=False):
 
1725
        """Create a new CHKInventory by applying inventory_delta to this one.
 
1726
 
 
1727
        See the inventory developers documentation for the theory behind
 
1728
        inventory deltas.
 
1729
 
 
1730
        :param inventory_delta: The inventory delta to apply. See
 
1731
            Inventory.apply_delta for details.
 
1732
        :param new_revision_id: The revision id of the resulting CHKInventory.
 
1733
        :param propagate_caches: If True, the caches for this inventory are
 
1734
          copied to and updated for the result.
 
1735
        :return: The new CHKInventory.
 
1736
        """
 
1737
        split = osutils.split
 
1738
        result = CHKInventory(self._search_key_name)
 
1739
        if propagate_caches:
 
1740
            # Just propagate the path-to-fileid cache for now
 
1741
            result._path_to_fileid_cache = dict(self._path_to_fileid_cache.iteritems())
 
1742
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
 
1743
        self.id_to_entry._ensure_root()
 
1744
        maximum_size = self.id_to_entry._root_node.maximum_size
 
1745
        result.revision_id = new_revision_id
 
1746
        result.id_to_entry = chk_map.CHKMap(
 
1747
            self.id_to_entry._store,
 
1748
            self.id_to_entry.key(),
 
1749
            search_key_func=search_key_func)
 
1750
        result.id_to_entry._ensure_root()
 
1751
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
 
1752
        # Change to apply to the parent_id_basename delta. The dict maps
 
1753
        # (parent_id, basename) -> (old_key, new_value). We use a dict because
 
1754
        # when a path has its id replaced (e.g. the root is changed, or someone
 
1755
        # does bzr mv a b, bzr mv c a, we should output a single change to this
 
1756
        # map rather than two.
 
1757
        parent_id_basename_delta = {}
 
1758
        if self.parent_id_basename_to_file_id is not None:
 
1759
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
 
1760
                self.parent_id_basename_to_file_id._store,
 
1761
                self.parent_id_basename_to_file_id.key(),
 
1762
                search_key_func=search_key_func)
 
1763
            result.parent_id_basename_to_file_id._ensure_root()
 
1764
            self.parent_id_basename_to_file_id._ensure_root()
 
1765
            result_p_id_root = result.parent_id_basename_to_file_id._root_node
 
1766
            p_id_root = self.parent_id_basename_to_file_id._root_node
 
1767
            result_p_id_root.set_maximum_size(p_id_root.maximum_size)
 
1768
            result_p_id_root._key_width = p_id_root._key_width
 
1769
        else:
 
1770
            result.parent_id_basename_to_file_id = None
 
1771
        result.root_id = self.root_id
 
1772
        id_to_entry_delta = []
 
1773
        # inventory_delta is only traversed once, so we just update the
 
1774
        # variable.
 
1775
        # Check for repeated file ids
 
1776
        inventory_delta = _check_delta_unique_ids(inventory_delta)
 
1777
        # Repeated old paths
 
1778
        inventory_delta = _check_delta_unique_old_paths(inventory_delta)
 
1779
        # Check for repeated new paths
 
1780
        inventory_delta = _check_delta_unique_new_paths(inventory_delta)
 
1781
        # Check for entries that don't match the fileid
 
1782
        inventory_delta = _check_delta_ids_match_entry(inventory_delta)
 
1783
        # Check for nonsense fileids
 
1784
        inventory_delta = _check_delta_ids_are_valid(inventory_delta)
 
1785
        # Check for new_path <-> entry consistency
 
1786
        inventory_delta = _check_delta_new_path_entry_both_or_None(
 
1787
            inventory_delta)
 
1788
        # All changed entries need to have their parents be directories and be
 
1789
        # at the right path. This set contains (path, id) tuples.
 
1790
        parents = set()
 
1791
        # When we delete an item, all the children of it must be either deleted
 
1792
        # or altered in their own right. As we batch process the change via
 
1793
        # CHKMap.apply_delta, we build a set of things to use to validate the
 
1794
        # delta.
 
1795
        deletes = set()
 
1796
        altered = set()
 
1797
        for old_path, new_path, file_id, entry in inventory_delta:
 
1798
            # file id changes
 
1799
            if new_path == '':
 
1800
                result.root_id = file_id
 
1801
            if new_path is None:
 
1802
                # Make a delete:
 
1803
                new_key = None
 
1804
                new_value = None
 
1805
                # Update caches
 
1806
                if propagate_caches:
 
1807
                    try:
 
1808
                        del result._path_to_fileid_cache[old_path]
 
1809
                    except KeyError:
 
1810
                        pass
 
1811
                deletes.add(file_id)
 
1812
            else:
 
1813
                new_key = StaticTuple(file_id,)
 
1814
                new_value = result._entry_to_bytes(entry)
 
1815
                # Update caches. It's worth doing this whether
 
1816
                # we're propagating the old caches or not.
 
1817
                result._path_to_fileid_cache[new_path] = file_id
 
1818
                parents.add((split(new_path)[0], entry.parent_id))
 
1819
            if old_path is None:
 
1820
                old_key = None
 
1821
            else:
 
1822
                old_key = StaticTuple(file_id,)
 
1823
                if self.id2path(file_id) != old_path:
 
1824
                    raise errors.InconsistentDelta(old_path, file_id,
 
1825
                        "Entry was at wrong other path %r." %
 
1826
                        self.id2path(file_id))
 
1827
                altered.add(file_id)
 
1828
            id_to_entry_delta.append(StaticTuple(old_key, new_key, new_value))
 
1829
            if result.parent_id_basename_to_file_id is not None:
 
1830
                # parent_id, basename changes
 
1831
                if old_path is None:
 
1832
                    old_key = None
 
1833
                else:
 
1834
                    old_entry = self[file_id]
 
1835
                    old_key = self._parent_id_basename_key(old_entry)
 
1836
                if new_path is None:
 
1837
                    new_key = None
 
1838
                    new_value = None
 
1839
                else:
 
1840
                    new_key = self._parent_id_basename_key(entry)
 
1841
                    new_value = file_id
 
1842
                # If the two keys are the same, the value will be unchanged
 
1843
                # as its always the file id for this entry.
 
1844
                if old_key != new_key:
 
1845
                    # Transform a change into explicit delete/add preserving
 
1846
                    # a possible match on the key from a different file id.
 
1847
                    if old_key is not None:
 
1848
                        parent_id_basename_delta.setdefault(
 
1849
                            old_key, [None, None])[0] = old_key
 
1850
                    if new_key is not None:
 
1851
                        parent_id_basename_delta.setdefault(
 
1852
                            new_key, [None, None])[1] = new_value
 
1853
        # validate that deletes are complete.
 
1854
        for file_id in deletes:
 
1855
            entry = self[file_id]
 
1856
            if entry.kind != 'directory':
 
1857
                continue
 
1858
            # This loop could potentially be better by using the id_basename
 
1859
            # map to just get the child file ids.
 
1860
            for child in entry.children.values():
 
1861
                if child.file_id not in altered:
 
1862
                    raise errors.InconsistentDelta(self.id2path(child.file_id),
 
1863
                        child.file_id, "Child not deleted or reparented when "
 
1864
                        "parent deleted.")
 
1865
        result.id_to_entry.apply_delta(id_to_entry_delta)
 
1866
        if parent_id_basename_delta:
 
1867
            # Transform the parent_id_basename delta data into a linear delta
 
1868
            # with only one record for a given key. Optimally this would allow
 
1869
            # re-keying, but its simpler to just output that as a delete+add
 
1870
            # to spend less time calculating the delta.
 
1871
            delta_list = []
 
1872
            for key, (old_key, value) in parent_id_basename_delta.iteritems():
 
1873
                if value is not None:
 
1874
                    delta_list.append((old_key, key, value))
 
1875
                else:
 
1876
                    delta_list.append((old_key, None, None))
 
1877
            result.parent_id_basename_to_file_id.apply_delta(delta_list)
 
1878
        parents.discard(('', None))
 
1879
        for parent_path, parent in parents:
 
1880
            try:
 
1881
                if result[parent].kind != 'directory':
 
1882
                    raise errors.InconsistentDelta(result.id2path(parent), parent,
 
1883
                        'Not a directory, but given children')
 
1884
            except errors.NoSuchId:
 
1885
                raise errors.InconsistentDelta("<unknown>", parent,
 
1886
                    "Parent is not present in resulting inventory.")
 
1887
            if result.path2id(parent_path) != parent:
 
1888
                raise errors.InconsistentDelta(parent_path, parent,
 
1889
                    "Parent has wrong path %r." % result.path2id(parent_path))
 
1890
        return result
 
1891
 
 
1892
    @classmethod
 
1893
    def deserialise(klass, chk_store, bytes, expected_revision_id):
 
1894
        """Deserialise a CHKInventory.
 
1895
 
 
1896
        :param chk_store: A CHK capable VersionedFiles instance.
 
1897
        :param bytes: The serialised bytes.
 
1898
        :param expected_revision_id: The revision ID we think this inventory is
 
1899
            for.
 
1900
        :return: A CHKInventory
 
1901
        """
 
1902
        lines = bytes.split('\n')
 
1903
        if lines[-1] != '':
 
1904
            raise AssertionError('bytes to deserialize must end with an eol')
 
1905
        lines.pop()
 
1906
        if lines[0] != 'chkinventory:':
 
1907
            raise ValueError("not a serialised CHKInventory: %r" % bytes)
 
1908
        info = {}
 
1909
        allowed_keys = frozenset(['root_id', 'revision_id', 'search_key_name',
 
1910
                                  'parent_id_basename_to_file_id',
 
1911
                                  'id_to_entry'])
 
1912
        for line in lines[1:]:
 
1913
            key, value = line.split(': ', 1)
 
1914
            if key not in allowed_keys:
 
1915
                raise errors.BzrError('Unknown key in inventory: %r\n%r'
 
1916
                                      % (key, bytes))
 
1917
            if key in info:
 
1918
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
 
1919
                                      % (key, bytes))
 
1920
            info[key] = value
 
1921
        revision_id = intern(info['revision_id'])
 
1922
        root_id = intern(info['root_id'])
 
1923
        search_key_name = intern(info.get('search_key_name', 'plain'))
 
1924
        parent_id_basename_to_file_id = intern(info.get(
 
1925
            'parent_id_basename_to_file_id', None))
 
1926
        if not parent_id_basename_to_file_id.startswith('sha1:'):
 
1927
            raise ValueError('parent_id_basename_to_file_id should be a sha1'
 
1928
                             ' key not %r' % (parent_id_basename_to_file_id,))
 
1929
        id_to_entry = info['id_to_entry']
 
1930
        if not id_to_entry.startswith('sha1:'):
 
1931
            raise ValueError('id_to_entry should be a sha1'
 
1932
                             ' key not %r' % (id_to_entry,))
 
1933
 
 
1934
        result = CHKInventory(search_key_name)
 
1935
        result.revision_id = revision_id
 
1936
        result.root_id = root_id
 
1937
        search_key_func = chk_map.search_key_registry.get(
 
1938
                            result._search_key_name)
 
1939
        if parent_id_basename_to_file_id is not None:
 
1940
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
 
1941
                chk_store, StaticTuple(parent_id_basename_to_file_id,),
 
1942
                search_key_func=search_key_func)
 
1943
        else:
 
1944
            result.parent_id_basename_to_file_id = None
 
1945
 
 
1946
        result.id_to_entry = chk_map.CHKMap(chk_store,
 
1947
                                            StaticTuple(id_to_entry,),
 
1948
                                            search_key_func=search_key_func)
 
1949
        if (result.revision_id,) != expected_revision_id:
 
1950
            raise ValueError("Mismatched revision id and expected: %r, %r" %
 
1951
                (result.revision_id, expected_revision_id))
 
1952
        return result
 
1953
 
 
1954
    @classmethod
 
1955
    def from_inventory(klass, chk_store, inventory, maximum_size=0, search_key_name='plain'):
 
1956
        """Create a CHKInventory from an existing inventory.
 
1957
 
 
1958
        The content of inventory is copied into the chk_store, and a
 
1959
        CHKInventory referencing that is returned.
 
1960
 
 
1961
        :param chk_store: A CHK capable VersionedFiles instance.
 
1962
        :param inventory: The inventory to copy.
 
1963
        :param maximum_size: The CHKMap node size limit.
 
1964
        :param search_key_name: The identifier for the search key function
 
1965
        """
 
1966
        result = klass(search_key_name)
 
1967
        result.revision_id = inventory.revision_id
 
1968
        result.root_id = inventory.root.file_id
 
1969
 
 
1970
        entry_to_bytes = result._entry_to_bytes
 
1971
        parent_id_basename_key = result._parent_id_basename_key
 
1972
        id_to_entry_dict = {}
 
1973
        parent_id_basename_dict = {}
 
1974
        for path, entry in inventory.iter_entries():
 
1975
            key = StaticTuple(entry.file_id,).intern()
 
1976
            id_to_entry_dict[key] = entry_to_bytes(entry)
 
1977
            p_id_key = parent_id_basename_key(entry)
 
1978
            parent_id_basename_dict[p_id_key] = entry.file_id
 
1979
 
 
1980
        result._populate_from_dicts(chk_store, id_to_entry_dict,
 
1981
            parent_id_basename_dict, maximum_size=maximum_size)
 
1982
        return result
 
1983
 
 
1984
    def _populate_from_dicts(self, chk_store, id_to_entry_dict,
 
1985
                             parent_id_basename_dict, maximum_size):
 
1986
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
 
1987
        root_key = chk_map.CHKMap.from_dict(chk_store, id_to_entry_dict,
 
1988
                   maximum_size=maximum_size, key_width=1,
 
1989
                   search_key_func=search_key_func)
 
1990
        self.id_to_entry = chk_map.CHKMap(chk_store, root_key,
 
1991
                                          search_key_func)
 
1992
        root_key = chk_map.CHKMap.from_dict(chk_store,
 
1993
                   parent_id_basename_dict,
 
1994
                   maximum_size=maximum_size, key_width=2,
 
1995
                   search_key_func=search_key_func)
 
1996
        self.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
 
1997
                                                    root_key, search_key_func)
 
1998
 
 
1999
    def _parent_id_basename_key(self, entry):
 
2000
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
 
2001
        if entry.parent_id is not None:
 
2002
            parent_id = entry.parent_id
 
2003
        else:
 
2004
            parent_id = ''
 
2005
        return StaticTuple(parent_id, entry.name.encode('utf8')).intern()
 
2006
 
 
2007
    def __getitem__(self, file_id):
 
2008
        """map a single file_id -> InventoryEntry."""
 
2009
        if file_id is None:
 
2010
            raise errors.NoSuchId(self, file_id)
 
2011
        result = self._fileid_to_entry_cache.get(file_id, None)
 
2012
        if result is not None:
 
2013
            return result
 
2014
        try:
 
2015
            return self._bytes_to_entry(
 
2016
                self.id_to_entry.iteritems([StaticTuple(file_id,)]).next()[1])
 
2017
        except StopIteration:
 
2018
            # really we're passing an inventory, not a tree...
 
2019
            raise errors.NoSuchId(self, file_id)
 
2020
 
 
2021
    def _getitems(self, file_ids):
 
2022
        """Similar to __getitem__, but lets you query for multiple.
 
2023
        
 
2024
        The returned order is undefined. And currently if an item doesn't
 
2025
        exist, it isn't included in the output.
 
2026
        """
 
2027
        result = []
 
2028
        remaining = []
 
2029
        for file_id in file_ids:
 
2030
            entry = self._fileid_to_entry_cache.get(file_id, None)
 
2031
            if entry is None:
 
2032
                remaining.append(file_id)
 
2033
            else:
 
2034
                result.append(entry)
 
2035
        file_keys = [StaticTuple(f,).intern() for f in remaining]
 
2036
        for file_key, value in self.id_to_entry.iteritems(file_keys):
 
2037
            entry = self._bytes_to_entry(value)
 
2038
            result.append(entry)
 
2039
            self._fileid_to_entry_cache[entry.file_id] = entry
 
2040
        return result
 
2041
 
 
2042
    def has_id(self, file_id):
 
2043
        # Perhaps have an explicit 'contains' method on CHKMap ?
 
2044
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
 
2045
            return True
 
2046
        return len(list(
 
2047
            self.id_to_entry.iteritems([StaticTuple(file_id,)]))) == 1
 
2048
 
 
2049
    def is_root(self, file_id):
 
2050
        return file_id == self.root_id
 
2051
 
 
2052
    def _iter_file_id_parents(self, file_id):
 
2053
        """Yield the parents of file_id up to the root."""
 
2054
        while file_id is not None:
 
2055
            try:
 
2056
                ie = self[file_id]
 
2057
            except KeyError:
 
2058
                raise errors.NoSuchId(tree=self, file_id=file_id)
 
2059
            yield ie
 
2060
            file_id = ie.parent_id
 
2061
 
 
2062
    def __iter__(self):
 
2063
        """Iterate over all file-ids."""
 
2064
        for key, _ in self.id_to_entry.iteritems():
 
2065
            yield key[-1]
 
2066
 
 
2067
    def iter_just_entries(self):
 
2068
        """Iterate over all entries.
 
2069
        
 
2070
        Unlike iter_entries(), just the entries are returned (not (path, ie))
 
2071
        and the order of entries is undefined.
 
2072
 
 
2073
        XXX: We may not want to merge this into bzr.dev.
 
2074
        """
 
2075
        for key, entry in self.id_to_entry.iteritems():
 
2076
            file_id = key[0]
 
2077
            ie = self._fileid_to_entry_cache.get(file_id, None)
 
2078
            if ie is None:
 
2079
                ie = self._bytes_to_entry(entry)
 
2080
                self._fileid_to_entry_cache[file_id] = ie
 
2081
            yield ie
 
2082
 
 
2083
    def iter_changes(self, basis):
 
2084
        """Generate a Tree.iter_changes change list between this and basis.
 
2085
 
 
2086
        :param basis: Another CHKInventory.
 
2087
        :return: An iterator over the changes between self and basis, as per
 
2088
            tree.iter_changes().
 
2089
        """
 
2090
        # We want: (file_id, (path_in_source, path_in_target),
 
2091
        # changed_content, versioned, parent, name, kind,
 
2092
        # executable)
 
2093
        for key, basis_value, self_value in \
 
2094
            self.id_to_entry.iter_changes(basis.id_to_entry):
 
2095
            file_id = key[0]
 
2096
            if basis_value is not None:
 
2097
                basis_entry = basis._bytes_to_entry(basis_value)
 
2098
                path_in_source = basis.id2path(file_id)
 
2099
                basis_parent = basis_entry.parent_id
 
2100
                basis_name = basis_entry.name
 
2101
                basis_executable = basis_entry.executable
 
2102
            else:
 
2103
                path_in_source = None
 
2104
                basis_parent = None
 
2105
                basis_name = None
 
2106
                basis_executable = None
 
2107
            if self_value is not None:
 
2108
                self_entry = self._bytes_to_entry(self_value)
 
2109
                path_in_target = self.id2path(file_id)
 
2110
                self_parent = self_entry.parent_id
 
2111
                self_name = self_entry.name
 
2112
                self_executable = self_entry.executable
 
2113
            else:
 
2114
                path_in_target = None
 
2115
                self_parent = None
 
2116
                self_name = None
 
2117
                self_executable = None
 
2118
            if basis_value is None:
 
2119
                # add
 
2120
                kind = (None, self_entry.kind)
 
2121
                versioned = (False, True)
 
2122
            elif self_value is None:
 
2123
                # delete
 
2124
                kind = (basis_entry.kind, None)
 
2125
                versioned = (True, False)
 
2126
            else:
 
2127
                kind = (basis_entry.kind, self_entry.kind)
 
2128
                versioned = (True, True)
 
2129
            changed_content = False
 
2130
            if kind[0] != kind[1]:
 
2131
                changed_content = True
 
2132
            elif kind[0] == 'file':
 
2133
                if (self_entry.text_size != basis_entry.text_size or
 
2134
                    self_entry.text_sha1 != basis_entry.text_sha1):
 
2135
                    changed_content = True
 
2136
            elif kind[0] == 'symlink':
 
2137
                if self_entry.symlink_target != basis_entry.symlink_target:
 
2138
                    changed_content = True
 
2139
            elif kind[0] == 'tree-reference':
 
2140
                if (self_entry.reference_revision !=
 
2141
                    basis_entry.reference_revision):
 
2142
                    changed_content = True
 
2143
            parent = (basis_parent, self_parent)
 
2144
            name = (basis_name, self_name)
 
2145
            executable = (basis_executable, self_executable)
 
2146
            if (not changed_content
 
2147
                and parent[0] == parent[1]
 
2148
                and name[0] == name[1]
 
2149
                and executable[0] == executable[1]):
 
2150
                # Could happen when only the revision changed for a directory
 
2151
                # for instance.
 
2152
                continue
 
2153
            yield (file_id, (path_in_source, path_in_target), changed_content,
 
2154
                versioned, parent, name, kind, executable)
 
2155
 
 
2156
    def __len__(self):
 
2157
        """Return the number of entries in the inventory."""
 
2158
        return len(self.id_to_entry)
 
2159
 
 
2160
    def _make_delta(self, old):
 
2161
        """Make an inventory delta from two inventories."""
 
2162
        if type(old) != CHKInventory:
 
2163
            return CommonInventory._make_delta(self, old)
 
2164
        delta = []
 
2165
        for key, old_value, self_value in \
 
2166
            self.id_to_entry.iter_changes(old.id_to_entry):
 
2167
            file_id = key[0]
 
2168
            if old_value is not None:
 
2169
                old_path = old.id2path(file_id)
 
2170
            else:
 
2171
                old_path = None
 
2172
            if self_value is not None:
 
2173
                entry = self._bytes_to_entry(self_value)
 
2174
                self._fileid_to_entry_cache[file_id] = entry
 
2175
                new_path = self.id2path(file_id)
 
2176
            else:
 
2177
                entry = None
 
2178
                new_path = None
 
2179
            delta.append((old_path, new_path, file_id, entry))
 
2180
        return delta
 
2181
 
 
2182
    def path2id(self, relpath):
 
2183
        """See CommonInventory.path2id()."""
 
2184
        # TODO: perhaps support negative hits?
 
2185
        result = self._path_to_fileid_cache.get(relpath, None)
 
2186
        if result is not None:
 
2187
            return result
 
2188
        if isinstance(relpath, basestring):
 
2189
            names = osutils.splitpath(relpath)
 
2190
        else:
 
2191
            names = relpath
 
2192
        current_id = self.root_id
 
2193
        if current_id is None:
 
2194
            return None
 
2195
        parent_id_index = self.parent_id_basename_to_file_id
 
2196
        cur_path = None
 
2197
        for basename in names:
 
2198
            if cur_path is None:
 
2199
                cur_path = basename
 
2200
            else:
 
2201
                cur_path = cur_path + '/' + basename
 
2202
            basename_utf8 = basename.encode('utf8')
 
2203
            file_id = self._path_to_fileid_cache.get(cur_path, None)
 
2204
            if file_id is None:
 
2205
                key_filter = [StaticTuple(current_id, basename_utf8)]
 
2206
                items = parent_id_index.iteritems(key_filter)
 
2207
                for (parent_id, name_utf8), file_id in items:
 
2208
                    if parent_id != current_id or name_utf8 != basename_utf8:
 
2209
                        raise errors.BzrError("corrupt inventory lookup! "
 
2210
                            "%r %r %r %r" % (parent_id, current_id, name_utf8,
 
2211
                            basename_utf8))
 
2212
                if file_id is None:
 
2213
                    return None
 
2214
                else:
 
2215
                    self._path_to_fileid_cache[cur_path] = file_id
 
2216
            current_id = file_id
 
2217
        return current_id
 
2218
 
 
2219
    def to_lines(self):
 
2220
        """Serialise the inventory to lines."""
 
2221
        lines = ["chkinventory:\n"]
 
2222
        if self._search_key_name != 'plain':
 
2223
            # custom ordering grouping things that don't change together
 
2224
            lines.append('search_key_name: %s\n' % (self._search_key_name,))
 
2225
            lines.append("root_id: %s\n" % self.root_id)
 
2226
            lines.append('parent_id_basename_to_file_id: %s\n' %
 
2227
                (self.parent_id_basename_to_file_id.key()[0],))
 
2228
            lines.append("revision_id: %s\n" % self.revision_id)
 
2229
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
 
2230
        else:
 
2231
            lines.append("revision_id: %s\n" % self.revision_id)
 
2232
            lines.append("root_id: %s\n" % self.root_id)
 
2233
            if self.parent_id_basename_to_file_id is not None:
 
2234
                lines.append('parent_id_basename_to_file_id: %s\n' %
 
2235
                    (self.parent_id_basename_to_file_id.key()[0],))
 
2236
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
 
2237
        return lines
 
2238
 
 
2239
    @property
 
2240
    def root(self):
 
2241
        """Get the root entry."""
 
2242
        return self[self.root_id]
 
2243
 
 
2244
 
 
2245
class CHKInventoryDirectory(InventoryDirectory):
 
2246
    """A directory in an inventory."""
 
2247
 
 
2248
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
2249
                 'text_id', 'parent_id', '_children', 'executable',
 
2250
                 'revision', 'symlink_target', 'reference_revision',
 
2251
                 '_chk_inventory']
 
2252
 
 
2253
    def __init__(self, file_id, name, parent_id, chk_inventory):
 
2254
        # Don't call InventoryDirectory.__init__ - it isn't right for this
 
2255
        # class.
 
2256
        InventoryEntry.__init__(self, file_id, name, parent_id)
 
2257
        self._children = None
 
2258
        self.kind = 'directory'
 
2259
        self._chk_inventory = chk_inventory
 
2260
 
 
2261
    @property
 
2262
    def children(self):
 
2263
        """Access the list of children of this directory.
 
2264
 
 
2265
        With a parent_id_basename_to_file_id index, loads all the children,
 
2266
        without loads the entire index. Without is bad. A more sophisticated
 
2267
        proxy object might be nice, to allow partial loading of children as
 
2268
        well when specific names are accessed. (So path traversal can be
 
2269
        written in the obvious way but not examine siblings.).
 
2270
        """
 
2271
        if self._children is not None:
 
2272
            return self._children
 
2273
        # No longer supported
 
2274
        if self._chk_inventory.parent_id_basename_to_file_id is None:
 
2275
            raise AssertionError("Inventories without"
 
2276
                " parent_id_basename_to_file_id are no longer supported")
 
2277
        result = {}
 
2278
        # XXX: Todo - use proxy objects for the children rather than loading
 
2279
        # all when the attribute is referenced.
 
2280
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
 
2281
        child_keys = set()
 
2282
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
 
2283
            key_filter=[StaticTuple(self.file_id,)]):
 
2284
            child_keys.add(StaticTuple(file_id,))
 
2285
        cached = set()
 
2286
        for file_id_key in child_keys:
 
2287
            entry = self._chk_inventory._fileid_to_entry_cache.get(
 
2288
                file_id_key[0], None)
 
2289
            if entry is not None:
 
2290
                result[entry.name] = entry
 
2291
                cached.add(file_id_key)
 
2292
        child_keys.difference_update(cached)
 
2293
        # populate; todo: do by name
 
2294
        id_to_entry = self._chk_inventory.id_to_entry
 
2295
        for file_id_key, bytes in id_to_entry.iteritems(child_keys):
 
2296
            entry = self._chk_inventory._bytes_to_entry(bytes)
 
2297
            result[entry.name] = entry
 
2298
            self._chk_inventory._fileid_to_entry_cache[file_id_key[0]] = entry
 
2299
        self._children = result
 
2300
        return result
 
2301
 
1398
2302
entry_factory = {
1399
2303
    'directory': InventoryDirectory,
1400
2304
    'file': InventoryFile,
1416
2320
    try:
1417
2321
        factory = entry_factory[kind]
1418
2322
    except KeyError:
1419
 
        raise BzrError("unknown kind %r" % kind)
 
2323
        raise errors.BadFileKindError(name, kind)
1420
2324
    return factory(file_id, name, parent_id)
1421
2325
 
1422
2326
 
1425
2329
 
1426
2330
    :raises InvalidNormalization: When name is not normalized, and cannot be
1427
2331
        accessed on this platform by the normalized path.
1428
 
    :return: The NFC/NFKC normalised version of name.
 
2332
    :return: The NFC normalised version of name.
1429
2333
    """
1430
2334
    #------- This has been copied to bzrlib.dirstate.DirState.add, please
1431
2335
    # keep them synchronised.
1448
2352
    global _NAME_RE
1449
2353
    if _NAME_RE is None:
1450
2354
        _NAME_RE = re.compile(r'^[^/\\]+$')
1451
 
        
 
2355
 
1452
2356
    return bool(_NAME_RE.match(name))
 
2357
 
 
2358
 
 
2359
def _check_delta_unique_ids(delta):
 
2360
    """Decorate a delta and check that the file ids in it are unique.
 
2361
 
 
2362
    :return: A generator over delta.
 
2363
    """
 
2364
    ids = set()
 
2365
    for item in delta:
 
2366
        length = len(ids) + 1
 
2367
        ids.add(item[2])
 
2368
        if len(ids) != length:
 
2369
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
 
2370
                "repeated file_id")
 
2371
        yield item
 
2372
 
 
2373
 
 
2374
def _check_delta_unique_new_paths(delta):
 
2375
    """Decorate a delta and check that the new paths in it are unique.
 
2376
 
 
2377
    :return: A generator over delta.
 
2378
    """
 
2379
    paths = set()
 
2380
    for item in delta:
 
2381
        length = len(paths) + 1
 
2382
        path = item[1]
 
2383
        if path is not None:
 
2384
            paths.add(path)
 
2385
            if len(paths) != length:
 
2386
                raise errors.InconsistentDelta(path, item[2], "repeated path")
 
2387
        yield item
 
2388
 
 
2389
 
 
2390
def _check_delta_unique_old_paths(delta):
 
2391
    """Decorate a delta and check that the old paths in it are unique.
 
2392
 
 
2393
    :return: A generator over delta.
 
2394
    """
 
2395
    paths = set()
 
2396
    for item in delta:
 
2397
        length = len(paths) + 1
 
2398
        path = item[0]
 
2399
        if path is not None:
 
2400
            paths.add(path)
 
2401
            if len(paths) != length:
 
2402
                raise errors.InconsistentDelta(path, item[2], "repeated path")
 
2403
        yield item
 
2404
 
 
2405
 
 
2406
def _check_delta_ids_are_valid(delta):
 
2407
    """Decorate a delta and check that the ids in it are valid.
 
2408
 
 
2409
    :return: A generator over delta.
 
2410
    """
 
2411
    for item in delta:
 
2412
        entry = item[3]
 
2413
        if item[2] is None:
 
2414
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
 
2415
                "entry with file_id None %r" % entry)
 
2416
        if type(item[2]) != str:
 
2417
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
 
2418
                "entry with non bytes file_id %r" % entry)
 
2419
        yield item
 
2420
 
 
2421
 
 
2422
def _check_delta_ids_match_entry(delta):
 
2423
    """Decorate a delta and check that the ids in it match the entry.file_id.
 
2424
 
 
2425
    :return: A generator over delta.
 
2426
    """
 
2427
    for item in delta:
 
2428
        entry = item[3]
 
2429
        if entry is not None:
 
2430
            if entry.file_id != item[2]:
 
2431
                raise errors.InconsistentDelta(item[0] or item[1], item[2],
 
2432
                    "mismatched id with %r" % entry)
 
2433
        yield item
 
2434
 
 
2435
 
 
2436
def _check_delta_new_path_entry_both_or_None(delta):
 
2437
    """Decorate a delta and check that the new_path and entry are paired.
 
2438
 
 
2439
    :return: A generator over delta.
 
2440
    """
 
2441
    for item in delta:
 
2442
        new_path = item[1]
 
2443
        entry = item[3]
 
2444
        if new_path is None and entry is not None:
 
2445
            raise errors.InconsistentDelta(item[0], item[1],
 
2446
                "Entry with no new_path")
 
2447
        if new_path is not None and entry is None:
 
2448
            raise errors.InconsistentDelta(new_path, item[1],
 
2449
                "new_path with no entry")
 
2450
        yield item