~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/inventory.py

  • Committer: Martin Pool
  • Date: 2010-01-29 10:36:23 UTC
  • mto: This revision was merged to the branch mainline in revision 4992.
  • Revision ID: mbp@sourcefrog.net-20100129103623-hywka5hymo5z13jw
Change url to canonical.com or wiki, plus some doc improvements in passing

Show diffs side-by-side

added added

removed removed

Lines of Context:
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
 
# FIXME: This refactoring of the workingtree code doesn't seem to keep 
 
17
# FIXME: This refactoring of the workingtree code doesn't seem to keep
18
18
# the WorkingTree's copy of the inventory in sync with the branch.  The
19
19
# branch modifies its working inventory when it does a commit to make
20
20
# missing files permanently removed.
27
27
# created, but it's not for now.
28
28
ROOT_ID = "TREE_ROOT"
29
29
 
30
 
import os
31
 
import re
32
 
import sys
33
 
 
34
30
from bzrlib.lazy_import import lazy_import
35
31
lazy_import(globals(), """
36
32
import collections
 
33
import copy
 
34
import os
 
35
import re
37
36
import tarfile
38
37
 
39
38
import bzrlib
40
39
from bzrlib import (
 
40
    chk_map,
41
41
    errors,
42
42
    generate_ids,
43
43
    osutils,
44
44
    symbol_versioning,
45
 
    workingtree,
46
45
    )
47
46
""")
48
47
 
50
49
    BzrCheckError,
51
50
    BzrError,
52
51
    )
 
52
from bzrlib.symbol_versioning import deprecated_in, deprecated_method
53
53
from bzrlib.trace import mutter
 
54
from bzrlib.static_tuple import StaticTuple
54
55
 
55
56
 
56
57
class InventoryEntry(object):
68
69
        file_id of the parent directory, or ROOT_ID
69
70
 
70
71
    revision
71
 
        the revision_id in which this variation of this file was 
 
72
        the revision_id in which this variation of this file was
72
73
        introduced.
73
74
 
74
75
    executable
77
78
 
78
79
    text_sha1
79
80
        sha-1 of the text of the file
80
 
        
 
81
 
81
82
    text_size
82
83
        size in bytes of the text of the file
83
 
        
 
84
 
84
85
    (reading a version 4 tree created a text_id field.)
85
86
 
86
87
    >>> i = Inventory()
89
90
    >>> i.add(InventoryDirectory('123', 'src', ROOT_ID))
90
91
    InventoryDirectory('123', 'src', parent_id='TREE_ROOT', revision=None)
91
92
    >>> i.add(InventoryFile('2323', 'hello.c', parent_id='123'))
92
 
    InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None)
 
93
    InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None, revision=None)
93
94
    >>> shouldbe = {0: '', 1: 'src', 2: 'src/hello.c'}
94
95
    >>> for ix, j in enumerate(i.iter_entries()):
95
96
    ...   print (j[0] == shouldbe[ix], j[1])
96
 
    ... 
 
97
    ...
97
98
    (True, InventoryDirectory('TREE_ROOT', u'', parent_id=None, revision=None))
98
99
    (True, InventoryDirectory('123', 'src', parent_id='TREE_ROOT', revision=None))
99
 
    (True, InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None))
 
100
    (True, InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None, revision=None))
100
101
    >>> i.add(InventoryFile('2324', 'bye.c', '123'))
101
 
    InventoryFile('2324', 'bye.c', parent_id='123', sha1=None, len=None)
 
102
    InventoryFile('2324', 'bye.c', parent_id='123', sha1=None, len=None, revision=None)
102
103
    >>> i.add(InventoryDirectory('2325', 'wibble', '123'))
103
104
    InventoryDirectory('2325', 'wibble', parent_id='123', revision=None)
104
105
    >>> i.path2id('src/wibble')
106
107
    >>> '2325' in i
107
108
    True
108
109
    >>> i.add(InventoryFile('2326', 'wibble.c', '2325'))
109
 
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None)
 
110
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
110
111
    >>> i['2326']
111
 
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None)
 
112
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
112
113
    >>> for path, entry in i.iter_entries():
113
114
    ...     print path
114
 
    ...     assert i.path2id(path)
115
 
    ... 
 
115
    ...
116
116
    <BLANKLINE>
117
117
    src
118
118
    src/bye.c
125
125
 
126
126
    # Constants returned by describe_change()
127
127
    #
128
 
    # TODO: These should probably move to some kind of FileChangeDescription 
129
 
    # class; that's like what's inside a TreeDelta but we want to be able to 
 
128
    # TODO: These should probably move to some kind of FileChangeDescription
 
129
    # class; that's like what's inside a TreeDelta but we want to be able to
130
130
    # generate them just for one file at a time.
131
131
    RENAMED = 'renamed'
132
132
    MODIFIED_AND_RENAMED = 'modified and renamed'
133
 
    
 
133
 
134
134
    __slots__ = []
135
135
 
136
136
    def detect_changes(self, old_entry):
137
137
        """Return a (text_modified, meta_modified) from this to old_entry.
138
 
        
139
 
        _read_tree_state must have been called on self and old_entry prior to 
 
138
 
 
139
        _read_tree_state must have been called on self and old_entry prior to
140
140
        calling detect_changes.
141
141
        """
142
142
        return False, False
143
143
 
144
 
    def diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
145
 
             output_to, reverse=False):
146
 
        """Perform a diff from this to to_entry.
147
 
 
148
 
        text_diff will be used for textual difference calculation.
149
 
        This is a template method, override _diff in child classes.
150
 
        """
151
 
        self._read_tree_state(tree.id2path(self.file_id), tree)
152
 
        if to_entry:
153
 
            # cannot diff from one kind to another - you must do a removal
154
 
            # and an addif they do not match.
155
 
            assert self.kind == to_entry.kind
156
 
            to_entry._read_tree_state(to_tree.id2path(to_entry.file_id),
157
 
                                      to_tree)
158
 
        self._diff(text_diff, from_label, tree, to_label, to_entry, to_tree,
159
 
                   output_to, reverse)
160
 
 
161
144
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
162
145
             output_to, reverse=False):
163
146
        """Perform a diff between two entries of the same kind."""
164
147
 
165
 
    def find_previous_heads(self, previous_inventories,
166
 
                            versioned_file_store,
167
 
                            transaction,
168
 
                            entry_vf=None):
169
 
        """Return the revisions and entries that directly precede this.
170
 
 
171
 
        Returned as a map from revision to inventory entry.
172
 
 
173
 
        This is a map containing the file revisions in all parents
174
 
        for which the file exists, and its revision is not a parent of
175
 
        any other. If the file is new, the set will be empty.
176
 
 
177
 
        :param versioned_file_store: A store where ancestry data on this
178
 
                                     file id can be queried.
179
 
        :param transaction: The transaction that queries to the versioned 
180
 
                            file store should be completed under.
181
 
        :param entry_vf: The entry versioned file, if its already available.
 
148
    def parent_candidates(self, previous_inventories):
 
149
        """Find possible per-file graph parents.
 
150
 
 
151
        This is currently defined by:
 
152
         - Select the last changed revision in the parent inventory.
 
153
         - Do deal with a short lived bug in bzr 0.8's development two entries
 
154
           that have the same last changed but different 'x' bit settings are
 
155
           changed in-place.
182
156
        """
183
 
        def get_ancestors(weave, entry):
184
 
            return set(weave.get_ancestry(entry.revision))
185
157
        # revision:ie mapping for each ie found in previous_inventories.
186
158
        candidates = {}
187
 
        # revision:ie mapping with one revision for each head.
188
 
        heads = {}
189
 
        # revision: ancestor list for each head
190
 
        head_ancestors = {}
191
159
        # identify candidate head revision ids.
192
160
        for inv in previous_inventories:
193
161
            if self.file_id in inv:
194
162
                ie = inv[self.file_id]
195
 
                assert ie.file_id == self.file_id
196
 
                if ie.kind != self.kind:
197
 
                    # Can't be a candidate if the kind has changed.
198
 
                    continue
199
163
                if ie.revision in candidates:
200
164
                    # same revision value in two different inventories:
201
165
                    # correct possible inconsistencies:
202
 
                    #     * there was a bug in revision updates with 'x' bit 
 
166
                    #     * there was a bug in revision updates with 'x' bit
203
167
                    #       support.
204
168
                    try:
205
169
                        if candidates[ie.revision].executable != ie.executable:
207
171
                            ie.executable = False
208
172
                    except AttributeError:
209
173
                        pass
210
 
                    # must now be the same.
211
 
                    assert candidates[ie.revision] == ie
212
174
                else:
213
175
                    # add this revision as a candidate.
214
176
                    candidates[ie.revision] = ie
215
 
 
216
 
        # common case optimisation
217
 
        if len(candidates) == 1:
218
 
            # if there is only one candidate revision found
219
 
            # then we can opening the versioned file to access ancestry:
220
 
            # there cannot be any ancestors to eliminate when there is 
221
 
            # only one revision available.
222
 
            heads[ie.revision] = ie
223
 
            return heads
224
 
 
225
 
        # eliminate ancestors amongst the available candidates:
226
 
        # heads are those that are not an ancestor of any other candidate
227
 
        # - this provides convergence at a per-file level.
228
 
        for ie in candidates.values():
229
 
            # may be an ancestor of a known head:
230
 
            already_present = 0 != len(
231
 
                [head for head in heads 
232
 
                 if ie.revision in head_ancestors[head]])
233
 
            if already_present:
234
 
                # an ancestor of an analyzed candidate.
235
 
                continue
236
 
            # not an ancestor of a known head:
237
 
            # load the versioned file for this file id if needed
238
 
            if entry_vf is None:
239
 
                entry_vf = versioned_file_store.get_weave_or_empty(
240
 
                    self.file_id, transaction)
241
 
            ancestors = get_ancestors(entry_vf, ie)
242
 
            # may knock something else out:
243
 
            check_heads = list(heads.keys())
244
 
            for head in check_heads:
245
 
                if head in ancestors:
246
 
                    # this previously discovered 'head' is not
247
 
                    # really a head - its an ancestor of the newly 
248
 
                    # found head,
249
 
                    heads.pop(head)
250
 
            head_ancestors[ie.revision] = ancestors
251
 
            heads[ie.revision] = ie
252
 
        return heads
253
 
 
 
177
        return candidates
 
178
 
 
179
    @deprecated_method(deprecated_in((1, 6, 0)))
254
180
    def get_tar_item(self, root, dp, now, tree):
255
181
        """Get a tarfile item and a file stream for its content."""
256
182
        item = tarfile.TarInfo(osutils.pathjoin(root, dp).encode('utf8'))
273
199
 
274
200
    def __init__(self, file_id, name, parent_id, text_id=None):
275
201
        """Create an InventoryEntry
276
 
        
 
202
 
277
203
        The filename must be a single component, relative to the
278
204
        parent directory; it cannot be a whole path or relative name.
279
205
 
286
212
        Traceback (most recent call last):
287
213
        InvalidEntryName: Invalid entry name: src/hello.c
288
214
        """
289
 
        assert isinstance(name, basestring), name
290
215
        if '/' in name or '\\' in name:
291
216
            raise errors.InvalidEntryName(name=name)
292
217
        self.executable = False
294
219
        self.text_sha1 = None
295
220
        self.text_size = None
296
221
        self.file_id = file_id
297
 
        assert isinstance(file_id, (str, None.__class__)), \
298
 
            'bad type %r for %r' % (type(file_id), file_id)
299
222
        self.name = name
300
223
        self.text_id = text_id
301
224
        self.parent_id = parent_id
316
239
        raise BzrError("don't know how to export {%s} of kind %r" %
317
240
                       (self.file_id, self.kind))
318
241
 
 
242
    @deprecated_method(deprecated_in((1, 6, 0)))
319
243
    def put_on_disk(self, dest, dp, tree):
320
244
        """Create a representation of self on disk in the prefix dest.
321
 
        
 
245
 
322
246
        This is a template method - implement _put_on_disk in subclasses.
323
247
        """
324
248
        fullpath = osutils.pathjoin(dest, dp)
337
261
    def versionable_kind(kind):
338
262
        return (kind in ('file', 'directory', 'symlink', 'tree-reference'))
339
263
 
340
 
    def check(self, checker, rev_id, inv, tree):
 
264
    def check(self, checker, rev_id, inv):
341
265
        """Check this inventory entry is intact.
342
266
 
343
267
        This is a template method, override _check for kind specific
344
268
        tests.
345
269
 
346
 
        :param checker: Check object providing context for the checks; 
 
270
        :param checker: Check object providing context for the checks;
347
271
             can be used to find out what parts of the repository have already
348
272
             been checked.
349
273
        :param rev_id: Revision id from which this InventoryEntry was loaded.
350
274
             Not necessarily the last-changed revision for this file.
351
275
        :param inv: Inventory from which the entry was loaded.
352
 
        :param tree: RevisionTree for this entry.
353
276
        """
354
277
        if self.parent_id is not None:
355
278
            if not inv.has_id(self.parent_id):
356
279
                raise BzrCheckError('missing parent {%s} in inventory for revision {%s}'
357
280
                        % (self.parent_id, rev_id))
358
 
        self._check(checker, rev_id, tree)
 
281
        checker._add_entry_to_text_key_references(inv, self)
 
282
        self._check(checker, rev_id)
359
283
 
360
 
    def _check(self, checker, rev_id, tree):
 
284
    def _check(self, checker, rev_id):
361
285
        """Check this inventory entry for kind specific errors."""
362
 
        raise BzrCheckError('unknown entry kind %r in revision {%s}' % 
363
 
                            (self.kind, rev_id))
 
286
        checker._report_items.append(
 
287
            'unknown entry kind %r in revision {%s}' % (self.kind, rev_id))
364
288
 
365
289
    def copy(self):
366
290
        """Clone this inventory entry."""
369
293
    @staticmethod
370
294
    def describe_change(old_entry, new_entry):
371
295
        """Describe the change between old_entry and this.
372
 
        
 
296
 
373
297
        This smells of being an InterInventoryEntry situation, but as its
374
298
        the first one, we're making it a static method for now.
375
299
 
376
 
        An entry with a different parent, or different name is considered 
 
300
        An entry with a different parent, or different name is considered
377
301
        to be renamed. Reparenting is an internal detail.
378
302
        Note that renaming the parent does not trigger a rename for the
379
303
        child entry itself.
416
340
                   self.parent_id,
417
341
                   self.revision))
418
342
 
419
 
    def snapshot(self, revision, path, previous_entries,
420
 
                 work_tree, commit_builder):
421
 
        """Make a snapshot of this entry which may or may not have changed.
422
 
        
423
 
        This means that all its fields are populated, that it has its
424
 
        text stored in the text store or weave.
425
 
        """
426
 
        # mutter('new parents of %s are %r', path, previous_entries)
427
 
        self._read_tree_state(path, work_tree)
428
 
        # TODO: Where should we determine whether to reuse a
429
 
        # previous revision id or create a new revision? 20060606
430
 
        if len(previous_entries) == 1:
431
 
            # cannot be unchanged unless there is only one parent file rev.
432
 
            parent_ie = previous_entries.values()[0]
433
 
            if self._unchanged(parent_ie):
434
 
                # mutter("found unchanged entry")
435
 
                self.revision = parent_ie.revision
436
 
                return "unchanged"
437
 
        return self._snapshot_into_revision(revision, previous_entries, 
438
 
                                            work_tree, commit_builder)
439
 
 
440
 
    def _snapshot_into_revision(self, revision, previous_entries, work_tree,
441
 
                                commit_builder):
442
 
        """Record this revision unconditionally into a store.
443
 
 
444
 
        The entry's last-changed revision property (`revision`) is updated to 
445
 
        that of the new revision.
446
 
        
447
 
        :param revision: id of the new revision that is being recorded.
448
 
 
449
 
        :returns: String description of the commit (e.g. "merged", "modified"), etc.
450
 
        """
451
 
        # mutter('new revision {%s} for {%s}', revision, self.file_id)
452
 
        self.revision = revision
453
 
        self._snapshot_text(previous_entries, work_tree, commit_builder)
454
 
 
455
 
    def _snapshot_text(self, file_parents, work_tree, commit_builder): 
456
 
        """Record the 'text' of this entry, whatever form that takes.
457
 
        
458
 
        This default implementation simply adds an empty text.
459
 
        """
460
 
        raise NotImplementedError(self._snapshot_text)
461
 
 
462
343
    def __eq__(self, other):
 
344
        if other is self:
 
345
            # For the case when objects are cached
 
346
            return True
463
347
        if not isinstance(other, InventoryEntry):
464
348
            return NotImplemented
465
349
 
500
384
 
501
385
    def _read_tree_state(self, path, work_tree):
502
386
        """Populate fields in the inventory entry from the given tree.
503
 
        
 
387
 
504
388
        Note that this should be modified to be a noop on virtual trees
505
389
        as all entries created there are prepopulated.
506
390
        """
507
 
        # TODO: Rather than running this manually, we should check the 
 
391
        # TODO: Rather than running this manually, we should check the
508
392
        # working sha1 and other expensive properties when they're
509
393
        # first requested, or preload them if they're already known
510
394
        pass            # nothing to do by default
519
403
                 'text_id', 'parent_id', 'children', 'executable',
520
404
                 'revision', 'symlink_target', 'reference_revision']
521
405
 
522
 
    def _check(self, checker, rev_id, tree):
 
406
    def _check(self, checker, rev_id):
523
407
        """See InventoryEntry._check"""
524
408
 
525
409
    def __init__(self, file_id):
536
420
    def __eq__(self, other):
537
421
        if not isinstance(other, RootEntry):
538
422
            return NotImplemented
539
 
        
 
423
 
540
424
        return (self.file_id == other.file_id) \
541
425
               and (self.children == other.children)
542
426
 
548
432
                 'text_id', 'parent_id', 'children', 'executable',
549
433
                 'revision', 'symlink_target', 'reference_revision']
550
434
 
551
 
    def _check(self, checker, rev_id, tree):
 
435
    def _check(self, checker, rev_id):
552
436
        """See InventoryEntry._check"""
553
 
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
554
 
            raise BzrCheckError('directory {%s} has text in revision {%s}'
 
437
        if (self.text_sha1 is not None or self.text_size is not None or
 
438
            self.text_id is not None):
 
439
            checker._report_items.append('directory {%s} has text in revision {%s}'
555
440
                                % (self.file_id, rev_id))
 
441
        # In non rich root repositories we do not expect a file graph for the
 
442
        # root.
 
443
        if self.name == '' and not checker.rich_roots:
 
444
            return
 
445
        # Directories are stored as an empty file, but the file should exist
 
446
        # to provide a per-fileid log. The hash of every directory content is
 
447
        # "da..." below (the sha1sum of '').
 
448
        checker.add_pending_item(rev_id,
 
449
            ('texts', self.file_id, self.revision), 'text',
 
450
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
556
451
 
557
452
    def copy(self):
558
453
        other = InventoryDirectory(self.file_id, self.name, self.parent_id)
583
478
        """See InventoryEntry._put_on_disk."""
584
479
        os.mkdir(fullpath)
585
480
 
586
 
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
587
 
        """See InventoryEntry._snapshot_text."""
588
 
        commit_builder.modified_directory(self.file_id, file_parents)
589
 
 
590
481
 
591
482
class InventoryFile(InventoryEntry):
592
483
    """A file in an inventory."""
595
486
                 'text_id', 'parent_id', 'children', 'executable',
596
487
                 'revision', 'symlink_target', 'reference_revision']
597
488
 
598
 
    def _check(self, checker, tree_revision_id, tree):
 
489
    def _check(self, checker, tree_revision_id):
599
490
        """See InventoryEntry._check"""
600
 
        t = (self.file_id, self.revision)
601
 
        if t in checker.checked_texts:
602
 
            prev_sha = checker.checked_texts[t]
603
 
            if prev_sha != self.text_sha1:
604
 
                raise BzrCheckError('mismatched sha1 on {%s} in {%s}' %
605
 
                                    (self.file_id, tree_revision_id))
606
 
            else:
607
 
                checker.repeated_text_cnt += 1
608
 
                return
609
 
 
610
 
        if self.file_id not in checker.checked_weaves:
611
 
            mutter('check weave {%s}', self.file_id)
612
 
            w = tree.get_weave(self.file_id)
613
 
            # Not passing a progress bar, because it creates a new
614
 
            # progress, which overwrites the current progress,
615
 
            # and doesn't look nice
616
 
            w.check()
617
 
            checker.checked_weaves[self.file_id] = True
618
 
        else:
619
 
            w = tree.get_weave(self.file_id)
620
 
 
621
 
        mutter('check version {%s} of {%s}', tree_revision_id, self.file_id)
622
 
        checker.checked_text_cnt += 1
623
 
        # We can't check the length, because Weave doesn't store that
624
 
        # information, and the whole point of looking at the weave's
625
 
        # sha1sum is that we don't have to extract the text.
626
 
        if self.text_sha1 != w.get_sha1(self.revision):
627
 
            raise BzrCheckError('text {%s} version {%s} wrong sha1' 
628
 
                                % (self.file_id, self.revision))
629
 
        checker.checked_texts[t] = self.text_sha1
 
491
        # TODO: check size too.
 
492
        checker.add_pending_item(tree_revision_id,
 
493
            ('texts', self.file_id, self.revision), 'text',
 
494
             self.text_sha1)
 
495
        if self.text_size is None:
 
496
            checker._report_items.append(
 
497
                'fileid {%s} in {%s} has None for text_size' % (self.file_id,
 
498
                tree_revision_id))
630
499
 
631
500
    def copy(self):
632
501
        other = InventoryFile(self.file_id, self.name, self.parent_id)
639
508
 
640
509
    def detect_changes(self, old_entry):
641
510
        """See InventoryEntry.detect_changes."""
642
 
        assert self.text_sha1 is not None
643
 
        assert old_entry.text_sha1 is not None
644
511
        text_modified = (self.text_sha1 != old_entry.text_sha1)
645
512
        meta_modified = (self.executable != old_entry.executable)
646
513
        return text_modified, meta_modified
648
515
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
649
516
             output_to, reverse=False):
650
517
        """See InventoryEntry._diff."""
651
 
        try:
652
 
            from_text = tree.get_file(self.file_id).readlines()
653
 
            if to_entry:
654
 
                to_text = to_tree.get_file(to_entry.file_id).readlines()
655
 
            else:
656
 
                to_text = []
657
 
            if not reverse:
658
 
                text_diff(from_label, from_text,
659
 
                          to_label, to_text, output_to)
660
 
            else:
661
 
                text_diff(to_label, to_text,
662
 
                          from_label, from_text, output_to)
663
 
        except errors.BinaryFile:
664
 
            if reverse:
665
 
                label_pair = (to_label, from_label)
666
 
            else:
667
 
                label_pair = (from_label, to_label)
668
 
            print >> output_to, "Binary files %s and %s differ" % label_pair
 
518
        from bzrlib.diff import DiffText
 
519
        from_file_id = self.file_id
 
520
        if to_entry:
 
521
            to_file_id = to_entry.file_id
 
522
        else:
 
523
            to_file_id = None
 
524
        if reverse:
 
525
            to_file_id, from_file_id = from_file_id, to_file_id
 
526
            tree, to_tree = to_tree, tree
 
527
            from_label, to_label = to_label, from_label
 
528
        differ = DiffText(tree, to_tree, output_to, 'utf-8', '', '',
 
529
                          text_diff)
 
530
        return differ.diff_text(from_file_id, to_file_id, from_label, to_label)
669
531
 
670
532
    def has_text(self):
671
533
        """See InventoryEntry.has_text."""
704
566
        self.executable = work_tree.is_executable(self.file_id, path=path)
705
567
 
706
568
    def __repr__(self):
707
 
        return ("%s(%r, %r, parent_id=%r, sha1=%r, len=%s)"
 
569
        return ("%s(%r, %r, parent_id=%r, sha1=%r, len=%s, revision=%s)"
708
570
                % (self.__class__.__name__,
709
571
                   self.file_id,
710
572
                   self.name,
711
573
                   self.parent_id,
712
574
                   self.text_sha1,
713
 
                   self.text_size))
 
575
                   self.text_size,
 
576
                   self.revision))
714
577
 
715
578
    def _forget_tree_state(self):
716
579
        self.text_sha1 = None
717
580
 
718
 
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
719
 
        """See InventoryEntry._snapshot_text."""
720
 
        def get_content_byte_lines():
721
 
            return work_tree.get_file(self.file_id).readlines()
722
 
        self.text_sha1, self.text_size = commit_builder.modified_file_text(
723
 
            self.file_id, file_parents, get_content_byte_lines, self.text_sha1, self.text_size)
724
 
 
725
581
    def _unchanged(self, previous_ie):
726
582
        """See InventoryEntry._unchanged."""
727
583
        compatible = super(InventoryFile, self)._unchanged(previous_ie)
743
599
                 'text_id', 'parent_id', 'children', 'executable',
744
600
                 'revision', 'symlink_target', 'reference_revision']
745
601
 
746
 
    def _check(self, checker, rev_id, tree):
 
602
    def _check(self, checker, tree_revision_id):
747
603
        """See InventoryEntry._check"""
748
604
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
749
 
            raise BzrCheckError('symlink {%s} has text in revision {%s}'
750
 
                    % (self.file_id, rev_id))
 
605
            checker._report_items.append(
 
606
               'symlink {%s} has text in revision {%s}'
 
607
                    % (self.file_id, tree_revision_id))
751
608
        if self.symlink_target is None:
752
 
            raise BzrCheckError('symlink {%s} has no target in revision {%s}'
753
 
                    % (self.file_id, rev_id))
 
609
            checker._report_items.append(
 
610
                'symlink {%s} has no target in revision {%s}'
 
611
                    % (self.file_id, tree_revision_id))
 
612
        # Symlinks are stored as ''
 
613
        checker.add_pending_item(tree_revision_id,
 
614
            ('texts', self.file_id, self.revision), 'text',
 
615
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
754
616
 
755
617
    def copy(self):
756
618
        other = InventoryLink(self.file_id, self.name, self.parent_id)
770
632
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
771
633
             output_to, reverse=False):
772
634
        """See InventoryEntry._diff."""
773
 
        from_text = self.symlink_target
 
635
        from bzrlib.diff import DiffSymlink
 
636
        old_target = self.symlink_target
774
637
        if to_entry is not None:
775
 
            to_text = to_entry.symlink_target
776
 
            if reverse:
777
 
                temp = from_text
778
 
                from_text = to_text
779
 
                to_text = temp
780
 
            print >>output_to, '=== target changed %r => %r' % (from_text, to_text)
781
 
        else:
782
 
            if not reverse:
783
 
                print >>output_to, '=== target was %r' % self.symlink_target
784
 
            else:
785
 
                print >>output_to, '=== target is %r' % self.symlink_target
 
638
            new_target = to_entry.symlink_target
 
639
        else:
 
640
            new_target = None
 
641
        if not reverse:
 
642
            old_tree = tree
 
643
            new_tree = to_tree
 
644
        else:
 
645
            old_tree = to_tree
 
646
            new_tree = tree
 
647
            new_target, old_target = old_target, new_target
 
648
        differ = DiffSymlink(old_tree, new_tree, output_to)
 
649
        return differ.diff_symlink(old_target, new_target)
786
650
 
787
651
    def __init__(self, file_id, name, parent_id):
788
652
        super(InventoryLink, self).__init__(file_id, name, parent_id)
822
686
            compatible = False
823
687
        return compatible
824
688
 
825
 
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
826
 
        """See InventoryEntry._snapshot_text."""
827
 
        commit_builder.modified_link(
828
 
            self.file_id, file_parents, self.symlink_target)
829
 
 
830
689
 
831
690
class TreeReference(InventoryEntry):
832
 
    
 
691
 
833
692
    kind = 'tree-reference'
834
 
    
 
693
 
835
694
    def __init__(self, file_id, name, parent_id, revision=None,
836
695
                 reference_revision=None):
837
696
        InventoryEntry.__init__(self, file_id, name, parent_id)
842
701
        return TreeReference(self.file_id, self.name, self.parent_id,
843
702
                             self.revision, self.reference_revision)
844
703
 
845
 
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
846
 
        commit_builder.modified_reference(self.file_id, file_parents)
847
 
 
848
704
    def _read_tree_state(self, path, work_tree):
849
705
        """Populate fields in the inventory entry from the given tree.
850
706
        """
852
708
            self.file_id, path)
853
709
 
854
710
    def _forget_tree_state(self):
855
 
        self.reference_revision = None 
856
 
 
857
 
 
858
 
class Inventory(object):
859
 
    """Inventory of versioned files in a tree.
860
 
 
861
 
    This describes which file_id is present at each point in the tree,
862
 
    and possibly the SHA-1 or other information about the file.
 
711
        self.reference_revision = None
 
712
 
 
713
    def _unchanged(self, previous_ie):
 
714
        """See InventoryEntry._unchanged."""
 
715
        compatible = super(TreeReference, self)._unchanged(previous_ie)
 
716
        if self.reference_revision != previous_ie.reference_revision:
 
717
            compatible = False
 
718
        return compatible
 
719
 
 
720
 
 
721
class CommonInventory(object):
 
722
    """Basic inventory logic, defined in terms of primitives like has_id.
 
723
 
 
724
    An inventory is the metadata about the contents of a tree.
 
725
 
 
726
    This is broadly a map from file_id to entries such as directories, files,
 
727
    symlinks and tree references. Each entry maintains its own metadata like
 
728
    SHA1 and length for files, or children for a directory.
 
729
 
863
730
    Entries can be looked up either by path or by file_id.
864
731
 
865
 
    The inventory represents a typical unix file tree, with
866
 
    directories containing files and subdirectories.  We never store
867
 
    the full path to a file, because renaming a directory implicitly
868
 
    moves all of its contents.  This class internally maintains a
869
 
    lookup tree that allows the children under a directory to be
870
 
    returned quickly.
871
 
 
872
732
    InventoryEntry objects must not be modified after they are
873
733
    inserted, other than through the Inventory API.
874
 
 
875
 
    >>> inv = Inventory()
876
 
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
877
 
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None)
878
 
    >>> inv['123-123'].name
879
 
    'hello.c'
880
 
 
881
 
    May be treated as an iterator or set to look up file ids:
882
 
    
883
 
    >>> bool(inv.path2id('hello.c'))
884
 
    True
885
 
    >>> '123-123' in inv
886
 
    True
887
 
 
888
 
    May also look up by name:
889
 
 
890
 
    >>> [x[0] for x in inv.iter_entries()]
891
 
    ['', u'hello.c']
892
 
    >>> inv = Inventory('TREE_ROOT-12345678-12345678')
893
 
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
894
 
    Traceback (most recent call last):
895
 
    BzrError: parent_id {TREE_ROOT} not in inventory
896
 
    >>> inv.add(InventoryFile('123-123', 'hello.c', 'TREE_ROOT-12345678-12345678'))
897
 
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT-12345678-12345678', sha1=None, len=None)
898
734
    """
899
 
    def __init__(self, root_id=ROOT_ID, revision_id=None):
900
 
        """Create or read an inventory.
901
 
 
902
 
        If a working directory is specified, the inventory is read
903
 
        from there.  If the file is specified, read from that. If not,
904
 
        the inventory is created empty.
905
 
 
906
 
        The inventory is created with a default root directory, with
907
 
        an id of None.
908
 
        """
909
 
        if root_id is not None:
910
 
            assert root_id.__class__ == str
911
 
            self._set_root(InventoryDirectory(root_id, u'', None))
912
 
        else:
913
 
            self.root = None
914
 
            self._byid = {}
915
 
        self.revision_id = revision_id
916
 
 
917
 
    def _set_root(self, ie):
918
 
        self.root = ie
919
 
        self._byid = {self.root.file_id: self.root}
920
 
 
921
 
    def copy(self):
922
 
        # TODO: jam 20051218 Should copy also copy the revision_id?
923
 
        entries = self.iter_entries()
924
 
        other = Inventory(entries.next()[1].file_id)
925
 
        # copy recursively so we know directories will be added before
926
 
        # their children.  There are more efficient ways than this...
927
 
        for path, entry in entries():
928
 
            other.add(entry.copy())
929
 
        return other
930
 
 
931
 
    def __iter__(self):
932
 
        return iter(self._byid)
933
 
 
934
 
    def __len__(self):
935
 
        """Returns number of entries."""
936
 
        return len(self._byid)
937
 
 
938
 
    def iter_entries(self, from_dir=None):
939
 
        """Return (path, entry) pairs, in order by name."""
 
735
 
 
736
    def __contains__(self, file_id):
 
737
        """True if this entry contains a file with given id.
 
738
 
 
739
        >>> inv = Inventory()
 
740
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
 
741
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
742
        >>> '123' in inv
 
743
        True
 
744
        >>> '456' in inv
 
745
        False
 
746
 
 
747
        Note that this method along with __iter__ are not encouraged for use as
 
748
        they are less clear than specific query methods - they may be rmeoved
 
749
        in the future.
 
750
        """
 
751
        return self.has_id(file_id)
 
752
 
 
753
    def has_filename(self, filename):
 
754
        return bool(self.path2id(filename))
 
755
 
 
756
    def id2path(self, file_id):
 
757
        """Return as a string the path to file_id.
 
758
 
 
759
        >>> i = Inventory()
 
760
        >>> e = i.add(InventoryDirectory('src-id', 'src', ROOT_ID))
 
761
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
 
762
        >>> print i.id2path('foo-id')
 
763
        src/foo.c
 
764
 
 
765
        :raises NoSuchId: If file_id is not present in the inventory.
 
766
        """
 
767
        # get all names, skipping root
 
768
        return '/'.join(reversed(
 
769
            [parent.name for parent in
 
770
             self._iter_file_id_parents(file_id)][:-1]))
 
771
 
 
772
    def iter_entries(self, from_dir=None, recursive=True):
 
773
        """Return (path, entry) pairs, in order by name.
 
774
        
 
775
        :param from_dir: if None, start from the root,
 
776
          otherwise start from this directory (either file-id or entry)
 
777
        :param recursive: recurse into directories or not
 
778
        """
940
779
        if from_dir is None:
941
780
            if self.root is None:
942
781
                return
943
782
            from_dir = self.root
944
783
            yield '', self.root
945
784
        elif isinstance(from_dir, basestring):
946
 
            from_dir = self._byid[from_dir]
947
 
            
 
785
            from_dir = self[from_dir]
 
786
 
948
787
        # unrolling the recursive called changed the time from
949
788
        # 440ms/663ms (inline/total) to 116ms/116ms
950
789
        children = from_dir.children.items()
951
790
        children.sort()
 
791
        if not recursive:
 
792
            for name, ie in children:
 
793
                yield name, ie
 
794
            return
952
795
        children = collections.deque(children)
953
796
        stack = [(u'', children)]
954
797
        while stack:
979
822
                # if we finished all children, pop it off the stack
980
823
                stack.pop()
981
824
 
982
 
    def iter_entries_by_dir(self, from_dir=None, specific_file_ids=None):
 
825
    def iter_entries_by_dir(self, from_dir=None, specific_file_ids=None,
 
826
        yield_parents=False):
983
827
        """Iterate over the entries in a directory first order.
984
828
 
985
829
        This returns all entries for a directory before returning
987
831
        lexicographically sorted order, and is a hybrid between
988
832
        depth-first and breadth-first.
989
833
 
 
834
        :param yield_parents: If True, yield the parents from the root leading
 
835
            down to specific_file_ids that have been requested. This has no
 
836
            impact if specific_file_ids is None.
990
837
        :return: This yields (path, entry) pairs
991
838
        """
992
 
        if specific_file_ids:
993
 
            safe = osutils.safe_file_id
994
 
            specific_file_ids = set(safe(fid) for fid in specific_file_ids)
 
839
        if specific_file_ids and not isinstance(specific_file_ids, set):
 
840
            specific_file_ids = set(specific_file_ids)
995
841
        # TODO? Perhaps this should return the from_dir so that the root is
996
842
        # yielded? or maybe an option?
997
843
        if from_dir is None:
998
844
            if self.root is None:
999
845
                return
1000
846
            # Optimize a common case
1001
 
            if specific_file_ids is not None and len(specific_file_ids) == 1:
 
847
            if (not yield_parents and specific_file_ids is not None and
 
848
                len(specific_file_ids) == 1):
1002
849
                file_id = list(specific_file_ids)[0]
1003
850
                if file_id in self:
1004
851
                    yield self.id2path(file_id), self[file_id]
1005
 
                return 
 
852
                return
1006
853
            from_dir = self.root
1007
 
            if (specific_file_ids is None or 
 
854
            if (specific_file_ids is None or yield_parents or
1008
855
                self.root.file_id in specific_file_ids):
1009
856
                yield u'', self.root
1010
857
        elif isinstance(from_dir, basestring):
1011
 
            from_dir = self._byid[from_dir]
 
858
            from_dir = self[from_dir]
1012
859
 
1013
860
        if specific_file_ids is not None:
1014
861
            # TODO: jam 20070302 This could really be done as a loop rather
1015
862
            #       than a bunch of recursive calls.
1016
863
            parents = set()
1017
 
            byid = self._byid
 
864
            byid = self
1018
865
            def add_ancestors(file_id):
1019
866
                if file_id not in byid:
1020
867
                    return
1028
875
                add_ancestors(file_id)
1029
876
        else:
1030
877
            parents = None
1031
 
            
 
878
 
1032
879
        stack = [(u'', from_dir)]
1033
880
        while stack:
1034
881
            cur_relpath, cur_dir = stack.pop()
1038
885
 
1039
886
                child_relpath = cur_relpath + child_name
1040
887
 
1041
 
                if (specific_file_ids is None or 
1042
 
                    child_ie.file_id in specific_file_ids):
 
888
                if (specific_file_ids is None or
 
889
                    child_ie.file_id in specific_file_ids or
 
890
                    (yield_parents and child_ie.file_id in parents)):
1043
891
                    yield child_relpath, child_ie
1044
892
 
1045
893
                if child_ie.kind == 'directory':
1047
895
                        child_dirs.append((child_relpath+'/', child_ie))
1048
896
            stack.extend(reversed(child_dirs))
1049
897
 
 
898
    def _make_delta(self, old):
 
899
        """Make an inventory delta from two inventories."""
 
900
        old_ids = set(old)
 
901
        new_ids = set(self)
 
902
        adds = new_ids - old_ids
 
903
        deletes = old_ids - new_ids
 
904
        common = old_ids.intersection(new_ids)
 
905
        delta = []
 
906
        for file_id in deletes:
 
907
            delta.append((old.id2path(file_id), None, file_id, None))
 
908
        for file_id in adds:
 
909
            delta.append((None, self.id2path(file_id), file_id, self[file_id]))
 
910
        for file_id in common:
 
911
            if old[file_id] != self[file_id]:
 
912
                delta.append((old.id2path(file_id), self.id2path(file_id),
 
913
                    file_id, self[file_id]))
 
914
        return delta
 
915
 
 
916
    def _get_mutable_inventory(self):
 
917
        """Returns a mutable copy of the object.
 
918
 
 
919
        Some inventories are immutable, yet working trees, for example, needs
 
920
        to mutate exisiting inventories instead of creating a new one.
 
921
        """
 
922
        raise NotImplementedError(self._get_mutable_inventory)
 
923
 
 
924
    def make_entry(self, kind, name, parent_id, file_id=None):
 
925
        """Simple thunk to bzrlib.inventory.make_entry."""
 
926
        return make_entry(kind, name, parent_id, file_id)
 
927
 
1050
928
    def entries(self):
1051
929
        """Return list of (path, ie) for all entries except the root.
1052
930
 
1071
949
        accum = []
1072
950
        def descend(parent_ie, parent_path):
1073
951
            accum.append((parent_path, parent_ie))
1074
 
            
 
952
 
1075
953
            kids = [(ie.name, ie) for ie in parent_ie.children.itervalues() if ie.kind == 'directory']
1076
954
            kids.sort()
1077
955
 
1080
958
                descend(child_ie, child_path)
1081
959
        descend(self.root, u'')
1082
960
        return accum
 
961
 
 
962
    def path2id(self, relpath):
 
963
        """Walk down through directories to return entry of last component.
 
964
 
 
965
        :param relpath: may be either a list of path components, or a single
 
966
            string, in which case it is automatically split.
 
967
 
 
968
        This returns the entry of the last component in the path,
 
969
        which may be either a file or a directory.
 
970
 
 
971
        Returns None IFF the path is not found.
 
972
        """
 
973
        if isinstance(relpath, basestring):
 
974
            names = osutils.splitpath(relpath)
 
975
        else:
 
976
            names = relpath
 
977
 
 
978
        try:
 
979
            parent = self.root
 
980
        except errors.NoSuchId:
 
981
            # root doesn't exist yet so nothing else can
 
982
            return None
 
983
        if parent is None:
 
984
            return None
 
985
        for f in names:
 
986
            try:
 
987
                children = getattr(parent, 'children', None)
 
988
                if children is None:
 
989
                    return None
 
990
                cie = children[f]
 
991
                parent = cie
 
992
            except KeyError:
 
993
                # or raise an error?
 
994
                return None
 
995
 
 
996
        return parent.file_id
 
997
 
 
998
    def filter(self, specific_fileids):
 
999
        """Get an inventory view filtered against a set of file-ids.
 
1000
 
 
1001
        Children of directories and parents are included.
 
1002
 
 
1003
        The result may or may not reference the underlying inventory
 
1004
        so it should be treated as immutable.
 
1005
        """
 
1006
        interesting_parents = set()
 
1007
        for fileid in specific_fileids:
 
1008
            try:
 
1009
                interesting_parents.update(self.get_idpath(fileid))
 
1010
            except errors.NoSuchId:
 
1011
                # This fileid is not in the inventory - that's ok
 
1012
                pass
 
1013
        entries = self.iter_entries()
 
1014
        if self.root is None:
 
1015
            return Inventory(root_id=None)
 
1016
        other = Inventory(entries.next()[1].file_id)
 
1017
        other.root.revision = self.root.revision
 
1018
        other.revision_id = self.revision_id
 
1019
        directories_to_expand = set()
 
1020
        for path, entry in entries:
 
1021
            file_id = entry.file_id
 
1022
            if (file_id in specific_fileids
 
1023
                or entry.parent_id in directories_to_expand):
 
1024
                if entry.kind == 'directory':
 
1025
                    directories_to_expand.add(file_id)
 
1026
            elif file_id not in interesting_parents:
 
1027
                continue
 
1028
            other.add(entry.copy())
 
1029
        return other
 
1030
 
 
1031
    def get_idpath(self, file_id):
 
1032
        """Return a list of file_ids for the path to an entry.
 
1033
 
 
1034
        The list contains one element for each directory followed by
 
1035
        the id of the file itself.  So the length of the returned list
 
1036
        is equal to the depth of the file in the tree, counting the
 
1037
        root directory as depth 1.
 
1038
        """
 
1039
        p = []
 
1040
        for parent in self._iter_file_id_parents(file_id):
 
1041
            p.insert(0, parent.file_id)
 
1042
        return p
 
1043
 
 
1044
 
 
1045
class Inventory(CommonInventory):
 
1046
    """Mutable dict based in-memory inventory.
 
1047
 
 
1048
    We never store the full path to a file, because renaming a directory
 
1049
    implicitly moves all of its contents.  This class internally maintains a
 
1050
    lookup tree that allows the children under a directory to be
 
1051
    returned quickly.
 
1052
 
 
1053
    >>> inv = Inventory()
 
1054
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
1055
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1056
    >>> inv['123-123'].name
 
1057
    'hello.c'
 
1058
 
 
1059
    Id's may be looked up from paths:
 
1060
 
 
1061
    >>> inv.path2id('hello.c')
 
1062
    '123-123'
 
1063
    >>> '123-123' in inv
 
1064
    True
 
1065
 
 
1066
    There are iterators over the contents:
 
1067
 
 
1068
    >>> [entry[0] for entry in inv.iter_entries()]
 
1069
    ['', u'hello.c']
 
1070
    """
 
1071
 
 
1072
    def __init__(self, root_id=ROOT_ID, revision_id=None):
 
1073
        """Create or read an inventory.
 
1074
 
 
1075
        If a working directory is specified, the inventory is read
 
1076
        from there.  If the file is specified, read from that. If not,
 
1077
        the inventory is created empty.
 
1078
 
 
1079
        The inventory is created with a default root directory, with
 
1080
        an id of None.
 
1081
        """
 
1082
        if root_id is not None:
 
1083
            self._set_root(InventoryDirectory(root_id, u'', None))
 
1084
        else:
 
1085
            self.root = None
 
1086
            self._byid = {}
 
1087
        self.revision_id = revision_id
 
1088
 
 
1089
    def __repr__(self):
 
1090
        # More than one page of ouput is not useful anymore to debug
 
1091
        max_len = 2048
 
1092
        closing = '...}'
 
1093
        contents = repr(self._byid)
 
1094
        if len(contents) > max_len:
 
1095
            contents = contents[:(max_len-len(closing))] + closing
 
1096
        return "<Inventory object at %x, contents=%r>" % (id(self), contents)
 
1097
 
 
1098
    def apply_delta(self, delta):
 
1099
        """Apply a delta to this inventory.
 
1100
 
 
1101
        See the inventory developers documentation for the theory behind
 
1102
        inventory deltas.
 
1103
 
 
1104
        If delta application fails the inventory is left in an indeterminate
 
1105
        state and must not be used.
 
1106
 
 
1107
        :param delta: A list of changes to apply. After all the changes are
 
1108
            applied the final inventory must be internally consistent, but it
 
1109
            is ok to supply changes which, if only half-applied would have an
 
1110
            invalid result - such as supplying two changes which rename two
 
1111
            files, 'A' and 'B' with each other : [('A', 'B', 'A-id', a_entry),
 
1112
            ('B', 'A', 'B-id', b_entry)].
 
1113
 
 
1114
            Each change is a tuple, of the form (old_path, new_path, file_id,
 
1115
            new_entry).
 
1116
 
 
1117
            When new_path is None, the change indicates the removal of an entry
 
1118
            from the inventory and new_entry will be ignored (using None is
 
1119
            appropriate). If new_path is not None, then new_entry must be an
 
1120
            InventoryEntry instance, which will be incorporated into the
 
1121
            inventory (and replace any existing entry with the same file id).
 
1122
 
 
1123
            When old_path is None, the change indicates the addition of
 
1124
            a new entry to the inventory.
 
1125
 
 
1126
            When neither new_path nor old_path are None, the change is a
 
1127
            modification to an entry, such as a rename, reparent, kind change
 
1128
            etc.
 
1129
 
 
1130
            The children attribute of new_entry is ignored. This is because
 
1131
            this method preserves children automatically across alterations to
 
1132
            the parent of the children, and cases where the parent id of a
 
1133
            child is changing require the child to be passed in as a separate
 
1134
            change regardless. E.g. in the recursive deletion of a directory -
 
1135
            the directory's children must be included in the delta, or the
 
1136
            final inventory will be invalid.
 
1137
 
 
1138
            Note that a file_id must only appear once within a given delta.
 
1139
            An AssertionError is raised otherwise.
 
1140
        """
 
1141
        # Check that the delta is legal. It would be nice if this could be
 
1142
        # done within the loops below but it's safer to validate the delta
 
1143
        # before starting to mutate the inventory, as there isn't a rollback
 
1144
        # facility.
 
1145
        list(_check_delta_unique_ids(_check_delta_unique_new_paths(
 
1146
            _check_delta_unique_old_paths(_check_delta_ids_match_entry(
 
1147
            _check_delta_ids_are_valid(
 
1148
            _check_delta_new_path_entry_both_or_None(
 
1149
            delta)))))))
 
1150
 
 
1151
        children = {}
 
1152
        # Remove all affected items which were in the original inventory,
 
1153
        # starting with the longest paths, thus ensuring parents are examined
 
1154
        # after their children, which means that everything we examine has no
 
1155
        # modified children remaining by the time we examine it.
 
1156
        for old_path, file_id in sorted(((op, f) for op, np, f, e in delta
 
1157
                                        if op is not None), reverse=True):
 
1158
            # Preserve unaltered children of file_id for later reinsertion.
 
1159
            file_id_children = getattr(self[file_id], 'children', {})
 
1160
            if len(file_id_children):
 
1161
                children[file_id] = file_id_children
 
1162
            if self.id2path(file_id) != old_path:
 
1163
                raise errors.InconsistentDelta(old_path, file_id,
 
1164
                    "Entry was at wrong other path %r." % self.id2path(file_id))
 
1165
            # Remove file_id and the unaltered children. If file_id is not
 
1166
            # being deleted it will be reinserted back later.
 
1167
            self.remove_recursive_id(file_id)
 
1168
        # Insert all affected which should be in the new inventory, reattaching
 
1169
        # their children if they had any. This is done from shortest path to
 
1170
        # longest, ensuring that items which were modified and whose parents in
 
1171
        # the resulting inventory were also modified, are inserted after their
 
1172
        # parents.
 
1173
        for new_path, f, new_entry in sorted((np, f, e) for op, np, f, e in
 
1174
                                          delta if np is not None):
 
1175
            if new_entry.kind == 'directory':
 
1176
                # Pop the child which to allow detection of children whose
 
1177
                # parents were deleted and which were not reattached to a new
 
1178
                # parent.
 
1179
                replacement = InventoryDirectory(new_entry.file_id,
 
1180
                    new_entry.name, new_entry.parent_id)
 
1181
                replacement.revision = new_entry.revision
 
1182
                replacement.children = children.pop(replacement.file_id, {})
 
1183
                new_entry = replacement
 
1184
            try:
 
1185
                self.add(new_entry)
 
1186
            except errors.DuplicateFileId:
 
1187
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
 
1188
                    "New id is already present in target.")
 
1189
            except AttributeError:
 
1190
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
 
1191
                    "Parent is not a directory.")
 
1192
            if self.id2path(new_entry.file_id) != new_path:
 
1193
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
 
1194
                    "New path is not consistent with parent path.")
 
1195
        if len(children):
 
1196
            # Get the parent id that was deleted
 
1197
            parent_id, children = children.popitem()
 
1198
            raise errors.InconsistentDelta("<deleted>", parent_id,
 
1199
                "The file id was deleted but its children were not deleted.")
 
1200
 
 
1201
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
 
1202
                              propagate_caches=False):
 
1203
        """See CHKInventory.create_by_apply_delta()"""
 
1204
        new_inv = self.copy()
 
1205
        new_inv.apply_delta(inventory_delta)
 
1206
        new_inv.revision_id = new_revision_id
 
1207
        return new_inv
 
1208
 
 
1209
    def _set_root(self, ie):
 
1210
        self.root = ie
 
1211
        self._byid = {self.root.file_id: self.root}
 
1212
 
 
1213
    def copy(self):
 
1214
        # TODO: jam 20051218 Should copy also copy the revision_id?
 
1215
        entries = self.iter_entries()
 
1216
        if self.root is None:
 
1217
            return Inventory(root_id=None)
 
1218
        other = Inventory(entries.next()[1].file_id)
 
1219
        other.root.revision = self.root.revision
 
1220
        # copy recursively so we know directories will be added before
 
1221
        # their children.  There are more efficient ways than this...
 
1222
        for path, entry in entries:
 
1223
            other.add(entry.copy())
 
1224
        return other
 
1225
 
 
1226
    def _get_mutable_inventory(self):
 
1227
        """See CommonInventory._get_mutable_inventory."""
 
1228
        return copy.deepcopy(self)
 
1229
 
 
1230
    def __iter__(self):
 
1231
        """Iterate over all file-ids."""
 
1232
        return iter(self._byid)
 
1233
 
 
1234
    def iter_just_entries(self):
 
1235
        """Iterate over all entries.
1083
1236
        
1084
 
    def __contains__(self, file_id):
1085
 
        """True if this entry contains a file with given id.
 
1237
        Unlike iter_entries(), just the entries are returned (not (path, ie))
 
1238
        and the order of entries is undefined.
1086
1239
 
1087
 
        >>> inv = Inventory()
1088
 
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
1089
 
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None)
1090
 
        >>> '123' in inv
1091
 
        True
1092
 
        >>> '456' in inv
1093
 
        False
 
1240
        XXX: We may not want to merge this into bzr.dev.
1094
1241
        """
1095
 
        file_id = osutils.safe_file_id(file_id)
1096
 
        return (file_id in self._byid)
 
1242
        if self.root is None:
 
1243
            return
 
1244
        for _, ie in self._byid.iteritems():
 
1245
            yield ie
 
1246
 
 
1247
    def __len__(self):
 
1248
        """Returns number of entries."""
 
1249
        return len(self._byid)
1097
1250
 
1098
1251
    def __getitem__(self, file_id):
1099
1252
        """Return the entry for given file_id.
1100
1253
 
1101
1254
        >>> inv = Inventory()
1102
1255
        >>> inv.add(InventoryFile('123123', 'hello.c', ROOT_ID))
1103
 
        InventoryFile('123123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
1256
        InventoryFile('123123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1104
1257
        >>> inv['123123'].name
1105
1258
        'hello.c'
1106
1259
        """
1107
 
        file_id = osutils.safe_file_id(file_id)
1108
1260
        try:
1109
1261
            return self._byid[file_id]
1110
1262
        except KeyError:
1112
1264
            raise errors.NoSuchId(self, file_id)
1113
1265
 
1114
1266
    def get_file_kind(self, file_id):
1115
 
        file_id = osutils.safe_file_id(file_id)
1116
1267
        return self._byid[file_id].kind
1117
1268
 
1118
1269
    def get_child(self, parent_id, filename):
1119
 
        parent_id = osutils.safe_file_id(parent_id)
1120
1270
        return self[parent_id].children.get(filename)
1121
1271
 
1122
1272
    def _add_child(self, entry):
1135
1285
        To add  a file to a branch ready to be committed, use Branch.add,
1136
1286
        which calls this.
1137
1287
 
1138
 
        Returns the new entry object.
 
1288
        :return: entry
1139
1289
        """
1140
1290
        if entry.file_id in self._byid:
1141
1291
            raise errors.DuplicateFileId(entry.file_id,
1142
1292
                                         self._byid[entry.file_id])
1143
 
 
1144
1293
        if entry.parent_id is None:
1145
 
            assert self.root is None and len(self._byid) == 0
1146
1294
            self.root = entry
1147
1295
        else:
1148
1296
            try:
1149
1297
                parent = self._byid[entry.parent_id]
1150
1298
            except KeyError:
1151
 
                raise BzrError("parent_id {%s} not in inventory" %
1152
 
                               entry.parent_id)
1153
 
 
 
1299
                raise errors.InconsistentDelta("<unknown>", entry.parent_id,
 
1300
                    "Parent not in inventory.")
1154
1301
            if entry.name in parent.children:
1155
 
                raise BzrError("%s is already versioned" %
1156
 
                        osutils.pathjoin(self.id2path(parent.file_id),
1157
 
                        entry.name).encode('utf-8'))
 
1302
                raise errors.InconsistentDelta(
 
1303
                    self.id2path(parent.children[entry.name].file_id),
 
1304
                    entry.file_id,
 
1305
                    "Path already versioned")
1158
1306
            parent.children[entry.name] = entry
1159
1307
        return self._add_child(entry)
1160
1308
 
1164
1312
        The immediate parent must already be versioned.
1165
1313
 
1166
1314
        Returns the new entry object."""
1167
 
        
 
1315
 
1168
1316
        parts = osutils.splitpath(relpath)
1169
1317
 
1170
1318
        if len(parts) == 0:
1171
1319
            if file_id is None:
1172
1320
                file_id = generate_ids.gen_root_id()
1173
 
            else:
1174
 
                file_id = osutils.safe_file_id(file_id)
1175
1321
            self.root = InventoryDirectory(file_id, '', None)
1176
1322
            self._byid = {self.root.file_id: self.root}
1177
1323
            return self.root
1188
1334
 
1189
1335
        >>> inv = Inventory()
1190
1336
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
1191
 
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
1337
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1192
1338
        >>> '123' in inv
1193
1339
        True
1194
1340
        >>> del inv['123']
1195
1341
        >>> '123' in inv
1196
1342
        False
1197
1343
        """
1198
 
        file_id = osutils.safe_file_id(file_id)
1199
1344
        ie = self[file_id]
1200
 
 
1201
 
        assert ie.parent_id is None or \
1202
 
            self[ie.parent_id].children[ie.name] == ie
1203
 
        
1204
1345
        del self._byid[file_id]
1205
1346
        if ie.parent_id is not None:
1206
1347
            del self[ie.parent_id].children[ie.name]
1213
1354
        >>> i1 == i2
1214
1355
        True
1215
1356
        >>> i1.add(InventoryFile('123', 'foo', ROOT_ID))
1216
 
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None)
 
1357
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1217
1358
        >>> i1 == i2
1218
1359
        False
1219
1360
        >>> i2.add(InventoryFile('123', 'foo', ROOT_ID))
1220
 
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None)
 
1361
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1221
1362
        >>> i1 == i2
1222
1363
        True
1223
1364
        """
1234
1375
 
1235
1376
    def _iter_file_id_parents(self, file_id):
1236
1377
        """Yield the parents of file_id up to the root."""
1237
 
        file_id = osutils.safe_file_id(file_id)
1238
1378
        while file_id is not None:
1239
1379
            try:
1240
1380
                ie = self._byid[file_id]
1243
1383
            yield ie
1244
1384
            file_id = ie.parent_id
1245
1385
 
1246
 
    def get_idpath(self, file_id):
1247
 
        """Return a list of file_ids for the path to an entry.
1248
 
 
1249
 
        The list contains one element for each directory followed by
1250
 
        the id of the file itself.  So the length of the returned list
1251
 
        is equal to the depth of the file in the tree, counting the
1252
 
        root directory as depth 1.
1253
 
        """
1254
 
        file_id = osutils.safe_file_id(file_id)
1255
 
        p = []
1256
 
        for parent in self._iter_file_id_parents(file_id):
1257
 
            p.insert(0, parent.file_id)
1258
 
        return p
1259
 
 
1260
 
    def id2path(self, file_id):
1261
 
        """Return as a string the path to file_id.
1262
 
        
1263
 
        >>> i = Inventory()
1264
 
        >>> e = i.add(InventoryDirectory('src-id', 'src', ROOT_ID))
1265
 
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
1266
 
        >>> print i.id2path('foo-id')
1267
 
        src/foo.c
1268
 
        """
1269
 
        file_id = osutils.safe_file_id(file_id)
1270
 
        # get all names, skipping root
1271
 
        return '/'.join(reversed(
1272
 
            [parent.name for parent in 
1273
 
             self._iter_file_id_parents(file_id)][:-1]))
1274
 
            
1275
 
    def path2id(self, name):
1276
 
        """Walk down through directories to return entry of last component.
1277
 
 
1278
 
        names may be either a list of path components, or a single
1279
 
        string, in which case it is automatically split.
1280
 
 
1281
 
        This returns the entry of the last component in the path,
1282
 
        which may be either a file or a directory.
1283
 
 
1284
 
        Returns None IFF the path is not found.
1285
 
        """
1286
 
        if isinstance(name, basestring):
1287
 
            name = osutils.splitpath(name)
1288
 
 
1289
 
        # mutter("lookup path %r" % name)
1290
 
 
1291
 
        parent = self.root
1292
 
        if parent is None:
1293
 
            return None
1294
 
        for f in name:
1295
 
            try:
1296
 
                children = getattr(parent, 'children', None)
1297
 
                if children is None:
1298
 
                    return None
1299
 
                cie = children[f]
1300
 
                assert cie.name == f
1301
 
                assert cie.parent_id == parent.file_id
1302
 
                parent = cie
1303
 
            except KeyError:
1304
 
                # or raise an error?
1305
 
                return None
1306
 
 
1307
 
        return parent.file_id
1308
 
 
1309
 
    def has_filename(self, names):
1310
 
        return bool(self.path2id(names))
1311
 
 
1312
1386
    def has_id(self, file_id):
1313
 
        file_id = osutils.safe_file_id(file_id)
1314
1387
        return (file_id in self._byid)
1315
1388
 
 
1389
    def _make_delta(self, old):
 
1390
        """Make an inventory delta from two inventories."""
 
1391
        old_getter = getattr(old, '_byid', old)
 
1392
        new_getter = self._byid
 
1393
        old_ids = set(old_getter)
 
1394
        new_ids = set(new_getter)
 
1395
        adds = new_ids - old_ids
 
1396
        deletes = old_ids - new_ids
 
1397
        if not adds and not deletes:
 
1398
            common = new_ids
 
1399
        else:
 
1400
            common = old_ids.intersection(new_ids)
 
1401
        delta = []
 
1402
        for file_id in deletes:
 
1403
            delta.append((old.id2path(file_id), None, file_id, None))
 
1404
        for file_id in adds:
 
1405
            delta.append((None, self.id2path(file_id), file_id, self[file_id]))
 
1406
        for file_id in common:
 
1407
            new_ie = new_getter[file_id]
 
1408
            old_ie = old_getter[file_id]
 
1409
            # If xml_serializer returns the cached InventoryEntries (rather
 
1410
            # than always doing .copy()), inlining the 'is' check saves 2.7M
 
1411
            # calls to __eq__.  Under lsprof this saves 20s => 6s.
 
1412
            # It is a minor improvement without lsprof.
 
1413
            if old_ie is new_ie or old_ie == new_ie:
 
1414
                continue
 
1415
            else:
 
1416
                delta.append((old.id2path(file_id), self.id2path(file_id),
 
1417
                              file_id, new_ie))
 
1418
        return delta
 
1419
 
1316
1420
    def remove_recursive_id(self, file_id):
1317
1421
        """Remove file_id, and children, from the inventory.
1318
 
        
 
1422
 
1319
1423
        :param file_id: A file_id to remove.
1320
1424
        """
1321
 
        file_id = osutils.safe_file_id(file_id)
1322
1425
        to_find_delete = [self._byid[file_id]]
1323
1426
        to_delete = []
1324
1427
        while to_find_delete:
1341
1444
 
1342
1445
        This does not move the working file.
1343
1446
        """
1344
 
        file_id = osutils.safe_file_id(file_id)
 
1447
        new_name = ensure_normalized_name(new_name)
1345
1448
        if not is_valid_name(new_name):
1346
1449
            raise BzrError("not an acceptable filename: %r" % new_name)
1347
1450
 
1361
1464
 
1362
1465
        del old_parent.children[file_ie.name]
1363
1466
        new_parent.children[new_name] = file_ie
1364
 
        
 
1467
 
1365
1468
        file_ie.name = new_name
1366
1469
        file_ie.parent_id = new_parent_id
1367
1470
 
1368
1471
    def is_root(self, file_id):
1369
 
        file_id = osutils.safe_file_id(file_id)
1370
1472
        return self.root is not None and file_id == self.root.file_id
1371
1473
 
1372
1474
 
 
1475
class CHKInventory(CommonInventory):
 
1476
    """An inventory persisted in a CHK store.
 
1477
 
 
1478
    By design, a CHKInventory is immutable so many of the methods
 
1479
    supported by Inventory - add, rename, apply_delta, etc - are *not*
 
1480
    supported. To create a new CHKInventory, use create_by_apply_delta()
 
1481
    or from_inventory(), say.
 
1482
 
 
1483
    Internally, a CHKInventory has one or two CHKMaps:
 
1484
 
 
1485
    * id_to_entry - a map from (file_id,) => InventoryEntry as bytes
 
1486
    * parent_id_basename_to_file_id - a map from (parent_id, basename_utf8)
 
1487
        => file_id as bytes
 
1488
 
 
1489
    The second map is optional and not present in early CHkRepository's.
 
1490
 
 
1491
    No caching is performed: every method call or item access will perform
 
1492
    requests to the storage layer. As such, keep references to objects you
 
1493
    want to reuse.
 
1494
    """
 
1495
 
 
1496
    def __init__(self, search_key_name):
 
1497
        CommonInventory.__init__(self)
 
1498
        self._fileid_to_entry_cache = {}
 
1499
        self._path_to_fileid_cache = {}
 
1500
        self._search_key_name = search_key_name
 
1501
        self.root_id = None
 
1502
 
 
1503
    def __eq__(self, other):
 
1504
        """Compare two sets by comparing their contents."""
 
1505
        if not isinstance(other, CHKInventory):
 
1506
            return NotImplemented
 
1507
 
 
1508
        this_key = self.id_to_entry.key()
 
1509
        other_key = other.id_to_entry.key()
 
1510
        this_pid_key = self.parent_id_basename_to_file_id.key()
 
1511
        other_pid_key = other.parent_id_basename_to_file_id.key()
 
1512
        if None in (this_key, this_pid_key, other_key, other_pid_key):
 
1513
            return False
 
1514
        return this_key == other_key and this_pid_key == other_pid_key
 
1515
 
 
1516
    def _entry_to_bytes(self, entry):
 
1517
        """Serialise entry as a single bytestring.
 
1518
 
 
1519
        :param Entry: An inventory entry.
 
1520
        :return: A bytestring for the entry.
 
1521
 
 
1522
        The BNF:
 
1523
        ENTRY ::= FILE | DIR | SYMLINK | TREE
 
1524
        FILE ::= "file: " COMMON SEP SHA SEP SIZE SEP EXECUTABLE
 
1525
        DIR ::= "dir: " COMMON
 
1526
        SYMLINK ::= "symlink: " COMMON SEP TARGET_UTF8
 
1527
        TREE ::= "tree: " COMMON REFERENCE_REVISION
 
1528
        COMMON ::= FILE_ID SEP PARENT_ID SEP NAME_UTF8 SEP REVISION
 
1529
        SEP ::= "\n"
 
1530
        """
 
1531
        if entry.parent_id is not None:
 
1532
            parent_str = entry.parent_id
 
1533
        else:
 
1534
            parent_str = ''
 
1535
        name_str = entry.name.encode("utf8")
 
1536
        if entry.kind == 'file':
 
1537
            if entry.executable:
 
1538
                exec_str = "Y"
 
1539
            else:
 
1540
                exec_str = "N"
 
1541
            return "file: %s\n%s\n%s\n%s\n%s\n%d\n%s" % (
 
1542
                entry.file_id, parent_str, name_str, entry.revision,
 
1543
                entry.text_sha1, entry.text_size, exec_str)
 
1544
        elif entry.kind == 'directory':
 
1545
            return "dir: %s\n%s\n%s\n%s" % (
 
1546
                entry.file_id, parent_str, name_str, entry.revision)
 
1547
        elif entry.kind == 'symlink':
 
1548
            return "symlink: %s\n%s\n%s\n%s\n%s" % (
 
1549
                entry.file_id, parent_str, name_str, entry.revision,
 
1550
                entry.symlink_target.encode("utf8"))
 
1551
        elif entry.kind == 'tree-reference':
 
1552
            return "tree: %s\n%s\n%s\n%s\n%s" % (
 
1553
                entry.file_id, parent_str, name_str, entry.revision,
 
1554
                entry.reference_revision)
 
1555
        else:
 
1556
            raise ValueError("unknown kind %r" % entry.kind)
 
1557
 
 
1558
    def _expand_fileids_to_parents_and_children(self, file_ids):
 
1559
        """Give a more wholistic view starting with the given file_ids.
 
1560
 
 
1561
        For any file_id which maps to a directory, we will include all children
 
1562
        of that directory. We will also include all directories which are
 
1563
        parents of the given file_ids, but we will not include their children.
 
1564
 
 
1565
        eg:
 
1566
          /     # TREE_ROOT
 
1567
          foo/  # foo-id
 
1568
            baz # baz-id
 
1569
            frob/ # frob-id
 
1570
              fringle # fringle-id
 
1571
          bar/  # bar-id
 
1572
            bing # bing-id
 
1573
 
 
1574
        if given [foo-id] we will include
 
1575
            TREE_ROOT as interesting parents
 
1576
        and 
 
1577
            foo-id, baz-id, frob-id, fringle-id
 
1578
        As interesting ids.
 
1579
        """
 
1580
        interesting = set()
 
1581
        # TODO: Pre-pass over the list of fileids to see if anything is already
 
1582
        #       deserialized in self._fileid_to_entry_cache
 
1583
 
 
1584
        directories_to_expand = set()
 
1585
        children_of_parent_id = {}
 
1586
        # It is okay if some of the fileids are missing
 
1587
        for entry in self._getitems(file_ids):
 
1588
            if entry.kind == 'directory':
 
1589
                directories_to_expand.add(entry.file_id)
 
1590
            interesting.add(entry.parent_id)
 
1591
            children_of_parent_id.setdefault(entry.parent_id, []
 
1592
                                             ).append(entry.file_id)
 
1593
 
 
1594
        # Now, interesting has all of the direct parents, but not the
 
1595
        # parents of those parents. It also may have some duplicates with
 
1596
        # specific_fileids
 
1597
        remaining_parents = interesting.difference(file_ids)
 
1598
        # When we hit the TREE_ROOT, we'll get an interesting parent of None,
 
1599
        # but we don't actually want to recurse into that
 
1600
        interesting.add(None) # this will auto-filter it in the loop
 
1601
        remaining_parents.discard(None) 
 
1602
        while remaining_parents:
 
1603
            next_parents = set()
 
1604
            for entry in self._getitems(remaining_parents):
 
1605
                next_parents.add(entry.parent_id)
 
1606
                children_of_parent_id.setdefault(entry.parent_id, []
 
1607
                                                 ).append(entry.file_id)
 
1608
            # Remove any search tips we've already processed
 
1609
            remaining_parents = next_parents.difference(interesting)
 
1610
            interesting.update(remaining_parents)
 
1611
            # We should probably also .difference(directories_to_expand)
 
1612
        interesting.update(file_ids)
 
1613
        interesting.discard(None)
 
1614
        while directories_to_expand:
 
1615
            # Expand directories by looking in the
 
1616
            # parent_id_basename_to_file_id map
 
1617
            keys = [StaticTuple(f,).intern() for f in directories_to_expand]
 
1618
            directories_to_expand = set()
 
1619
            items = self.parent_id_basename_to_file_id.iteritems(keys)
 
1620
            next_file_ids = set([item[1] for item in items])
 
1621
            next_file_ids = next_file_ids.difference(interesting)
 
1622
            interesting.update(next_file_ids)
 
1623
            for entry in self._getitems(next_file_ids):
 
1624
                if entry.kind == 'directory':
 
1625
                    directories_to_expand.add(entry.file_id)
 
1626
                children_of_parent_id.setdefault(entry.parent_id, []
 
1627
                                                 ).append(entry.file_id)
 
1628
        return interesting, children_of_parent_id
 
1629
 
 
1630
    def filter(self, specific_fileids):
 
1631
        """Get an inventory view filtered against a set of file-ids.
 
1632
 
 
1633
        Children of directories and parents are included.
 
1634
 
 
1635
        The result may or may not reference the underlying inventory
 
1636
        so it should be treated as immutable.
 
1637
        """
 
1638
        (interesting,
 
1639
         parent_to_children) = self._expand_fileids_to_parents_and_children(
 
1640
                                specific_fileids)
 
1641
        # There is some overlap here, but we assume that all interesting items
 
1642
        # are in the _fileid_to_entry_cache because we had to read them to
 
1643
        # determine if they were a dir we wanted to recurse, or just a file
 
1644
        # This should give us all the entries we'll want to add, so start
 
1645
        # adding
 
1646
        other = Inventory(self.root_id)
 
1647
        other.root.revision = self.root.revision
 
1648
        other.revision_id = self.revision_id
 
1649
        if not interesting or not parent_to_children:
 
1650
            # empty filter, or filtering entrys that don't exist
 
1651
            # (if even 1 existed, then we would have populated
 
1652
            # parent_to_children with at least the tree root.)
 
1653
            return other
 
1654
        cache = self._fileid_to_entry_cache
 
1655
        try:
 
1656
            remaining_children = collections.deque(parent_to_children[self.root_id])
 
1657
        except:
 
1658
            import pdb; pdb.set_trace()
 
1659
            raise
 
1660
        while remaining_children:
 
1661
            file_id = remaining_children.popleft()
 
1662
            ie = cache[file_id]
 
1663
            if ie.kind == 'directory':
 
1664
                ie = ie.copy() # We create a copy to depopulate the .children attribute
 
1665
            # TODO: depending on the uses of 'other' we should probably alwyas
 
1666
            #       '.copy()' to prevent someone from mutating other and
 
1667
            #       invaliding our internal cache
 
1668
            other.add(ie)
 
1669
            if file_id in parent_to_children:
 
1670
                remaining_children.extend(parent_to_children[file_id])
 
1671
        return other
 
1672
 
 
1673
    @staticmethod
 
1674
    def _bytes_to_utf8name_key(bytes):
 
1675
        """Get the file_id, revision_id key out of bytes."""
 
1676
        # We don't normally care about name, except for times when we want
 
1677
        # to filter out empty names because of non rich-root...
 
1678
        sections = bytes.split('\n')
 
1679
        kind, file_id = sections[0].split(': ')
 
1680
        return (sections[2], intern(file_id), intern(sections[3]))
 
1681
 
 
1682
    def _bytes_to_entry(self, bytes):
 
1683
        """Deserialise a serialised entry."""
 
1684
        sections = bytes.split('\n')
 
1685
        if sections[0].startswith("file: "):
 
1686
            result = InventoryFile(sections[0][6:],
 
1687
                sections[2].decode('utf8'),
 
1688
                sections[1])
 
1689
            result.text_sha1 = sections[4]
 
1690
            result.text_size = int(sections[5])
 
1691
            result.executable = sections[6] == "Y"
 
1692
        elif sections[0].startswith("dir: "):
 
1693
            result = CHKInventoryDirectory(sections[0][5:],
 
1694
                sections[2].decode('utf8'),
 
1695
                sections[1], self)
 
1696
        elif sections[0].startswith("symlink: "):
 
1697
            result = InventoryLink(sections[0][9:],
 
1698
                sections[2].decode('utf8'),
 
1699
                sections[1])
 
1700
            result.symlink_target = sections[4].decode('utf8')
 
1701
        elif sections[0].startswith("tree: "):
 
1702
            result = TreeReference(sections[0][6:],
 
1703
                sections[2].decode('utf8'),
 
1704
                sections[1])
 
1705
            result.reference_revision = sections[4]
 
1706
        else:
 
1707
            raise ValueError("Not a serialised entry %r" % bytes)
 
1708
        result.file_id = intern(result.file_id)
 
1709
        result.revision = intern(sections[3])
 
1710
        if result.parent_id == '':
 
1711
            result.parent_id = None
 
1712
        self._fileid_to_entry_cache[result.file_id] = result
 
1713
        return result
 
1714
 
 
1715
    def _get_mutable_inventory(self):
 
1716
        """See CommonInventory._get_mutable_inventory."""
 
1717
        entries = self.iter_entries()
 
1718
        inv = Inventory(None, self.revision_id)
 
1719
        for path, inv_entry in entries:
 
1720
            inv.add(inv_entry.copy())
 
1721
        return inv
 
1722
 
 
1723
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
 
1724
        propagate_caches=False):
 
1725
        """Create a new CHKInventory by applying inventory_delta to this one.
 
1726
 
 
1727
        See the inventory developers documentation for the theory behind
 
1728
        inventory deltas.
 
1729
 
 
1730
        :param inventory_delta: The inventory delta to apply. See
 
1731
            Inventory.apply_delta for details.
 
1732
        :param new_revision_id: The revision id of the resulting CHKInventory.
 
1733
        :param propagate_caches: If True, the caches for this inventory are
 
1734
          copied to and updated for the result.
 
1735
        :return: The new CHKInventory.
 
1736
        """
 
1737
        split = osutils.split
 
1738
        result = CHKInventory(self._search_key_name)
 
1739
        if propagate_caches:
 
1740
            # Just propagate the path-to-fileid cache for now
 
1741
            result._path_to_fileid_cache = dict(self._path_to_fileid_cache.iteritems())
 
1742
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
 
1743
        self.id_to_entry._ensure_root()
 
1744
        maximum_size = self.id_to_entry._root_node.maximum_size
 
1745
        result.revision_id = new_revision_id
 
1746
        result.id_to_entry = chk_map.CHKMap(
 
1747
            self.id_to_entry._store,
 
1748
            self.id_to_entry.key(),
 
1749
            search_key_func=search_key_func)
 
1750
        result.id_to_entry._ensure_root()
 
1751
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
 
1752
        # Change to apply to the parent_id_basename delta. The dict maps
 
1753
        # (parent_id, basename) -> (old_key, new_value). We use a dict because
 
1754
        # when a path has its id replaced (e.g. the root is changed, or someone
 
1755
        # does bzr mv a b, bzr mv c a, we should output a single change to this
 
1756
        # map rather than two.
 
1757
        parent_id_basename_delta = {}
 
1758
        if self.parent_id_basename_to_file_id is not None:
 
1759
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
 
1760
                self.parent_id_basename_to_file_id._store,
 
1761
                self.parent_id_basename_to_file_id.key(),
 
1762
                search_key_func=search_key_func)
 
1763
            result.parent_id_basename_to_file_id._ensure_root()
 
1764
            self.parent_id_basename_to_file_id._ensure_root()
 
1765
            result_p_id_root = result.parent_id_basename_to_file_id._root_node
 
1766
            p_id_root = self.parent_id_basename_to_file_id._root_node
 
1767
            result_p_id_root.set_maximum_size(p_id_root.maximum_size)
 
1768
            result_p_id_root._key_width = p_id_root._key_width
 
1769
        else:
 
1770
            result.parent_id_basename_to_file_id = None
 
1771
        result.root_id = self.root_id
 
1772
        id_to_entry_delta = []
 
1773
        # inventory_delta is only traversed once, so we just update the
 
1774
        # variable.
 
1775
        # Check for repeated file ids
 
1776
        inventory_delta = _check_delta_unique_ids(inventory_delta)
 
1777
        # Repeated old paths
 
1778
        inventory_delta = _check_delta_unique_old_paths(inventory_delta)
 
1779
        # Check for repeated new paths
 
1780
        inventory_delta = _check_delta_unique_new_paths(inventory_delta)
 
1781
        # Check for entries that don't match the fileid
 
1782
        inventory_delta = _check_delta_ids_match_entry(inventory_delta)
 
1783
        # Check for nonsense fileids
 
1784
        inventory_delta = _check_delta_ids_are_valid(inventory_delta)
 
1785
        # Check for new_path <-> entry consistency
 
1786
        inventory_delta = _check_delta_new_path_entry_both_or_None(
 
1787
            inventory_delta)
 
1788
        # All changed entries need to have their parents be directories and be
 
1789
        # at the right path. This set contains (path, id) tuples.
 
1790
        parents = set()
 
1791
        # When we delete an item, all the children of it must be either deleted
 
1792
        # or altered in their own right. As we batch process the change via
 
1793
        # CHKMap.apply_delta, we build a set of things to use to validate the
 
1794
        # delta.
 
1795
        deletes = set()
 
1796
        altered = set()
 
1797
        for old_path, new_path, file_id, entry in inventory_delta:
 
1798
            # file id changes
 
1799
            if new_path == '':
 
1800
                result.root_id = file_id
 
1801
            if new_path is None:
 
1802
                # Make a delete:
 
1803
                new_key = None
 
1804
                new_value = None
 
1805
                # Update caches
 
1806
                if propagate_caches:
 
1807
                    try:
 
1808
                        del result._path_to_fileid_cache[old_path]
 
1809
                    except KeyError:
 
1810
                        pass
 
1811
                deletes.add(file_id)
 
1812
            else:
 
1813
                new_key = StaticTuple(file_id,)
 
1814
                new_value = result._entry_to_bytes(entry)
 
1815
                # Update caches. It's worth doing this whether
 
1816
                # we're propagating the old caches or not.
 
1817
                result._path_to_fileid_cache[new_path] = file_id
 
1818
                parents.add((split(new_path)[0], entry.parent_id))
 
1819
            if old_path is None:
 
1820
                old_key = None
 
1821
            else:
 
1822
                old_key = StaticTuple(file_id,)
 
1823
                if self.id2path(file_id) != old_path:
 
1824
                    raise errors.InconsistentDelta(old_path, file_id,
 
1825
                        "Entry was at wrong other path %r." %
 
1826
                        self.id2path(file_id))
 
1827
                altered.add(file_id)
 
1828
            id_to_entry_delta.append(StaticTuple(old_key, new_key, new_value))
 
1829
            if result.parent_id_basename_to_file_id is not None:
 
1830
                # parent_id, basename changes
 
1831
                if old_path is None:
 
1832
                    old_key = None
 
1833
                else:
 
1834
                    old_entry = self[file_id]
 
1835
                    old_key = self._parent_id_basename_key(old_entry)
 
1836
                if new_path is None:
 
1837
                    new_key = None
 
1838
                    new_value = None
 
1839
                else:
 
1840
                    new_key = self._parent_id_basename_key(entry)
 
1841
                    new_value = file_id
 
1842
                # If the two keys are the same, the value will be unchanged
 
1843
                # as its always the file id for this entry.
 
1844
                if old_key != new_key:
 
1845
                    # Transform a change into explicit delete/add preserving
 
1846
                    # a possible match on the key from a different file id.
 
1847
                    if old_key is not None:
 
1848
                        parent_id_basename_delta.setdefault(
 
1849
                            old_key, [None, None])[0] = old_key
 
1850
                    if new_key is not None:
 
1851
                        parent_id_basename_delta.setdefault(
 
1852
                            new_key, [None, None])[1] = new_value
 
1853
        # validate that deletes are complete.
 
1854
        for file_id in deletes:
 
1855
            entry = self[file_id]
 
1856
            if entry.kind != 'directory':
 
1857
                continue
 
1858
            # This loop could potentially be better by using the id_basename
 
1859
            # map to just get the child file ids.
 
1860
            for child in entry.children.values():
 
1861
                if child.file_id not in altered:
 
1862
                    raise errors.InconsistentDelta(self.id2path(child.file_id),
 
1863
                        child.file_id, "Child not deleted or reparented when "
 
1864
                        "parent deleted.")
 
1865
        result.id_to_entry.apply_delta(id_to_entry_delta)
 
1866
        if parent_id_basename_delta:
 
1867
            # Transform the parent_id_basename delta data into a linear delta
 
1868
            # with only one record for a given key. Optimally this would allow
 
1869
            # re-keying, but its simpler to just output that as a delete+add
 
1870
            # to spend less time calculating the delta.
 
1871
            delta_list = []
 
1872
            for key, (old_key, value) in parent_id_basename_delta.iteritems():
 
1873
                if value is not None:
 
1874
                    delta_list.append((old_key, key, value))
 
1875
                else:
 
1876
                    delta_list.append((old_key, None, None))
 
1877
            result.parent_id_basename_to_file_id.apply_delta(delta_list)
 
1878
        parents.discard(('', None))
 
1879
        for parent_path, parent in parents:
 
1880
            try:
 
1881
                if result[parent].kind != 'directory':
 
1882
                    raise errors.InconsistentDelta(result.id2path(parent), parent,
 
1883
                        'Not a directory, but given children')
 
1884
            except errors.NoSuchId:
 
1885
                raise errors.InconsistentDelta("<unknown>", parent,
 
1886
                    "Parent is not present in resulting inventory.")
 
1887
            if result.path2id(parent_path) != parent:
 
1888
                raise errors.InconsistentDelta(parent_path, parent,
 
1889
                    "Parent has wrong path %r." % result.path2id(parent_path))
 
1890
        return result
 
1891
 
 
1892
    @classmethod
 
1893
    def deserialise(klass, chk_store, bytes, expected_revision_id):
 
1894
        """Deserialise a CHKInventory.
 
1895
 
 
1896
        :param chk_store: A CHK capable VersionedFiles instance.
 
1897
        :param bytes: The serialised bytes.
 
1898
        :param expected_revision_id: The revision ID we think this inventory is
 
1899
            for.
 
1900
        :return: A CHKInventory
 
1901
        """
 
1902
        lines = bytes.split('\n')
 
1903
        if lines[-1] != '':
 
1904
            raise AssertionError('bytes to deserialize must end with an eol')
 
1905
        lines.pop()
 
1906
        if lines[0] != 'chkinventory:':
 
1907
            raise ValueError("not a serialised CHKInventory: %r" % bytes)
 
1908
        info = {}
 
1909
        allowed_keys = frozenset(['root_id', 'revision_id', 'search_key_name',
 
1910
                                  'parent_id_basename_to_file_id',
 
1911
                                  'id_to_entry'])
 
1912
        for line in lines[1:]:
 
1913
            key, value = line.split(': ', 1)
 
1914
            if key not in allowed_keys:
 
1915
                raise errors.BzrError('Unknown key in inventory: %r\n%r'
 
1916
                                      % (key, bytes))
 
1917
            if key in info:
 
1918
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
 
1919
                                      % (key, bytes))
 
1920
            info[key] = value
 
1921
        revision_id = intern(info['revision_id'])
 
1922
        root_id = intern(info['root_id'])
 
1923
        search_key_name = intern(info.get('search_key_name', 'plain'))
 
1924
        parent_id_basename_to_file_id = intern(info.get(
 
1925
            'parent_id_basename_to_file_id', None))
 
1926
        if not parent_id_basename_to_file_id.startswith('sha1:'):
 
1927
            raise ValueError('parent_id_basename_to_file_id should be a sha1'
 
1928
                             ' key not %r' % (parent_id_basename_to_file_id,))
 
1929
        id_to_entry = info['id_to_entry']
 
1930
        if not id_to_entry.startswith('sha1:'):
 
1931
            raise ValueError('id_to_entry should be a sha1'
 
1932
                             ' key not %r' % (id_to_entry,))
 
1933
 
 
1934
        result = CHKInventory(search_key_name)
 
1935
        result.revision_id = revision_id
 
1936
        result.root_id = root_id
 
1937
        search_key_func = chk_map.search_key_registry.get(
 
1938
                            result._search_key_name)
 
1939
        if parent_id_basename_to_file_id is not None:
 
1940
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
 
1941
                chk_store, StaticTuple(parent_id_basename_to_file_id,),
 
1942
                search_key_func=search_key_func)
 
1943
        else:
 
1944
            result.parent_id_basename_to_file_id = None
 
1945
 
 
1946
        result.id_to_entry = chk_map.CHKMap(chk_store,
 
1947
                                            StaticTuple(id_to_entry,),
 
1948
                                            search_key_func=search_key_func)
 
1949
        if (result.revision_id,) != expected_revision_id:
 
1950
            raise ValueError("Mismatched revision id and expected: %r, %r" %
 
1951
                (result.revision_id, expected_revision_id))
 
1952
        return result
 
1953
 
 
1954
    @classmethod
 
1955
    def from_inventory(klass, chk_store, inventory, maximum_size=0, search_key_name='plain'):
 
1956
        """Create a CHKInventory from an existing inventory.
 
1957
 
 
1958
        The content of inventory is copied into the chk_store, and a
 
1959
        CHKInventory referencing that is returned.
 
1960
 
 
1961
        :param chk_store: A CHK capable VersionedFiles instance.
 
1962
        :param inventory: The inventory to copy.
 
1963
        :param maximum_size: The CHKMap node size limit.
 
1964
        :param search_key_name: The identifier for the search key function
 
1965
        """
 
1966
        result = klass(search_key_name)
 
1967
        result.revision_id = inventory.revision_id
 
1968
        result.root_id = inventory.root.file_id
 
1969
 
 
1970
        entry_to_bytes = result._entry_to_bytes
 
1971
        parent_id_basename_key = result._parent_id_basename_key
 
1972
        id_to_entry_dict = {}
 
1973
        parent_id_basename_dict = {}
 
1974
        for path, entry in inventory.iter_entries():
 
1975
            key = StaticTuple(entry.file_id,).intern()
 
1976
            id_to_entry_dict[key] = entry_to_bytes(entry)
 
1977
            p_id_key = parent_id_basename_key(entry)
 
1978
            parent_id_basename_dict[p_id_key] = entry.file_id
 
1979
 
 
1980
        result._populate_from_dicts(chk_store, id_to_entry_dict,
 
1981
            parent_id_basename_dict, maximum_size=maximum_size)
 
1982
        return result
 
1983
 
 
1984
    def _populate_from_dicts(self, chk_store, id_to_entry_dict,
 
1985
                             parent_id_basename_dict, maximum_size):
 
1986
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
 
1987
        root_key = chk_map.CHKMap.from_dict(chk_store, id_to_entry_dict,
 
1988
                   maximum_size=maximum_size, key_width=1,
 
1989
                   search_key_func=search_key_func)
 
1990
        self.id_to_entry = chk_map.CHKMap(chk_store, root_key,
 
1991
                                          search_key_func)
 
1992
        root_key = chk_map.CHKMap.from_dict(chk_store,
 
1993
                   parent_id_basename_dict,
 
1994
                   maximum_size=maximum_size, key_width=2,
 
1995
                   search_key_func=search_key_func)
 
1996
        self.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
 
1997
                                                    root_key, search_key_func)
 
1998
 
 
1999
    def _parent_id_basename_key(self, entry):
 
2000
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
 
2001
        if entry.parent_id is not None:
 
2002
            parent_id = entry.parent_id
 
2003
        else:
 
2004
            parent_id = ''
 
2005
        return StaticTuple(parent_id, entry.name.encode('utf8')).intern()
 
2006
 
 
2007
    def __getitem__(self, file_id):
 
2008
        """map a single file_id -> InventoryEntry."""
 
2009
        if file_id is None:
 
2010
            raise errors.NoSuchId(self, file_id)
 
2011
        result = self._fileid_to_entry_cache.get(file_id, None)
 
2012
        if result is not None:
 
2013
            return result
 
2014
        try:
 
2015
            return self._bytes_to_entry(
 
2016
                self.id_to_entry.iteritems([StaticTuple(file_id,)]).next()[1])
 
2017
        except StopIteration:
 
2018
            # really we're passing an inventory, not a tree...
 
2019
            raise errors.NoSuchId(self, file_id)
 
2020
 
 
2021
    def _getitems(self, file_ids):
 
2022
        """Similar to __getitem__, but lets you query for multiple.
 
2023
        
 
2024
        The returned order is undefined. And currently if an item doesn't
 
2025
        exist, it isn't included in the output.
 
2026
        """
 
2027
        result = []
 
2028
        remaining = []
 
2029
        for file_id in file_ids:
 
2030
            entry = self._fileid_to_entry_cache.get(file_id, None)
 
2031
            if entry is None:
 
2032
                remaining.append(file_id)
 
2033
            else:
 
2034
                result.append(entry)
 
2035
        file_keys = [StaticTuple(f,).intern() for f in remaining]
 
2036
        for file_key, value in self.id_to_entry.iteritems(file_keys):
 
2037
            entry = self._bytes_to_entry(value)
 
2038
            result.append(entry)
 
2039
            self._fileid_to_entry_cache[entry.file_id] = entry
 
2040
        return result
 
2041
 
 
2042
    def has_id(self, file_id):
 
2043
        # Perhaps have an explicit 'contains' method on CHKMap ?
 
2044
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
 
2045
            return True
 
2046
        return len(list(
 
2047
            self.id_to_entry.iteritems([StaticTuple(file_id,)]))) == 1
 
2048
 
 
2049
    def is_root(self, file_id):
 
2050
        return file_id == self.root_id
 
2051
 
 
2052
    def _iter_file_id_parents(self, file_id):
 
2053
        """Yield the parents of file_id up to the root."""
 
2054
        while file_id is not None:
 
2055
            try:
 
2056
                ie = self[file_id]
 
2057
            except KeyError:
 
2058
                raise errors.NoSuchId(tree=self, file_id=file_id)
 
2059
            yield ie
 
2060
            file_id = ie.parent_id
 
2061
 
 
2062
    def __iter__(self):
 
2063
        """Iterate over all file-ids."""
 
2064
        for key, _ in self.id_to_entry.iteritems():
 
2065
            yield key[-1]
 
2066
 
 
2067
    def iter_just_entries(self):
 
2068
        """Iterate over all entries.
 
2069
        
 
2070
        Unlike iter_entries(), just the entries are returned (not (path, ie))
 
2071
        and the order of entries is undefined.
 
2072
 
 
2073
        XXX: We may not want to merge this into bzr.dev.
 
2074
        """
 
2075
        for key, entry in self.id_to_entry.iteritems():
 
2076
            file_id = key[0]
 
2077
            ie = self._fileid_to_entry_cache.get(file_id, None)
 
2078
            if ie is None:
 
2079
                ie = self._bytes_to_entry(entry)
 
2080
                self._fileid_to_entry_cache[file_id] = ie
 
2081
            yield ie
 
2082
 
 
2083
    def iter_changes(self, basis):
 
2084
        """Generate a Tree.iter_changes change list between this and basis.
 
2085
 
 
2086
        :param basis: Another CHKInventory.
 
2087
        :return: An iterator over the changes between self and basis, as per
 
2088
            tree.iter_changes().
 
2089
        """
 
2090
        # We want: (file_id, (path_in_source, path_in_target),
 
2091
        # changed_content, versioned, parent, name, kind,
 
2092
        # executable)
 
2093
        for key, basis_value, self_value in \
 
2094
            self.id_to_entry.iter_changes(basis.id_to_entry):
 
2095
            file_id = key[0]
 
2096
            if basis_value is not None:
 
2097
                basis_entry = basis._bytes_to_entry(basis_value)
 
2098
                path_in_source = basis.id2path(file_id)
 
2099
                basis_parent = basis_entry.parent_id
 
2100
                basis_name = basis_entry.name
 
2101
                basis_executable = basis_entry.executable
 
2102
            else:
 
2103
                path_in_source = None
 
2104
                basis_parent = None
 
2105
                basis_name = None
 
2106
                basis_executable = None
 
2107
            if self_value is not None:
 
2108
                self_entry = self._bytes_to_entry(self_value)
 
2109
                path_in_target = self.id2path(file_id)
 
2110
                self_parent = self_entry.parent_id
 
2111
                self_name = self_entry.name
 
2112
                self_executable = self_entry.executable
 
2113
            else:
 
2114
                path_in_target = None
 
2115
                self_parent = None
 
2116
                self_name = None
 
2117
                self_executable = None
 
2118
            if basis_value is None:
 
2119
                # add
 
2120
                kind = (None, self_entry.kind)
 
2121
                versioned = (False, True)
 
2122
            elif self_value is None:
 
2123
                # delete
 
2124
                kind = (basis_entry.kind, None)
 
2125
                versioned = (True, False)
 
2126
            else:
 
2127
                kind = (basis_entry.kind, self_entry.kind)
 
2128
                versioned = (True, True)
 
2129
            changed_content = False
 
2130
            if kind[0] != kind[1]:
 
2131
                changed_content = True
 
2132
            elif kind[0] == 'file':
 
2133
                if (self_entry.text_size != basis_entry.text_size or
 
2134
                    self_entry.text_sha1 != basis_entry.text_sha1):
 
2135
                    changed_content = True
 
2136
            elif kind[0] == 'symlink':
 
2137
                if self_entry.symlink_target != basis_entry.symlink_target:
 
2138
                    changed_content = True
 
2139
            elif kind[0] == 'tree-reference':
 
2140
                if (self_entry.reference_revision !=
 
2141
                    basis_entry.reference_revision):
 
2142
                    changed_content = True
 
2143
            parent = (basis_parent, self_parent)
 
2144
            name = (basis_name, self_name)
 
2145
            executable = (basis_executable, self_executable)
 
2146
            if (not changed_content
 
2147
                and parent[0] == parent[1]
 
2148
                and name[0] == name[1]
 
2149
                and executable[0] == executable[1]):
 
2150
                # Could happen when only the revision changed for a directory
 
2151
                # for instance.
 
2152
                continue
 
2153
            yield (file_id, (path_in_source, path_in_target), changed_content,
 
2154
                versioned, parent, name, kind, executable)
 
2155
 
 
2156
    def __len__(self):
 
2157
        """Return the number of entries in the inventory."""
 
2158
        return len(self.id_to_entry)
 
2159
 
 
2160
    def _make_delta(self, old):
 
2161
        """Make an inventory delta from two inventories."""
 
2162
        if type(old) != CHKInventory:
 
2163
            return CommonInventory._make_delta(self, old)
 
2164
        delta = []
 
2165
        for key, old_value, self_value in \
 
2166
            self.id_to_entry.iter_changes(old.id_to_entry):
 
2167
            file_id = key[0]
 
2168
            if old_value is not None:
 
2169
                old_path = old.id2path(file_id)
 
2170
            else:
 
2171
                old_path = None
 
2172
            if self_value is not None:
 
2173
                entry = self._bytes_to_entry(self_value)
 
2174
                self._fileid_to_entry_cache[file_id] = entry
 
2175
                new_path = self.id2path(file_id)
 
2176
            else:
 
2177
                entry = None
 
2178
                new_path = None
 
2179
            delta.append((old_path, new_path, file_id, entry))
 
2180
        return delta
 
2181
 
 
2182
    def path2id(self, relpath):
 
2183
        """See CommonInventory.path2id()."""
 
2184
        # TODO: perhaps support negative hits?
 
2185
        result = self._path_to_fileid_cache.get(relpath, None)
 
2186
        if result is not None:
 
2187
            return result
 
2188
        if isinstance(relpath, basestring):
 
2189
            names = osutils.splitpath(relpath)
 
2190
        else:
 
2191
            names = relpath
 
2192
        current_id = self.root_id
 
2193
        if current_id is None:
 
2194
            return None
 
2195
        parent_id_index = self.parent_id_basename_to_file_id
 
2196
        cur_path = None
 
2197
        for basename in names:
 
2198
            if cur_path is None:
 
2199
                cur_path = basename
 
2200
            else:
 
2201
                cur_path = cur_path + '/' + basename
 
2202
            basename_utf8 = basename.encode('utf8')
 
2203
            file_id = self._path_to_fileid_cache.get(cur_path, None)
 
2204
            if file_id is None:
 
2205
                key_filter = [StaticTuple(current_id, basename_utf8)]
 
2206
                items = parent_id_index.iteritems(key_filter)
 
2207
                for (parent_id, name_utf8), file_id in items:
 
2208
                    if parent_id != current_id or name_utf8 != basename_utf8:
 
2209
                        raise errors.BzrError("corrupt inventory lookup! "
 
2210
                            "%r %r %r %r" % (parent_id, current_id, name_utf8,
 
2211
                            basename_utf8))
 
2212
                if file_id is None:
 
2213
                    return None
 
2214
                else:
 
2215
                    self._path_to_fileid_cache[cur_path] = file_id
 
2216
            current_id = file_id
 
2217
        return current_id
 
2218
 
 
2219
    def to_lines(self):
 
2220
        """Serialise the inventory to lines."""
 
2221
        lines = ["chkinventory:\n"]
 
2222
        if self._search_key_name != 'plain':
 
2223
            # custom ordering grouping things that don't change together
 
2224
            lines.append('search_key_name: %s\n' % (self._search_key_name,))
 
2225
            lines.append("root_id: %s\n" % self.root_id)
 
2226
            lines.append('parent_id_basename_to_file_id: %s\n' %
 
2227
                (self.parent_id_basename_to_file_id.key()[0],))
 
2228
            lines.append("revision_id: %s\n" % self.revision_id)
 
2229
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
 
2230
        else:
 
2231
            lines.append("revision_id: %s\n" % self.revision_id)
 
2232
            lines.append("root_id: %s\n" % self.root_id)
 
2233
            if self.parent_id_basename_to_file_id is not None:
 
2234
                lines.append('parent_id_basename_to_file_id: %s\n' %
 
2235
                    (self.parent_id_basename_to_file_id.key()[0],))
 
2236
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
 
2237
        return lines
 
2238
 
 
2239
    @property
 
2240
    def root(self):
 
2241
        """Get the root entry."""
 
2242
        return self[self.root_id]
 
2243
 
 
2244
 
 
2245
class CHKInventoryDirectory(InventoryDirectory):
 
2246
    """A directory in an inventory."""
 
2247
 
 
2248
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
2249
                 'text_id', 'parent_id', '_children', 'executable',
 
2250
                 'revision', 'symlink_target', 'reference_revision',
 
2251
                 '_chk_inventory']
 
2252
 
 
2253
    def __init__(self, file_id, name, parent_id, chk_inventory):
 
2254
        # Don't call InventoryDirectory.__init__ - it isn't right for this
 
2255
        # class.
 
2256
        InventoryEntry.__init__(self, file_id, name, parent_id)
 
2257
        self._children = None
 
2258
        self.kind = 'directory'
 
2259
        self._chk_inventory = chk_inventory
 
2260
 
 
2261
    @property
 
2262
    def children(self):
 
2263
        """Access the list of children of this directory.
 
2264
 
 
2265
        With a parent_id_basename_to_file_id index, loads all the children,
 
2266
        without loads the entire index. Without is bad. A more sophisticated
 
2267
        proxy object might be nice, to allow partial loading of children as
 
2268
        well when specific names are accessed. (So path traversal can be
 
2269
        written in the obvious way but not examine siblings.).
 
2270
        """
 
2271
        if self._children is not None:
 
2272
            return self._children
 
2273
        # No longer supported
 
2274
        if self._chk_inventory.parent_id_basename_to_file_id is None:
 
2275
            raise AssertionError("Inventories without"
 
2276
                " parent_id_basename_to_file_id are no longer supported")
 
2277
        result = {}
 
2278
        # XXX: Todo - use proxy objects for the children rather than loading
 
2279
        # all when the attribute is referenced.
 
2280
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
 
2281
        child_keys = set()
 
2282
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
 
2283
            key_filter=[StaticTuple(self.file_id,)]):
 
2284
            child_keys.add(StaticTuple(file_id,))
 
2285
        cached = set()
 
2286
        for file_id_key in child_keys:
 
2287
            entry = self._chk_inventory._fileid_to_entry_cache.get(
 
2288
                file_id_key[0], None)
 
2289
            if entry is not None:
 
2290
                result[entry.name] = entry
 
2291
                cached.add(file_id_key)
 
2292
        child_keys.difference_update(cached)
 
2293
        # populate; todo: do by name
 
2294
        id_to_entry = self._chk_inventory.id_to_entry
 
2295
        for file_id_key, bytes in id_to_entry.iteritems(child_keys):
 
2296
            entry = self._chk_inventory._bytes_to_entry(bytes)
 
2297
            result[entry.name] = entry
 
2298
            self._chk_inventory._fileid_to_entry_cache[file_id_key[0]] = entry
 
2299
        self._children = result
 
2300
        return result
 
2301
 
1373
2302
entry_factory = {
1374
2303
    'directory': InventoryDirectory,
1375
2304
    'file': InventoryFile,
1387
2316
    """
1388
2317
    if file_id is None:
1389
2318
        file_id = generate_ids.gen_file_id(name)
1390
 
    else:
1391
 
        file_id = osutils.safe_file_id(file_id)
1392
 
 
 
2319
    name = ensure_normalized_name(name)
 
2320
    try:
 
2321
        factory = entry_factory[kind]
 
2322
    except KeyError:
 
2323
        raise errors.BadFileKindError(name, kind)
 
2324
    return factory(file_id, name, parent_id)
 
2325
 
 
2326
 
 
2327
def ensure_normalized_name(name):
 
2328
    """Normalize name.
 
2329
 
 
2330
    :raises InvalidNormalization: When name is not normalized, and cannot be
 
2331
        accessed on this platform by the normalized path.
 
2332
    :return: The NFC normalised version of name.
 
2333
    """
1393
2334
    #------- This has been copied to bzrlib.dirstate.DirState.add, please
1394
2335
    # keep them synchronised.
1395
2336
    # we dont import normalized_filename directly because we want to be
1397
2338
    norm_name, can_access = osutils.normalized_filename(name)
1398
2339
    if norm_name != name:
1399
2340
        if can_access:
1400
 
            name = norm_name
 
2341
            return norm_name
1401
2342
        else:
1402
2343
            # TODO: jam 20060701 This would probably be more useful
1403
2344
            #       if the error was raised with the full path
1404
2345
            raise errors.InvalidNormalization(name)
1405
 
 
1406
 
    try:
1407
 
        factory = entry_factory[kind]
1408
 
    except KeyError:
1409
 
        raise BzrError("unknown kind %r" % kind)
1410
 
    return factory(file_id, name, parent_id)
 
2346
    return name
1411
2347
 
1412
2348
 
1413
2349
_NAME_RE = None
1416
2352
    global _NAME_RE
1417
2353
    if _NAME_RE is None:
1418
2354
        _NAME_RE = re.compile(r'^[^/\\]+$')
1419
 
        
 
2355
 
1420
2356
    return bool(_NAME_RE.match(name))
 
2357
 
 
2358
 
 
2359
def _check_delta_unique_ids(delta):
 
2360
    """Decorate a delta and check that the file ids in it are unique.
 
2361
 
 
2362
    :return: A generator over delta.
 
2363
    """
 
2364
    ids = set()
 
2365
    for item in delta:
 
2366
        length = len(ids) + 1
 
2367
        ids.add(item[2])
 
2368
        if len(ids) != length:
 
2369
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
 
2370
                "repeated file_id")
 
2371
        yield item
 
2372
 
 
2373
 
 
2374
def _check_delta_unique_new_paths(delta):
 
2375
    """Decorate a delta and check that the new paths in it are unique.
 
2376
 
 
2377
    :return: A generator over delta.
 
2378
    """
 
2379
    paths = set()
 
2380
    for item in delta:
 
2381
        length = len(paths) + 1
 
2382
        path = item[1]
 
2383
        if path is not None:
 
2384
            paths.add(path)
 
2385
            if len(paths) != length:
 
2386
                raise errors.InconsistentDelta(path, item[2], "repeated path")
 
2387
        yield item
 
2388
 
 
2389
 
 
2390
def _check_delta_unique_old_paths(delta):
 
2391
    """Decorate a delta and check that the old paths in it are unique.
 
2392
 
 
2393
    :return: A generator over delta.
 
2394
    """
 
2395
    paths = set()
 
2396
    for item in delta:
 
2397
        length = len(paths) + 1
 
2398
        path = item[0]
 
2399
        if path is not None:
 
2400
            paths.add(path)
 
2401
            if len(paths) != length:
 
2402
                raise errors.InconsistentDelta(path, item[2], "repeated path")
 
2403
        yield item
 
2404
 
 
2405
 
 
2406
def _check_delta_ids_are_valid(delta):
 
2407
    """Decorate a delta and check that the ids in it are valid.
 
2408
 
 
2409
    :return: A generator over delta.
 
2410
    """
 
2411
    for item in delta:
 
2412
        entry = item[3]
 
2413
        if item[2] is None:
 
2414
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
 
2415
                "entry with file_id None %r" % entry)
 
2416
        if type(item[2]) != str:
 
2417
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
 
2418
                "entry with non bytes file_id %r" % entry)
 
2419
        yield item
 
2420
 
 
2421
 
 
2422
def _check_delta_ids_match_entry(delta):
 
2423
    """Decorate a delta and check that the ids in it match the entry.file_id.
 
2424
 
 
2425
    :return: A generator over delta.
 
2426
    """
 
2427
    for item in delta:
 
2428
        entry = item[3]
 
2429
        if entry is not None:
 
2430
            if entry.file_id != item[2]:
 
2431
                raise errors.InconsistentDelta(item[0] or item[1], item[2],
 
2432
                    "mismatched id with %r" % entry)
 
2433
        yield item
 
2434
 
 
2435
 
 
2436
def _check_delta_new_path_entry_both_or_None(delta):
 
2437
    """Decorate a delta and check that the new_path and entry are paired.
 
2438
 
 
2439
    :return: A generator over delta.
 
2440
    """
 
2441
    for item in delta:
 
2442
        new_path = item[1]
 
2443
        entry = item[3]
 
2444
        if new_path is None and entry is not None:
 
2445
            raise errors.InconsistentDelta(item[0], item[1],
 
2446
                "Entry with no new_path")
 
2447
        if new_path is not None and entry is None:
 
2448
            raise errors.InconsistentDelta(new_path, item[1],
 
2449
                "new_path with no entry")
 
2450
        yield item