~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/inventory.py

Fix test_upgrade defects related to non local or absent working trees.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2011 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
# FIXME: This refactoring of the workingtree code doesn't seem to keep
 
17
# FIXME: This refactoring of the workingtree code doesn't seem to keep 
18
18
# the WorkingTree's copy of the inventory in sync with the branch.  The
19
19
# branch modifies its working inventory when it does a commit to make
20
20
# missing files permanently removed.
27
27
# created, but it's not for now.
28
28
ROOT_ID = "TREE_ROOT"
29
29
 
 
30
import os
 
31
import re
 
32
import sys
 
33
 
30
34
from bzrlib.lazy_import import lazy_import
31
35
lazy_import(globals(), """
32
36
import collections
33
 
import copy
34
 
import re
35
37
import tarfile
36
38
 
 
39
import bzrlib
37
40
from bzrlib import (
38
 
    chk_map,
39
41
    errors,
40
42
    generate_ids,
41
43
    osutils,
 
44
    symbol_versioning,
 
45
    workingtree,
42
46
    )
43
47
""")
44
48
 
45
 
from bzrlib import (
46
 
    lazy_regex,
47
 
    trace,
48
 
    )
49
 
 
50
 
from bzrlib.static_tuple import StaticTuple
51
 
from bzrlib.symbol_versioning import (
52
 
    deprecated_in,
53
 
    deprecated_method,
54
 
    )
 
49
from bzrlib.errors import (
 
50
    BzrCheckError,
 
51
    BzrError,
 
52
    )
 
53
from bzrlib.trace import mutter
55
54
 
56
55
 
57
56
class InventoryEntry(object):
69
68
        file_id of the parent directory, or ROOT_ID
70
69
 
71
70
    revision
72
 
        the revision_id in which this variation of this file was
 
71
        the revision_id in which this variation of this file was 
73
72
        introduced.
74
73
 
75
74
    executable
78
77
 
79
78
    text_sha1
80
79
        sha-1 of the text of the file
81
 
 
 
80
        
82
81
    text_size
83
82
        size in bytes of the text of the file
84
 
 
 
83
        
85
84
    (reading a version 4 tree created a text_id field.)
86
85
 
87
86
    >>> i = Inventory()
90
89
    >>> i.add(InventoryDirectory('123', 'src', ROOT_ID))
91
90
    InventoryDirectory('123', 'src', parent_id='TREE_ROOT', revision=None)
92
91
    >>> i.add(InventoryFile('2323', 'hello.c', parent_id='123'))
93
 
    InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None, revision=None)
 
92
    InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None)
94
93
    >>> shouldbe = {0: '', 1: 'src', 2: 'src/hello.c'}
95
94
    >>> for ix, j in enumerate(i.iter_entries()):
96
95
    ...   print (j[0] == shouldbe[ix], j[1])
97
 
    ...
 
96
    ... 
98
97
    (True, InventoryDirectory('TREE_ROOT', u'', parent_id=None, revision=None))
99
98
    (True, InventoryDirectory('123', 'src', parent_id='TREE_ROOT', revision=None))
100
 
    (True, InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None, revision=None))
 
99
    (True, InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None))
101
100
    >>> i.add(InventoryFile('2324', 'bye.c', '123'))
102
 
    InventoryFile('2324', 'bye.c', parent_id='123', sha1=None, len=None, revision=None)
 
101
    InventoryFile('2324', 'bye.c', parent_id='123', sha1=None, len=None)
103
102
    >>> i.add(InventoryDirectory('2325', 'wibble', '123'))
104
103
    InventoryDirectory('2325', 'wibble', parent_id='123', revision=None)
105
104
    >>> i.path2id('src/wibble')
106
105
    '2325'
 
106
    >>> '2325' in i
 
107
    True
107
108
    >>> i.add(InventoryFile('2326', 'wibble.c', '2325'))
108
 
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
 
109
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None)
109
110
    >>> i['2326']
110
 
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
 
111
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None)
111
112
    >>> for path, entry in i.iter_entries():
112
113
    ...     print path
113
 
    ...
 
114
    ...     assert i.path2id(path)
 
115
    ... 
114
116
    <BLANKLINE>
115
117
    src
116
118
    src/bye.c
123
125
 
124
126
    # Constants returned by describe_change()
125
127
    #
126
 
    # TODO: These should probably move to some kind of FileChangeDescription
127
 
    # class; that's like what's inside a TreeDelta but we want to be able to
 
128
    # TODO: These should probably move to some kind of FileChangeDescription 
 
129
    # class; that's like what's inside a TreeDelta but we want to be able to 
128
130
    # generate them just for one file at a time.
129
131
    RENAMED = 'renamed'
130
132
    MODIFIED_AND_RENAMED = 'modified and renamed'
131
 
 
132
 
    __slots__ = ['file_id', 'revision', 'parent_id', 'name']
133
 
 
134
 
    # Attributes that all InventoryEntry instances are expected to have, but
135
 
    # that don't vary for all kinds of entry.  (e.g. symlink_target is only
136
 
    # relevant to InventoryLink, so there's no reason to make every
137
 
    # InventoryFile instance allocate space to hold a value for it.)
138
 
    # Attributes that only vary for files: executable, text_sha1, text_size,
139
 
    # text_id
140
 
    executable = False
141
 
    text_sha1 = None
142
 
    text_size = None
143
 
    text_id = None
144
 
    # Attributes that only vary for symlinks: symlink_target
145
 
    symlink_target = None
146
 
    # Attributes that only vary for tree-references: reference_revision
147
 
    reference_revision = None
148
 
 
 
133
    
 
134
    __slots__ = []
149
135
 
150
136
    def detect_changes(self, old_entry):
151
137
        """Return a (text_modified, meta_modified) from this to old_entry.
152
 
 
153
 
        _read_tree_state must have been called on self and old_entry prior to
 
138
        
 
139
        _read_tree_state must have been called on self and old_entry prior to 
154
140
        calling detect_changes.
155
141
        """
156
142
        return False, False
157
143
 
 
144
    def diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
 
145
             output_to, reverse=False):
 
146
        """Perform a diff from this to to_entry.
 
147
 
 
148
        text_diff will be used for textual difference calculation.
 
149
        This is a template method, override _diff in child classes.
 
150
        """
 
151
        self._read_tree_state(tree.id2path(self.file_id), tree)
 
152
        if to_entry:
 
153
            # cannot diff from one kind to another - you must do a removal
 
154
            # and an addif they do not match.
 
155
            assert self.kind == to_entry.kind
 
156
            to_entry._read_tree_state(to_tree.id2path(to_entry.file_id),
 
157
                                      to_tree)
 
158
        self._diff(text_diff, from_label, tree, to_label, to_entry, to_tree,
 
159
                   output_to, reverse)
 
160
 
158
161
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
159
162
             output_to, reverse=False):
160
163
        """Perform a diff between two entries of the same kind."""
161
164
 
162
 
    def parent_candidates(self, previous_inventories):
163
 
        """Find possible per-file graph parents.
164
 
 
165
 
        This is currently defined by:
166
 
         - Select the last changed revision in the parent inventory.
167
 
         - Do deal with a short lived bug in bzr 0.8's development two entries
168
 
           that have the same last changed but different 'x' bit settings are
169
 
           changed in-place.
 
165
    def find_previous_heads(self, previous_inventories,
 
166
                            versioned_file_store,
 
167
                            transaction,
 
168
                            entry_vf=None):
 
169
        """Return the revisions and entries that directly precede this.
 
170
 
 
171
        Returned as a map from revision to inventory entry.
 
172
 
 
173
        This is a map containing the file revisions in all parents
 
174
        for which the file exists, and its revision is not a parent of
 
175
        any other. If the file is new, the set will be empty.
 
176
 
 
177
        :param versioned_file_store: A store where ancestry data on this
 
178
                                     file id can be queried.
 
179
        :param transaction: The transaction that queries to the versioned 
 
180
                            file store should be completed under.
 
181
        :param entry_vf: The entry versioned file, if its already available.
170
182
        """
 
183
        def get_ancestors(weave, entry):
 
184
            return set(weave.get_ancestry(entry.revision))
171
185
        # revision:ie mapping for each ie found in previous_inventories.
172
186
        candidates = {}
 
187
        # revision:ie mapping with one revision for each head.
 
188
        heads = {}
 
189
        # revision: ancestor list for each head
 
190
        head_ancestors = {}
173
191
        # identify candidate head revision ids.
174
192
        for inv in previous_inventories:
175
 
            if inv.has_id(self.file_id):
 
193
            if self.file_id in inv:
176
194
                ie = inv[self.file_id]
 
195
                assert ie.file_id == self.file_id
177
196
                if ie.revision in candidates:
178
197
                    # same revision value in two different inventories:
179
198
                    # correct possible inconsistencies:
180
 
                    #     * there was a bug in revision updates with 'x' bit
 
199
                    #     * there was a bug in revision updates with 'x' bit 
181
200
                    #       support.
182
201
                    try:
183
202
                        if candidates[ie.revision].executable != ie.executable:
185
204
                            ie.executable = False
186
205
                    except AttributeError:
187
206
                        pass
 
207
                    # must now be the same.
 
208
                    assert candidates[ie.revision] == ie
188
209
                else:
189
210
                    # add this revision as a candidate.
190
211
                    candidates[ie.revision] = ie
191
 
        return candidates
 
212
 
 
213
        # common case optimisation
 
214
        if len(candidates) == 1:
 
215
            # if there is only one candidate revision found
 
216
            # then we can opening the versioned file to access ancestry:
 
217
            # there cannot be any ancestors to eliminate when there is 
 
218
            # only one revision available.
 
219
            heads[ie.revision] = ie
 
220
            return heads
 
221
 
 
222
        # eliminate ancestors amongst the available candidates:
 
223
        # heads are those that are not an ancestor of any other candidate
 
224
        # - this provides convergence at a per-file level.
 
225
        for ie in candidates.values():
 
226
            # may be an ancestor of a known head:
 
227
            already_present = 0 != len(
 
228
                [head for head in heads 
 
229
                 if ie.revision in head_ancestors[head]])
 
230
            if already_present:
 
231
                # an ancestor of an analyzed candidate.
 
232
                continue
 
233
            # not an ancestor of a known head:
 
234
            # load the versioned file for this file id if needed
 
235
            if entry_vf is None:
 
236
                entry_vf = versioned_file_store.get_weave_or_empty(
 
237
                    self.file_id, transaction)
 
238
            ancestors = get_ancestors(entry_vf, ie)
 
239
            # may knock something else out:
 
240
            check_heads = list(heads.keys())
 
241
            for head in check_heads:
 
242
                if head in ancestors:
 
243
                    # this previously discovered 'head' is not
 
244
                    # really a head - its an ancestor of the newly 
 
245
                    # found head,
 
246
                    heads.pop(head)
 
247
            head_ancestors[ie.revision] = ancestors
 
248
            heads[ie.revision] = ie
 
249
        return heads
 
250
 
 
251
    def get_tar_item(self, root, dp, now, tree):
 
252
        """Get a tarfile item and a file stream for its content."""
 
253
        item = tarfile.TarInfo(osutils.pathjoin(root, dp).encode('utf8'))
 
254
        # TODO: would be cool to actually set it to the timestamp of the
 
255
        # revision it was last changed
 
256
        item.mtime = now
 
257
        fileobj = self._put_in_tar(item, tree)
 
258
        return item, fileobj
192
259
 
193
260
    def has_text(self):
194
261
        """Return true if the object this entry represents has textual data.
201
268
        """
202
269
        return False
203
270
 
204
 
    def __init__(self, file_id, name, parent_id):
 
271
    def __init__(self, file_id, name, parent_id, text_id=None):
205
272
        """Create an InventoryEntry
206
 
 
 
273
        
207
274
        The filename must be a single component, relative to the
208
275
        parent directory; it cannot be a whole path or relative name.
209
276
 
216
283
        Traceback (most recent call last):
217
284
        InvalidEntryName: Invalid entry name: src/hello.c
218
285
        """
 
286
        assert isinstance(name, basestring), name
219
287
        if '/' in name or '\\' in name:
220
288
            raise errors.InvalidEntryName(name=name)
 
289
        self.executable = False
 
290
        self.revision = None
 
291
        self.text_sha1 = None
 
292
        self.text_size = None
221
293
        self.file_id = file_id
222
 
        self.revision = None
 
294
        assert isinstance(file_id, (str, None.__class__)), \
 
295
            'bad type %r for %r' % (type(file_id), file_id)
223
296
        self.name = name
 
297
        self.text_id = text_id
224
298
        self.parent_id = parent_id
 
299
        self.symlink_target = None
225
300
 
226
301
    def kind_character(self):
227
302
        """Return a short kind indicator useful for appending to names."""
228
 
        raise errors.BzrError('unknown kind %r' % self.kind)
 
303
        raise BzrError('unknown kind %r' % self.kind)
229
304
 
230
305
    known_kinds = ('file', 'directory', 'symlink')
231
306
 
 
307
    def _put_in_tar(self, item, tree):
 
308
        """populate item for stashing in a tar, and return the content stream.
 
309
 
 
310
        If no content is available, return None.
 
311
        """
 
312
        raise BzrError("don't know how to export {%s} of kind %r" %
 
313
                       (self.file_id, self.kind))
 
314
 
 
315
    def put_on_disk(self, dest, dp, tree):
 
316
        """Create a representation of self on disk in the prefix dest.
 
317
        
 
318
        This is a template method - implement _put_on_disk in subclasses.
 
319
        """
 
320
        fullpath = osutils.pathjoin(dest, dp)
 
321
        self._put_on_disk(fullpath, tree)
 
322
        # mutter("  export {%s} kind %s to %s", self.file_id,
 
323
        #         self.kind, fullpath)
 
324
 
 
325
    def _put_on_disk(self, fullpath, tree):
 
326
        """Put this entry onto disk at fullpath, from tree tree."""
 
327
        raise BzrError("don't know how to export {%s} of kind %r" % (self.file_id, self.kind))
 
328
 
232
329
    def sorted_children(self):
233
330
        return sorted(self.children.items())
234
331
 
236
333
    def versionable_kind(kind):
237
334
        return (kind in ('file', 'directory', 'symlink', 'tree-reference'))
238
335
 
239
 
    def check(self, checker, rev_id, inv):
 
336
    def check(self, checker, rev_id, inv, tree):
240
337
        """Check this inventory entry is intact.
241
338
 
242
339
        This is a template method, override _check for kind specific
243
340
        tests.
244
341
 
245
 
        :param checker: Check object providing context for the checks;
 
342
        :param checker: Check object providing context for the checks; 
246
343
             can be used to find out what parts of the repository have already
247
344
             been checked.
248
345
        :param rev_id: Revision id from which this InventoryEntry was loaded.
249
346
             Not necessarily the last-changed revision for this file.
250
347
        :param inv: Inventory from which the entry was loaded.
 
348
        :param tree: RevisionTree for this entry.
251
349
        """
252
350
        if self.parent_id is not None:
253
351
            if not inv.has_id(self.parent_id):
254
 
                raise errors.BzrCheckError(
255
 
                    'missing parent {%s} in inventory for revision {%s}' % (
256
 
                        self.parent_id, rev_id))
257
 
        checker._add_entry_to_text_key_references(inv, self)
258
 
        self._check(checker, rev_id)
 
352
                raise BzrCheckError('missing parent {%s} in inventory for revision {%s}'
 
353
                        % (self.parent_id, rev_id))
 
354
        self._check(checker, rev_id, tree)
259
355
 
260
 
    def _check(self, checker, rev_id):
 
356
    def _check(self, checker, rev_id, tree):
261
357
        """Check this inventory entry for kind specific errors."""
262
 
        checker._report_items.append(
263
 
            'unknown entry kind %r in revision {%s}' % (self.kind, rev_id))
 
358
        raise BzrCheckError('unknown entry kind %r in revision {%s}' % 
 
359
                            (self.kind, rev_id))
264
360
 
265
361
    def copy(self):
266
362
        """Clone this inventory entry."""
269
365
    @staticmethod
270
366
    def describe_change(old_entry, new_entry):
271
367
        """Describe the change between old_entry and this.
272
 
 
 
368
        
273
369
        This smells of being an InterInventoryEntry situation, but as its
274
370
        the first one, we're making it a static method for now.
275
371
 
276
 
        An entry with a different parent, or different name is considered
 
372
        An entry with a different parent, or different name is considered 
277
373
        to be renamed. Reparenting is an internal detail.
278
374
        Note that renaming the parent does not trigger a rename for the
279
375
        child entry itself.
316
412
                   self.parent_id,
317
413
                   self.revision))
318
414
 
 
415
    def snapshot(self, revision, path, previous_entries,
 
416
                 work_tree, commit_builder):
 
417
        """Make a snapshot of this entry which may or may not have changed.
 
418
        
 
419
        This means that all its fields are populated, that it has its
 
420
        text stored in the text store or weave.
 
421
        """
 
422
        # mutter('new parents of %s are %r', path, previous_entries)
 
423
        self._read_tree_state(path, work_tree)
 
424
        # TODO: Where should we determine whether to reuse a
 
425
        # previous revision id or create a new revision? 20060606
 
426
        if len(previous_entries) == 1:
 
427
            # cannot be unchanged unless there is only one parent file rev.
 
428
            parent_ie = previous_entries.values()[0]
 
429
            if self._unchanged(parent_ie):
 
430
                # mutter("found unchanged entry")
 
431
                self.revision = parent_ie.revision
 
432
                return "unchanged"
 
433
        return self._snapshot_into_revision(revision, previous_entries, 
 
434
                                            work_tree, commit_builder)
 
435
 
 
436
    def _snapshot_into_revision(self, revision, previous_entries, work_tree,
 
437
                                commit_builder):
 
438
        """Record this revision unconditionally into a store.
 
439
 
 
440
        The entry's last-changed revision property (`revision`) is updated to 
 
441
        that of the new revision.
 
442
        
 
443
        :param revision: id of the new revision that is being recorded.
 
444
 
 
445
        :returns: String description of the commit (e.g. "merged", "modified"), etc.
 
446
        """
 
447
        # mutter('new revision {%s} for {%s}', revision, self.file_id)
 
448
        self.revision = revision
 
449
        self._snapshot_text(previous_entries, work_tree, commit_builder)
 
450
 
 
451
    def _snapshot_text(self, file_parents, work_tree, commit_builder): 
 
452
        """Record the 'text' of this entry, whatever form that takes.
 
453
        
 
454
        This default implementation simply adds an empty text.
 
455
        """
 
456
        raise NotImplementedError(self._snapshot_text)
 
457
 
319
458
    def __eq__(self, other):
320
 
        if other is self:
321
 
            # For the case when objects are cached
322
 
            return True
323
459
        if not isinstance(other, InventoryEntry):
324
460
            return NotImplemented
325
461
 
333
469
                and (self.kind == other.kind)
334
470
                and (self.revision == other.revision)
335
471
                and (self.executable == other.executable)
336
 
                and (self.reference_revision == other.reference_revision)
337
472
                )
338
473
 
339
474
    def __ne__(self, other):
354
489
        # renamed
355
490
        elif previous_ie.name != self.name:
356
491
            compatible = False
357
 
        elif previous_ie.kind != self.kind:
358
 
            compatible = False
359
492
        return compatible
360
493
 
361
494
    def _read_tree_state(self, path, work_tree):
362
495
        """Populate fields in the inventory entry from the given tree.
363
 
 
 
496
        
364
497
        Note that this should be modified to be a noop on virtual trees
365
498
        as all entries created there are prepopulated.
366
499
        """
367
 
        # TODO: Rather than running this manually, we should check the
 
500
        # TODO: Rather than running this manually, we should check the 
368
501
        # working sha1 and other expensive properties when they're
369
502
        # first requested, or preload them if they're already known
370
503
        pass            # nothing to do by default
373
506
        pass
374
507
 
375
508
 
 
509
class RootEntry(InventoryEntry):
 
510
 
 
511
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
512
                 'text_id', 'parent_id', 'children', 'executable', 
 
513
                 'revision', 'symlink_target']
 
514
 
 
515
    def _check(self, checker, rev_id, tree):
 
516
        """See InventoryEntry._check"""
 
517
 
 
518
    def __init__(self, file_id):
 
519
        self.file_id = file_id
 
520
        self.children = {}
 
521
        self.kind = 'directory'
 
522
        self.parent_id = None
 
523
        self.name = u''
 
524
        self.revision = None
 
525
        symbol_versioning.warn('RootEntry is deprecated as of bzr 0.10.'
 
526
                               '  Please use InventoryDirectory instead.',
 
527
                               DeprecationWarning, stacklevel=2)
 
528
 
 
529
    def __eq__(self, other):
 
530
        if not isinstance(other, RootEntry):
 
531
            return NotImplemented
 
532
        
 
533
        return (self.file_id == other.file_id) \
 
534
               and (self.children == other.children)
 
535
 
 
536
 
376
537
class InventoryDirectory(InventoryEntry):
377
538
    """A directory in an inventory."""
378
539
 
379
 
    __slots__ = ['children']
380
 
 
381
 
    kind = 'directory'
382
 
 
383
 
    def _check(self, checker, rev_id):
 
540
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
541
                 'text_id', 'parent_id', 'children', 'executable', 
 
542
                 'revision', 'symlink_target']
 
543
 
 
544
    def _check(self, checker, rev_id, tree):
384
545
        """See InventoryEntry._check"""
385
 
        # In non rich root repositories we do not expect a file graph for the
386
 
        # root.
387
 
        if self.name == '' and not checker.rich_roots:
388
 
            return
389
 
        # Directories are stored as an empty file, but the file should exist
390
 
        # to provide a per-fileid log. The hash of every directory content is
391
 
        # "da..." below (the sha1sum of '').
392
 
        checker.add_pending_item(rev_id,
393
 
            ('texts', self.file_id, self.revision), 'text',
394
 
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
 
546
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
 
547
            raise BzrCheckError('directory {%s} has text in revision {%s}'
 
548
                                % (self.file_id, rev_id))
395
549
 
396
550
    def copy(self):
397
551
        other = InventoryDirectory(self.file_id, self.name, self.parent_id)
403
557
    def __init__(self, file_id, name, parent_id):
404
558
        super(InventoryDirectory, self).__init__(file_id, name, parent_id)
405
559
        self.children = {}
 
560
        self.kind = 'directory'
406
561
 
407
562
    def kind_character(self):
408
563
        """See InventoryEntry.kind_character."""
409
564
        return '/'
410
565
 
 
566
    def _put_in_tar(self, item, tree):
 
567
        """See InventoryEntry._put_in_tar."""
 
568
        item.type = tarfile.DIRTYPE
 
569
        fileobj = None
 
570
        item.name += '/'
 
571
        item.size = 0
 
572
        item.mode = 0755
 
573
        return fileobj
 
574
 
 
575
    def _put_on_disk(self, fullpath, tree):
 
576
        """See InventoryEntry._put_on_disk."""
 
577
        os.mkdir(fullpath)
 
578
 
 
579
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
580
        """See InventoryEntry._snapshot_text."""
 
581
        commit_builder.modified_directory(self.file_id, file_parents)
 
582
 
411
583
 
412
584
class InventoryFile(InventoryEntry):
413
585
    """A file in an inventory."""
414
586
 
415
 
    __slots__ = ['text_sha1', 'text_size', 'text_id', 'executable']
416
 
 
417
 
    kind = 'file'
418
 
 
419
 
    def __init__(self, file_id, name, parent_id):
420
 
        super(InventoryFile, self).__init__(file_id, name, parent_id)
421
 
        self.text_sha1 = None
422
 
        self.text_size = None
423
 
        self.text_id = None
424
 
        self.executable = False
425
 
 
426
 
    def _check(self, checker, tree_revision_id):
 
587
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
588
                 'text_id', 'parent_id', 'children', 'executable', 
 
589
                 'revision', 'symlink_target']
 
590
 
 
591
    def _check(self, checker, tree_revision_id, tree):
427
592
        """See InventoryEntry._check"""
428
 
        # TODO: check size too.
429
 
        checker.add_pending_item(tree_revision_id,
430
 
            ('texts', self.file_id, self.revision), 'text',
431
 
             self.text_sha1)
432
 
        if self.text_size is None:
433
 
            checker._report_items.append(
434
 
                'fileid {%s} in {%s} has None for text_size' % (self.file_id,
435
 
                tree_revision_id))
 
593
        t = (self.file_id, self.revision)
 
594
        if t in checker.checked_texts:
 
595
            prev_sha = checker.checked_texts[t]
 
596
            if prev_sha != self.text_sha1:
 
597
                raise BzrCheckError('mismatched sha1 on {%s} in {%s}' %
 
598
                                    (self.file_id, tree_revision_id))
 
599
            else:
 
600
                checker.repeated_text_cnt += 1
 
601
                return
 
602
 
 
603
        if self.file_id not in checker.checked_weaves:
 
604
            mutter('check weave {%s}', self.file_id)
 
605
            w = tree.get_weave(self.file_id)
 
606
            # Not passing a progress bar, because it creates a new
 
607
            # progress, which overwrites the current progress,
 
608
            # and doesn't look nice
 
609
            w.check()
 
610
            checker.checked_weaves[self.file_id] = True
 
611
        else:
 
612
            w = tree.get_weave(self.file_id)
 
613
 
 
614
        mutter('check version {%s} of {%s}', tree_revision_id, self.file_id)
 
615
        checker.checked_text_cnt += 1
 
616
        # We can't check the length, because Weave doesn't store that
 
617
        # information, and the whole point of looking at the weave's
 
618
        # sha1sum is that we don't have to extract the text.
 
619
        if self.text_sha1 != w.get_sha1(self.revision):
 
620
            raise BzrCheckError('text {%s} version {%s} wrong sha1' 
 
621
                                % (self.file_id, self.revision))
 
622
        checker.checked_texts[t] = self.text_sha1
436
623
 
437
624
    def copy(self):
438
625
        other = InventoryFile(self.file_id, self.name, self.parent_id)
445
632
 
446
633
    def detect_changes(self, old_entry):
447
634
        """See InventoryEntry.detect_changes."""
 
635
        assert self.text_sha1 is not None
 
636
        assert old_entry.text_sha1 is not None
448
637
        text_modified = (self.text_sha1 != old_entry.text_sha1)
449
638
        meta_modified = (self.executable != old_entry.executable)
450
639
        return text_modified, meta_modified
452
641
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
453
642
             output_to, reverse=False):
454
643
        """See InventoryEntry._diff."""
455
 
        from bzrlib.diff import DiffText
456
 
        from_file_id = self.file_id
457
 
        if to_entry:
458
 
            to_file_id = to_entry.file_id
459
 
        else:
460
 
            to_file_id = None
461
 
        if reverse:
462
 
            to_file_id, from_file_id = from_file_id, to_file_id
463
 
            tree, to_tree = to_tree, tree
464
 
            from_label, to_label = to_label, from_label
465
 
        differ = DiffText(tree, to_tree, output_to, 'utf-8', '', '',
466
 
                          text_diff)
467
 
        return differ.diff_text(from_file_id, to_file_id, from_label, to_label)
 
644
        try:
 
645
            from_text = tree.get_file(self.file_id).readlines()
 
646
            if to_entry:
 
647
                to_text = to_tree.get_file(to_entry.file_id).readlines()
 
648
            else:
 
649
                to_text = []
 
650
            if not reverse:
 
651
                text_diff(from_label, from_text,
 
652
                          to_label, to_text, output_to)
 
653
            else:
 
654
                text_diff(to_label, to_text,
 
655
                          from_label, from_text, output_to)
 
656
        except errors.BinaryFile:
 
657
            if reverse:
 
658
                label_pair = (to_label, from_label)
 
659
            else:
 
660
                label_pair = (from_label, to_label)
 
661
            print >> output_to, "Binary files %s and %s differ" % label_pair
468
662
 
469
663
    def has_text(self):
470
664
        """See InventoryEntry.has_text."""
471
665
        return True
472
666
 
 
667
    def __init__(self, file_id, name, parent_id):
 
668
        super(InventoryFile, self).__init__(file_id, name, parent_id)
 
669
        self.kind = 'file'
 
670
 
473
671
    def kind_character(self):
474
672
        """See InventoryEntry.kind_character."""
475
673
        return ''
476
674
 
 
675
    def _put_in_tar(self, item, tree):
 
676
        """See InventoryEntry._put_in_tar."""
 
677
        item.type = tarfile.REGTYPE
 
678
        fileobj = tree.get_file(self.file_id)
 
679
        item.size = self.text_size
 
680
        if tree.is_executable(self.file_id):
 
681
            item.mode = 0755
 
682
        else:
 
683
            item.mode = 0644
 
684
        return fileobj
 
685
 
 
686
    def _put_on_disk(self, fullpath, tree):
 
687
        """See InventoryEntry._put_on_disk."""
 
688
        osutils.pumpfile(tree.get_file(self.file_id), file(fullpath, 'wb'))
 
689
        if tree.is_executable(self.file_id):
 
690
            os.chmod(fullpath, 0755)
 
691
 
477
692
    def _read_tree_state(self, path, work_tree):
478
693
        """See InventoryEntry._read_tree_state."""
479
694
        self.text_sha1 = work_tree.get_file_sha1(self.file_id, path=path)
482
697
        self.executable = work_tree.is_executable(self.file_id, path=path)
483
698
 
484
699
    def __repr__(self):
485
 
        return ("%s(%r, %r, parent_id=%r, sha1=%r, len=%s, revision=%s)"
 
700
        return ("%s(%r, %r, parent_id=%r, sha1=%r, len=%s)"
486
701
                % (self.__class__.__name__,
487
702
                   self.file_id,
488
703
                   self.name,
489
704
                   self.parent_id,
490
705
                   self.text_sha1,
491
 
                   self.text_size,
492
 
                   self.revision))
 
706
                   self.text_size))
493
707
 
494
708
    def _forget_tree_state(self):
495
709
        self.text_sha1 = None
496
710
 
 
711
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
712
        """See InventoryEntry._snapshot_text."""
 
713
        def get_content_byte_lines():
 
714
            return work_tree.get_file(self.file_id).readlines()
 
715
        self.text_sha1, self.text_size = commit_builder.modified_file_text(
 
716
            self.file_id, file_parents, get_content_byte_lines, self.text_sha1, self.text_size)
 
717
 
497
718
    def _unchanged(self, previous_ie):
498
719
        """See InventoryEntry._unchanged."""
499
720
        compatible = super(InventoryFile, self)._unchanged(previous_ie)
511
732
class InventoryLink(InventoryEntry):
512
733
    """A file in an inventory."""
513
734
 
514
 
    __slots__ = ['symlink_target']
515
 
 
516
 
    kind = 'symlink'
517
 
 
518
 
    def __init__(self, file_id, name, parent_id):
519
 
        super(InventoryLink, self).__init__(file_id, name, parent_id)
520
 
        self.symlink_target = None
521
 
 
522
 
    def _check(self, checker, tree_revision_id):
 
735
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
736
                 'text_id', 'parent_id', 'children', 'executable', 
 
737
                 'revision', 'symlink_target']
 
738
 
 
739
    def _check(self, checker, rev_id, tree):
523
740
        """See InventoryEntry._check"""
 
741
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
 
742
            raise BzrCheckError('symlink {%s} has text in revision {%s}'
 
743
                    % (self.file_id, rev_id))
524
744
        if self.symlink_target is None:
525
 
            checker._report_items.append(
526
 
                'symlink {%s} has no target in revision {%s}'
527
 
                    % (self.file_id, tree_revision_id))
528
 
        # Symlinks are stored as ''
529
 
        checker.add_pending_item(tree_revision_id,
530
 
            ('texts', self.file_id, self.revision), 'text',
531
 
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
 
745
            raise BzrCheckError('symlink {%s} has no target in revision {%s}'
 
746
                    % (self.file_id, rev_id))
532
747
 
533
748
    def copy(self):
534
749
        other = InventoryLink(self.file_id, self.name, self.parent_id)
541
756
        # FIXME: which _modified field should we use ? RBC 20051003
542
757
        text_modified = (self.symlink_target != old_entry.symlink_target)
543
758
        if text_modified:
544
 
            trace.mutter("    symlink target changed")
 
759
            mutter("    symlink target changed")
545
760
        meta_modified = False
546
761
        return text_modified, meta_modified
547
762
 
548
763
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
549
764
             output_to, reverse=False):
550
765
        """See InventoryEntry._diff."""
551
 
        from bzrlib.diff import DiffSymlink
552
 
        old_target = self.symlink_target
 
766
        from_text = self.symlink_target
553
767
        if to_entry is not None:
554
 
            new_target = to_entry.symlink_target
555
 
        else:
556
 
            new_target = None
557
 
        if not reverse:
558
 
            old_tree = tree
559
 
            new_tree = to_tree
560
 
        else:
561
 
            old_tree = to_tree
562
 
            new_tree = tree
563
 
            new_target, old_target = old_target, new_target
564
 
        differ = DiffSymlink(old_tree, new_tree, output_to)
565
 
        return differ.diff_symlink(old_target, new_target)
 
768
            to_text = to_entry.symlink_target
 
769
            if reverse:
 
770
                temp = from_text
 
771
                from_text = to_text
 
772
                to_text = temp
 
773
            print >>output_to, '=== target changed %r => %r' % (from_text, to_text)
 
774
        else:
 
775
            if not reverse:
 
776
                print >>output_to, '=== target was %r' % self.symlink_target
 
777
            else:
 
778
                print >>output_to, '=== target is %r' % self.symlink_target
 
779
 
 
780
    def __init__(self, file_id, name, parent_id):
 
781
        super(InventoryLink, self).__init__(file_id, name, parent_id)
 
782
        self.kind = 'symlink'
566
783
 
567
784
    def kind_character(self):
568
785
        """See InventoryEntry.kind_character."""
569
786
        return ''
570
787
 
 
788
    def _put_in_tar(self, item, tree):
 
789
        """See InventoryEntry._put_in_tar."""
 
790
        item.type = tarfile.SYMTYPE
 
791
        fileobj = None
 
792
        item.size = 0
 
793
        item.mode = 0755
 
794
        item.linkname = self.symlink_target
 
795
        return fileobj
 
796
 
 
797
    def _put_on_disk(self, fullpath, tree):
 
798
        """See InventoryEntry._put_on_disk."""
 
799
        try:
 
800
            os.symlink(self.symlink_target, fullpath)
 
801
        except OSError,e:
 
802
            raise BzrError("Failed to create symlink %r -> %r, error: %s" % (fullpath, self.symlink_target, e))
 
803
 
571
804
    def _read_tree_state(self, path, work_tree):
572
805
        """See InventoryEntry._read_tree_state."""
573
806
        self.symlink_target = work_tree.get_symlink_target(self.file_id)
582
815
            compatible = False
583
816
        return compatible
584
817
 
 
818
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
819
        """See InventoryEntry._snapshot_text."""
 
820
        commit_builder.modified_link(
 
821
            self.file_id, file_parents, self.symlink_target)
 
822
 
585
823
 
586
824
class TreeReference(InventoryEntry):
587
 
 
588
 
    __slots__ = ['reference_revision']
589
 
 
 
825
    
590
826
    kind = 'tree-reference'
591
 
 
 
827
    
592
828
    def __init__(self, file_id, name, parent_id, revision=None,
593
829
                 reference_revision=None):
594
830
        InventoryEntry.__init__(self, file_id, name, parent_id)
599
835
        return TreeReference(self.file_id, self.name, self.parent_id,
600
836
                             self.revision, self.reference_revision)
601
837
 
 
838
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
839
        commit_builder.modified_reference(self.file_id, file_parents)
 
840
 
602
841
    def _read_tree_state(self, path, work_tree):
603
842
        """Populate fields in the inventory entry from the given tree.
604
843
        """
605
 
        self.reference_revision = work_tree.get_reference_revision(
606
 
            self.file_id, path)
 
844
        self.reference_revision = work_tree.get_reference_revision(self, path)
607
845
 
608
846
    def _forget_tree_state(self):
609
 
        self.reference_revision = None
610
 
 
611
 
    def _unchanged(self, previous_ie):
612
 
        """See InventoryEntry._unchanged."""
613
 
        compatible = super(TreeReference, self)._unchanged(previous_ie)
614
 
        if self.reference_revision != previous_ie.reference_revision:
615
 
            compatible = False
616
 
        return compatible
617
 
 
618
 
 
619
 
class CommonInventory(object):
620
 
    """Basic inventory logic, defined in terms of primitives like has_id.
621
 
 
622
 
    An inventory is the metadata about the contents of a tree.
623
 
 
624
 
    This is broadly a map from file_id to entries such as directories, files,
625
 
    symlinks and tree references. Each entry maintains its own metadata like
626
 
    SHA1 and length for files, or children for a directory.
627
 
 
 
847
        self.reference_revision = None 
 
848
 
 
849
 
 
850
class Inventory(object):
 
851
    """Inventory of versioned files in a tree.
 
852
 
 
853
    This describes which file_id is present at each point in the tree,
 
854
    and possibly the SHA-1 or other information about the file.
628
855
    Entries can be looked up either by path or by file_id.
629
856
 
 
857
    The inventory represents a typical unix file tree, with
 
858
    directories containing files and subdirectories.  We never store
 
859
    the full path to a file, because renaming a directory implicitly
 
860
    moves all of its contents.  This class internally maintains a
 
861
    lookup tree that allows the children under a directory to be
 
862
    returned quickly.
 
863
 
630
864
    InventoryEntry objects must not be modified after they are
631
865
    inserted, other than through the Inventory API.
 
866
 
 
867
    >>> inv = Inventory()
 
868
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
869
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
870
    >>> inv['123-123'].name
 
871
    'hello.c'
 
872
 
 
873
    May be treated as an iterator or set to look up file ids:
 
874
    
 
875
    >>> bool(inv.path2id('hello.c'))
 
876
    True
 
877
    >>> '123-123' in inv
 
878
    True
 
879
 
 
880
    May also look up by name:
 
881
 
 
882
    >>> [x[0] for x in inv.iter_entries()]
 
883
    ['', u'hello.c']
 
884
    >>> inv = Inventory('TREE_ROOT-12345678-12345678')
 
885
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
886
    Traceback (most recent call last):
 
887
    BzrError: parent_id {TREE_ROOT} not in inventory
 
888
    >>> inv.add(InventoryFile('123-123', 'hello.c', 'TREE_ROOT-12345678-12345678'))
 
889
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT-12345678-12345678', sha1=None, len=None)
632
890
    """
633
 
 
634
 
    @deprecated_method(deprecated_in((2, 4, 0)))
635
 
    def __contains__(self, file_id):
636
 
        """True if this entry contains a file with given id.
637
 
 
638
 
        >>> inv = Inventory()
639
 
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
640
 
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
641
 
        >>> inv.has_id('123')
642
 
        True
643
 
        >>> inv.has_id('456')
644
 
        False
645
 
 
646
 
        Note that this method along with __iter__ are not encouraged for use as
647
 
        they are less clear than specific query methods - they may be rmeoved
648
 
        in the future.
649
 
        """
650
 
        return self.has_id(file_id)
651
 
 
652
 
    def has_filename(self, filename):
653
 
        return bool(self.path2id(filename))
654
 
 
655
 
    def id2path(self, file_id):
656
 
        """Return as a string the path to file_id.
657
 
 
658
 
        >>> i = Inventory()
659
 
        >>> e = i.add(InventoryDirectory('src-id', 'src', ROOT_ID))
660
 
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
661
 
        >>> print i.id2path('foo-id')
662
 
        src/foo.c
663
 
 
664
 
        :raises NoSuchId: If file_id is not present in the inventory.
665
 
        """
666
 
        # get all names, skipping root
667
 
        return '/'.join(reversed(
668
 
            [parent.name for parent in
669
 
             self._iter_file_id_parents(file_id)][:-1]))
670
 
 
671
 
    def iter_entries(self, from_dir=None, recursive=True):
672
 
        """Return (path, entry) pairs, in order by name.
673
 
        
674
 
        :param from_dir: if None, start from the root,
675
 
          otherwise start from this directory (either file-id or entry)
676
 
        :param recursive: recurse into directories or not
677
 
        """
 
891
    def __init__(self, root_id=ROOT_ID, revision_id=None):
 
892
        """Create or read an inventory.
 
893
 
 
894
        If a working directory is specified, the inventory is read
 
895
        from there.  If the file is specified, read from that. If not,
 
896
        the inventory is created empty.
 
897
 
 
898
        The inventory is created with a default root directory, with
 
899
        an id of None.
 
900
        """
 
901
        if root_id is not None:
 
902
            assert root_id.__class__ == str
 
903
            self._set_root(InventoryDirectory(root_id, u'', None))
 
904
        else:
 
905
            self.root = None
 
906
            self._byid = {}
 
907
        self.revision_id = revision_id
 
908
 
 
909
    def _set_root(self, ie):
 
910
        self.root = ie
 
911
        self._byid = {self.root.file_id: self.root}
 
912
 
 
913
    def copy(self):
 
914
        # TODO: jam 20051218 Should copy also copy the revision_id?
 
915
        entries = self.iter_entries()
 
916
        other = Inventory(entries.next()[1].file_id)
 
917
        # copy recursively so we know directories will be added before
 
918
        # their children.  There are more efficient ways than this...
 
919
        for path, entry in entries():
 
920
            other.add(entry.copy())
 
921
        return other
 
922
 
 
923
    def __iter__(self):
 
924
        return iter(self._byid)
 
925
 
 
926
    def __len__(self):
 
927
        """Returns number of entries."""
 
928
        return len(self._byid)
 
929
 
 
930
    def iter_entries(self, from_dir=None):
 
931
        """Return (path, entry) pairs, in order by name."""
678
932
        if from_dir is None:
679
933
            if self.root is None:
680
934
                return
681
935
            from_dir = self.root
682
936
            yield '', self.root
683
937
        elif isinstance(from_dir, basestring):
684
 
            from_dir = self[from_dir]
685
 
 
 
938
            from_dir = self._byid[from_dir]
 
939
            
686
940
        # unrolling the recursive called changed the time from
687
941
        # 440ms/663ms (inline/total) to 116ms/116ms
688
942
        children = from_dir.children.items()
689
943
        children.sort()
690
 
        if not recursive:
691
 
            for name, ie in children:
692
 
                yield name, ie
693
 
            return
694
944
        children = collections.deque(children)
695
945
        stack = [(u'', children)]
696
946
        while stack:
721
971
                # if we finished all children, pop it off the stack
722
972
                stack.pop()
723
973
 
724
 
    def _preload_cache(self):
725
 
        """Populate any caches, we are about to access all items.
726
 
        
727
 
        The default implementation does nothing, because CommonInventory doesn't
728
 
        have a cache.
729
 
        """
730
 
        pass
731
 
    
732
 
    def iter_entries_by_dir(self, from_dir=None, specific_file_ids=None,
733
 
        yield_parents=False):
 
974
    def iter_entries_by_dir(self, from_dir=None, specific_file_ids=None):
734
975
        """Iterate over the entries in a directory first order.
735
976
 
736
977
        This returns all entries for a directory before returning
738
979
        lexicographically sorted order, and is a hybrid between
739
980
        depth-first and breadth-first.
740
981
 
741
 
        :param yield_parents: If True, yield the parents from the root leading
742
 
            down to specific_file_ids that have been requested. This has no
743
 
            impact if specific_file_ids is None.
744
982
        :return: This yields (path, entry) pairs
745
983
        """
746
 
        if specific_file_ids and not isinstance(specific_file_ids, set):
747
 
            specific_file_ids = set(specific_file_ids)
 
984
        if specific_file_ids:
 
985
            safe = osutils.safe_file_id
 
986
            specific_file_ids = set(safe(fid) for fid in specific_file_ids)
748
987
        # TODO? Perhaps this should return the from_dir so that the root is
749
988
        # yielded? or maybe an option?
750
 
        if from_dir is None and specific_file_ids is None:
751
 
            # They are iterating from the root, and have not specified any
752
 
            # specific entries to look at. All current callers fully consume the
753
 
            # iterator, so we can safely assume we are accessing all entries
754
 
            self._preload_cache()
755
989
        if from_dir is None:
756
990
            if self.root is None:
757
991
                return
758
992
            # Optimize a common case
759
 
            if (not yield_parents and specific_file_ids is not None and
760
 
                len(specific_file_ids) == 1):
 
993
            if specific_file_ids is not None and len(specific_file_ids) == 1:
761
994
                file_id = list(specific_file_ids)[0]
762
 
                if self.has_id(file_id):
 
995
                if file_id in self:
763
996
                    yield self.id2path(file_id), self[file_id]
764
 
                return
 
997
                return 
765
998
            from_dir = self.root
766
 
            if (specific_file_ids is None or yield_parents or
 
999
            if (specific_file_ids is None or 
767
1000
                self.root.file_id in specific_file_ids):
768
1001
                yield u'', self.root
769
1002
        elif isinstance(from_dir, basestring):
770
 
            from_dir = self[from_dir]
 
1003
            from_dir = self._byid[from_dir]
771
1004
 
772
1005
        if specific_file_ids is not None:
773
 
            # TODO: jam 20070302 This could really be done as a loop rather
774
 
            #       than a bunch of recursive calls.
775
1006
            parents = set()
776
 
            byid = self
777
1007
            def add_ancestors(file_id):
778
 
                if not byid.has_id(file_id):
 
1008
                if file_id not in self:
779
1009
                    return
780
 
                parent_id = byid[file_id].parent_id
 
1010
                parent_id = self[file_id].parent_id
781
1011
                if parent_id is None:
782
1012
                    return
783
1013
                if parent_id not in parents:
787
1017
                add_ancestors(file_id)
788
1018
        else:
789
1019
            parents = None
790
 
 
 
1020
            
791
1021
        stack = [(u'', from_dir)]
792
1022
        while stack:
793
1023
            cur_relpath, cur_dir = stack.pop()
797
1027
 
798
1028
                child_relpath = cur_relpath + child_name
799
1029
 
800
 
                if (specific_file_ids is None or
801
 
                    child_ie.file_id in specific_file_ids or
802
 
                    (yield_parents and child_ie.file_id in parents)):
 
1030
                if (specific_file_ids is None or 
 
1031
                    child_ie.file_id in specific_file_ids):
803
1032
                    yield child_relpath, child_ie
804
1033
 
805
1034
                if child_ie.kind == 'directory':
807
1036
                        child_dirs.append((child_relpath+'/', child_ie))
808
1037
            stack.extend(reversed(child_dirs))
809
1038
 
810
 
    def _make_delta(self, old):
811
 
        """Make an inventory delta from two inventories."""
812
 
        old_ids = set(old)
813
 
        new_ids = set(self)
814
 
        adds = new_ids - old_ids
815
 
        deletes = old_ids - new_ids
816
 
        common = old_ids.intersection(new_ids)
817
 
        delta = []
818
 
        for file_id in deletes:
819
 
            delta.append((old.id2path(file_id), None, file_id, None))
820
 
        for file_id in adds:
821
 
            delta.append((None, self.id2path(file_id), file_id, self[file_id]))
822
 
        for file_id in common:
823
 
            if old[file_id] != self[file_id]:
824
 
                delta.append((old.id2path(file_id), self.id2path(file_id),
825
 
                    file_id, self[file_id]))
826
 
        return delta
827
 
 
828
 
    def make_entry(self, kind, name, parent_id, file_id=None):
829
 
        """Simple thunk to bzrlib.inventory.make_entry."""
830
 
        return make_entry(kind, name, parent_id, file_id)
831
 
 
832
1039
    def entries(self):
833
1040
        """Return list of (path, ie) for all entries except the root.
834
1041
 
844
1051
                if ie.kind == 'directory':
845
1052
                    descend(ie, child_path)
846
1053
 
847
 
        if self.root is not None:
848
 
            descend(self.root, u'')
 
1054
        descend(self.root, u'')
849
1055
        return accum
850
1056
 
851
1057
    def directories(self):
854
1060
        accum = []
855
1061
        def descend(parent_ie, parent_path):
856
1062
            accum.append((parent_path, parent_ie))
857
 
 
 
1063
            
858
1064
            kids = [(ie.name, ie) for ie in parent_ie.children.itervalues() if ie.kind == 'directory']
859
1065
            kids.sort()
860
1066
 
863
1069
                descend(child_ie, child_path)
864
1070
        descend(self.root, u'')
865
1071
        return accum
866
 
 
867
 
    def path2id(self, relpath):
868
 
        """Walk down through directories to return entry of last component.
869
 
 
870
 
        :param relpath: may be either a list of path components, or a single
871
 
            string, in which case it is automatically split.
872
 
 
873
 
        This returns the entry of the last component in the path,
874
 
        which may be either a file or a directory.
875
 
 
876
 
        Returns None IFF the path is not found.
877
 
        """
878
 
        if isinstance(relpath, basestring):
879
 
            names = osutils.splitpath(relpath)
880
 
        else:
881
 
            names = relpath
882
 
 
883
 
        try:
884
 
            parent = self.root
885
 
        except errors.NoSuchId:
886
 
            # root doesn't exist yet so nothing else can
887
 
            return None
888
 
        if parent is None:
889
 
            return None
890
 
        for f in names:
891
 
            try:
892
 
                children = getattr(parent, 'children', None)
893
 
                if children is None:
894
 
                    return None
895
 
                cie = children[f]
896
 
                parent = cie
897
 
            except KeyError:
898
 
                # or raise an error?
899
 
                return None
900
 
 
901
 
        return parent.file_id
902
 
 
903
 
    def filter(self, specific_fileids):
904
 
        """Get an inventory view filtered against a set of file-ids.
905
 
 
906
 
        Children of directories and parents are included.
907
 
 
908
 
        The result may or may not reference the underlying inventory
909
 
        so it should be treated as immutable.
910
 
        """
911
 
        interesting_parents = set()
912
 
        for fileid in specific_fileids:
913
 
            try:
914
 
                interesting_parents.update(self.get_idpath(fileid))
915
 
            except errors.NoSuchId:
916
 
                # This fileid is not in the inventory - that's ok
917
 
                pass
918
 
        entries = self.iter_entries()
919
 
        if self.root is None:
920
 
            return Inventory(root_id=None)
921
 
        other = Inventory(entries.next()[1].file_id)
922
 
        other.root.revision = self.root.revision
923
 
        other.revision_id = self.revision_id
924
 
        directories_to_expand = set()
925
 
        for path, entry in entries:
926
 
            file_id = entry.file_id
927
 
            if (file_id in specific_fileids
928
 
                or entry.parent_id in directories_to_expand):
929
 
                if entry.kind == 'directory':
930
 
                    directories_to_expand.add(file_id)
931
 
            elif file_id not in interesting_parents:
932
 
                continue
933
 
            other.add(entry.copy())
934
 
        return other
935
 
 
936
 
    def get_idpath(self, file_id):
937
 
        """Return a list of file_ids for the path to an entry.
938
 
 
939
 
        The list contains one element for each directory followed by
940
 
        the id of the file itself.  So the length of the returned list
941
 
        is equal to the depth of the file in the tree, counting the
942
 
        root directory as depth 1.
943
 
        """
944
 
        p = []
945
 
        for parent in self._iter_file_id_parents(file_id):
946
 
            p.insert(0, parent.file_id)
947
 
        return p
948
 
 
949
 
 
950
 
class Inventory(CommonInventory):
951
 
    """Mutable dict based in-memory inventory.
952
 
 
953
 
    We never store the full path to a file, because renaming a directory
954
 
    implicitly moves all of its contents.  This class internally maintains a
955
 
    lookup tree that allows the children under a directory to be
956
 
    returned quickly.
957
 
 
958
 
    >>> inv = Inventory()
959
 
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
960
 
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
961
 
    >>> inv['123-123'].name
962
 
    'hello.c'
963
 
 
964
 
    Id's may be looked up from paths:
965
 
 
966
 
    >>> inv.path2id('hello.c')
967
 
    '123-123'
968
 
    >>> inv.has_id('123-123')
969
 
    True
970
 
 
971
 
    There are iterators over the contents:
972
 
 
973
 
    >>> [entry[0] for entry in inv.iter_entries()]
974
 
    ['', u'hello.c']
975
 
    """
976
 
 
977
 
    def __init__(self, root_id=ROOT_ID, revision_id=None):
978
 
        """Create or read an inventory.
979
 
 
980
 
        If a working directory is specified, the inventory is read
981
 
        from there.  If the file is specified, read from that. If not,
982
 
        the inventory is created empty.
983
 
 
984
 
        The inventory is created with a default root directory, with
985
 
        an id of None.
986
 
        """
987
 
        if root_id is not None:
988
 
            self._set_root(InventoryDirectory(root_id, u'', None))
989
 
        else:
990
 
            self.root = None
991
 
            self._byid = {}
992
 
        self.revision_id = revision_id
993
 
 
994
 
    def __repr__(self):
995
 
        # More than one page of ouput is not useful anymore to debug
996
 
        max_len = 2048
997
 
        closing = '...}'
998
 
        contents = repr(self._byid)
999
 
        if len(contents) > max_len:
1000
 
            contents = contents[:(max_len-len(closing))] + closing
1001
 
        return "<Inventory object at %x, contents=%r>" % (id(self), contents)
1002
 
 
1003
 
    def apply_delta(self, delta):
1004
 
        """Apply a delta to this inventory.
1005
 
 
1006
 
        See the inventory developers documentation for the theory behind
1007
 
        inventory deltas.
1008
 
 
1009
 
        If delta application fails the inventory is left in an indeterminate
1010
 
        state and must not be used.
1011
 
 
1012
 
        :param delta: A list of changes to apply. After all the changes are
1013
 
            applied the final inventory must be internally consistent, but it
1014
 
            is ok to supply changes which, if only half-applied would have an
1015
 
            invalid result - such as supplying two changes which rename two
1016
 
            files, 'A' and 'B' with each other : [('A', 'B', 'A-id', a_entry),
1017
 
            ('B', 'A', 'B-id', b_entry)].
1018
 
 
1019
 
            Each change is a tuple, of the form (old_path, new_path, file_id,
1020
 
            new_entry).
1021
 
 
1022
 
            When new_path is None, the change indicates the removal of an entry
1023
 
            from the inventory and new_entry will be ignored (using None is
1024
 
            appropriate). If new_path is not None, then new_entry must be an
1025
 
            InventoryEntry instance, which will be incorporated into the
1026
 
            inventory (and replace any existing entry with the same file id).
1027
 
 
1028
 
            When old_path is None, the change indicates the addition of
1029
 
            a new entry to the inventory.
1030
 
 
1031
 
            When neither new_path nor old_path are None, the change is a
1032
 
            modification to an entry, such as a rename, reparent, kind change
1033
 
            etc.
1034
 
 
1035
 
            The children attribute of new_entry is ignored. This is because
1036
 
            this method preserves children automatically across alterations to
1037
 
            the parent of the children, and cases where the parent id of a
1038
 
            child is changing require the child to be passed in as a separate
1039
 
            change regardless. E.g. in the recursive deletion of a directory -
1040
 
            the directory's children must be included in the delta, or the
1041
 
            final inventory will be invalid.
1042
 
 
1043
 
            Note that a file_id must only appear once within a given delta.
1044
 
            An AssertionError is raised otherwise.
1045
 
        """
1046
 
        # Check that the delta is legal. It would be nice if this could be
1047
 
        # done within the loops below but it's safer to validate the delta
1048
 
        # before starting to mutate the inventory, as there isn't a rollback
1049
 
        # facility.
1050
 
        list(_check_delta_unique_ids(_check_delta_unique_new_paths(
1051
 
            _check_delta_unique_old_paths(_check_delta_ids_match_entry(
1052
 
            _check_delta_ids_are_valid(
1053
 
            _check_delta_new_path_entry_both_or_None(
1054
 
            delta)))))))
1055
 
 
1056
 
        children = {}
1057
 
        # Remove all affected items which were in the original inventory,
1058
 
        # starting with the longest paths, thus ensuring parents are examined
1059
 
        # after their children, which means that everything we examine has no
1060
 
        # modified children remaining by the time we examine it.
1061
 
        for old_path, file_id in sorted(((op, f) for op, np, f, e in delta
1062
 
                                        if op is not None), reverse=True):
1063
 
            # Preserve unaltered children of file_id for later reinsertion.
1064
 
            file_id_children = getattr(self[file_id], 'children', {})
1065
 
            if len(file_id_children):
1066
 
                children[file_id] = file_id_children
1067
 
            if self.id2path(file_id) != old_path:
1068
 
                raise errors.InconsistentDelta(old_path, file_id,
1069
 
                    "Entry was at wrong other path %r." % self.id2path(file_id))
1070
 
            # Remove file_id and the unaltered children. If file_id is not
1071
 
            # being deleted it will be reinserted back later.
1072
 
            self.remove_recursive_id(file_id)
1073
 
        # Insert all affected which should be in the new inventory, reattaching
1074
 
        # their children if they had any. This is done from shortest path to
1075
 
        # longest, ensuring that items which were modified and whose parents in
1076
 
        # the resulting inventory were also modified, are inserted after their
1077
 
        # parents.
1078
 
        for new_path, f, new_entry in sorted((np, f, e) for op, np, f, e in
1079
 
                                          delta if np is not None):
1080
 
            if new_entry.kind == 'directory':
1081
 
                # Pop the child which to allow detection of children whose
1082
 
                # parents were deleted and which were not reattached to a new
1083
 
                # parent.
1084
 
                replacement = InventoryDirectory(new_entry.file_id,
1085
 
                    new_entry.name, new_entry.parent_id)
1086
 
                replacement.revision = new_entry.revision
1087
 
                replacement.children = children.pop(replacement.file_id, {})
1088
 
                new_entry = replacement
1089
 
            try:
1090
 
                self.add(new_entry)
1091
 
            except errors.DuplicateFileId:
1092
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1093
 
                    "New id is already present in target.")
1094
 
            except AttributeError:
1095
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1096
 
                    "Parent is not a directory.")
1097
 
            if self.id2path(new_entry.file_id) != new_path:
1098
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1099
 
                    "New path is not consistent with parent path.")
1100
 
        if len(children):
1101
 
            # Get the parent id that was deleted
1102
 
            parent_id, children = children.popitem()
1103
 
            raise errors.InconsistentDelta("<deleted>", parent_id,
1104
 
                "The file id was deleted but its children were not deleted.")
1105
 
 
1106
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1107
 
                              propagate_caches=False):
1108
 
        """See CHKInventory.create_by_apply_delta()"""
1109
 
        new_inv = self.copy()
1110
 
        new_inv.apply_delta(inventory_delta)
1111
 
        new_inv.revision_id = new_revision_id
1112
 
        return new_inv
1113
 
 
1114
 
    def _set_root(self, ie):
1115
 
        self.root = ie
1116
 
        self._byid = {self.root.file_id: self.root}
1117
 
 
1118
 
    def copy(self):
1119
 
        # TODO: jam 20051218 Should copy also copy the revision_id?
1120
 
        entries = self.iter_entries()
1121
 
        if self.root is None:
1122
 
            return Inventory(root_id=None)
1123
 
        other = Inventory(entries.next()[1].file_id)
1124
 
        other.root.revision = self.root.revision
1125
 
        # copy recursively so we know directories will be added before
1126
 
        # their children.  There are more efficient ways than this...
1127
 
        for path, entry in entries:
1128
 
            other.add(entry.copy())
1129
 
        return other
1130
 
 
1131
 
    def __iter__(self):
1132
 
        """Iterate over all file-ids."""
1133
 
        return iter(self._byid)
1134
 
 
1135
 
    def iter_just_entries(self):
1136
 
        """Iterate over all entries.
1137
1072
        
1138
 
        Unlike iter_entries(), just the entries are returned (not (path, ie))
1139
 
        and the order of entries is undefined.
 
1073
    def __contains__(self, file_id):
 
1074
        """True if this entry contains a file with given id.
1140
1075
 
1141
 
        XXX: We may not want to merge this into bzr.dev.
 
1076
        >>> inv = Inventory()
 
1077
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
 
1078
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
1079
        >>> '123' in inv
 
1080
        True
 
1081
        >>> '456' in inv
 
1082
        False
1142
1083
        """
1143
 
        if self.root is None:
1144
 
            return
1145
 
        for _, ie in self._byid.iteritems():
1146
 
            yield ie
1147
 
 
1148
 
    def __len__(self):
1149
 
        """Returns number of entries."""
1150
 
        return len(self._byid)
 
1084
        file_id = osutils.safe_file_id(file_id)
 
1085
        return (file_id in self._byid)
1151
1086
 
1152
1087
    def __getitem__(self, file_id):
1153
1088
        """Return the entry for given file_id.
1154
1089
 
1155
1090
        >>> inv = Inventory()
1156
1091
        >>> inv.add(InventoryFile('123123', 'hello.c', ROOT_ID))
1157
 
        InventoryFile('123123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1092
        InventoryFile('123123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None)
1158
1093
        >>> inv['123123'].name
1159
1094
        'hello.c'
1160
1095
        """
 
1096
        file_id = osutils.safe_file_id(file_id)
1161
1097
        try:
1162
1098
            return self._byid[file_id]
1163
1099
        except KeyError:
1165
1101
            raise errors.NoSuchId(self, file_id)
1166
1102
 
1167
1103
    def get_file_kind(self, file_id):
 
1104
        file_id = osutils.safe_file_id(file_id)
1168
1105
        return self._byid[file_id].kind
1169
1106
 
1170
1107
    def get_child(self, parent_id, filename):
 
1108
        parent_id = osutils.safe_file_id(parent_id)
1171
1109
        return self[parent_id].children.get(filename)
1172
1110
 
1173
1111
    def _add_child(self, entry):
1174
1112
        """Add an entry to the inventory, without adding it to its parent"""
1175
1113
        if entry.file_id in self._byid:
1176
 
            raise errors.BzrError(
1177
 
                "inventory already contains entry with id {%s}" %
1178
 
                entry.file_id)
 
1114
            raise BzrError("inventory already contains entry with id {%s}" %
 
1115
                           entry.file_id)
1179
1116
        self._byid[entry.file_id] = entry
1180
1117
        for child in getattr(entry, 'children', {}).itervalues():
1181
1118
            self._add_child(child)
1184
1121
    def add(self, entry):
1185
1122
        """Add entry to inventory.
1186
1123
 
1187
 
        :return: entry
 
1124
        To add  a file to a branch ready to be committed, use Branch.add,
 
1125
        which calls this.
 
1126
 
 
1127
        Returns the new entry object.
1188
1128
        """
1189
1129
        if entry.file_id in self._byid:
1190
1130
            raise errors.DuplicateFileId(entry.file_id,
1191
1131
                                         self._byid[entry.file_id])
 
1132
 
1192
1133
        if entry.parent_id is None:
 
1134
            assert self.root is None and len(self._byid) == 0
1193
1135
            self.root = entry
1194
1136
        else:
1195
1137
            try:
1196
1138
                parent = self._byid[entry.parent_id]
1197
1139
            except KeyError:
1198
 
                raise errors.InconsistentDelta("<unknown>", entry.parent_id,
1199
 
                    "Parent not in inventory.")
 
1140
                raise BzrError("parent_id {%s} not in inventory" %
 
1141
                               entry.parent_id)
 
1142
 
1200
1143
            if entry.name in parent.children:
1201
 
                raise errors.InconsistentDelta(
1202
 
                    self.id2path(parent.children[entry.name].file_id),
1203
 
                    entry.file_id,
1204
 
                    "Path already versioned")
 
1144
                raise BzrError("%s is already versioned" %
 
1145
                        osutils.pathjoin(self.id2path(parent.file_id),
 
1146
                        entry.name))
1205
1147
            parent.children[entry.name] = entry
1206
1148
        return self._add_child(entry)
1207
1149
 
1211
1153
        The immediate parent must already be versioned.
1212
1154
 
1213
1155
        Returns the new entry object."""
1214
 
 
 
1156
        
1215
1157
        parts = osutils.splitpath(relpath)
1216
1158
 
1217
1159
        if len(parts) == 0:
1218
1160
            if file_id is None:
1219
1161
                file_id = generate_ids.gen_root_id()
 
1162
            else:
 
1163
                file_id = osutils.safe_file_id(file_id)
1220
1164
            self.root = InventoryDirectory(file_id, '', None)
1221
1165
            self._byid = {self.root.file_id: self.root}
1222
1166
            return self.root
1233
1177
 
1234
1178
        >>> inv = Inventory()
1235
1179
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
1236
 
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1237
 
        >>> inv.has_id('123')
 
1180
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
1181
        >>> '123' in inv
1238
1182
        True
1239
1183
        >>> del inv['123']
1240
 
        >>> inv.has_id('123')
 
1184
        >>> '123' in inv
1241
1185
        False
1242
1186
        """
 
1187
        file_id = osutils.safe_file_id(file_id)
1243
1188
        ie = self[file_id]
 
1189
 
 
1190
        assert ie.parent_id is None or \
 
1191
            self[ie.parent_id].children[ie.name] == ie
 
1192
        
1244
1193
        del self._byid[file_id]
1245
1194
        if ie.parent_id is not None:
1246
1195
            del self[ie.parent_id].children[ie.name]
1253
1202
        >>> i1 == i2
1254
1203
        True
1255
1204
        >>> i1.add(InventoryFile('123', 'foo', ROOT_ID))
1256
 
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1205
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None)
1257
1206
        >>> i1 == i2
1258
1207
        False
1259
1208
        >>> i2.add(InventoryFile('123', 'foo', ROOT_ID))
1260
 
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1209
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None)
1261
1210
        >>> i1 == i2
1262
1211
        True
1263
1212
        """
1274
1223
 
1275
1224
    def _iter_file_id_parents(self, file_id):
1276
1225
        """Yield the parents of file_id up to the root."""
 
1226
        file_id = osutils.safe_file_id(file_id)
1277
1227
        while file_id is not None:
1278
1228
            try:
1279
1229
                ie = self._byid[file_id]
1282
1232
            yield ie
1283
1233
            file_id = ie.parent_id
1284
1234
 
 
1235
    def get_idpath(self, file_id):
 
1236
        """Return a list of file_ids for the path to an entry.
 
1237
 
 
1238
        The list contains one element for each directory followed by
 
1239
        the id of the file itself.  So the length of the returned list
 
1240
        is equal to the depth of the file in the tree, counting the
 
1241
        root directory as depth 1.
 
1242
        """
 
1243
        file_id = osutils.safe_file_id(file_id)
 
1244
        p = []
 
1245
        for parent in self._iter_file_id_parents(file_id):
 
1246
            p.insert(0, parent.file_id)
 
1247
        return p
 
1248
 
 
1249
    def id2path(self, file_id):
 
1250
        """Return as a string the path to file_id.
 
1251
        
 
1252
        >>> i = Inventory()
 
1253
        >>> e = i.add(InventoryDirectory('src-id', 'src', ROOT_ID))
 
1254
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
 
1255
        >>> print i.id2path('foo-id')
 
1256
        src/foo.c
 
1257
        """
 
1258
        file_id = osutils.safe_file_id(file_id)
 
1259
        # get all names, skipping root
 
1260
        return '/'.join(reversed(
 
1261
            [parent.name for parent in 
 
1262
             self._iter_file_id_parents(file_id)][:-1]))
 
1263
            
 
1264
    def path2id(self, name):
 
1265
        """Walk down through directories to return entry of last component.
 
1266
 
 
1267
        names may be either a list of path components, or a single
 
1268
        string, in which case it is automatically split.
 
1269
 
 
1270
        This returns the entry of the last component in the path,
 
1271
        which may be either a file or a directory.
 
1272
 
 
1273
        Returns None IFF the path is not found.
 
1274
        """
 
1275
        if isinstance(name, basestring):
 
1276
            name = osutils.splitpath(name)
 
1277
 
 
1278
        # mutter("lookup path %r" % name)
 
1279
 
 
1280
        parent = self.root
 
1281
        if parent is None:
 
1282
            return None
 
1283
        for f in name:
 
1284
            try:
 
1285
                children = getattr(parent, 'children', None)
 
1286
                if children is None:
 
1287
                    return None
 
1288
                cie = children[f]
 
1289
                assert cie.name == f
 
1290
                assert cie.parent_id == parent.file_id
 
1291
                parent = cie
 
1292
            except KeyError:
 
1293
                # or raise an error?
 
1294
                return None
 
1295
 
 
1296
        return parent.file_id
 
1297
 
 
1298
    def has_filename(self, names):
 
1299
        return bool(self.path2id(names))
 
1300
 
1285
1301
    def has_id(self, file_id):
 
1302
        file_id = osutils.safe_file_id(file_id)
1286
1303
        return (file_id in self._byid)
1287
1304
 
1288
 
    def _make_delta(self, old):
1289
 
        """Make an inventory delta from two inventories."""
1290
 
        old_getter = getattr(old, '_byid', old)
1291
 
        new_getter = self._byid
1292
 
        old_ids = set(old_getter)
1293
 
        new_ids = set(new_getter)
1294
 
        adds = new_ids - old_ids
1295
 
        deletes = old_ids - new_ids
1296
 
        if not adds and not deletes:
1297
 
            common = new_ids
1298
 
        else:
1299
 
            common = old_ids.intersection(new_ids)
1300
 
        delta = []
1301
 
        for file_id in deletes:
1302
 
            delta.append((old.id2path(file_id), None, file_id, None))
1303
 
        for file_id in adds:
1304
 
            delta.append((None, self.id2path(file_id), file_id, self[file_id]))
1305
 
        for file_id in common:
1306
 
            new_ie = new_getter[file_id]
1307
 
            old_ie = old_getter[file_id]
1308
 
            # If xml_serializer returns the cached InventoryEntries (rather
1309
 
            # than always doing .copy()), inlining the 'is' check saves 2.7M
1310
 
            # calls to __eq__.  Under lsprof this saves 20s => 6s.
1311
 
            # It is a minor improvement without lsprof.
1312
 
            if old_ie is new_ie or old_ie == new_ie:
1313
 
                continue
1314
 
            else:
1315
 
                delta.append((old.id2path(file_id), self.id2path(file_id),
1316
 
                              file_id, new_ie))
1317
 
        return delta
1318
 
 
1319
1305
    def remove_recursive_id(self, file_id):
1320
1306
        """Remove file_id, and children, from the inventory.
1321
 
 
 
1307
        
1322
1308
        :param file_id: A file_id to remove.
1323
1309
        """
 
1310
        file_id = osutils.safe_file_id(file_id)
1324
1311
        to_find_delete = [self._byid[file_id]]
1325
1312
        to_delete = []
1326
1313
        while to_find_delete:
1333
1320
            del self._byid[file_id]
1334
1321
        if ie.parent_id is not None:
1335
1322
            del self[ie.parent_id].children[ie.name]
1336
 
        else:
1337
 
            self.root = None
1338
1323
 
1339
1324
    def rename(self, file_id, new_parent_id, new_name):
1340
1325
        """Move a file within the inventory.
1343
1328
 
1344
1329
        This does not move the working file.
1345
1330
        """
1346
 
        new_name = ensure_normalized_name(new_name)
 
1331
        file_id = osutils.safe_file_id(file_id)
1347
1332
        if not is_valid_name(new_name):
1348
 
            raise errors.BzrError("not an acceptable filename: %r" % new_name)
 
1333
            raise BzrError("not an acceptable filename: %r" % new_name)
1349
1334
 
1350
1335
        new_parent = self._byid[new_parent_id]
1351
1336
        if new_name in new_parent.children:
1352
 
            raise errors.BzrError("%r already exists in %r" %
1353
 
                (new_name, self.id2path(new_parent_id)))
 
1337
            raise BzrError("%r already exists in %r" % (new_name, self.id2path(new_parent_id)))
1354
1338
 
1355
1339
        new_parent_idpath = self.get_idpath(new_parent_id)
1356
1340
        if file_id in new_parent_idpath:
1357
 
            raise errors.BzrError(
1358
 
                "cannot move directory %r into a subdirectory of itself, %r"
 
1341
            raise BzrError("cannot move directory %r into a subdirectory of itself, %r"
1359
1342
                    % (self.id2path(file_id), self.id2path(new_parent_id)))
1360
1343
 
1361
1344
        file_ie = self._byid[file_id]
1365
1348
 
1366
1349
        del old_parent.children[file_ie.name]
1367
1350
        new_parent.children[new_name] = file_ie
1368
 
 
 
1351
        
1369
1352
        file_ie.name = new_name
1370
1353
        file_ie.parent_id = new_parent_id
1371
1354
 
1372
1355
    def is_root(self, file_id):
 
1356
        file_id = osutils.safe_file_id(file_id)
1373
1357
        return self.root is not None and file_id == self.root.file_id
1374
1358
 
1375
1359
 
1376
 
class CHKInventory(CommonInventory):
1377
 
    """An inventory persisted in a CHK store.
1378
 
 
1379
 
    By design, a CHKInventory is immutable so many of the methods
1380
 
    supported by Inventory - add, rename, apply_delta, etc - are *not*
1381
 
    supported. To create a new CHKInventory, use create_by_apply_delta()
1382
 
    or from_inventory(), say.
1383
 
 
1384
 
    Internally, a CHKInventory has one or two CHKMaps:
1385
 
 
1386
 
    * id_to_entry - a map from (file_id,) => InventoryEntry as bytes
1387
 
    * parent_id_basename_to_file_id - a map from (parent_id, basename_utf8)
1388
 
        => file_id as bytes
1389
 
 
1390
 
    The second map is optional and not present in early CHkRepository's.
1391
 
 
1392
 
    No caching is performed: every method call or item access will perform
1393
 
    requests to the storage layer. As such, keep references to objects you
1394
 
    want to reuse.
1395
 
    """
1396
 
 
1397
 
    def __init__(self, search_key_name):
1398
 
        CommonInventory.__init__(self)
1399
 
        self._fileid_to_entry_cache = {}
1400
 
        self._fully_cached = False
1401
 
        self._path_to_fileid_cache = {}
1402
 
        self._search_key_name = search_key_name
1403
 
        self.root_id = None
1404
 
 
1405
 
    def __eq__(self, other):
1406
 
        """Compare two sets by comparing their contents."""
1407
 
        if not isinstance(other, CHKInventory):
1408
 
            return NotImplemented
1409
 
 
1410
 
        this_key = self.id_to_entry.key()
1411
 
        other_key = other.id_to_entry.key()
1412
 
        this_pid_key = self.parent_id_basename_to_file_id.key()
1413
 
        other_pid_key = other.parent_id_basename_to_file_id.key()
1414
 
        if None in (this_key, this_pid_key, other_key, other_pid_key):
1415
 
            return False
1416
 
        return this_key == other_key and this_pid_key == other_pid_key
1417
 
 
1418
 
    def _entry_to_bytes(self, entry):
1419
 
        """Serialise entry as a single bytestring.
1420
 
 
1421
 
        :param Entry: An inventory entry.
1422
 
        :return: A bytestring for the entry.
1423
 
 
1424
 
        The BNF:
1425
 
        ENTRY ::= FILE | DIR | SYMLINK | TREE
1426
 
        FILE ::= "file: " COMMON SEP SHA SEP SIZE SEP EXECUTABLE
1427
 
        DIR ::= "dir: " COMMON
1428
 
        SYMLINK ::= "symlink: " COMMON SEP TARGET_UTF8
1429
 
        TREE ::= "tree: " COMMON REFERENCE_REVISION
1430
 
        COMMON ::= FILE_ID SEP PARENT_ID SEP NAME_UTF8 SEP REVISION
1431
 
        SEP ::= "\n"
1432
 
        """
1433
 
        if entry.parent_id is not None:
1434
 
            parent_str = entry.parent_id
1435
 
        else:
1436
 
            parent_str = ''
1437
 
        name_str = entry.name.encode("utf8")
1438
 
        if entry.kind == 'file':
1439
 
            if entry.executable:
1440
 
                exec_str = "Y"
1441
 
            else:
1442
 
                exec_str = "N"
1443
 
            return "file: %s\n%s\n%s\n%s\n%s\n%d\n%s" % (
1444
 
                entry.file_id, parent_str, name_str, entry.revision,
1445
 
                entry.text_sha1, entry.text_size, exec_str)
1446
 
        elif entry.kind == 'directory':
1447
 
            return "dir: %s\n%s\n%s\n%s" % (
1448
 
                entry.file_id, parent_str, name_str, entry.revision)
1449
 
        elif entry.kind == 'symlink':
1450
 
            return "symlink: %s\n%s\n%s\n%s\n%s" % (
1451
 
                entry.file_id, parent_str, name_str, entry.revision,
1452
 
                entry.symlink_target.encode("utf8"))
1453
 
        elif entry.kind == 'tree-reference':
1454
 
            return "tree: %s\n%s\n%s\n%s\n%s" % (
1455
 
                entry.file_id, parent_str, name_str, entry.revision,
1456
 
                entry.reference_revision)
1457
 
        else:
1458
 
            raise ValueError("unknown kind %r" % entry.kind)
1459
 
 
1460
 
    def _expand_fileids_to_parents_and_children(self, file_ids):
1461
 
        """Give a more wholistic view starting with the given file_ids.
1462
 
 
1463
 
        For any file_id which maps to a directory, we will include all children
1464
 
        of that directory. We will also include all directories which are
1465
 
        parents of the given file_ids, but we will not include their children.
1466
 
 
1467
 
        eg:
1468
 
          /     # TREE_ROOT
1469
 
          foo/  # foo-id
1470
 
            baz # baz-id
1471
 
            frob/ # frob-id
1472
 
              fringle # fringle-id
1473
 
          bar/  # bar-id
1474
 
            bing # bing-id
1475
 
 
1476
 
        if given [foo-id] we will include
1477
 
            TREE_ROOT as interesting parents
1478
 
        and 
1479
 
            foo-id, baz-id, frob-id, fringle-id
1480
 
        As interesting ids.
1481
 
        """
1482
 
        interesting = set()
1483
 
        # TODO: Pre-pass over the list of fileids to see if anything is already
1484
 
        #       deserialized in self._fileid_to_entry_cache
1485
 
 
1486
 
        directories_to_expand = set()
1487
 
        children_of_parent_id = {}
1488
 
        # It is okay if some of the fileids are missing
1489
 
        for entry in self._getitems(file_ids):
1490
 
            if entry.kind == 'directory':
1491
 
                directories_to_expand.add(entry.file_id)
1492
 
            interesting.add(entry.parent_id)
1493
 
            children_of_parent_id.setdefault(entry.parent_id, set()
1494
 
                                             ).add(entry.file_id)
1495
 
 
1496
 
        # Now, interesting has all of the direct parents, but not the
1497
 
        # parents of those parents. It also may have some duplicates with
1498
 
        # specific_fileids
1499
 
        remaining_parents = interesting.difference(file_ids)
1500
 
        # When we hit the TREE_ROOT, we'll get an interesting parent of None,
1501
 
        # but we don't actually want to recurse into that
1502
 
        interesting.add(None) # this will auto-filter it in the loop
1503
 
        remaining_parents.discard(None) 
1504
 
        while remaining_parents:
1505
 
            next_parents = set()
1506
 
            for entry in self._getitems(remaining_parents):
1507
 
                next_parents.add(entry.parent_id)
1508
 
                children_of_parent_id.setdefault(entry.parent_id, set()
1509
 
                                                 ).add(entry.file_id)
1510
 
            # Remove any search tips we've already processed
1511
 
            remaining_parents = next_parents.difference(interesting)
1512
 
            interesting.update(remaining_parents)
1513
 
            # We should probably also .difference(directories_to_expand)
1514
 
        interesting.update(file_ids)
1515
 
        interesting.discard(None)
1516
 
        while directories_to_expand:
1517
 
            # Expand directories by looking in the
1518
 
            # parent_id_basename_to_file_id map
1519
 
            keys = [StaticTuple(f,).intern() for f in directories_to_expand]
1520
 
            directories_to_expand = set()
1521
 
            items = self.parent_id_basename_to_file_id.iteritems(keys)
1522
 
            next_file_ids = set([item[1] for item in items])
1523
 
            next_file_ids = next_file_ids.difference(interesting)
1524
 
            interesting.update(next_file_ids)
1525
 
            for entry in self._getitems(next_file_ids):
1526
 
                if entry.kind == 'directory':
1527
 
                    directories_to_expand.add(entry.file_id)
1528
 
                children_of_parent_id.setdefault(entry.parent_id, set()
1529
 
                                                 ).add(entry.file_id)
1530
 
        return interesting, children_of_parent_id
1531
 
 
1532
 
    def filter(self, specific_fileids):
1533
 
        """Get an inventory view filtered against a set of file-ids.
1534
 
 
1535
 
        Children of directories and parents are included.
1536
 
 
1537
 
        The result may or may not reference the underlying inventory
1538
 
        so it should be treated as immutable.
1539
 
        """
1540
 
        (interesting,
1541
 
         parent_to_children) = self._expand_fileids_to_parents_and_children(
1542
 
                                specific_fileids)
1543
 
        # There is some overlap here, but we assume that all interesting items
1544
 
        # are in the _fileid_to_entry_cache because we had to read them to
1545
 
        # determine if they were a dir we wanted to recurse, or just a file
1546
 
        # This should give us all the entries we'll want to add, so start
1547
 
        # adding
1548
 
        other = Inventory(self.root_id)
1549
 
        other.root.revision = self.root.revision
1550
 
        other.revision_id = self.revision_id
1551
 
        if not interesting or not parent_to_children:
1552
 
            # empty filter, or filtering entrys that don't exist
1553
 
            # (if even 1 existed, then we would have populated
1554
 
            # parent_to_children with at least the tree root.)
1555
 
            return other
1556
 
        cache = self._fileid_to_entry_cache
1557
 
        remaining_children = collections.deque(parent_to_children[self.root_id])
1558
 
        while remaining_children:
1559
 
            file_id = remaining_children.popleft()
1560
 
            ie = cache[file_id]
1561
 
            if ie.kind == 'directory':
1562
 
                ie = ie.copy() # We create a copy to depopulate the .children attribute
1563
 
            # TODO: depending on the uses of 'other' we should probably alwyas
1564
 
            #       '.copy()' to prevent someone from mutating other and
1565
 
            #       invaliding our internal cache
1566
 
            other.add(ie)
1567
 
            if file_id in parent_to_children:
1568
 
                remaining_children.extend(parent_to_children[file_id])
1569
 
        return other
1570
 
 
1571
 
    @staticmethod
1572
 
    def _bytes_to_utf8name_key(bytes):
1573
 
        """Get the file_id, revision_id key out of bytes."""
1574
 
        # We don't normally care about name, except for times when we want
1575
 
        # to filter out empty names because of non rich-root...
1576
 
        sections = bytes.split('\n')
1577
 
        kind, file_id = sections[0].split(': ')
1578
 
        return (sections[2], intern(file_id), intern(sections[3]))
1579
 
 
1580
 
    def _bytes_to_entry(self, bytes):
1581
 
        """Deserialise a serialised entry."""
1582
 
        sections = bytes.split('\n')
1583
 
        if sections[0].startswith("file: "):
1584
 
            result = InventoryFile(sections[0][6:],
1585
 
                sections[2].decode('utf8'),
1586
 
                sections[1])
1587
 
            result.text_sha1 = sections[4]
1588
 
            result.text_size = int(sections[5])
1589
 
            result.executable = sections[6] == "Y"
1590
 
        elif sections[0].startswith("dir: "):
1591
 
            result = CHKInventoryDirectory(sections[0][5:],
1592
 
                sections[2].decode('utf8'),
1593
 
                sections[1], self)
1594
 
        elif sections[0].startswith("symlink: "):
1595
 
            result = InventoryLink(sections[0][9:],
1596
 
                sections[2].decode('utf8'),
1597
 
                sections[1])
1598
 
            result.symlink_target = sections[4].decode('utf8')
1599
 
        elif sections[0].startswith("tree: "):
1600
 
            result = TreeReference(sections[0][6:],
1601
 
                sections[2].decode('utf8'),
1602
 
                sections[1])
1603
 
            result.reference_revision = sections[4]
1604
 
        else:
1605
 
            raise ValueError("Not a serialised entry %r" % bytes)
1606
 
        result.file_id = intern(result.file_id)
1607
 
        result.revision = intern(sections[3])
1608
 
        if result.parent_id == '':
1609
 
            result.parent_id = None
1610
 
        self._fileid_to_entry_cache[result.file_id] = result
1611
 
        return result
1612
 
 
1613
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1614
 
        propagate_caches=False):
1615
 
        """Create a new CHKInventory by applying inventory_delta to this one.
1616
 
 
1617
 
        See the inventory developers documentation for the theory behind
1618
 
        inventory deltas.
1619
 
 
1620
 
        :param inventory_delta: The inventory delta to apply. See
1621
 
            Inventory.apply_delta for details.
1622
 
        :param new_revision_id: The revision id of the resulting CHKInventory.
1623
 
        :param propagate_caches: If True, the caches for this inventory are
1624
 
          copied to and updated for the result.
1625
 
        :return: The new CHKInventory.
1626
 
        """
1627
 
        split = osutils.split
1628
 
        result = CHKInventory(self._search_key_name)
1629
 
        if propagate_caches:
1630
 
            # Just propagate the path-to-fileid cache for now
1631
 
            result._path_to_fileid_cache = dict(self._path_to_fileid_cache.iteritems())
1632
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1633
 
        self.id_to_entry._ensure_root()
1634
 
        maximum_size = self.id_to_entry._root_node.maximum_size
1635
 
        result.revision_id = new_revision_id
1636
 
        result.id_to_entry = chk_map.CHKMap(
1637
 
            self.id_to_entry._store,
1638
 
            self.id_to_entry.key(),
1639
 
            search_key_func=search_key_func)
1640
 
        result.id_to_entry._ensure_root()
1641
 
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
1642
 
        # Change to apply to the parent_id_basename delta. The dict maps
1643
 
        # (parent_id, basename) -> (old_key, new_value). We use a dict because
1644
 
        # when a path has its id replaced (e.g. the root is changed, or someone
1645
 
        # does bzr mv a b, bzr mv c a, we should output a single change to this
1646
 
        # map rather than two.
1647
 
        parent_id_basename_delta = {}
1648
 
        if self.parent_id_basename_to_file_id is not None:
1649
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1650
 
                self.parent_id_basename_to_file_id._store,
1651
 
                self.parent_id_basename_to_file_id.key(),
1652
 
                search_key_func=search_key_func)
1653
 
            result.parent_id_basename_to_file_id._ensure_root()
1654
 
            self.parent_id_basename_to_file_id._ensure_root()
1655
 
            result_p_id_root = result.parent_id_basename_to_file_id._root_node
1656
 
            p_id_root = self.parent_id_basename_to_file_id._root_node
1657
 
            result_p_id_root.set_maximum_size(p_id_root.maximum_size)
1658
 
            result_p_id_root._key_width = p_id_root._key_width
1659
 
        else:
1660
 
            result.parent_id_basename_to_file_id = None
1661
 
        result.root_id = self.root_id
1662
 
        id_to_entry_delta = []
1663
 
        # inventory_delta is only traversed once, so we just update the
1664
 
        # variable.
1665
 
        # Check for repeated file ids
1666
 
        inventory_delta = _check_delta_unique_ids(inventory_delta)
1667
 
        # Repeated old paths
1668
 
        inventory_delta = _check_delta_unique_old_paths(inventory_delta)
1669
 
        # Check for repeated new paths
1670
 
        inventory_delta = _check_delta_unique_new_paths(inventory_delta)
1671
 
        # Check for entries that don't match the fileid
1672
 
        inventory_delta = _check_delta_ids_match_entry(inventory_delta)
1673
 
        # Check for nonsense fileids
1674
 
        inventory_delta = _check_delta_ids_are_valid(inventory_delta)
1675
 
        # Check for new_path <-> entry consistency
1676
 
        inventory_delta = _check_delta_new_path_entry_both_or_None(
1677
 
            inventory_delta)
1678
 
        # All changed entries need to have their parents be directories and be
1679
 
        # at the right path. This set contains (path, id) tuples.
1680
 
        parents = set()
1681
 
        # When we delete an item, all the children of it must be either deleted
1682
 
        # or altered in their own right. As we batch process the change via
1683
 
        # CHKMap.apply_delta, we build a set of things to use to validate the
1684
 
        # delta.
1685
 
        deletes = set()
1686
 
        altered = set()
1687
 
        for old_path, new_path, file_id, entry in inventory_delta:
1688
 
            # file id changes
1689
 
            if new_path == '':
1690
 
                result.root_id = file_id
1691
 
            if new_path is None:
1692
 
                # Make a delete:
1693
 
                new_key = None
1694
 
                new_value = None
1695
 
                # Update caches
1696
 
                if propagate_caches:
1697
 
                    try:
1698
 
                        del result._path_to_fileid_cache[old_path]
1699
 
                    except KeyError:
1700
 
                        pass
1701
 
                deletes.add(file_id)
1702
 
            else:
1703
 
                new_key = StaticTuple(file_id,)
1704
 
                new_value = result._entry_to_bytes(entry)
1705
 
                # Update caches. It's worth doing this whether
1706
 
                # we're propagating the old caches or not.
1707
 
                result._path_to_fileid_cache[new_path] = file_id
1708
 
                parents.add((split(new_path)[0], entry.parent_id))
1709
 
            if old_path is None:
1710
 
                old_key = None
1711
 
            else:
1712
 
                old_key = StaticTuple(file_id,)
1713
 
                if self.id2path(file_id) != old_path:
1714
 
                    raise errors.InconsistentDelta(old_path, file_id,
1715
 
                        "Entry was at wrong other path %r." %
1716
 
                        self.id2path(file_id))
1717
 
                altered.add(file_id)
1718
 
            id_to_entry_delta.append(StaticTuple(old_key, new_key, new_value))
1719
 
            if result.parent_id_basename_to_file_id is not None:
1720
 
                # parent_id, basename changes
1721
 
                if old_path is None:
1722
 
                    old_key = None
1723
 
                else:
1724
 
                    old_entry = self[file_id]
1725
 
                    old_key = self._parent_id_basename_key(old_entry)
1726
 
                if new_path is None:
1727
 
                    new_key = None
1728
 
                    new_value = None
1729
 
                else:
1730
 
                    new_key = self._parent_id_basename_key(entry)
1731
 
                    new_value = file_id
1732
 
                # If the two keys are the same, the value will be unchanged
1733
 
                # as its always the file id for this entry.
1734
 
                if old_key != new_key:
1735
 
                    # Transform a change into explicit delete/add preserving
1736
 
                    # a possible match on the key from a different file id.
1737
 
                    if old_key is not None:
1738
 
                        parent_id_basename_delta.setdefault(
1739
 
                            old_key, [None, None])[0] = old_key
1740
 
                    if new_key is not None:
1741
 
                        parent_id_basename_delta.setdefault(
1742
 
                            new_key, [None, None])[1] = new_value
1743
 
        # validate that deletes are complete.
1744
 
        for file_id in deletes:
1745
 
            entry = self[file_id]
1746
 
            if entry.kind != 'directory':
1747
 
                continue
1748
 
            # This loop could potentially be better by using the id_basename
1749
 
            # map to just get the child file ids.
1750
 
            for child in entry.children.values():
1751
 
                if child.file_id not in altered:
1752
 
                    raise errors.InconsistentDelta(self.id2path(child.file_id),
1753
 
                        child.file_id, "Child not deleted or reparented when "
1754
 
                        "parent deleted.")
1755
 
        result.id_to_entry.apply_delta(id_to_entry_delta)
1756
 
        if parent_id_basename_delta:
1757
 
            # Transform the parent_id_basename delta data into a linear delta
1758
 
            # with only one record for a given key. Optimally this would allow
1759
 
            # re-keying, but its simpler to just output that as a delete+add
1760
 
            # to spend less time calculating the delta.
1761
 
            delta_list = []
1762
 
            for key, (old_key, value) in parent_id_basename_delta.iteritems():
1763
 
                if value is not None:
1764
 
                    delta_list.append((old_key, key, value))
1765
 
                else:
1766
 
                    delta_list.append((old_key, None, None))
1767
 
            result.parent_id_basename_to_file_id.apply_delta(delta_list)
1768
 
        parents.discard(('', None))
1769
 
        for parent_path, parent in parents:
1770
 
            try:
1771
 
                if result[parent].kind != 'directory':
1772
 
                    raise errors.InconsistentDelta(result.id2path(parent), parent,
1773
 
                        'Not a directory, but given children')
1774
 
            except errors.NoSuchId:
1775
 
                raise errors.InconsistentDelta("<unknown>", parent,
1776
 
                    "Parent is not present in resulting inventory.")
1777
 
            if result.path2id(parent_path) != parent:
1778
 
                raise errors.InconsistentDelta(parent_path, parent,
1779
 
                    "Parent has wrong path %r." % result.path2id(parent_path))
1780
 
        return result
1781
 
 
1782
 
    @classmethod
1783
 
    def deserialise(klass, chk_store, bytes, expected_revision_id):
1784
 
        """Deserialise a CHKInventory.
1785
 
 
1786
 
        :param chk_store: A CHK capable VersionedFiles instance.
1787
 
        :param bytes: The serialised bytes.
1788
 
        :param expected_revision_id: The revision ID we think this inventory is
1789
 
            for.
1790
 
        :return: A CHKInventory
1791
 
        """
1792
 
        lines = bytes.split('\n')
1793
 
        if lines[-1] != '':
1794
 
            raise AssertionError('bytes to deserialize must end with an eol')
1795
 
        lines.pop()
1796
 
        if lines[0] != 'chkinventory:':
1797
 
            raise ValueError("not a serialised CHKInventory: %r" % bytes)
1798
 
        info = {}
1799
 
        allowed_keys = frozenset(['root_id', 'revision_id', 'search_key_name',
1800
 
                                  'parent_id_basename_to_file_id',
1801
 
                                  'id_to_entry'])
1802
 
        for line in lines[1:]:
1803
 
            key, value = line.split(': ', 1)
1804
 
            if key not in allowed_keys:
1805
 
                raise errors.BzrError('Unknown key in inventory: %r\n%r'
1806
 
                                      % (key, bytes))
1807
 
            if key in info:
1808
 
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
1809
 
                                      % (key, bytes))
1810
 
            info[key] = value
1811
 
        revision_id = intern(info['revision_id'])
1812
 
        root_id = intern(info['root_id'])
1813
 
        search_key_name = intern(info.get('search_key_name', 'plain'))
1814
 
        parent_id_basename_to_file_id = intern(info.get(
1815
 
            'parent_id_basename_to_file_id', None))
1816
 
        if not parent_id_basename_to_file_id.startswith('sha1:'):
1817
 
            raise ValueError('parent_id_basename_to_file_id should be a sha1'
1818
 
                             ' key not %r' % (parent_id_basename_to_file_id,))
1819
 
        id_to_entry = info['id_to_entry']
1820
 
        if not id_to_entry.startswith('sha1:'):
1821
 
            raise ValueError('id_to_entry should be a sha1'
1822
 
                             ' key not %r' % (id_to_entry,))
1823
 
 
1824
 
        result = CHKInventory(search_key_name)
1825
 
        result.revision_id = revision_id
1826
 
        result.root_id = root_id
1827
 
        search_key_func = chk_map.search_key_registry.get(
1828
 
                            result._search_key_name)
1829
 
        if parent_id_basename_to_file_id is not None:
1830
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1831
 
                chk_store, StaticTuple(parent_id_basename_to_file_id,),
1832
 
                search_key_func=search_key_func)
1833
 
        else:
1834
 
            result.parent_id_basename_to_file_id = None
1835
 
 
1836
 
        result.id_to_entry = chk_map.CHKMap(chk_store,
1837
 
                                            StaticTuple(id_to_entry,),
1838
 
                                            search_key_func=search_key_func)
1839
 
        if (result.revision_id,) != expected_revision_id:
1840
 
            raise ValueError("Mismatched revision id and expected: %r, %r" %
1841
 
                (result.revision_id, expected_revision_id))
1842
 
        return result
1843
 
 
1844
 
    @classmethod
1845
 
    def from_inventory(klass, chk_store, inventory, maximum_size=0, search_key_name='plain'):
1846
 
        """Create a CHKInventory from an existing inventory.
1847
 
 
1848
 
        The content of inventory is copied into the chk_store, and a
1849
 
        CHKInventory referencing that is returned.
1850
 
 
1851
 
        :param chk_store: A CHK capable VersionedFiles instance.
1852
 
        :param inventory: The inventory to copy.
1853
 
        :param maximum_size: The CHKMap node size limit.
1854
 
        :param search_key_name: The identifier for the search key function
1855
 
        """
1856
 
        result = klass(search_key_name)
1857
 
        result.revision_id = inventory.revision_id
1858
 
        result.root_id = inventory.root.file_id
1859
 
 
1860
 
        entry_to_bytes = result._entry_to_bytes
1861
 
        parent_id_basename_key = result._parent_id_basename_key
1862
 
        id_to_entry_dict = {}
1863
 
        parent_id_basename_dict = {}
1864
 
        for path, entry in inventory.iter_entries():
1865
 
            key = StaticTuple(entry.file_id,).intern()
1866
 
            id_to_entry_dict[key] = entry_to_bytes(entry)
1867
 
            p_id_key = parent_id_basename_key(entry)
1868
 
            parent_id_basename_dict[p_id_key] = entry.file_id
1869
 
 
1870
 
        result._populate_from_dicts(chk_store, id_to_entry_dict,
1871
 
            parent_id_basename_dict, maximum_size=maximum_size)
1872
 
        return result
1873
 
 
1874
 
    def _populate_from_dicts(self, chk_store, id_to_entry_dict,
1875
 
                             parent_id_basename_dict, maximum_size):
1876
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1877
 
        root_key = chk_map.CHKMap.from_dict(chk_store, id_to_entry_dict,
1878
 
                   maximum_size=maximum_size, key_width=1,
1879
 
                   search_key_func=search_key_func)
1880
 
        self.id_to_entry = chk_map.CHKMap(chk_store, root_key,
1881
 
                                          search_key_func)
1882
 
        root_key = chk_map.CHKMap.from_dict(chk_store,
1883
 
                   parent_id_basename_dict,
1884
 
                   maximum_size=maximum_size, key_width=2,
1885
 
                   search_key_func=search_key_func)
1886
 
        self.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
1887
 
                                                    root_key, search_key_func)
1888
 
 
1889
 
    def _parent_id_basename_key(self, entry):
1890
 
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
1891
 
        if entry.parent_id is not None:
1892
 
            parent_id = entry.parent_id
1893
 
        else:
1894
 
            parent_id = ''
1895
 
        return StaticTuple(parent_id, entry.name.encode('utf8')).intern()
1896
 
 
1897
 
    def __getitem__(self, file_id):
1898
 
        """map a single file_id -> InventoryEntry."""
1899
 
        if file_id is None:
1900
 
            raise errors.NoSuchId(self, file_id)
1901
 
        result = self._fileid_to_entry_cache.get(file_id, None)
1902
 
        if result is not None:
1903
 
            return result
1904
 
        try:
1905
 
            return self._bytes_to_entry(
1906
 
                self.id_to_entry.iteritems([StaticTuple(file_id,)]).next()[1])
1907
 
        except StopIteration:
1908
 
            # really we're passing an inventory, not a tree...
1909
 
            raise errors.NoSuchId(self, file_id)
1910
 
 
1911
 
    def _getitems(self, file_ids):
1912
 
        """Similar to __getitem__, but lets you query for multiple.
1913
 
        
1914
 
        The returned order is undefined. And currently if an item doesn't
1915
 
        exist, it isn't included in the output.
1916
 
        """
1917
 
        result = []
1918
 
        remaining = []
1919
 
        for file_id in file_ids:
1920
 
            entry = self._fileid_to_entry_cache.get(file_id, None)
1921
 
            if entry is None:
1922
 
                remaining.append(file_id)
1923
 
            else:
1924
 
                result.append(entry)
1925
 
        file_keys = [StaticTuple(f,).intern() for f in remaining]
1926
 
        for file_key, value in self.id_to_entry.iteritems(file_keys):
1927
 
            entry = self._bytes_to_entry(value)
1928
 
            result.append(entry)
1929
 
            self._fileid_to_entry_cache[entry.file_id] = entry
1930
 
        return result
1931
 
 
1932
 
    def has_id(self, file_id):
1933
 
        # Perhaps have an explicit 'contains' method on CHKMap ?
1934
 
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
1935
 
            return True
1936
 
        return len(list(
1937
 
            self.id_to_entry.iteritems([StaticTuple(file_id,)]))) == 1
1938
 
 
1939
 
    def is_root(self, file_id):
1940
 
        return file_id == self.root_id
1941
 
 
1942
 
    def _iter_file_id_parents(self, file_id):
1943
 
        """Yield the parents of file_id up to the root."""
1944
 
        while file_id is not None:
1945
 
            try:
1946
 
                ie = self[file_id]
1947
 
            except KeyError:
1948
 
                raise errors.NoSuchId(tree=self, file_id=file_id)
1949
 
            yield ie
1950
 
            file_id = ie.parent_id
1951
 
 
1952
 
    def __iter__(self):
1953
 
        """Iterate over all file-ids."""
1954
 
        for key, _ in self.id_to_entry.iteritems():
1955
 
            yield key[-1]
1956
 
 
1957
 
    def iter_just_entries(self):
1958
 
        """Iterate over all entries.
1959
 
 
1960
 
        Unlike iter_entries(), just the entries are returned (not (path, ie))
1961
 
        and the order of entries is undefined.
1962
 
 
1963
 
        XXX: We may not want to merge this into bzr.dev.
1964
 
        """
1965
 
        for key, entry in self.id_to_entry.iteritems():
1966
 
            file_id = key[0]
1967
 
            ie = self._fileid_to_entry_cache.get(file_id, None)
1968
 
            if ie is None:
1969
 
                ie = self._bytes_to_entry(entry)
1970
 
                self._fileid_to_entry_cache[file_id] = ie
1971
 
            yield ie
1972
 
 
1973
 
    def _preload_cache(self):
1974
 
        """Make sure all file-ids are in _fileid_to_entry_cache"""
1975
 
        if self._fully_cached:
1976
 
            return # No need to do it again
1977
 
        # The optimal sort order is to use iteritems() directly
1978
 
        cache = self._fileid_to_entry_cache
1979
 
        for key, entry in self.id_to_entry.iteritems():
1980
 
            file_id = key[0]
1981
 
            if file_id not in cache:
1982
 
                ie = self._bytes_to_entry(entry)
1983
 
                cache[file_id] = ie
1984
 
            else:
1985
 
                ie = cache[file_id]
1986
 
        last_parent_id = last_parent_ie = None
1987
 
        pid_items = self.parent_id_basename_to_file_id.iteritems()
1988
 
        for key, child_file_id in pid_items:
1989
 
            if key == ('', ''): # This is the root
1990
 
                if child_file_id != self.root_id:
1991
 
                    raise ValueError('Data inconsistency detected.'
1992
 
                        ' We expected data with key ("","") to match'
1993
 
                        ' the root id, but %s != %s'
1994
 
                        % (child_file_id, self.root_id))
1995
 
                continue
1996
 
            parent_id, basename = key
1997
 
            ie = cache[child_file_id]
1998
 
            if parent_id == last_parent_id:
1999
 
                parent_ie = last_parent_ie
2000
 
            else:
2001
 
                parent_ie = cache[parent_id]
2002
 
            if parent_ie.kind != 'directory':
2003
 
                raise ValueError('Data inconsistency detected.'
2004
 
                    ' An entry in the parent_id_basename_to_file_id map'
2005
 
                    ' has parent_id {%s} but the kind of that object'
2006
 
                    ' is %r not "directory"' % (parent_id, parent_ie.kind))
2007
 
            if parent_ie._children is None:
2008
 
                parent_ie._children = {}
2009
 
            basename = basename.decode('utf-8')
2010
 
            if basename in parent_ie._children:
2011
 
                existing_ie = parent_ie._children[basename]
2012
 
                if existing_ie != ie:
2013
 
                    raise ValueError('Data inconsistency detected.'
2014
 
                        ' Two entries with basename %r were found'
2015
 
                        ' in the parent entry {%s}'
2016
 
                        % (basename, parent_id))
2017
 
            if basename != ie.name:
2018
 
                raise ValueError('Data inconsistency detected.'
2019
 
                    ' In the parent_id_basename_to_file_id map, file_id'
2020
 
                    ' {%s} is listed as having basename %r, but in the'
2021
 
                    ' id_to_entry map it is %r'
2022
 
                    % (child_file_id, basename, ie.name))
2023
 
            parent_ie._children[basename] = ie
2024
 
        self._fully_cached = True
2025
 
 
2026
 
    def iter_changes(self, basis):
2027
 
        """Generate a Tree.iter_changes change list between this and basis.
2028
 
 
2029
 
        :param basis: Another CHKInventory.
2030
 
        :return: An iterator over the changes between self and basis, as per
2031
 
            tree.iter_changes().
2032
 
        """
2033
 
        # We want: (file_id, (path_in_source, path_in_target),
2034
 
        # changed_content, versioned, parent, name, kind,
2035
 
        # executable)
2036
 
        for key, basis_value, self_value in \
2037
 
            self.id_to_entry.iter_changes(basis.id_to_entry):
2038
 
            file_id = key[0]
2039
 
            if basis_value is not None:
2040
 
                basis_entry = basis._bytes_to_entry(basis_value)
2041
 
                path_in_source = basis.id2path(file_id)
2042
 
                basis_parent = basis_entry.parent_id
2043
 
                basis_name = basis_entry.name
2044
 
                basis_executable = basis_entry.executable
2045
 
            else:
2046
 
                path_in_source = None
2047
 
                basis_parent = None
2048
 
                basis_name = None
2049
 
                basis_executable = None
2050
 
            if self_value is not None:
2051
 
                self_entry = self._bytes_to_entry(self_value)
2052
 
                path_in_target = self.id2path(file_id)
2053
 
                self_parent = self_entry.parent_id
2054
 
                self_name = self_entry.name
2055
 
                self_executable = self_entry.executable
2056
 
            else:
2057
 
                path_in_target = None
2058
 
                self_parent = None
2059
 
                self_name = None
2060
 
                self_executable = None
2061
 
            if basis_value is None:
2062
 
                # add
2063
 
                kind = (None, self_entry.kind)
2064
 
                versioned = (False, True)
2065
 
            elif self_value is None:
2066
 
                # delete
2067
 
                kind = (basis_entry.kind, None)
2068
 
                versioned = (True, False)
2069
 
            else:
2070
 
                kind = (basis_entry.kind, self_entry.kind)
2071
 
                versioned = (True, True)
2072
 
            changed_content = False
2073
 
            if kind[0] != kind[1]:
2074
 
                changed_content = True
2075
 
            elif kind[0] == 'file':
2076
 
                if (self_entry.text_size != basis_entry.text_size or
2077
 
                    self_entry.text_sha1 != basis_entry.text_sha1):
2078
 
                    changed_content = True
2079
 
            elif kind[0] == 'symlink':
2080
 
                if self_entry.symlink_target != basis_entry.symlink_target:
2081
 
                    changed_content = True
2082
 
            elif kind[0] == 'tree-reference':
2083
 
                if (self_entry.reference_revision !=
2084
 
                    basis_entry.reference_revision):
2085
 
                    changed_content = True
2086
 
            parent = (basis_parent, self_parent)
2087
 
            name = (basis_name, self_name)
2088
 
            executable = (basis_executable, self_executable)
2089
 
            if (not changed_content
2090
 
                and parent[0] == parent[1]
2091
 
                and name[0] == name[1]
2092
 
                and executable[0] == executable[1]):
2093
 
                # Could happen when only the revision changed for a directory
2094
 
                # for instance.
2095
 
                continue
2096
 
            yield (file_id, (path_in_source, path_in_target), changed_content,
2097
 
                versioned, parent, name, kind, executable)
2098
 
 
2099
 
    def __len__(self):
2100
 
        """Return the number of entries in the inventory."""
2101
 
        return len(self.id_to_entry)
2102
 
 
2103
 
    def _make_delta(self, old):
2104
 
        """Make an inventory delta from two inventories."""
2105
 
        if type(old) != CHKInventory:
2106
 
            return CommonInventory._make_delta(self, old)
2107
 
        delta = []
2108
 
        for key, old_value, self_value in \
2109
 
            self.id_to_entry.iter_changes(old.id_to_entry):
2110
 
            file_id = key[0]
2111
 
            if old_value is not None:
2112
 
                old_path = old.id2path(file_id)
2113
 
            else:
2114
 
                old_path = None
2115
 
            if self_value is not None:
2116
 
                entry = self._bytes_to_entry(self_value)
2117
 
                self._fileid_to_entry_cache[file_id] = entry
2118
 
                new_path = self.id2path(file_id)
2119
 
            else:
2120
 
                entry = None
2121
 
                new_path = None
2122
 
            delta.append((old_path, new_path, file_id, entry))
2123
 
        return delta
2124
 
 
2125
 
    def path2id(self, relpath):
2126
 
        """See CommonInventory.path2id()."""
2127
 
        # TODO: perhaps support negative hits?
2128
 
        result = self._path_to_fileid_cache.get(relpath, None)
2129
 
        if result is not None:
2130
 
            return result
2131
 
        if isinstance(relpath, basestring):
2132
 
            names = osutils.splitpath(relpath)
2133
 
        else:
2134
 
            names = relpath
2135
 
        current_id = self.root_id
2136
 
        if current_id is None:
2137
 
            return None
2138
 
        parent_id_index = self.parent_id_basename_to_file_id
2139
 
        cur_path = None
2140
 
        for basename in names:
2141
 
            if cur_path is None:
2142
 
                cur_path = basename
2143
 
            else:
2144
 
                cur_path = cur_path + '/' + basename
2145
 
            basename_utf8 = basename.encode('utf8')
2146
 
            file_id = self._path_to_fileid_cache.get(cur_path, None)
2147
 
            if file_id is None:
2148
 
                key_filter = [StaticTuple(current_id, basename_utf8)]
2149
 
                items = parent_id_index.iteritems(key_filter)
2150
 
                for (parent_id, name_utf8), file_id in items:
2151
 
                    if parent_id != current_id or name_utf8 != basename_utf8:
2152
 
                        raise errors.BzrError("corrupt inventory lookup! "
2153
 
                            "%r %r %r %r" % (parent_id, current_id, name_utf8,
2154
 
                            basename_utf8))
2155
 
                if file_id is None:
2156
 
                    return None
2157
 
                else:
2158
 
                    self._path_to_fileid_cache[cur_path] = file_id
2159
 
            current_id = file_id
2160
 
        return current_id
2161
 
 
2162
 
    def to_lines(self):
2163
 
        """Serialise the inventory to lines."""
2164
 
        lines = ["chkinventory:\n"]
2165
 
        if self._search_key_name != 'plain':
2166
 
            # custom ordering grouping things that don't change together
2167
 
            lines.append('search_key_name: %s\n' % (self._search_key_name,))
2168
 
            lines.append("root_id: %s\n" % self.root_id)
2169
 
            lines.append('parent_id_basename_to_file_id: %s\n' %
2170
 
                (self.parent_id_basename_to_file_id.key()[0],))
2171
 
            lines.append("revision_id: %s\n" % self.revision_id)
2172
 
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
2173
 
        else:
2174
 
            lines.append("revision_id: %s\n" % self.revision_id)
2175
 
            lines.append("root_id: %s\n" % self.root_id)
2176
 
            if self.parent_id_basename_to_file_id is not None:
2177
 
                lines.append('parent_id_basename_to_file_id: %s\n' %
2178
 
                    (self.parent_id_basename_to_file_id.key()[0],))
2179
 
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
2180
 
        return lines
2181
 
 
2182
 
    @property
2183
 
    def root(self):
2184
 
        """Get the root entry."""
2185
 
        return self[self.root_id]
2186
 
 
2187
 
 
2188
 
class CHKInventoryDirectory(InventoryDirectory):
2189
 
    """A directory in an inventory."""
2190
 
 
2191
 
    __slots__ = ['_children', '_chk_inventory']
2192
 
 
2193
 
    def __init__(self, file_id, name, parent_id, chk_inventory):
2194
 
        # Don't call InventoryDirectory.__init__ - it isn't right for this
2195
 
        # class.
2196
 
        InventoryEntry.__init__(self, file_id, name, parent_id)
2197
 
        self._children = None
2198
 
        self._chk_inventory = chk_inventory
2199
 
 
2200
 
    @property
2201
 
    def children(self):
2202
 
        """Access the list of children of this directory.
2203
 
 
2204
 
        With a parent_id_basename_to_file_id index, loads all the children,
2205
 
        without loads the entire index. Without is bad. A more sophisticated
2206
 
        proxy object might be nice, to allow partial loading of children as
2207
 
        well when specific names are accessed. (So path traversal can be
2208
 
        written in the obvious way but not examine siblings.).
2209
 
        """
2210
 
        if self._children is not None:
2211
 
            return self._children
2212
 
        # No longer supported
2213
 
        if self._chk_inventory.parent_id_basename_to_file_id is None:
2214
 
            raise AssertionError("Inventories without"
2215
 
                " parent_id_basename_to_file_id are no longer supported")
2216
 
        result = {}
2217
 
        # XXX: Todo - use proxy objects for the children rather than loading
2218
 
        # all when the attribute is referenced.
2219
 
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
2220
 
        child_keys = set()
2221
 
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
2222
 
            key_filter=[StaticTuple(self.file_id,)]):
2223
 
            child_keys.add(StaticTuple(file_id,))
2224
 
        cached = set()
2225
 
        for file_id_key in child_keys:
2226
 
            entry = self._chk_inventory._fileid_to_entry_cache.get(
2227
 
                file_id_key[0], None)
2228
 
            if entry is not None:
2229
 
                result[entry.name] = entry
2230
 
                cached.add(file_id_key)
2231
 
        child_keys.difference_update(cached)
2232
 
        # populate; todo: do by name
2233
 
        id_to_entry = self._chk_inventory.id_to_entry
2234
 
        for file_id_key, bytes in id_to_entry.iteritems(child_keys):
2235
 
            entry = self._chk_inventory._bytes_to_entry(bytes)
2236
 
            result[entry.name] = entry
2237
 
            self._chk_inventory._fileid_to_entry_cache[file_id_key[0]] = entry
2238
 
        self._children = result
2239
 
        return result
2240
 
 
2241
1360
entry_factory = {
2242
1361
    'directory': InventoryDirectory,
2243
1362
    'file': InventoryFile,
2255
1374
    """
2256
1375
    if file_id is None:
2257
1376
        file_id = generate_ids.gen_file_id(name)
2258
 
    name = ensure_normalized_name(name)
2259
 
    try:
2260
 
        factory = entry_factory[kind]
2261
 
    except KeyError:
2262
 
        raise errors.BadFileKindError(name, kind)
2263
 
    return factory(file_id, name, parent_id)
2264
 
 
2265
 
 
2266
 
def ensure_normalized_name(name):
2267
 
    """Normalize name.
2268
 
 
2269
 
    :raises InvalidNormalization: When name is not normalized, and cannot be
2270
 
        accessed on this platform by the normalized path.
2271
 
    :return: The NFC normalised version of name.
2272
 
    """
 
1377
    else:
 
1378
        file_id = osutils.safe_file_id(file_id)
 
1379
 
2273
1380
    #------- This has been copied to bzrlib.dirstate.DirState.add, please
2274
1381
    # keep them synchronised.
2275
1382
    # we dont import normalized_filename directly because we want to be
2277
1384
    norm_name, can_access = osutils.normalized_filename(name)
2278
1385
    if norm_name != name:
2279
1386
        if can_access:
2280
 
            return norm_name
 
1387
            name = norm_name
2281
1388
        else:
2282
1389
            # TODO: jam 20060701 This would probably be more useful
2283
1390
            #       if the error was raised with the full path
2284
1391
            raise errors.InvalidNormalization(name)
2285
 
    return name
2286
 
 
2287
 
 
2288
 
_NAME_RE = lazy_regex.lazy_compile(r'^[^/\\]+$')
 
1392
 
 
1393
    try:
 
1394
        factory = entry_factory[kind]
 
1395
    except KeyError:
 
1396
        raise BzrError("unknown kind %r" % kind)
 
1397
    return factory(file_id, name, parent_id)
 
1398
 
 
1399
 
 
1400
_NAME_RE = None
2289
1401
 
2290
1402
def is_valid_name(name):
 
1403
    global _NAME_RE
 
1404
    if _NAME_RE is None:
 
1405
        _NAME_RE = re.compile(r'^[^/\\]+$')
 
1406
        
2291
1407
    return bool(_NAME_RE.match(name))
2292
 
 
2293
 
 
2294
 
def _check_delta_unique_ids(delta):
2295
 
    """Decorate a delta and check that the file ids in it are unique.
2296
 
 
2297
 
    :return: A generator over delta.
2298
 
    """
2299
 
    ids = set()
2300
 
    for item in delta:
2301
 
        length = len(ids) + 1
2302
 
        ids.add(item[2])
2303
 
        if len(ids) != length:
2304
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2305
 
                "repeated file_id")
2306
 
        yield item
2307
 
 
2308
 
 
2309
 
def _check_delta_unique_new_paths(delta):
2310
 
    """Decorate a delta and check that the new paths in it are unique.
2311
 
 
2312
 
    :return: A generator over delta.
2313
 
    """
2314
 
    paths = set()
2315
 
    for item in delta:
2316
 
        length = len(paths) + 1
2317
 
        path = item[1]
2318
 
        if path is not None:
2319
 
            paths.add(path)
2320
 
            if len(paths) != length:
2321
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2322
 
        yield item
2323
 
 
2324
 
 
2325
 
def _check_delta_unique_old_paths(delta):
2326
 
    """Decorate a delta and check that the old paths in it are unique.
2327
 
 
2328
 
    :return: A generator over delta.
2329
 
    """
2330
 
    paths = set()
2331
 
    for item in delta:
2332
 
        length = len(paths) + 1
2333
 
        path = item[0]
2334
 
        if path is not None:
2335
 
            paths.add(path)
2336
 
            if len(paths) != length:
2337
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2338
 
        yield item
2339
 
 
2340
 
 
2341
 
def _check_delta_ids_are_valid(delta):
2342
 
    """Decorate a delta and check that the ids in it are valid.
2343
 
 
2344
 
    :return: A generator over delta.
2345
 
    """
2346
 
    for item in delta:
2347
 
        entry = item[3]
2348
 
        if item[2] is None:
2349
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2350
 
                "entry with file_id None %r" % entry)
2351
 
        if type(item[2]) != str:
2352
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2353
 
                "entry with non bytes file_id %r" % entry)
2354
 
        yield item
2355
 
 
2356
 
 
2357
 
def _check_delta_ids_match_entry(delta):
2358
 
    """Decorate a delta and check that the ids in it match the entry.file_id.
2359
 
 
2360
 
    :return: A generator over delta.
2361
 
    """
2362
 
    for item in delta:
2363
 
        entry = item[3]
2364
 
        if entry is not None:
2365
 
            if entry.file_id != item[2]:
2366
 
                raise errors.InconsistentDelta(item[0] or item[1], item[2],
2367
 
                    "mismatched id with %r" % entry)
2368
 
        yield item
2369
 
 
2370
 
 
2371
 
def _check_delta_new_path_entry_both_or_None(delta):
2372
 
    """Decorate a delta and check that the new_path and entry are paired.
2373
 
 
2374
 
    :return: A generator over delta.
2375
 
    """
2376
 
    for item in delta:
2377
 
        new_path = item[1]
2378
 
        entry = item[3]
2379
 
        if new_path is None and entry is not None:
2380
 
            raise errors.InconsistentDelta(item[0], item[1],
2381
 
                "Entry with no new_path")
2382
 
        if new_path is not None and entry is None:
2383
 
            raise errors.InconsistentDelta(new_path, item[1],
2384
 
                "new_path with no entry")
2385
 
        yield item
2386
 
 
2387
 
 
2388
 
def mutable_inventory_from_tree(tree):
2389
 
    """Create a new inventory that has the same contents as a specified tree.
2390
 
 
2391
 
    :param tree: Revision tree to create inventory from
2392
 
    """
2393
 
    entries = tree.iter_entries_by_dir()
2394
 
    inv = Inventory(None, tree.get_revision_id())
2395
 
    for path, inv_entry in entries:
2396
 
        inv.add(inv_entry.copy())
2397
 
    return inv