~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/inventory.py

  • Committer: Aaron Bentley
  • Date: 2007-06-11 14:59:52 UTC
  • mto: (2520.5.2 bzr.mpbundle)
  • mto: This revision was merged to the branch mainline in revision 2631.
  • Revision ID: abentley@panoramicfeedback.com-20070611145952-cwt4480gphdhen6l
Get installation started

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2011 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
# FIXME: This refactoring of the workingtree code doesn't seem to keep
 
17
# FIXME: This refactoring of the workingtree code doesn't seem to keep 
18
18
# the WorkingTree's copy of the inventory in sync with the branch.  The
19
19
# branch modifies its working inventory when it does a commit to make
20
20
# missing files permanently removed.
23
23
# But those depend on its position within a particular inventory, and
24
24
# it would be nice not to need to hold the backpointer here.
25
25
 
26
 
from __future__ import absolute_import
27
 
 
28
26
# This should really be an id randomly assigned when the tree is
29
27
# created, but it's not for now.
30
28
ROOT_ID = "TREE_ROOT"
31
29
 
 
30
import os
 
31
import re
 
32
import sys
 
33
 
32
34
from bzrlib.lazy_import import lazy_import
33
35
lazy_import(globals(), """
34
36
import collections
35
 
import copy
36
 
import re
37
37
import tarfile
38
38
 
 
39
import bzrlib
39
40
from bzrlib import (
40
 
    chk_map,
41
41
    errors,
42
42
    generate_ids,
43
43
    osutils,
 
44
    symbol_versioning,
 
45
    workingtree,
44
46
    )
45
47
""")
46
48
 
47
 
from bzrlib import (
48
 
    lazy_regex,
49
 
    trace,
50
 
    )
51
 
 
52
 
from bzrlib.static_tuple import StaticTuple
53
 
from bzrlib.symbol_versioning import (
54
 
    deprecated_in,
55
 
    deprecated_method,
56
 
    )
 
49
from bzrlib.errors import (
 
50
    BzrCheckError,
 
51
    BzrError,
 
52
    )
 
53
from bzrlib.trace import mutter
57
54
 
58
55
 
59
56
class InventoryEntry(object):
71
68
        file_id of the parent directory, or ROOT_ID
72
69
 
73
70
    revision
74
 
        the revision_id in which this variation of this file was
 
71
        the revision_id in which this variation of this file was 
75
72
        introduced.
76
73
 
77
74
    executable
80
77
 
81
78
    text_sha1
82
79
        sha-1 of the text of the file
83
 
 
 
80
        
84
81
    text_size
85
82
        size in bytes of the text of the file
86
 
 
 
83
        
87
84
    (reading a version 4 tree created a text_id field.)
88
85
 
89
86
    >>> i = Inventory()
92
89
    >>> i.add(InventoryDirectory('123', 'src', ROOT_ID))
93
90
    InventoryDirectory('123', 'src', parent_id='TREE_ROOT', revision=None)
94
91
    >>> i.add(InventoryFile('2323', 'hello.c', parent_id='123'))
95
 
    InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None, revision=None)
 
92
    InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None)
96
93
    >>> shouldbe = {0: '', 1: 'src', 2: 'src/hello.c'}
97
94
    >>> for ix, j in enumerate(i.iter_entries()):
98
95
    ...   print (j[0] == shouldbe[ix], j[1])
99
 
    ...
 
96
    ... 
100
97
    (True, InventoryDirectory('TREE_ROOT', u'', parent_id=None, revision=None))
101
98
    (True, InventoryDirectory('123', 'src', parent_id='TREE_ROOT', revision=None))
102
 
    (True, InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None, revision=None))
 
99
    (True, InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None))
103
100
    >>> i.add(InventoryFile('2324', 'bye.c', '123'))
104
 
    InventoryFile('2324', 'bye.c', parent_id='123', sha1=None, len=None, revision=None)
 
101
    InventoryFile('2324', 'bye.c', parent_id='123', sha1=None, len=None)
105
102
    >>> i.add(InventoryDirectory('2325', 'wibble', '123'))
106
103
    InventoryDirectory('2325', 'wibble', parent_id='123', revision=None)
107
104
    >>> i.path2id('src/wibble')
108
105
    '2325'
 
106
    >>> '2325' in i
 
107
    True
109
108
    >>> i.add(InventoryFile('2326', 'wibble.c', '2325'))
110
 
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
 
109
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None)
111
110
    >>> i['2326']
112
 
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
 
111
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None)
113
112
    >>> for path, entry in i.iter_entries():
114
113
    ...     print path
115
 
    ...
 
114
    ...     assert i.path2id(path)
 
115
    ... 
116
116
    <BLANKLINE>
117
117
    src
118
118
    src/bye.c
125
125
 
126
126
    # Constants returned by describe_change()
127
127
    #
128
 
    # TODO: These should probably move to some kind of FileChangeDescription
129
 
    # class; that's like what's inside a TreeDelta but we want to be able to
 
128
    # TODO: These should probably move to some kind of FileChangeDescription 
 
129
    # class; that's like what's inside a TreeDelta but we want to be able to 
130
130
    # generate them just for one file at a time.
131
131
    RENAMED = 'renamed'
132
132
    MODIFIED_AND_RENAMED = 'modified and renamed'
133
 
 
134
 
    __slots__ = ['file_id', 'revision', 'parent_id', 'name']
135
 
 
136
 
    # Attributes that all InventoryEntry instances are expected to have, but
137
 
    # that don't vary for all kinds of entry.  (e.g. symlink_target is only
138
 
    # relevant to InventoryLink, so there's no reason to make every
139
 
    # InventoryFile instance allocate space to hold a value for it.)
140
 
    # Attributes that only vary for files: executable, text_sha1, text_size,
141
 
    # text_id
142
 
    executable = False
143
 
    text_sha1 = None
144
 
    text_size = None
145
 
    text_id = None
146
 
    # Attributes that only vary for symlinks: symlink_target
147
 
    symlink_target = None
148
 
    # Attributes that only vary for tree-references: reference_revision
149
 
    reference_revision = None
150
 
 
 
133
    
 
134
    __slots__ = []
151
135
 
152
136
    def detect_changes(self, old_entry):
153
137
        """Return a (text_modified, meta_modified) from this to old_entry.
154
 
 
155
 
        _read_tree_state must have been called on self and old_entry prior to
 
138
        
 
139
        _read_tree_state must have been called on self and old_entry prior to 
156
140
        calling detect_changes.
157
141
        """
158
142
        return False, False
159
143
 
 
144
    def diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
 
145
             output_to, reverse=False):
 
146
        """Perform a diff from this to to_entry.
 
147
 
 
148
        text_diff will be used for textual difference calculation.
 
149
        This is a template method, override _diff in child classes.
 
150
        """
 
151
        self._read_tree_state(tree.id2path(self.file_id), tree)
 
152
        if to_entry:
 
153
            # cannot diff from one kind to another - you must do a removal
 
154
            # and an addif they do not match.
 
155
            assert self.kind == to_entry.kind
 
156
            to_entry._read_tree_state(to_tree.id2path(to_entry.file_id),
 
157
                                      to_tree)
 
158
        self._diff(text_diff, from_label, tree, to_label, to_entry, to_tree,
 
159
                   output_to, reverse)
 
160
 
160
161
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
161
162
             output_to, reverse=False):
162
163
        """Perform a diff between two entries of the same kind."""
163
164
 
164
 
    def parent_candidates(self, previous_inventories):
165
 
        """Find possible per-file graph parents.
166
 
 
167
 
        This is currently defined by:
168
 
         - Select the last changed revision in the parent inventory.
169
 
         - Do deal with a short lived bug in bzr 0.8's development two entries
170
 
           that have the same last changed but different 'x' bit settings are
171
 
           changed in-place.
 
165
    def find_previous_heads(self, previous_inventories,
 
166
                            versioned_file_store,
 
167
                            transaction,
 
168
                            entry_vf=None):
 
169
        """Return the revisions and entries that directly precede this.
 
170
 
 
171
        Returned as a map from revision to inventory entry.
 
172
 
 
173
        This is a map containing the file revisions in all parents
 
174
        for which the file exists, and its revision is not a parent of
 
175
        any other. If the file is new, the set will be empty.
 
176
 
 
177
        :param versioned_file_store: A store where ancestry data on this
 
178
                                     file id can be queried.
 
179
        :param transaction: The transaction that queries to the versioned 
 
180
                            file store should be completed under.
 
181
        :param entry_vf: The entry versioned file, if its already available.
172
182
        """
 
183
        def get_ancestors(weave, entry):
 
184
            return set(weave.get_ancestry(entry.revision))
173
185
        # revision:ie mapping for each ie found in previous_inventories.
174
186
        candidates = {}
 
187
        # revision:ie mapping with one revision for each head.
 
188
        heads = {}
 
189
        # revision: ancestor list for each head
 
190
        head_ancestors = {}
175
191
        # identify candidate head revision ids.
176
192
        for inv in previous_inventories:
177
 
            if inv.has_id(self.file_id):
 
193
            if self.file_id in inv:
178
194
                ie = inv[self.file_id]
 
195
                assert ie.file_id == self.file_id
 
196
                if ie.kind != self.kind:
 
197
                    # Can't be a candidate if the kind has changed.
 
198
                    continue
179
199
                if ie.revision in candidates:
180
200
                    # same revision value in two different inventories:
181
201
                    # correct possible inconsistencies:
182
 
                    #     * there was a bug in revision updates with 'x' bit
 
202
                    #     * there was a bug in revision updates with 'x' bit 
183
203
                    #       support.
184
204
                    try:
185
205
                        if candidates[ie.revision].executable != ie.executable:
187
207
                            ie.executable = False
188
208
                    except AttributeError:
189
209
                        pass
 
210
                    # must now be the same.
 
211
                    assert candidates[ie.revision] == ie
190
212
                else:
191
213
                    # add this revision as a candidate.
192
214
                    candidates[ie.revision] = ie
193
 
        return candidates
 
215
 
 
216
        # common case optimisation
 
217
        if len(candidates) == 1:
 
218
            # if there is only one candidate revision found
 
219
            # then we can opening the versioned file to access ancestry:
 
220
            # there cannot be any ancestors to eliminate when there is 
 
221
            # only one revision available.
 
222
            heads[ie.revision] = ie
 
223
            return heads
 
224
 
 
225
        # eliminate ancestors amongst the available candidates:
 
226
        # heads are those that are not an ancestor of any other candidate
 
227
        # - this provides convergence at a per-file level.
 
228
        for ie in candidates.values():
 
229
            # may be an ancestor of a known head:
 
230
            already_present = 0 != len(
 
231
                [head for head in heads 
 
232
                 if ie.revision in head_ancestors[head]])
 
233
            if already_present:
 
234
                # an ancestor of an analyzed candidate.
 
235
                continue
 
236
            # not an ancestor of a known head:
 
237
            # load the versioned file for this file id if needed
 
238
            if entry_vf is None:
 
239
                entry_vf = versioned_file_store.get_weave_or_empty(
 
240
                    self.file_id, transaction)
 
241
            ancestors = get_ancestors(entry_vf, ie)
 
242
            # may knock something else out:
 
243
            check_heads = list(heads.keys())
 
244
            for head in check_heads:
 
245
                if head in ancestors:
 
246
                    # this previously discovered 'head' is not
 
247
                    # really a head - its an ancestor of the newly 
 
248
                    # found head,
 
249
                    heads.pop(head)
 
250
            head_ancestors[ie.revision] = ancestors
 
251
            heads[ie.revision] = ie
 
252
        return heads
 
253
 
 
254
    def get_tar_item(self, root, dp, now, tree):
 
255
        """Get a tarfile item and a file stream for its content."""
 
256
        item = tarfile.TarInfo(osutils.pathjoin(root, dp).encode('utf8'))
 
257
        # TODO: would be cool to actually set it to the timestamp of the
 
258
        # revision it was last changed
 
259
        item.mtime = now
 
260
        fileobj = self._put_in_tar(item, tree)
 
261
        return item, fileobj
194
262
 
195
263
    def has_text(self):
196
264
        """Return true if the object this entry represents has textual data.
203
271
        """
204
272
        return False
205
273
 
206
 
    def __init__(self, file_id, name, parent_id):
 
274
    def __init__(self, file_id, name, parent_id, text_id=None):
207
275
        """Create an InventoryEntry
208
 
 
 
276
        
209
277
        The filename must be a single component, relative to the
210
278
        parent directory; it cannot be a whole path or relative name.
211
279
 
218
286
        Traceback (most recent call last):
219
287
        InvalidEntryName: Invalid entry name: src/hello.c
220
288
        """
 
289
        assert isinstance(name, basestring), name
221
290
        if '/' in name or '\\' in name:
222
291
            raise errors.InvalidEntryName(name=name)
 
292
        self.executable = False
 
293
        self.revision = None
 
294
        self.text_sha1 = None
 
295
        self.text_size = None
223
296
        self.file_id = file_id
224
 
        self.revision = None
 
297
        assert isinstance(file_id, (str, None.__class__)), \
 
298
            'bad type %r for %r' % (type(file_id), file_id)
225
299
        self.name = name
 
300
        self.text_id = text_id
226
301
        self.parent_id = parent_id
 
302
        self.symlink_target = None
 
303
        self.reference_revision = None
227
304
 
228
305
    def kind_character(self):
229
306
        """Return a short kind indicator useful for appending to names."""
230
 
        raise errors.BzrError('unknown kind %r' % self.kind)
 
307
        raise BzrError('unknown kind %r' % self.kind)
231
308
 
232
309
    known_kinds = ('file', 'directory', 'symlink')
233
310
 
 
311
    def _put_in_tar(self, item, tree):
 
312
        """populate item for stashing in a tar, and return the content stream.
 
313
 
 
314
        If no content is available, return None.
 
315
        """
 
316
        raise BzrError("don't know how to export {%s} of kind %r" %
 
317
                       (self.file_id, self.kind))
 
318
 
 
319
    def put_on_disk(self, dest, dp, tree):
 
320
        """Create a representation of self on disk in the prefix dest.
 
321
        
 
322
        This is a template method - implement _put_on_disk in subclasses.
 
323
        """
 
324
        fullpath = osutils.pathjoin(dest, dp)
 
325
        self._put_on_disk(fullpath, tree)
 
326
        # mutter("  export {%s} kind %s to %s", self.file_id,
 
327
        #         self.kind, fullpath)
 
328
 
 
329
    def _put_on_disk(self, fullpath, tree):
 
330
        """Put this entry onto disk at fullpath, from tree tree."""
 
331
        raise BzrError("don't know how to export {%s} of kind %r" % (self.file_id, self.kind))
 
332
 
234
333
    def sorted_children(self):
235
334
        return sorted(self.children.items())
236
335
 
238
337
    def versionable_kind(kind):
239
338
        return (kind in ('file', 'directory', 'symlink', 'tree-reference'))
240
339
 
241
 
    def check(self, checker, rev_id, inv):
 
340
    def check(self, checker, rev_id, inv, tree):
242
341
        """Check this inventory entry is intact.
243
342
 
244
343
        This is a template method, override _check for kind specific
245
344
        tests.
246
345
 
247
 
        :param checker: Check object providing context for the checks;
 
346
        :param checker: Check object providing context for the checks; 
248
347
             can be used to find out what parts of the repository have already
249
348
             been checked.
250
349
        :param rev_id: Revision id from which this InventoryEntry was loaded.
251
350
             Not necessarily the last-changed revision for this file.
252
351
        :param inv: Inventory from which the entry was loaded.
 
352
        :param tree: RevisionTree for this entry.
253
353
        """
254
354
        if self.parent_id is not None:
255
355
            if not inv.has_id(self.parent_id):
256
 
                raise errors.BzrCheckError(
257
 
                    'missing parent {%s} in inventory for revision {%s}' % (
258
 
                        self.parent_id, rev_id))
259
 
        checker._add_entry_to_text_key_references(inv, self)
260
 
        self._check(checker, rev_id)
 
356
                raise BzrCheckError('missing parent {%s} in inventory for revision {%s}'
 
357
                        % (self.parent_id, rev_id))
 
358
        self._check(checker, rev_id, tree)
261
359
 
262
 
    def _check(self, checker, rev_id):
 
360
    def _check(self, checker, rev_id, tree):
263
361
        """Check this inventory entry for kind specific errors."""
264
 
        checker._report_items.append(
265
 
            'unknown entry kind %r in revision {%s}' % (self.kind, rev_id))
 
362
        raise BzrCheckError('unknown entry kind %r in revision {%s}' % 
 
363
                            (self.kind, rev_id))
266
364
 
267
365
    def copy(self):
268
366
        """Clone this inventory entry."""
271
369
    @staticmethod
272
370
    def describe_change(old_entry, new_entry):
273
371
        """Describe the change between old_entry and this.
274
 
 
 
372
        
275
373
        This smells of being an InterInventoryEntry situation, but as its
276
374
        the first one, we're making it a static method for now.
277
375
 
278
 
        An entry with a different parent, or different name is considered
 
376
        An entry with a different parent, or different name is considered 
279
377
        to be renamed. Reparenting is an internal detail.
280
378
        Note that renaming the parent does not trigger a rename for the
281
379
        child entry itself.
318
416
                   self.parent_id,
319
417
                   self.revision))
320
418
 
 
419
    def snapshot(self, revision, path, previous_entries,
 
420
                 work_tree, commit_builder):
 
421
        """Make a snapshot of this entry which may or may not have changed.
 
422
        
 
423
        This means that all its fields are populated, that it has its
 
424
        text stored in the text store or weave.
 
425
        """
 
426
        # mutter('new parents of %s are %r', path, previous_entries)
 
427
        self._read_tree_state(path, work_tree)
 
428
        # TODO: Where should we determine whether to reuse a
 
429
        # previous revision id or create a new revision? 20060606
 
430
        if len(previous_entries) == 1:
 
431
            # cannot be unchanged unless there is only one parent file rev.
 
432
            parent_ie = previous_entries.values()[0]
 
433
            if self._unchanged(parent_ie):
 
434
                # mutter("found unchanged entry")
 
435
                self.revision = parent_ie.revision
 
436
                return "unchanged"
 
437
        return self._snapshot_into_revision(revision, previous_entries, 
 
438
                                            work_tree, commit_builder)
 
439
 
 
440
    def _snapshot_into_revision(self, revision, previous_entries, work_tree,
 
441
                                commit_builder):
 
442
        """Record this revision unconditionally into a store.
 
443
 
 
444
        The entry's last-changed revision property (`revision`) is updated to 
 
445
        that of the new revision.
 
446
        
 
447
        :param revision: id of the new revision that is being recorded.
 
448
 
 
449
        :returns: String description of the commit (e.g. "merged", "modified"), etc.
 
450
        """
 
451
        # mutter('new revision {%s} for {%s}', revision, self.file_id)
 
452
        self.revision = revision
 
453
        self._snapshot_text(previous_entries, work_tree, commit_builder)
 
454
 
 
455
    def _snapshot_text(self, file_parents, work_tree, commit_builder): 
 
456
        """Record the 'text' of this entry, whatever form that takes.
 
457
        
 
458
        This default implementation simply adds an empty text.
 
459
        """
 
460
        raise NotImplementedError(self._snapshot_text)
 
461
 
321
462
    def __eq__(self, other):
322
 
        if other is self:
323
 
            # For the case when objects are cached
324
 
            return True
325
463
        if not isinstance(other, InventoryEntry):
326
464
            return NotImplemented
327
465
 
362
500
 
363
501
    def _read_tree_state(self, path, work_tree):
364
502
        """Populate fields in the inventory entry from the given tree.
365
 
 
 
503
        
366
504
        Note that this should be modified to be a noop on virtual trees
367
505
        as all entries created there are prepopulated.
368
506
        """
369
 
        # TODO: Rather than running this manually, we should check the
 
507
        # TODO: Rather than running this manually, we should check the 
370
508
        # working sha1 and other expensive properties when they're
371
509
        # first requested, or preload them if they're already known
372
510
        pass            # nothing to do by default
375
513
        pass
376
514
 
377
515
 
 
516
class RootEntry(InventoryEntry):
 
517
 
 
518
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
519
                 'text_id', 'parent_id', 'children', 'executable',
 
520
                 'revision', 'symlink_target', 'reference_revision']
 
521
 
 
522
    def _check(self, checker, rev_id, tree):
 
523
        """See InventoryEntry._check"""
 
524
 
 
525
    def __init__(self, file_id):
 
526
        self.file_id = file_id
 
527
        self.children = {}
 
528
        self.kind = 'directory'
 
529
        self.parent_id = None
 
530
        self.name = u''
 
531
        self.revision = None
 
532
        symbol_versioning.warn('RootEntry is deprecated as of bzr 0.10.'
 
533
                               '  Please use InventoryDirectory instead.',
 
534
                               DeprecationWarning, stacklevel=2)
 
535
 
 
536
    def __eq__(self, other):
 
537
        if not isinstance(other, RootEntry):
 
538
            return NotImplemented
 
539
        
 
540
        return (self.file_id == other.file_id) \
 
541
               and (self.children == other.children)
 
542
 
 
543
 
378
544
class InventoryDirectory(InventoryEntry):
379
545
    """A directory in an inventory."""
380
546
 
381
 
    __slots__ = ['children']
382
 
 
383
 
    kind = 'directory'
384
 
 
385
 
    def _check(self, checker, rev_id):
 
547
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
548
                 'text_id', 'parent_id', 'children', 'executable',
 
549
                 'revision', 'symlink_target', 'reference_revision']
 
550
 
 
551
    def _check(self, checker, rev_id, tree):
386
552
        """See InventoryEntry._check"""
387
 
        # In non rich root repositories we do not expect a file graph for the
388
 
        # root.
389
 
        if self.name == '' and not checker.rich_roots:
390
 
            return
391
 
        # Directories are stored as an empty file, but the file should exist
392
 
        # to provide a per-fileid log. The hash of every directory content is
393
 
        # "da..." below (the sha1sum of '').
394
 
        checker.add_pending_item(rev_id,
395
 
            ('texts', self.file_id, self.revision), 'text',
396
 
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
 
553
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
 
554
            raise BzrCheckError('directory {%s} has text in revision {%s}'
 
555
                                % (self.file_id, rev_id))
397
556
 
398
557
    def copy(self):
399
558
        other = InventoryDirectory(self.file_id, self.name, self.parent_id)
405
564
    def __init__(self, file_id, name, parent_id):
406
565
        super(InventoryDirectory, self).__init__(file_id, name, parent_id)
407
566
        self.children = {}
 
567
        self.kind = 'directory'
408
568
 
409
569
    def kind_character(self):
410
570
        """See InventoryEntry.kind_character."""
411
571
        return '/'
412
572
 
 
573
    def _put_in_tar(self, item, tree):
 
574
        """See InventoryEntry._put_in_tar."""
 
575
        item.type = tarfile.DIRTYPE
 
576
        fileobj = None
 
577
        item.name += '/'
 
578
        item.size = 0
 
579
        item.mode = 0755
 
580
        return fileobj
 
581
 
 
582
    def _put_on_disk(self, fullpath, tree):
 
583
        """See InventoryEntry._put_on_disk."""
 
584
        os.mkdir(fullpath)
 
585
 
 
586
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
587
        """See InventoryEntry._snapshot_text."""
 
588
        commit_builder.modified_directory(self.file_id, file_parents)
 
589
 
413
590
 
414
591
class InventoryFile(InventoryEntry):
415
592
    """A file in an inventory."""
416
593
 
417
 
    __slots__ = ['text_sha1', 'text_size', 'text_id', 'executable']
418
 
 
419
 
    kind = 'file'
420
 
 
421
 
    def __init__(self, file_id, name, parent_id):
422
 
        super(InventoryFile, self).__init__(file_id, name, parent_id)
423
 
        self.text_sha1 = None
424
 
        self.text_size = None
425
 
        self.text_id = None
426
 
        self.executable = False
427
 
 
428
 
    def _check(self, checker, tree_revision_id):
 
594
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
595
                 'text_id', 'parent_id', 'children', 'executable',
 
596
                 'revision', 'symlink_target', 'reference_revision']
 
597
 
 
598
    def _check(self, checker, tree_revision_id, tree):
429
599
        """See InventoryEntry._check"""
430
 
        # TODO: check size too.
431
 
        checker.add_pending_item(tree_revision_id,
432
 
            ('texts', self.file_id, self.revision), 'text',
433
 
             self.text_sha1)
434
 
        if self.text_size is None:
435
 
            checker._report_items.append(
436
 
                'fileid {%s} in {%s} has None for text_size' % (self.file_id,
437
 
                tree_revision_id))
 
600
        t = (self.file_id, self.revision)
 
601
        if t in checker.checked_texts:
 
602
            prev_sha = checker.checked_texts[t]
 
603
            if prev_sha != self.text_sha1:
 
604
                raise BzrCheckError('mismatched sha1 on {%s} in {%s}' %
 
605
                                    (self.file_id, tree_revision_id))
 
606
            else:
 
607
                checker.repeated_text_cnt += 1
 
608
                return
 
609
 
 
610
        if self.file_id not in checker.checked_weaves:
 
611
            mutter('check weave {%s}', self.file_id)
 
612
            w = tree.get_weave(self.file_id)
 
613
            # Not passing a progress bar, because it creates a new
 
614
            # progress, which overwrites the current progress,
 
615
            # and doesn't look nice
 
616
            w.check()
 
617
            checker.checked_weaves[self.file_id] = True
 
618
        else:
 
619
            w = tree.get_weave(self.file_id)
 
620
 
 
621
        mutter('check version {%s} of {%s}', tree_revision_id, self.file_id)
 
622
        checker.checked_text_cnt += 1
 
623
        # We can't check the length, because Weave doesn't store that
 
624
        # information, and the whole point of looking at the weave's
 
625
        # sha1sum is that we don't have to extract the text.
 
626
        if self.text_sha1 != w.get_sha1(self.revision):
 
627
            raise BzrCheckError('text {%s} version {%s} wrong sha1' 
 
628
                                % (self.file_id, self.revision))
 
629
        checker.checked_texts[t] = self.text_sha1
438
630
 
439
631
    def copy(self):
440
632
        other = InventoryFile(self.file_id, self.name, self.parent_id)
447
639
 
448
640
    def detect_changes(self, old_entry):
449
641
        """See InventoryEntry.detect_changes."""
 
642
        assert self.text_sha1 is not None
 
643
        assert old_entry.text_sha1 is not None
450
644
        text_modified = (self.text_sha1 != old_entry.text_sha1)
451
645
        meta_modified = (self.executable != old_entry.executable)
452
646
        return text_modified, meta_modified
454
648
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
455
649
             output_to, reverse=False):
456
650
        """See InventoryEntry._diff."""
457
 
        from bzrlib.diff import DiffText
458
 
        from_file_id = self.file_id
459
 
        if to_entry:
460
 
            to_file_id = to_entry.file_id
461
 
        else:
462
 
            to_file_id = None
463
 
        if reverse:
464
 
            to_file_id, from_file_id = from_file_id, to_file_id
465
 
            tree, to_tree = to_tree, tree
466
 
            from_label, to_label = to_label, from_label
467
 
        differ = DiffText(tree, to_tree, output_to, 'utf-8', '', '',
468
 
                          text_diff)
469
 
        return differ.diff_text(from_file_id, to_file_id, from_label, to_label)
 
651
        try:
 
652
            from_text = tree.get_file(self.file_id).readlines()
 
653
            if to_entry:
 
654
                to_text = to_tree.get_file(to_entry.file_id).readlines()
 
655
            else:
 
656
                to_text = []
 
657
            if not reverse:
 
658
                text_diff(from_label, from_text,
 
659
                          to_label, to_text, output_to)
 
660
            else:
 
661
                text_diff(to_label, to_text,
 
662
                          from_label, from_text, output_to)
 
663
        except errors.BinaryFile:
 
664
            if reverse:
 
665
                label_pair = (to_label, from_label)
 
666
            else:
 
667
                label_pair = (from_label, to_label)
 
668
            print >> output_to, "Binary files %s and %s differ" % label_pair
470
669
 
471
670
    def has_text(self):
472
671
        """See InventoryEntry.has_text."""
473
672
        return True
474
673
 
 
674
    def __init__(self, file_id, name, parent_id):
 
675
        super(InventoryFile, self).__init__(file_id, name, parent_id)
 
676
        self.kind = 'file'
 
677
 
475
678
    def kind_character(self):
476
679
        """See InventoryEntry.kind_character."""
477
680
        return ''
478
681
 
 
682
    def _put_in_tar(self, item, tree):
 
683
        """See InventoryEntry._put_in_tar."""
 
684
        item.type = tarfile.REGTYPE
 
685
        fileobj = tree.get_file(self.file_id)
 
686
        item.size = self.text_size
 
687
        if tree.is_executable(self.file_id):
 
688
            item.mode = 0755
 
689
        else:
 
690
            item.mode = 0644
 
691
        return fileobj
 
692
 
 
693
    def _put_on_disk(self, fullpath, tree):
 
694
        """See InventoryEntry._put_on_disk."""
 
695
        osutils.pumpfile(tree.get_file(self.file_id), file(fullpath, 'wb'))
 
696
        if tree.is_executable(self.file_id):
 
697
            os.chmod(fullpath, 0755)
 
698
 
479
699
    def _read_tree_state(self, path, work_tree):
480
700
        """See InventoryEntry._read_tree_state."""
481
701
        self.text_sha1 = work_tree.get_file_sha1(self.file_id, path=path)
484
704
        self.executable = work_tree.is_executable(self.file_id, path=path)
485
705
 
486
706
    def __repr__(self):
487
 
        return ("%s(%r, %r, parent_id=%r, sha1=%r, len=%s, revision=%s)"
 
707
        return ("%s(%r, %r, parent_id=%r, sha1=%r, len=%s)"
488
708
                % (self.__class__.__name__,
489
709
                   self.file_id,
490
710
                   self.name,
491
711
                   self.parent_id,
492
712
                   self.text_sha1,
493
 
                   self.text_size,
494
 
                   self.revision))
 
713
                   self.text_size))
495
714
 
496
715
    def _forget_tree_state(self):
497
716
        self.text_sha1 = None
498
717
 
 
718
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
719
        """See InventoryEntry._snapshot_text."""
 
720
        def get_content_byte_lines():
 
721
            return work_tree.get_file(self.file_id).readlines()
 
722
        self.text_sha1, self.text_size = commit_builder.modified_file_text(
 
723
            self.file_id, file_parents, get_content_byte_lines, self.text_sha1, self.text_size)
 
724
 
499
725
    def _unchanged(self, previous_ie):
500
726
        """See InventoryEntry._unchanged."""
501
727
        compatible = super(InventoryFile, self)._unchanged(previous_ie)
513
739
class InventoryLink(InventoryEntry):
514
740
    """A file in an inventory."""
515
741
 
516
 
    __slots__ = ['symlink_target']
517
 
 
518
 
    kind = 'symlink'
519
 
 
520
 
    def __init__(self, file_id, name, parent_id):
521
 
        super(InventoryLink, self).__init__(file_id, name, parent_id)
522
 
        self.symlink_target = None
523
 
 
524
 
    def _check(self, checker, tree_revision_id):
 
742
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
743
                 'text_id', 'parent_id', 'children', 'executable',
 
744
                 'revision', 'symlink_target', 'reference_revision']
 
745
 
 
746
    def _check(self, checker, rev_id, tree):
525
747
        """See InventoryEntry._check"""
 
748
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
 
749
            raise BzrCheckError('symlink {%s} has text in revision {%s}'
 
750
                    % (self.file_id, rev_id))
526
751
        if self.symlink_target is None:
527
 
            checker._report_items.append(
528
 
                'symlink {%s} has no target in revision {%s}'
529
 
                    % (self.file_id, tree_revision_id))
530
 
        # Symlinks are stored as ''
531
 
        checker.add_pending_item(tree_revision_id,
532
 
            ('texts', self.file_id, self.revision), 'text',
533
 
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
 
752
            raise BzrCheckError('symlink {%s} has no target in revision {%s}'
 
753
                    % (self.file_id, rev_id))
534
754
 
535
755
    def copy(self):
536
756
        other = InventoryLink(self.file_id, self.name, self.parent_id)
543
763
        # FIXME: which _modified field should we use ? RBC 20051003
544
764
        text_modified = (self.symlink_target != old_entry.symlink_target)
545
765
        if text_modified:
546
 
            trace.mutter("    symlink target changed")
 
766
            mutter("    symlink target changed")
547
767
        meta_modified = False
548
768
        return text_modified, meta_modified
549
769
 
550
770
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
551
771
             output_to, reverse=False):
552
772
        """See InventoryEntry._diff."""
553
 
        from bzrlib.diff import DiffSymlink
554
 
        old_target = self.symlink_target
 
773
        from_text = self.symlink_target
555
774
        if to_entry is not None:
556
 
            new_target = to_entry.symlink_target
557
 
        else:
558
 
            new_target = None
559
 
        if not reverse:
560
 
            old_tree = tree
561
 
            new_tree = to_tree
562
 
        else:
563
 
            old_tree = to_tree
564
 
            new_tree = tree
565
 
            new_target, old_target = old_target, new_target
566
 
        differ = DiffSymlink(old_tree, new_tree, output_to)
567
 
        return differ.diff_symlink(old_target, new_target)
 
775
            to_text = to_entry.symlink_target
 
776
            if reverse:
 
777
                temp = from_text
 
778
                from_text = to_text
 
779
                to_text = temp
 
780
            print >>output_to, '=== target changed %r => %r' % (from_text, to_text)
 
781
        else:
 
782
            if not reverse:
 
783
                print >>output_to, '=== target was %r' % self.symlink_target
 
784
            else:
 
785
                print >>output_to, '=== target is %r' % self.symlink_target
 
786
 
 
787
    def __init__(self, file_id, name, parent_id):
 
788
        super(InventoryLink, self).__init__(file_id, name, parent_id)
 
789
        self.kind = 'symlink'
568
790
 
569
791
    def kind_character(self):
570
792
        """See InventoryEntry.kind_character."""
571
793
        return ''
572
794
 
 
795
    def _put_in_tar(self, item, tree):
 
796
        """See InventoryEntry._put_in_tar."""
 
797
        item.type = tarfile.SYMTYPE
 
798
        fileobj = None
 
799
        item.size = 0
 
800
        item.mode = 0755
 
801
        item.linkname = self.symlink_target
 
802
        return fileobj
 
803
 
 
804
    def _put_on_disk(self, fullpath, tree):
 
805
        """See InventoryEntry._put_on_disk."""
 
806
        try:
 
807
            os.symlink(self.symlink_target, fullpath)
 
808
        except OSError,e:
 
809
            raise BzrError("Failed to create symlink %r -> %r, error: %s" % (fullpath, self.symlink_target, e))
 
810
 
573
811
    def _read_tree_state(self, path, work_tree):
574
812
        """See InventoryEntry._read_tree_state."""
575
813
        self.symlink_target = work_tree.get_symlink_target(self.file_id)
584
822
            compatible = False
585
823
        return compatible
586
824
 
 
825
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
826
        """See InventoryEntry._snapshot_text."""
 
827
        commit_builder.modified_link(
 
828
            self.file_id, file_parents, self.symlink_target)
 
829
 
587
830
 
588
831
class TreeReference(InventoryEntry):
589
 
 
590
 
    __slots__ = ['reference_revision']
591
 
 
 
832
    
592
833
    kind = 'tree-reference'
593
 
 
 
834
    
594
835
    def __init__(self, file_id, name, parent_id, revision=None,
595
836
                 reference_revision=None):
596
837
        InventoryEntry.__init__(self, file_id, name, parent_id)
601
842
        return TreeReference(self.file_id, self.name, self.parent_id,
602
843
                             self.revision, self.reference_revision)
603
844
 
 
845
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
846
        commit_builder.modified_reference(self.file_id, file_parents)
 
847
 
604
848
    def _read_tree_state(self, path, work_tree):
605
849
        """Populate fields in the inventory entry from the given tree.
606
850
        """
608
852
            self.file_id, path)
609
853
 
610
854
    def _forget_tree_state(self):
611
 
        self.reference_revision = None
612
 
 
613
 
    def _unchanged(self, previous_ie):
614
 
        """See InventoryEntry._unchanged."""
615
 
        compatible = super(TreeReference, self)._unchanged(previous_ie)
616
 
        if self.reference_revision != previous_ie.reference_revision:
617
 
            compatible = False
618
 
        return compatible
619
 
 
620
 
 
621
 
class CommonInventory(object):
622
 
    """Basic inventory logic, defined in terms of primitives like has_id.
623
 
 
624
 
    An inventory is the metadata about the contents of a tree.
625
 
 
626
 
    This is broadly a map from file_id to entries such as directories, files,
627
 
    symlinks and tree references. Each entry maintains its own metadata like
628
 
    SHA1 and length for files, or children for a directory.
629
 
 
 
855
        self.reference_revision = None 
 
856
 
 
857
 
 
858
class Inventory(object):
 
859
    """Inventory of versioned files in a tree.
 
860
 
 
861
    This describes which file_id is present at each point in the tree,
 
862
    and possibly the SHA-1 or other information about the file.
630
863
    Entries can be looked up either by path or by file_id.
631
864
 
 
865
    The inventory represents a typical unix file tree, with
 
866
    directories containing files and subdirectories.  We never store
 
867
    the full path to a file, because renaming a directory implicitly
 
868
    moves all of its contents.  This class internally maintains a
 
869
    lookup tree that allows the children under a directory to be
 
870
    returned quickly.
 
871
 
632
872
    InventoryEntry objects must not be modified after they are
633
873
    inserted, other than through the Inventory API.
 
874
 
 
875
    >>> inv = Inventory()
 
876
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
877
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
878
    >>> inv['123-123'].name
 
879
    'hello.c'
 
880
 
 
881
    May be treated as an iterator or set to look up file ids:
 
882
    
 
883
    >>> bool(inv.path2id('hello.c'))
 
884
    True
 
885
    >>> '123-123' in inv
 
886
    True
 
887
 
 
888
    May also look up by name:
 
889
 
 
890
    >>> [x[0] for x in inv.iter_entries()]
 
891
    ['', u'hello.c']
 
892
    >>> inv = Inventory('TREE_ROOT-12345678-12345678')
 
893
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
894
    Traceback (most recent call last):
 
895
    BzrError: parent_id {TREE_ROOT} not in inventory
 
896
    >>> inv.add(InventoryFile('123-123', 'hello.c', 'TREE_ROOT-12345678-12345678'))
 
897
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT-12345678-12345678', sha1=None, len=None)
634
898
    """
635
 
 
636
 
    @deprecated_method(deprecated_in((2, 4, 0)))
637
 
    def __contains__(self, file_id):
638
 
        """True if this entry contains a file with given id.
639
 
 
640
 
        >>> inv = Inventory()
641
 
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
642
 
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
643
 
        >>> inv.has_id('123')
644
 
        True
645
 
        >>> inv.has_id('456')
646
 
        False
647
 
 
648
 
        Note that this method along with __iter__ are not encouraged for use as
649
 
        they are less clear than specific query methods - they may be rmeoved
650
 
        in the future.
651
 
        """
652
 
        return self.has_id(file_id)
653
 
 
654
 
    def has_filename(self, filename):
655
 
        return bool(self.path2id(filename))
656
 
 
657
 
    def id2path(self, file_id):
658
 
        """Return as a string the path to file_id.
659
 
 
660
 
        >>> i = Inventory()
661
 
        >>> e = i.add(InventoryDirectory('src-id', 'src', ROOT_ID))
662
 
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
663
 
        >>> print i.id2path('foo-id')
664
 
        src/foo.c
665
 
 
666
 
        :raises NoSuchId: If file_id is not present in the inventory.
667
 
        """
668
 
        # get all names, skipping root
669
 
        return '/'.join(reversed(
670
 
            [parent.name for parent in
671
 
             self._iter_file_id_parents(file_id)][:-1]))
672
 
 
673
 
    def iter_entries(self, from_dir=None, recursive=True):
674
 
        """Return (path, entry) pairs, in order by name.
675
 
        
676
 
        :param from_dir: if None, start from the root,
677
 
          otherwise start from this directory (either file-id or entry)
678
 
        :param recursive: recurse into directories or not
679
 
        """
 
899
    def __init__(self, root_id=ROOT_ID, revision_id=None):
 
900
        """Create or read an inventory.
 
901
 
 
902
        If a working directory is specified, the inventory is read
 
903
        from there.  If the file is specified, read from that. If not,
 
904
        the inventory is created empty.
 
905
 
 
906
        The inventory is created with a default root directory, with
 
907
        an id of None.
 
908
        """
 
909
        if root_id is not None:
 
910
            assert root_id.__class__ == str
 
911
            self._set_root(InventoryDirectory(root_id, u'', None))
 
912
        else:
 
913
            self.root = None
 
914
            self._byid = {}
 
915
        self.revision_id = revision_id
 
916
 
 
917
    def _set_root(self, ie):
 
918
        self.root = ie
 
919
        self._byid = {self.root.file_id: self.root}
 
920
 
 
921
    def copy(self):
 
922
        # TODO: jam 20051218 Should copy also copy the revision_id?
 
923
        entries = self.iter_entries()
 
924
        other = Inventory(entries.next()[1].file_id)
 
925
        # copy recursively so we know directories will be added before
 
926
        # their children.  There are more efficient ways than this...
 
927
        for path, entry in entries():
 
928
            other.add(entry.copy())
 
929
        return other
 
930
 
 
931
    def __iter__(self):
 
932
        return iter(self._byid)
 
933
 
 
934
    def __len__(self):
 
935
        """Returns number of entries."""
 
936
        return len(self._byid)
 
937
 
 
938
    def iter_entries(self, from_dir=None):
 
939
        """Return (path, entry) pairs, in order by name."""
680
940
        if from_dir is None:
681
941
            if self.root is None:
682
942
                return
683
943
            from_dir = self.root
684
944
            yield '', self.root
685
945
        elif isinstance(from_dir, basestring):
686
 
            from_dir = self[from_dir]
687
 
 
 
946
            from_dir = self._byid[from_dir]
 
947
            
688
948
        # unrolling the recursive called changed the time from
689
949
        # 440ms/663ms (inline/total) to 116ms/116ms
690
950
        children = from_dir.children.items()
691
951
        children.sort()
692
 
        if not recursive:
693
 
            for name, ie in children:
694
 
                yield name, ie
695
 
            return
696
952
        children = collections.deque(children)
697
953
        stack = [(u'', children)]
698
954
        while stack:
723
979
                # if we finished all children, pop it off the stack
724
980
                stack.pop()
725
981
 
726
 
    def _preload_cache(self):
727
 
        """Populate any caches, we are about to access all items.
728
 
        
729
 
        The default implementation does nothing, because CommonInventory doesn't
730
 
        have a cache.
731
 
        """
732
 
        pass
733
 
    
734
 
    def iter_entries_by_dir(self, from_dir=None, specific_file_ids=None,
735
 
        yield_parents=False):
 
982
    def iter_entries_by_dir(self, from_dir=None, specific_file_ids=None):
736
983
        """Iterate over the entries in a directory first order.
737
984
 
738
985
        This returns all entries for a directory before returning
740
987
        lexicographically sorted order, and is a hybrid between
741
988
        depth-first and breadth-first.
742
989
 
743
 
        :param yield_parents: If True, yield the parents from the root leading
744
 
            down to specific_file_ids that have been requested. This has no
745
 
            impact if specific_file_ids is None.
746
990
        :return: This yields (path, entry) pairs
747
991
        """
748
 
        if specific_file_ids and not isinstance(specific_file_ids, set):
749
 
            specific_file_ids = set(specific_file_ids)
 
992
        if specific_file_ids:
 
993
            safe = osutils.safe_file_id
 
994
            specific_file_ids = set(safe(fid) for fid in specific_file_ids)
750
995
        # TODO? Perhaps this should return the from_dir so that the root is
751
996
        # yielded? or maybe an option?
752
 
        if from_dir is None and specific_file_ids is None:
753
 
            # They are iterating from the root, and have not specified any
754
 
            # specific entries to look at. All current callers fully consume the
755
 
            # iterator, so we can safely assume we are accessing all entries
756
 
            self._preload_cache()
757
997
        if from_dir is None:
758
998
            if self.root is None:
759
999
                return
760
1000
            # Optimize a common case
761
 
            if (not yield_parents and specific_file_ids is not None and
762
 
                len(specific_file_ids) == 1):
 
1001
            if specific_file_ids is not None and len(specific_file_ids) == 1:
763
1002
                file_id = list(specific_file_ids)[0]
764
 
                if self.has_id(file_id):
 
1003
                if file_id in self:
765
1004
                    yield self.id2path(file_id), self[file_id]
766
 
                return
 
1005
                return 
767
1006
            from_dir = self.root
768
 
            if (specific_file_ids is None or yield_parents or
 
1007
            if (specific_file_ids is None or 
769
1008
                self.root.file_id in specific_file_ids):
770
1009
                yield u'', self.root
771
1010
        elif isinstance(from_dir, basestring):
772
 
            from_dir = self[from_dir]
 
1011
            from_dir = self._byid[from_dir]
773
1012
 
774
1013
        if specific_file_ids is not None:
775
1014
            # TODO: jam 20070302 This could really be done as a loop rather
776
1015
            #       than a bunch of recursive calls.
777
1016
            parents = set()
778
 
            byid = self
 
1017
            byid = self._byid
779
1018
            def add_ancestors(file_id):
780
 
                if not byid.has_id(file_id):
 
1019
                if file_id not in byid:
781
1020
                    return
782
1021
                parent_id = byid[file_id].parent_id
783
1022
                if parent_id is None:
789
1028
                add_ancestors(file_id)
790
1029
        else:
791
1030
            parents = None
792
 
 
 
1031
            
793
1032
        stack = [(u'', from_dir)]
794
1033
        while stack:
795
1034
            cur_relpath, cur_dir = stack.pop()
799
1038
 
800
1039
                child_relpath = cur_relpath + child_name
801
1040
 
802
 
                if (specific_file_ids is None or
803
 
                    child_ie.file_id in specific_file_ids or
804
 
                    (yield_parents and child_ie.file_id in parents)):
 
1041
                if (specific_file_ids is None or 
 
1042
                    child_ie.file_id in specific_file_ids):
805
1043
                    yield child_relpath, child_ie
806
1044
 
807
1045
                if child_ie.kind == 'directory':
809
1047
                        child_dirs.append((child_relpath+'/', child_ie))
810
1048
            stack.extend(reversed(child_dirs))
811
1049
 
812
 
    def _make_delta(self, old):
813
 
        """Make an inventory delta from two inventories."""
814
 
        old_ids = set(old)
815
 
        new_ids = set(self)
816
 
        adds = new_ids - old_ids
817
 
        deletes = old_ids - new_ids
818
 
        common = old_ids.intersection(new_ids)
819
 
        delta = []
820
 
        for file_id in deletes:
821
 
            delta.append((old.id2path(file_id), None, file_id, None))
822
 
        for file_id in adds:
823
 
            delta.append((None, self.id2path(file_id), file_id, self[file_id]))
824
 
        for file_id in common:
825
 
            if old[file_id] != self[file_id]:
826
 
                delta.append((old.id2path(file_id), self.id2path(file_id),
827
 
                    file_id, self[file_id]))
828
 
        return delta
829
 
 
830
 
    def make_entry(self, kind, name, parent_id, file_id=None):
831
 
        """Simple thunk to bzrlib.inventory.make_entry."""
832
 
        return make_entry(kind, name, parent_id, file_id)
833
 
 
834
1050
    def entries(self):
835
1051
        """Return list of (path, ie) for all entries except the root.
836
1052
 
846
1062
                if ie.kind == 'directory':
847
1063
                    descend(ie, child_path)
848
1064
 
849
 
        if self.root is not None:
850
 
            descend(self.root, u'')
 
1065
        descend(self.root, u'')
851
1066
        return accum
852
1067
 
853
1068
    def directories(self):
856
1071
        accum = []
857
1072
        def descend(parent_ie, parent_path):
858
1073
            accum.append((parent_path, parent_ie))
859
 
 
 
1074
            
860
1075
            kids = [(ie.name, ie) for ie in parent_ie.children.itervalues() if ie.kind == 'directory']
861
1076
            kids.sort()
862
1077
 
865
1080
                descend(child_ie, child_path)
866
1081
        descend(self.root, u'')
867
1082
        return accum
868
 
 
869
 
    def path2id(self, relpath):
870
 
        """Walk down through directories to return entry of last component.
871
 
 
872
 
        :param relpath: may be either a list of path components, or a single
873
 
            string, in which case it is automatically split.
874
 
 
875
 
        This returns the entry of the last component in the path,
876
 
        which may be either a file or a directory.
877
 
 
878
 
        Returns None IFF the path is not found.
879
 
        """
880
 
        if isinstance(relpath, basestring):
881
 
            names = osutils.splitpath(relpath)
882
 
        else:
883
 
            names = relpath
884
 
 
885
 
        try:
886
 
            parent = self.root
887
 
        except errors.NoSuchId:
888
 
            # root doesn't exist yet so nothing else can
889
 
            return None
890
 
        if parent is None:
891
 
            return None
892
 
        for f in names:
893
 
            try:
894
 
                children = getattr(parent, 'children', None)
895
 
                if children is None:
896
 
                    return None
897
 
                cie = children[f]
898
 
                parent = cie
899
 
            except KeyError:
900
 
                # or raise an error?
901
 
                return None
902
 
 
903
 
        return parent.file_id
904
 
 
905
 
    def filter(self, specific_fileids):
906
 
        """Get an inventory view filtered against a set of file-ids.
907
 
 
908
 
        Children of directories and parents are included.
909
 
 
910
 
        The result may or may not reference the underlying inventory
911
 
        so it should be treated as immutable.
912
 
        """
913
 
        interesting_parents = set()
914
 
        for fileid in specific_fileids:
915
 
            try:
916
 
                interesting_parents.update(self.get_idpath(fileid))
917
 
            except errors.NoSuchId:
918
 
                # This fileid is not in the inventory - that's ok
919
 
                pass
920
 
        entries = self.iter_entries()
921
 
        if self.root is None:
922
 
            return Inventory(root_id=None)
923
 
        other = Inventory(entries.next()[1].file_id)
924
 
        other.root.revision = self.root.revision
925
 
        other.revision_id = self.revision_id
926
 
        directories_to_expand = set()
927
 
        for path, entry in entries:
928
 
            file_id = entry.file_id
929
 
            if (file_id in specific_fileids
930
 
                or entry.parent_id in directories_to_expand):
931
 
                if entry.kind == 'directory':
932
 
                    directories_to_expand.add(file_id)
933
 
            elif file_id not in interesting_parents:
934
 
                continue
935
 
            other.add(entry.copy())
936
 
        return other
937
 
 
938
 
    def get_idpath(self, file_id):
939
 
        """Return a list of file_ids for the path to an entry.
940
 
 
941
 
        The list contains one element for each directory followed by
942
 
        the id of the file itself.  So the length of the returned list
943
 
        is equal to the depth of the file in the tree, counting the
944
 
        root directory as depth 1.
945
 
        """
946
 
        p = []
947
 
        for parent in self._iter_file_id_parents(file_id):
948
 
            p.insert(0, parent.file_id)
949
 
        return p
950
 
 
951
 
 
952
 
class Inventory(CommonInventory):
953
 
    """Mutable dict based in-memory inventory.
954
 
 
955
 
    We never store the full path to a file, because renaming a directory
956
 
    implicitly moves all of its contents.  This class internally maintains a
957
 
    lookup tree that allows the children under a directory to be
958
 
    returned quickly.
959
 
 
960
 
    >>> inv = Inventory()
961
 
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
962
 
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
963
 
    >>> inv['123-123'].name
964
 
    'hello.c'
965
 
 
966
 
    Id's may be looked up from paths:
967
 
 
968
 
    >>> inv.path2id('hello.c')
969
 
    '123-123'
970
 
    >>> inv.has_id('123-123')
971
 
    True
972
 
 
973
 
    There are iterators over the contents:
974
 
 
975
 
    >>> [entry[0] for entry in inv.iter_entries()]
976
 
    ['', u'hello.c']
977
 
    """
978
 
 
979
 
    def __init__(self, root_id=ROOT_ID, revision_id=None):
980
 
        """Create or read an inventory.
981
 
 
982
 
        If a working directory is specified, the inventory is read
983
 
        from there.  If the file is specified, read from that. If not,
984
 
        the inventory is created empty.
985
 
 
986
 
        The inventory is created with a default root directory, with
987
 
        an id of None.
988
 
        """
989
 
        if root_id is not None:
990
 
            self._set_root(InventoryDirectory(root_id, u'', None))
991
 
        else:
992
 
            self.root = None
993
 
            self._byid = {}
994
 
        self.revision_id = revision_id
995
 
 
996
 
    def __repr__(self):
997
 
        # More than one page of ouput is not useful anymore to debug
998
 
        max_len = 2048
999
 
        closing = '...}'
1000
 
        contents = repr(self._byid)
1001
 
        if len(contents) > max_len:
1002
 
            contents = contents[:(max_len-len(closing))] + closing
1003
 
        return "<Inventory object at %x, contents=%r>" % (id(self), contents)
1004
 
 
1005
 
    def apply_delta(self, delta):
1006
 
        """Apply a delta to this inventory.
1007
 
 
1008
 
        See the inventory developers documentation for the theory behind
1009
 
        inventory deltas.
1010
 
 
1011
 
        If delta application fails the inventory is left in an indeterminate
1012
 
        state and must not be used.
1013
 
 
1014
 
        :param delta: A list of changes to apply. After all the changes are
1015
 
            applied the final inventory must be internally consistent, but it
1016
 
            is ok to supply changes which, if only half-applied would have an
1017
 
            invalid result - such as supplying two changes which rename two
1018
 
            files, 'A' and 'B' with each other : [('A', 'B', 'A-id', a_entry),
1019
 
            ('B', 'A', 'B-id', b_entry)].
1020
 
 
1021
 
            Each change is a tuple, of the form (old_path, new_path, file_id,
1022
 
            new_entry).
1023
 
 
1024
 
            When new_path is None, the change indicates the removal of an entry
1025
 
            from the inventory and new_entry will be ignored (using None is
1026
 
            appropriate). If new_path is not None, then new_entry must be an
1027
 
            InventoryEntry instance, which will be incorporated into the
1028
 
            inventory (and replace any existing entry with the same file id).
1029
 
 
1030
 
            When old_path is None, the change indicates the addition of
1031
 
            a new entry to the inventory.
1032
 
 
1033
 
            When neither new_path nor old_path are None, the change is a
1034
 
            modification to an entry, such as a rename, reparent, kind change
1035
 
            etc.
1036
 
 
1037
 
            The children attribute of new_entry is ignored. This is because
1038
 
            this method preserves children automatically across alterations to
1039
 
            the parent of the children, and cases where the parent id of a
1040
 
            child is changing require the child to be passed in as a separate
1041
 
            change regardless. E.g. in the recursive deletion of a directory -
1042
 
            the directory's children must be included in the delta, or the
1043
 
            final inventory will be invalid.
1044
 
 
1045
 
            Note that a file_id must only appear once within a given delta.
1046
 
            An AssertionError is raised otherwise.
1047
 
        """
1048
 
        # Check that the delta is legal. It would be nice if this could be
1049
 
        # done within the loops below but it's safer to validate the delta
1050
 
        # before starting to mutate the inventory, as there isn't a rollback
1051
 
        # facility.
1052
 
        list(_check_delta_unique_ids(_check_delta_unique_new_paths(
1053
 
            _check_delta_unique_old_paths(_check_delta_ids_match_entry(
1054
 
            _check_delta_ids_are_valid(
1055
 
            _check_delta_new_path_entry_both_or_None(
1056
 
            delta)))))))
1057
 
 
1058
 
        children = {}
1059
 
        # Remove all affected items which were in the original inventory,
1060
 
        # starting with the longest paths, thus ensuring parents are examined
1061
 
        # after their children, which means that everything we examine has no
1062
 
        # modified children remaining by the time we examine it.
1063
 
        for old_path, file_id in sorted(((op, f) for op, np, f, e in delta
1064
 
                                        if op is not None), reverse=True):
1065
 
            # Preserve unaltered children of file_id for later reinsertion.
1066
 
            file_id_children = getattr(self[file_id], 'children', {})
1067
 
            if len(file_id_children):
1068
 
                children[file_id] = file_id_children
1069
 
            if self.id2path(file_id) != old_path:
1070
 
                raise errors.InconsistentDelta(old_path, file_id,
1071
 
                    "Entry was at wrong other path %r." % self.id2path(file_id))
1072
 
            # Remove file_id and the unaltered children. If file_id is not
1073
 
            # being deleted it will be reinserted back later.
1074
 
            self.remove_recursive_id(file_id)
1075
 
        # Insert all affected which should be in the new inventory, reattaching
1076
 
        # their children if they had any. This is done from shortest path to
1077
 
        # longest, ensuring that items which were modified and whose parents in
1078
 
        # the resulting inventory were also modified, are inserted after their
1079
 
        # parents.
1080
 
        for new_path, f, new_entry in sorted((np, f, e) for op, np, f, e in
1081
 
                                          delta if np is not None):
1082
 
            if new_entry.kind == 'directory':
1083
 
                # Pop the child which to allow detection of children whose
1084
 
                # parents were deleted and which were not reattached to a new
1085
 
                # parent.
1086
 
                replacement = InventoryDirectory(new_entry.file_id,
1087
 
                    new_entry.name, new_entry.parent_id)
1088
 
                replacement.revision = new_entry.revision
1089
 
                replacement.children = children.pop(replacement.file_id, {})
1090
 
                new_entry = replacement
1091
 
            try:
1092
 
                self.add(new_entry)
1093
 
            except errors.DuplicateFileId:
1094
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1095
 
                    "New id is already present in target.")
1096
 
            except AttributeError:
1097
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1098
 
                    "Parent is not a directory.")
1099
 
            if self.id2path(new_entry.file_id) != new_path:
1100
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1101
 
                    "New path is not consistent with parent path.")
1102
 
        if len(children):
1103
 
            # Get the parent id that was deleted
1104
 
            parent_id, children = children.popitem()
1105
 
            raise errors.InconsistentDelta("<deleted>", parent_id,
1106
 
                "The file id was deleted but its children were not deleted.")
1107
 
 
1108
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1109
 
                              propagate_caches=False):
1110
 
        """See CHKInventory.create_by_apply_delta()"""
1111
 
        new_inv = self.copy()
1112
 
        new_inv.apply_delta(inventory_delta)
1113
 
        new_inv.revision_id = new_revision_id
1114
 
        return new_inv
1115
 
 
1116
 
    def _set_root(self, ie):
1117
 
        self.root = ie
1118
 
        self._byid = {self.root.file_id: self.root}
1119
 
 
1120
 
    def copy(self):
1121
 
        # TODO: jam 20051218 Should copy also copy the revision_id?
1122
 
        entries = self.iter_entries()
1123
 
        if self.root is None:
1124
 
            return Inventory(root_id=None)
1125
 
        other = Inventory(entries.next()[1].file_id)
1126
 
        other.root.revision = self.root.revision
1127
 
        # copy recursively so we know directories will be added before
1128
 
        # their children.  There are more efficient ways than this...
1129
 
        for path, entry in entries:
1130
 
            other.add(entry.copy())
1131
 
        return other
1132
 
 
1133
 
    def __iter__(self):
1134
 
        """Iterate over all file-ids."""
1135
 
        return iter(self._byid)
1136
 
 
1137
 
    def iter_just_entries(self):
1138
 
        """Iterate over all entries.
1139
1083
        
1140
 
        Unlike iter_entries(), just the entries are returned (not (path, ie))
1141
 
        and the order of entries is undefined.
 
1084
    def __contains__(self, file_id):
 
1085
        """True if this entry contains a file with given id.
1142
1086
 
1143
 
        XXX: We may not want to merge this into bzr.dev.
 
1087
        >>> inv = Inventory()
 
1088
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
 
1089
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
1090
        >>> '123' in inv
 
1091
        True
 
1092
        >>> '456' in inv
 
1093
        False
1144
1094
        """
1145
 
        if self.root is None:
1146
 
            return
1147
 
        for _, ie in self._byid.iteritems():
1148
 
            yield ie
1149
 
 
1150
 
    def __len__(self):
1151
 
        """Returns number of entries."""
1152
 
        return len(self._byid)
 
1095
        file_id = osutils.safe_file_id(file_id)
 
1096
        return (file_id in self._byid)
1153
1097
 
1154
1098
    def __getitem__(self, file_id):
1155
1099
        """Return the entry for given file_id.
1156
1100
 
1157
1101
        >>> inv = Inventory()
1158
1102
        >>> inv.add(InventoryFile('123123', 'hello.c', ROOT_ID))
1159
 
        InventoryFile('123123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1103
        InventoryFile('123123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None)
1160
1104
        >>> inv['123123'].name
1161
1105
        'hello.c'
1162
1106
        """
 
1107
        file_id = osutils.safe_file_id(file_id)
1163
1108
        try:
1164
1109
            return self._byid[file_id]
1165
1110
        except KeyError:
1167
1112
            raise errors.NoSuchId(self, file_id)
1168
1113
 
1169
1114
    def get_file_kind(self, file_id):
 
1115
        file_id = osutils.safe_file_id(file_id)
1170
1116
        return self._byid[file_id].kind
1171
1117
 
1172
1118
    def get_child(self, parent_id, filename):
 
1119
        parent_id = osutils.safe_file_id(parent_id)
1173
1120
        return self[parent_id].children.get(filename)
1174
1121
 
1175
1122
    def _add_child(self, entry):
1176
1123
        """Add an entry to the inventory, without adding it to its parent"""
1177
1124
        if entry.file_id in self._byid:
1178
 
            raise errors.BzrError(
1179
 
                "inventory already contains entry with id {%s}" %
1180
 
                entry.file_id)
 
1125
            raise BzrError("inventory already contains entry with id {%s}" %
 
1126
                           entry.file_id)
1181
1127
        self._byid[entry.file_id] = entry
1182
1128
        for child in getattr(entry, 'children', {}).itervalues():
1183
1129
            self._add_child(child)
1186
1132
    def add(self, entry):
1187
1133
        """Add entry to inventory.
1188
1134
 
1189
 
        :return: entry
 
1135
        To add  a file to a branch ready to be committed, use Branch.add,
 
1136
        which calls this.
 
1137
 
 
1138
        Returns the new entry object.
1190
1139
        """
1191
1140
        if entry.file_id in self._byid:
1192
1141
            raise errors.DuplicateFileId(entry.file_id,
1193
1142
                                         self._byid[entry.file_id])
 
1143
 
1194
1144
        if entry.parent_id is None:
 
1145
            assert self.root is None and len(self._byid) == 0
1195
1146
            self.root = entry
1196
1147
        else:
1197
1148
            try:
1198
1149
                parent = self._byid[entry.parent_id]
1199
1150
            except KeyError:
1200
 
                raise errors.InconsistentDelta("<unknown>", entry.parent_id,
1201
 
                    "Parent not in inventory.")
 
1151
                raise BzrError("parent_id {%s} not in inventory" %
 
1152
                               entry.parent_id)
 
1153
 
1202
1154
            if entry.name in parent.children:
1203
 
                raise errors.InconsistentDelta(
1204
 
                    self.id2path(parent.children[entry.name].file_id),
1205
 
                    entry.file_id,
1206
 
                    "Path already versioned")
 
1155
                raise BzrError("%s is already versioned" %
 
1156
                        osutils.pathjoin(self.id2path(parent.file_id),
 
1157
                        entry.name).encode('utf-8'))
1207
1158
            parent.children[entry.name] = entry
1208
1159
        return self._add_child(entry)
1209
1160
 
1213
1164
        The immediate parent must already be versioned.
1214
1165
 
1215
1166
        Returns the new entry object."""
1216
 
 
 
1167
        
1217
1168
        parts = osutils.splitpath(relpath)
1218
1169
 
1219
1170
        if len(parts) == 0:
1220
1171
            if file_id is None:
1221
1172
                file_id = generate_ids.gen_root_id()
 
1173
            else:
 
1174
                file_id = osutils.safe_file_id(file_id)
1222
1175
            self.root = InventoryDirectory(file_id, '', None)
1223
1176
            self._byid = {self.root.file_id: self.root}
1224
1177
            return self.root
1235
1188
 
1236
1189
        >>> inv = Inventory()
1237
1190
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
1238
 
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1239
 
        >>> inv.has_id('123')
 
1191
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
1192
        >>> '123' in inv
1240
1193
        True
1241
1194
        >>> del inv['123']
1242
 
        >>> inv.has_id('123')
 
1195
        >>> '123' in inv
1243
1196
        False
1244
1197
        """
 
1198
        file_id = osutils.safe_file_id(file_id)
1245
1199
        ie = self[file_id]
 
1200
 
 
1201
        assert ie.parent_id is None or \
 
1202
            self[ie.parent_id].children[ie.name] == ie
 
1203
        
1246
1204
        del self._byid[file_id]
1247
1205
        if ie.parent_id is not None:
1248
1206
            del self[ie.parent_id].children[ie.name]
1255
1213
        >>> i1 == i2
1256
1214
        True
1257
1215
        >>> i1.add(InventoryFile('123', 'foo', ROOT_ID))
1258
 
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1216
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None)
1259
1217
        >>> i1 == i2
1260
1218
        False
1261
1219
        >>> i2.add(InventoryFile('123', 'foo', ROOT_ID))
1262
 
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1220
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None)
1263
1221
        >>> i1 == i2
1264
1222
        True
1265
1223
        """
1276
1234
 
1277
1235
    def _iter_file_id_parents(self, file_id):
1278
1236
        """Yield the parents of file_id up to the root."""
 
1237
        file_id = osutils.safe_file_id(file_id)
1279
1238
        while file_id is not None:
1280
1239
            try:
1281
1240
                ie = self._byid[file_id]
1284
1243
            yield ie
1285
1244
            file_id = ie.parent_id
1286
1245
 
 
1246
    def get_idpath(self, file_id):
 
1247
        """Return a list of file_ids for the path to an entry.
 
1248
 
 
1249
        The list contains one element for each directory followed by
 
1250
        the id of the file itself.  So the length of the returned list
 
1251
        is equal to the depth of the file in the tree, counting the
 
1252
        root directory as depth 1.
 
1253
        """
 
1254
        file_id = osutils.safe_file_id(file_id)
 
1255
        p = []
 
1256
        for parent in self._iter_file_id_parents(file_id):
 
1257
            p.insert(0, parent.file_id)
 
1258
        return p
 
1259
 
 
1260
    def id2path(self, file_id):
 
1261
        """Return as a string the path to file_id.
 
1262
        
 
1263
        >>> i = Inventory()
 
1264
        >>> e = i.add(InventoryDirectory('src-id', 'src', ROOT_ID))
 
1265
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
 
1266
        >>> print i.id2path('foo-id')
 
1267
        src/foo.c
 
1268
        """
 
1269
        file_id = osutils.safe_file_id(file_id)
 
1270
        # get all names, skipping root
 
1271
        return '/'.join(reversed(
 
1272
            [parent.name for parent in 
 
1273
             self._iter_file_id_parents(file_id)][:-1]))
 
1274
            
 
1275
    def path2id(self, name):
 
1276
        """Walk down through directories to return entry of last component.
 
1277
 
 
1278
        names may be either a list of path components, or a single
 
1279
        string, in which case it is automatically split.
 
1280
 
 
1281
        This returns the entry of the last component in the path,
 
1282
        which may be either a file or a directory.
 
1283
 
 
1284
        Returns None IFF the path is not found.
 
1285
        """
 
1286
        if isinstance(name, basestring):
 
1287
            name = osutils.splitpath(name)
 
1288
 
 
1289
        # mutter("lookup path %r" % name)
 
1290
 
 
1291
        parent = self.root
 
1292
        if parent is None:
 
1293
            return None
 
1294
        for f in name:
 
1295
            try:
 
1296
                children = getattr(parent, 'children', None)
 
1297
                if children is None:
 
1298
                    return None
 
1299
                cie = children[f]
 
1300
                assert cie.name == f
 
1301
                assert cie.parent_id == parent.file_id
 
1302
                parent = cie
 
1303
            except KeyError:
 
1304
                # or raise an error?
 
1305
                return None
 
1306
 
 
1307
        return parent.file_id
 
1308
 
 
1309
    def has_filename(self, names):
 
1310
        return bool(self.path2id(names))
 
1311
 
1287
1312
    def has_id(self, file_id):
 
1313
        file_id = osutils.safe_file_id(file_id)
1288
1314
        return (file_id in self._byid)
1289
1315
 
1290
 
    def _make_delta(self, old):
1291
 
        """Make an inventory delta from two inventories."""
1292
 
        old_getter = getattr(old, '_byid', old)
1293
 
        new_getter = self._byid
1294
 
        old_ids = set(old_getter)
1295
 
        new_ids = set(new_getter)
1296
 
        adds = new_ids - old_ids
1297
 
        deletes = old_ids - new_ids
1298
 
        if not adds and not deletes:
1299
 
            common = new_ids
1300
 
        else:
1301
 
            common = old_ids.intersection(new_ids)
1302
 
        delta = []
1303
 
        for file_id in deletes:
1304
 
            delta.append((old.id2path(file_id), None, file_id, None))
1305
 
        for file_id in adds:
1306
 
            delta.append((None, self.id2path(file_id), file_id, self[file_id]))
1307
 
        for file_id in common:
1308
 
            new_ie = new_getter[file_id]
1309
 
            old_ie = old_getter[file_id]
1310
 
            # If xml_serializer returns the cached InventoryEntries (rather
1311
 
            # than always doing .copy()), inlining the 'is' check saves 2.7M
1312
 
            # calls to __eq__.  Under lsprof this saves 20s => 6s.
1313
 
            # It is a minor improvement without lsprof.
1314
 
            if old_ie is new_ie or old_ie == new_ie:
1315
 
                continue
1316
 
            else:
1317
 
                delta.append((old.id2path(file_id), self.id2path(file_id),
1318
 
                              file_id, new_ie))
1319
 
        return delta
1320
 
 
1321
1316
    def remove_recursive_id(self, file_id):
1322
1317
        """Remove file_id, and children, from the inventory.
1323
 
 
 
1318
        
1324
1319
        :param file_id: A file_id to remove.
1325
1320
        """
 
1321
        file_id = osutils.safe_file_id(file_id)
1326
1322
        to_find_delete = [self._byid[file_id]]
1327
1323
        to_delete = []
1328
1324
        while to_find_delete:
1345
1341
 
1346
1342
        This does not move the working file.
1347
1343
        """
1348
 
        new_name = ensure_normalized_name(new_name)
 
1344
        file_id = osutils.safe_file_id(file_id)
1349
1345
        if not is_valid_name(new_name):
1350
 
            raise errors.BzrError("not an acceptable filename: %r" % new_name)
 
1346
            raise BzrError("not an acceptable filename: %r" % new_name)
1351
1347
 
1352
1348
        new_parent = self._byid[new_parent_id]
1353
1349
        if new_name in new_parent.children:
1354
 
            raise errors.BzrError("%r already exists in %r" %
1355
 
                (new_name, self.id2path(new_parent_id)))
 
1350
            raise BzrError("%r already exists in %r" % (new_name, self.id2path(new_parent_id)))
1356
1351
 
1357
1352
        new_parent_idpath = self.get_idpath(new_parent_id)
1358
1353
        if file_id in new_parent_idpath:
1359
 
            raise errors.BzrError(
1360
 
                "cannot move directory %r into a subdirectory of itself, %r"
 
1354
            raise BzrError("cannot move directory %r into a subdirectory of itself, %r"
1361
1355
                    % (self.id2path(file_id), self.id2path(new_parent_id)))
1362
1356
 
1363
1357
        file_ie = self._byid[file_id]
1367
1361
 
1368
1362
        del old_parent.children[file_ie.name]
1369
1363
        new_parent.children[new_name] = file_ie
1370
 
 
 
1364
        
1371
1365
        file_ie.name = new_name
1372
1366
        file_ie.parent_id = new_parent_id
1373
1367
 
1374
1368
    def is_root(self, file_id):
 
1369
        file_id = osutils.safe_file_id(file_id)
1375
1370
        return self.root is not None and file_id == self.root.file_id
1376
1371
 
1377
1372
 
1378
 
class CHKInventory(CommonInventory):
1379
 
    """An inventory persisted in a CHK store.
1380
 
 
1381
 
    By design, a CHKInventory is immutable so many of the methods
1382
 
    supported by Inventory - add, rename, apply_delta, etc - are *not*
1383
 
    supported. To create a new CHKInventory, use create_by_apply_delta()
1384
 
    or from_inventory(), say.
1385
 
 
1386
 
    Internally, a CHKInventory has one or two CHKMaps:
1387
 
 
1388
 
    * id_to_entry - a map from (file_id,) => InventoryEntry as bytes
1389
 
    * parent_id_basename_to_file_id - a map from (parent_id, basename_utf8)
1390
 
        => file_id as bytes
1391
 
 
1392
 
    The second map is optional and not present in early CHkRepository's.
1393
 
 
1394
 
    No caching is performed: every method call or item access will perform
1395
 
    requests to the storage layer. As such, keep references to objects you
1396
 
    want to reuse.
1397
 
    """
1398
 
 
1399
 
    def __init__(self, search_key_name):
1400
 
        CommonInventory.__init__(self)
1401
 
        self._fileid_to_entry_cache = {}
1402
 
        self._fully_cached = False
1403
 
        self._path_to_fileid_cache = {}
1404
 
        self._search_key_name = search_key_name
1405
 
        self.root_id = None
1406
 
 
1407
 
    def __eq__(self, other):
1408
 
        """Compare two sets by comparing their contents."""
1409
 
        if not isinstance(other, CHKInventory):
1410
 
            return NotImplemented
1411
 
 
1412
 
        this_key = self.id_to_entry.key()
1413
 
        other_key = other.id_to_entry.key()
1414
 
        this_pid_key = self.parent_id_basename_to_file_id.key()
1415
 
        other_pid_key = other.parent_id_basename_to_file_id.key()
1416
 
        if None in (this_key, this_pid_key, other_key, other_pid_key):
1417
 
            return False
1418
 
        return this_key == other_key and this_pid_key == other_pid_key
1419
 
 
1420
 
    def _entry_to_bytes(self, entry):
1421
 
        """Serialise entry as a single bytestring.
1422
 
 
1423
 
        :param Entry: An inventory entry.
1424
 
        :return: A bytestring for the entry.
1425
 
 
1426
 
        The BNF:
1427
 
        ENTRY ::= FILE | DIR | SYMLINK | TREE
1428
 
        FILE ::= "file: " COMMON SEP SHA SEP SIZE SEP EXECUTABLE
1429
 
        DIR ::= "dir: " COMMON
1430
 
        SYMLINK ::= "symlink: " COMMON SEP TARGET_UTF8
1431
 
        TREE ::= "tree: " COMMON REFERENCE_REVISION
1432
 
        COMMON ::= FILE_ID SEP PARENT_ID SEP NAME_UTF8 SEP REVISION
1433
 
        SEP ::= "\n"
1434
 
        """
1435
 
        if entry.parent_id is not None:
1436
 
            parent_str = entry.parent_id
1437
 
        else:
1438
 
            parent_str = ''
1439
 
        name_str = entry.name.encode("utf8")
1440
 
        if entry.kind == 'file':
1441
 
            if entry.executable:
1442
 
                exec_str = "Y"
1443
 
            else:
1444
 
                exec_str = "N"
1445
 
            return "file: %s\n%s\n%s\n%s\n%s\n%d\n%s" % (
1446
 
                entry.file_id, parent_str, name_str, entry.revision,
1447
 
                entry.text_sha1, entry.text_size, exec_str)
1448
 
        elif entry.kind == 'directory':
1449
 
            return "dir: %s\n%s\n%s\n%s" % (
1450
 
                entry.file_id, parent_str, name_str, entry.revision)
1451
 
        elif entry.kind == 'symlink':
1452
 
            return "symlink: %s\n%s\n%s\n%s\n%s" % (
1453
 
                entry.file_id, parent_str, name_str, entry.revision,
1454
 
                entry.symlink_target.encode("utf8"))
1455
 
        elif entry.kind == 'tree-reference':
1456
 
            return "tree: %s\n%s\n%s\n%s\n%s" % (
1457
 
                entry.file_id, parent_str, name_str, entry.revision,
1458
 
                entry.reference_revision)
1459
 
        else:
1460
 
            raise ValueError("unknown kind %r" % entry.kind)
1461
 
 
1462
 
    def _expand_fileids_to_parents_and_children(self, file_ids):
1463
 
        """Give a more wholistic view starting with the given file_ids.
1464
 
 
1465
 
        For any file_id which maps to a directory, we will include all children
1466
 
        of that directory. We will also include all directories which are
1467
 
        parents of the given file_ids, but we will not include their children.
1468
 
 
1469
 
        eg:
1470
 
          /     # TREE_ROOT
1471
 
          foo/  # foo-id
1472
 
            baz # baz-id
1473
 
            frob/ # frob-id
1474
 
              fringle # fringle-id
1475
 
          bar/  # bar-id
1476
 
            bing # bing-id
1477
 
 
1478
 
        if given [foo-id] we will include
1479
 
            TREE_ROOT as interesting parents
1480
 
        and 
1481
 
            foo-id, baz-id, frob-id, fringle-id
1482
 
        As interesting ids.
1483
 
        """
1484
 
        interesting = set()
1485
 
        # TODO: Pre-pass over the list of fileids to see if anything is already
1486
 
        #       deserialized in self._fileid_to_entry_cache
1487
 
 
1488
 
        directories_to_expand = set()
1489
 
        children_of_parent_id = {}
1490
 
        # It is okay if some of the fileids are missing
1491
 
        for entry in self._getitems(file_ids):
1492
 
            if entry.kind == 'directory':
1493
 
                directories_to_expand.add(entry.file_id)
1494
 
            interesting.add(entry.parent_id)
1495
 
            children_of_parent_id.setdefault(entry.parent_id, set()
1496
 
                                             ).add(entry.file_id)
1497
 
 
1498
 
        # Now, interesting has all of the direct parents, but not the
1499
 
        # parents of those parents. It also may have some duplicates with
1500
 
        # specific_fileids
1501
 
        remaining_parents = interesting.difference(file_ids)
1502
 
        # When we hit the TREE_ROOT, we'll get an interesting parent of None,
1503
 
        # but we don't actually want to recurse into that
1504
 
        interesting.add(None) # this will auto-filter it in the loop
1505
 
        remaining_parents.discard(None) 
1506
 
        while remaining_parents:
1507
 
            next_parents = set()
1508
 
            for entry in self._getitems(remaining_parents):
1509
 
                next_parents.add(entry.parent_id)
1510
 
                children_of_parent_id.setdefault(entry.parent_id, set()
1511
 
                                                 ).add(entry.file_id)
1512
 
            # Remove any search tips we've already processed
1513
 
            remaining_parents = next_parents.difference(interesting)
1514
 
            interesting.update(remaining_parents)
1515
 
            # We should probably also .difference(directories_to_expand)
1516
 
        interesting.update(file_ids)
1517
 
        interesting.discard(None)
1518
 
        while directories_to_expand:
1519
 
            # Expand directories by looking in the
1520
 
            # parent_id_basename_to_file_id map
1521
 
            keys = [StaticTuple(f,).intern() for f in directories_to_expand]
1522
 
            directories_to_expand = set()
1523
 
            items = self.parent_id_basename_to_file_id.iteritems(keys)
1524
 
            next_file_ids = set([item[1] for item in items])
1525
 
            next_file_ids = next_file_ids.difference(interesting)
1526
 
            interesting.update(next_file_ids)
1527
 
            for entry in self._getitems(next_file_ids):
1528
 
                if entry.kind == 'directory':
1529
 
                    directories_to_expand.add(entry.file_id)
1530
 
                children_of_parent_id.setdefault(entry.parent_id, set()
1531
 
                                                 ).add(entry.file_id)
1532
 
        return interesting, children_of_parent_id
1533
 
 
1534
 
    def filter(self, specific_fileids):
1535
 
        """Get an inventory view filtered against a set of file-ids.
1536
 
 
1537
 
        Children of directories and parents are included.
1538
 
 
1539
 
        The result may or may not reference the underlying inventory
1540
 
        so it should be treated as immutable.
1541
 
        """
1542
 
        (interesting,
1543
 
         parent_to_children) = self._expand_fileids_to_parents_and_children(
1544
 
                                specific_fileids)
1545
 
        # There is some overlap here, but we assume that all interesting items
1546
 
        # are in the _fileid_to_entry_cache because we had to read them to
1547
 
        # determine if they were a dir we wanted to recurse, or just a file
1548
 
        # This should give us all the entries we'll want to add, so start
1549
 
        # adding
1550
 
        other = Inventory(self.root_id)
1551
 
        other.root.revision = self.root.revision
1552
 
        other.revision_id = self.revision_id
1553
 
        if not interesting or not parent_to_children:
1554
 
            # empty filter, or filtering entrys that don't exist
1555
 
            # (if even 1 existed, then we would have populated
1556
 
            # parent_to_children with at least the tree root.)
1557
 
            return other
1558
 
        cache = self._fileid_to_entry_cache
1559
 
        remaining_children = collections.deque(parent_to_children[self.root_id])
1560
 
        while remaining_children:
1561
 
            file_id = remaining_children.popleft()
1562
 
            ie = cache[file_id]
1563
 
            if ie.kind == 'directory':
1564
 
                ie = ie.copy() # We create a copy to depopulate the .children attribute
1565
 
            # TODO: depending on the uses of 'other' we should probably alwyas
1566
 
            #       '.copy()' to prevent someone from mutating other and
1567
 
            #       invaliding our internal cache
1568
 
            other.add(ie)
1569
 
            if file_id in parent_to_children:
1570
 
                remaining_children.extend(parent_to_children[file_id])
1571
 
        return other
1572
 
 
1573
 
    @staticmethod
1574
 
    def _bytes_to_utf8name_key(bytes):
1575
 
        """Get the file_id, revision_id key out of bytes."""
1576
 
        # We don't normally care about name, except for times when we want
1577
 
        # to filter out empty names because of non rich-root...
1578
 
        sections = bytes.split('\n')
1579
 
        kind, file_id = sections[0].split(': ')
1580
 
        return (sections[2], intern(file_id), intern(sections[3]))
1581
 
 
1582
 
    def _bytes_to_entry(self, bytes):
1583
 
        """Deserialise a serialised entry."""
1584
 
        sections = bytes.split('\n')
1585
 
        if sections[0].startswith("file: "):
1586
 
            result = InventoryFile(sections[0][6:],
1587
 
                sections[2].decode('utf8'),
1588
 
                sections[1])
1589
 
            result.text_sha1 = sections[4]
1590
 
            result.text_size = int(sections[5])
1591
 
            result.executable = sections[6] == "Y"
1592
 
        elif sections[0].startswith("dir: "):
1593
 
            result = CHKInventoryDirectory(sections[0][5:],
1594
 
                sections[2].decode('utf8'),
1595
 
                sections[1], self)
1596
 
        elif sections[0].startswith("symlink: "):
1597
 
            result = InventoryLink(sections[0][9:],
1598
 
                sections[2].decode('utf8'),
1599
 
                sections[1])
1600
 
            result.symlink_target = sections[4].decode('utf8')
1601
 
        elif sections[0].startswith("tree: "):
1602
 
            result = TreeReference(sections[0][6:],
1603
 
                sections[2].decode('utf8'),
1604
 
                sections[1])
1605
 
            result.reference_revision = sections[4]
1606
 
        else:
1607
 
            raise ValueError("Not a serialised entry %r" % bytes)
1608
 
        result.file_id = intern(result.file_id)
1609
 
        result.revision = intern(sections[3])
1610
 
        if result.parent_id == '':
1611
 
            result.parent_id = None
1612
 
        self._fileid_to_entry_cache[result.file_id] = result
1613
 
        return result
1614
 
 
1615
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1616
 
        propagate_caches=False):
1617
 
        """Create a new CHKInventory by applying inventory_delta to this one.
1618
 
 
1619
 
        See the inventory developers documentation for the theory behind
1620
 
        inventory deltas.
1621
 
 
1622
 
        :param inventory_delta: The inventory delta to apply. See
1623
 
            Inventory.apply_delta for details.
1624
 
        :param new_revision_id: The revision id of the resulting CHKInventory.
1625
 
        :param propagate_caches: If True, the caches for this inventory are
1626
 
          copied to and updated for the result.
1627
 
        :return: The new CHKInventory.
1628
 
        """
1629
 
        split = osutils.split
1630
 
        result = CHKInventory(self._search_key_name)
1631
 
        if propagate_caches:
1632
 
            # Just propagate the path-to-fileid cache for now
1633
 
            result._path_to_fileid_cache = dict(self._path_to_fileid_cache.iteritems())
1634
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1635
 
        self.id_to_entry._ensure_root()
1636
 
        maximum_size = self.id_to_entry._root_node.maximum_size
1637
 
        result.revision_id = new_revision_id
1638
 
        result.id_to_entry = chk_map.CHKMap(
1639
 
            self.id_to_entry._store,
1640
 
            self.id_to_entry.key(),
1641
 
            search_key_func=search_key_func)
1642
 
        result.id_to_entry._ensure_root()
1643
 
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
1644
 
        # Change to apply to the parent_id_basename delta. The dict maps
1645
 
        # (parent_id, basename) -> (old_key, new_value). We use a dict because
1646
 
        # when a path has its id replaced (e.g. the root is changed, or someone
1647
 
        # does bzr mv a b, bzr mv c a, we should output a single change to this
1648
 
        # map rather than two.
1649
 
        parent_id_basename_delta = {}
1650
 
        if self.parent_id_basename_to_file_id is not None:
1651
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1652
 
                self.parent_id_basename_to_file_id._store,
1653
 
                self.parent_id_basename_to_file_id.key(),
1654
 
                search_key_func=search_key_func)
1655
 
            result.parent_id_basename_to_file_id._ensure_root()
1656
 
            self.parent_id_basename_to_file_id._ensure_root()
1657
 
            result_p_id_root = result.parent_id_basename_to_file_id._root_node
1658
 
            p_id_root = self.parent_id_basename_to_file_id._root_node
1659
 
            result_p_id_root.set_maximum_size(p_id_root.maximum_size)
1660
 
            result_p_id_root._key_width = p_id_root._key_width
1661
 
        else:
1662
 
            result.parent_id_basename_to_file_id = None
1663
 
        result.root_id = self.root_id
1664
 
        id_to_entry_delta = []
1665
 
        # inventory_delta is only traversed once, so we just update the
1666
 
        # variable.
1667
 
        # Check for repeated file ids
1668
 
        inventory_delta = _check_delta_unique_ids(inventory_delta)
1669
 
        # Repeated old paths
1670
 
        inventory_delta = _check_delta_unique_old_paths(inventory_delta)
1671
 
        # Check for repeated new paths
1672
 
        inventory_delta = _check_delta_unique_new_paths(inventory_delta)
1673
 
        # Check for entries that don't match the fileid
1674
 
        inventory_delta = _check_delta_ids_match_entry(inventory_delta)
1675
 
        # Check for nonsense fileids
1676
 
        inventory_delta = _check_delta_ids_are_valid(inventory_delta)
1677
 
        # Check for new_path <-> entry consistency
1678
 
        inventory_delta = _check_delta_new_path_entry_both_or_None(
1679
 
            inventory_delta)
1680
 
        # All changed entries need to have their parents be directories and be
1681
 
        # at the right path. This set contains (path, id) tuples.
1682
 
        parents = set()
1683
 
        # When we delete an item, all the children of it must be either deleted
1684
 
        # or altered in their own right. As we batch process the change via
1685
 
        # CHKMap.apply_delta, we build a set of things to use to validate the
1686
 
        # delta.
1687
 
        deletes = set()
1688
 
        altered = set()
1689
 
        for old_path, new_path, file_id, entry in inventory_delta:
1690
 
            # file id changes
1691
 
            if new_path == '':
1692
 
                result.root_id = file_id
1693
 
            if new_path is None:
1694
 
                # Make a delete:
1695
 
                new_key = None
1696
 
                new_value = None
1697
 
                # Update caches
1698
 
                if propagate_caches:
1699
 
                    try:
1700
 
                        del result._path_to_fileid_cache[old_path]
1701
 
                    except KeyError:
1702
 
                        pass
1703
 
                deletes.add(file_id)
1704
 
            else:
1705
 
                new_key = StaticTuple(file_id,)
1706
 
                new_value = result._entry_to_bytes(entry)
1707
 
                # Update caches. It's worth doing this whether
1708
 
                # we're propagating the old caches or not.
1709
 
                result._path_to_fileid_cache[new_path] = file_id
1710
 
                parents.add((split(new_path)[0], entry.parent_id))
1711
 
            if old_path is None:
1712
 
                old_key = None
1713
 
            else:
1714
 
                old_key = StaticTuple(file_id,)
1715
 
                if self.id2path(file_id) != old_path:
1716
 
                    raise errors.InconsistentDelta(old_path, file_id,
1717
 
                        "Entry was at wrong other path %r." %
1718
 
                        self.id2path(file_id))
1719
 
                altered.add(file_id)
1720
 
            id_to_entry_delta.append(StaticTuple(old_key, new_key, new_value))
1721
 
            if result.parent_id_basename_to_file_id is not None:
1722
 
                # parent_id, basename changes
1723
 
                if old_path is None:
1724
 
                    old_key = None
1725
 
                else:
1726
 
                    old_entry = self[file_id]
1727
 
                    old_key = self._parent_id_basename_key(old_entry)
1728
 
                if new_path is None:
1729
 
                    new_key = None
1730
 
                    new_value = None
1731
 
                else:
1732
 
                    new_key = self._parent_id_basename_key(entry)
1733
 
                    new_value = file_id
1734
 
                # If the two keys are the same, the value will be unchanged
1735
 
                # as its always the file id for this entry.
1736
 
                if old_key != new_key:
1737
 
                    # Transform a change into explicit delete/add preserving
1738
 
                    # a possible match on the key from a different file id.
1739
 
                    if old_key is not None:
1740
 
                        parent_id_basename_delta.setdefault(
1741
 
                            old_key, [None, None])[0] = old_key
1742
 
                    if new_key is not None:
1743
 
                        parent_id_basename_delta.setdefault(
1744
 
                            new_key, [None, None])[1] = new_value
1745
 
        # validate that deletes are complete.
1746
 
        for file_id in deletes:
1747
 
            entry = self[file_id]
1748
 
            if entry.kind != 'directory':
1749
 
                continue
1750
 
            # This loop could potentially be better by using the id_basename
1751
 
            # map to just get the child file ids.
1752
 
            for child in entry.children.values():
1753
 
                if child.file_id not in altered:
1754
 
                    raise errors.InconsistentDelta(self.id2path(child.file_id),
1755
 
                        child.file_id, "Child not deleted or reparented when "
1756
 
                        "parent deleted.")
1757
 
        result.id_to_entry.apply_delta(id_to_entry_delta)
1758
 
        if parent_id_basename_delta:
1759
 
            # Transform the parent_id_basename delta data into a linear delta
1760
 
            # with only one record for a given key. Optimally this would allow
1761
 
            # re-keying, but its simpler to just output that as a delete+add
1762
 
            # to spend less time calculating the delta.
1763
 
            delta_list = []
1764
 
            for key, (old_key, value) in parent_id_basename_delta.iteritems():
1765
 
                if value is not None:
1766
 
                    delta_list.append((old_key, key, value))
1767
 
                else:
1768
 
                    delta_list.append((old_key, None, None))
1769
 
            result.parent_id_basename_to_file_id.apply_delta(delta_list)
1770
 
        parents.discard(('', None))
1771
 
        for parent_path, parent in parents:
1772
 
            try:
1773
 
                if result[parent].kind != 'directory':
1774
 
                    raise errors.InconsistentDelta(result.id2path(parent), parent,
1775
 
                        'Not a directory, but given children')
1776
 
            except errors.NoSuchId:
1777
 
                raise errors.InconsistentDelta("<unknown>", parent,
1778
 
                    "Parent is not present in resulting inventory.")
1779
 
            if result.path2id(parent_path) != parent:
1780
 
                raise errors.InconsistentDelta(parent_path, parent,
1781
 
                    "Parent has wrong path %r." % result.path2id(parent_path))
1782
 
        return result
1783
 
 
1784
 
    @classmethod
1785
 
    def deserialise(klass, chk_store, bytes, expected_revision_id):
1786
 
        """Deserialise a CHKInventory.
1787
 
 
1788
 
        :param chk_store: A CHK capable VersionedFiles instance.
1789
 
        :param bytes: The serialised bytes.
1790
 
        :param expected_revision_id: The revision ID we think this inventory is
1791
 
            for.
1792
 
        :return: A CHKInventory
1793
 
        """
1794
 
        lines = bytes.split('\n')
1795
 
        if lines[-1] != '':
1796
 
            raise AssertionError('bytes to deserialize must end with an eol')
1797
 
        lines.pop()
1798
 
        if lines[0] != 'chkinventory:':
1799
 
            raise ValueError("not a serialised CHKInventory: %r" % bytes)
1800
 
        info = {}
1801
 
        allowed_keys = frozenset(['root_id', 'revision_id', 'search_key_name',
1802
 
                                  'parent_id_basename_to_file_id',
1803
 
                                  'id_to_entry'])
1804
 
        for line in lines[1:]:
1805
 
            key, value = line.split(': ', 1)
1806
 
            if key not in allowed_keys:
1807
 
                raise errors.BzrError('Unknown key in inventory: %r\n%r'
1808
 
                                      % (key, bytes))
1809
 
            if key in info:
1810
 
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
1811
 
                                      % (key, bytes))
1812
 
            info[key] = value
1813
 
        revision_id = intern(info['revision_id'])
1814
 
        root_id = intern(info['root_id'])
1815
 
        search_key_name = intern(info.get('search_key_name', 'plain'))
1816
 
        parent_id_basename_to_file_id = intern(info.get(
1817
 
            'parent_id_basename_to_file_id', None))
1818
 
        if not parent_id_basename_to_file_id.startswith('sha1:'):
1819
 
            raise ValueError('parent_id_basename_to_file_id should be a sha1'
1820
 
                             ' key not %r' % (parent_id_basename_to_file_id,))
1821
 
        id_to_entry = info['id_to_entry']
1822
 
        if not id_to_entry.startswith('sha1:'):
1823
 
            raise ValueError('id_to_entry should be a sha1'
1824
 
                             ' key not %r' % (id_to_entry,))
1825
 
 
1826
 
        result = CHKInventory(search_key_name)
1827
 
        result.revision_id = revision_id
1828
 
        result.root_id = root_id
1829
 
        search_key_func = chk_map.search_key_registry.get(
1830
 
                            result._search_key_name)
1831
 
        if parent_id_basename_to_file_id is not None:
1832
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1833
 
                chk_store, StaticTuple(parent_id_basename_to_file_id,),
1834
 
                search_key_func=search_key_func)
1835
 
        else:
1836
 
            result.parent_id_basename_to_file_id = None
1837
 
 
1838
 
        result.id_to_entry = chk_map.CHKMap(chk_store,
1839
 
                                            StaticTuple(id_to_entry,),
1840
 
                                            search_key_func=search_key_func)
1841
 
        if (result.revision_id,) != expected_revision_id:
1842
 
            raise ValueError("Mismatched revision id and expected: %r, %r" %
1843
 
                (result.revision_id, expected_revision_id))
1844
 
        return result
1845
 
 
1846
 
    @classmethod
1847
 
    def from_inventory(klass, chk_store, inventory, maximum_size=0, search_key_name='plain'):
1848
 
        """Create a CHKInventory from an existing inventory.
1849
 
 
1850
 
        The content of inventory is copied into the chk_store, and a
1851
 
        CHKInventory referencing that is returned.
1852
 
 
1853
 
        :param chk_store: A CHK capable VersionedFiles instance.
1854
 
        :param inventory: The inventory to copy.
1855
 
        :param maximum_size: The CHKMap node size limit.
1856
 
        :param search_key_name: The identifier for the search key function
1857
 
        """
1858
 
        result = klass(search_key_name)
1859
 
        result.revision_id = inventory.revision_id
1860
 
        result.root_id = inventory.root.file_id
1861
 
 
1862
 
        entry_to_bytes = result._entry_to_bytes
1863
 
        parent_id_basename_key = result._parent_id_basename_key
1864
 
        id_to_entry_dict = {}
1865
 
        parent_id_basename_dict = {}
1866
 
        for path, entry in inventory.iter_entries():
1867
 
            key = StaticTuple(entry.file_id,).intern()
1868
 
            id_to_entry_dict[key] = entry_to_bytes(entry)
1869
 
            p_id_key = parent_id_basename_key(entry)
1870
 
            parent_id_basename_dict[p_id_key] = entry.file_id
1871
 
 
1872
 
        result._populate_from_dicts(chk_store, id_to_entry_dict,
1873
 
            parent_id_basename_dict, maximum_size=maximum_size)
1874
 
        return result
1875
 
 
1876
 
    def _populate_from_dicts(self, chk_store, id_to_entry_dict,
1877
 
                             parent_id_basename_dict, maximum_size):
1878
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1879
 
        root_key = chk_map.CHKMap.from_dict(chk_store, id_to_entry_dict,
1880
 
                   maximum_size=maximum_size, key_width=1,
1881
 
                   search_key_func=search_key_func)
1882
 
        self.id_to_entry = chk_map.CHKMap(chk_store, root_key,
1883
 
                                          search_key_func)
1884
 
        root_key = chk_map.CHKMap.from_dict(chk_store,
1885
 
                   parent_id_basename_dict,
1886
 
                   maximum_size=maximum_size, key_width=2,
1887
 
                   search_key_func=search_key_func)
1888
 
        self.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
1889
 
                                                    root_key, search_key_func)
1890
 
 
1891
 
    def _parent_id_basename_key(self, entry):
1892
 
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
1893
 
        if entry.parent_id is not None:
1894
 
            parent_id = entry.parent_id
1895
 
        else:
1896
 
            parent_id = ''
1897
 
        return StaticTuple(parent_id, entry.name.encode('utf8')).intern()
1898
 
 
1899
 
    def __getitem__(self, file_id):
1900
 
        """map a single file_id -> InventoryEntry."""
1901
 
        if file_id is None:
1902
 
            raise errors.NoSuchId(self, file_id)
1903
 
        result = self._fileid_to_entry_cache.get(file_id, None)
1904
 
        if result is not None:
1905
 
            return result
1906
 
        try:
1907
 
            return self._bytes_to_entry(
1908
 
                self.id_to_entry.iteritems([StaticTuple(file_id,)]).next()[1])
1909
 
        except StopIteration:
1910
 
            # really we're passing an inventory, not a tree...
1911
 
            raise errors.NoSuchId(self, file_id)
1912
 
 
1913
 
    def _getitems(self, file_ids):
1914
 
        """Similar to __getitem__, but lets you query for multiple.
1915
 
        
1916
 
        The returned order is undefined. And currently if an item doesn't
1917
 
        exist, it isn't included in the output.
1918
 
        """
1919
 
        result = []
1920
 
        remaining = []
1921
 
        for file_id in file_ids:
1922
 
            entry = self._fileid_to_entry_cache.get(file_id, None)
1923
 
            if entry is None:
1924
 
                remaining.append(file_id)
1925
 
            else:
1926
 
                result.append(entry)
1927
 
        file_keys = [StaticTuple(f,).intern() for f in remaining]
1928
 
        for file_key, value in self.id_to_entry.iteritems(file_keys):
1929
 
            entry = self._bytes_to_entry(value)
1930
 
            result.append(entry)
1931
 
            self._fileid_to_entry_cache[entry.file_id] = entry
1932
 
        return result
1933
 
 
1934
 
    def has_id(self, file_id):
1935
 
        # Perhaps have an explicit 'contains' method on CHKMap ?
1936
 
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
1937
 
            return True
1938
 
        return len(list(
1939
 
            self.id_to_entry.iteritems([StaticTuple(file_id,)]))) == 1
1940
 
 
1941
 
    def is_root(self, file_id):
1942
 
        return file_id == self.root_id
1943
 
 
1944
 
    def _iter_file_id_parents(self, file_id):
1945
 
        """Yield the parents of file_id up to the root."""
1946
 
        while file_id is not None:
1947
 
            try:
1948
 
                ie = self[file_id]
1949
 
            except KeyError:
1950
 
                raise errors.NoSuchId(tree=self, file_id=file_id)
1951
 
            yield ie
1952
 
            file_id = ie.parent_id
1953
 
 
1954
 
    def __iter__(self):
1955
 
        """Iterate over all file-ids."""
1956
 
        for key, _ in self.id_to_entry.iteritems():
1957
 
            yield key[-1]
1958
 
 
1959
 
    def iter_just_entries(self):
1960
 
        """Iterate over all entries.
1961
 
 
1962
 
        Unlike iter_entries(), just the entries are returned (not (path, ie))
1963
 
        and the order of entries is undefined.
1964
 
 
1965
 
        XXX: We may not want to merge this into bzr.dev.
1966
 
        """
1967
 
        for key, entry in self.id_to_entry.iteritems():
1968
 
            file_id = key[0]
1969
 
            ie = self._fileid_to_entry_cache.get(file_id, None)
1970
 
            if ie is None:
1971
 
                ie = self._bytes_to_entry(entry)
1972
 
                self._fileid_to_entry_cache[file_id] = ie
1973
 
            yield ie
1974
 
 
1975
 
    def _preload_cache(self):
1976
 
        """Make sure all file-ids are in _fileid_to_entry_cache"""
1977
 
        if self._fully_cached:
1978
 
            return # No need to do it again
1979
 
        # The optimal sort order is to use iteritems() directly
1980
 
        cache = self._fileid_to_entry_cache
1981
 
        for key, entry in self.id_to_entry.iteritems():
1982
 
            file_id = key[0]
1983
 
            if file_id not in cache:
1984
 
                ie = self._bytes_to_entry(entry)
1985
 
                cache[file_id] = ie
1986
 
            else:
1987
 
                ie = cache[file_id]
1988
 
        last_parent_id = last_parent_ie = None
1989
 
        pid_items = self.parent_id_basename_to_file_id.iteritems()
1990
 
        for key, child_file_id in pid_items:
1991
 
            if key == ('', ''): # This is the root
1992
 
                if child_file_id != self.root_id:
1993
 
                    raise ValueError('Data inconsistency detected.'
1994
 
                        ' We expected data with key ("","") to match'
1995
 
                        ' the root id, but %s != %s'
1996
 
                        % (child_file_id, self.root_id))
1997
 
                continue
1998
 
            parent_id, basename = key
1999
 
            ie = cache[child_file_id]
2000
 
            if parent_id == last_parent_id:
2001
 
                parent_ie = last_parent_ie
2002
 
            else:
2003
 
                parent_ie = cache[parent_id]
2004
 
            if parent_ie.kind != 'directory':
2005
 
                raise ValueError('Data inconsistency detected.'
2006
 
                    ' An entry in the parent_id_basename_to_file_id map'
2007
 
                    ' has parent_id {%s} but the kind of that object'
2008
 
                    ' is %r not "directory"' % (parent_id, parent_ie.kind))
2009
 
            if parent_ie._children is None:
2010
 
                parent_ie._children = {}
2011
 
            basename = basename.decode('utf-8')
2012
 
            if basename in parent_ie._children:
2013
 
                existing_ie = parent_ie._children[basename]
2014
 
                if existing_ie != ie:
2015
 
                    raise ValueError('Data inconsistency detected.'
2016
 
                        ' Two entries with basename %r were found'
2017
 
                        ' in the parent entry {%s}'
2018
 
                        % (basename, parent_id))
2019
 
            if basename != ie.name:
2020
 
                raise ValueError('Data inconsistency detected.'
2021
 
                    ' In the parent_id_basename_to_file_id map, file_id'
2022
 
                    ' {%s} is listed as having basename %r, but in the'
2023
 
                    ' id_to_entry map it is %r'
2024
 
                    % (child_file_id, basename, ie.name))
2025
 
            parent_ie._children[basename] = ie
2026
 
        self._fully_cached = True
2027
 
 
2028
 
    def iter_changes(self, basis):
2029
 
        """Generate a Tree.iter_changes change list between this and basis.
2030
 
 
2031
 
        :param basis: Another CHKInventory.
2032
 
        :return: An iterator over the changes between self and basis, as per
2033
 
            tree.iter_changes().
2034
 
        """
2035
 
        # We want: (file_id, (path_in_source, path_in_target),
2036
 
        # changed_content, versioned, parent, name, kind,
2037
 
        # executable)
2038
 
        for key, basis_value, self_value in \
2039
 
            self.id_to_entry.iter_changes(basis.id_to_entry):
2040
 
            file_id = key[0]
2041
 
            if basis_value is not None:
2042
 
                basis_entry = basis._bytes_to_entry(basis_value)
2043
 
                path_in_source = basis.id2path(file_id)
2044
 
                basis_parent = basis_entry.parent_id
2045
 
                basis_name = basis_entry.name
2046
 
                basis_executable = basis_entry.executable
2047
 
            else:
2048
 
                path_in_source = None
2049
 
                basis_parent = None
2050
 
                basis_name = None
2051
 
                basis_executable = None
2052
 
            if self_value is not None:
2053
 
                self_entry = self._bytes_to_entry(self_value)
2054
 
                path_in_target = self.id2path(file_id)
2055
 
                self_parent = self_entry.parent_id
2056
 
                self_name = self_entry.name
2057
 
                self_executable = self_entry.executable
2058
 
            else:
2059
 
                path_in_target = None
2060
 
                self_parent = None
2061
 
                self_name = None
2062
 
                self_executable = None
2063
 
            if basis_value is None:
2064
 
                # add
2065
 
                kind = (None, self_entry.kind)
2066
 
                versioned = (False, True)
2067
 
            elif self_value is None:
2068
 
                # delete
2069
 
                kind = (basis_entry.kind, None)
2070
 
                versioned = (True, False)
2071
 
            else:
2072
 
                kind = (basis_entry.kind, self_entry.kind)
2073
 
                versioned = (True, True)
2074
 
            changed_content = False
2075
 
            if kind[0] != kind[1]:
2076
 
                changed_content = True
2077
 
            elif kind[0] == 'file':
2078
 
                if (self_entry.text_size != basis_entry.text_size or
2079
 
                    self_entry.text_sha1 != basis_entry.text_sha1):
2080
 
                    changed_content = True
2081
 
            elif kind[0] == 'symlink':
2082
 
                if self_entry.symlink_target != basis_entry.symlink_target:
2083
 
                    changed_content = True
2084
 
            elif kind[0] == 'tree-reference':
2085
 
                if (self_entry.reference_revision !=
2086
 
                    basis_entry.reference_revision):
2087
 
                    changed_content = True
2088
 
            parent = (basis_parent, self_parent)
2089
 
            name = (basis_name, self_name)
2090
 
            executable = (basis_executable, self_executable)
2091
 
            if (not changed_content
2092
 
                and parent[0] == parent[1]
2093
 
                and name[0] == name[1]
2094
 
                and executable[0] == executable[1]):
2095
 
                # Could happen when only the revision changed for a directory
2096
 
                # for instance.
2097
 
                continue
2098
 
            yield (file_id, (path_in_source, path_in_target), changed_content,
2099
 
                versioned, parent, name, kind, executable)
2100
 
 
2101
 
    def __len__(self):
2102
 
        """Return the number of entries in the inventory."""
2103
 
        return len(self.id_to_entry)
2104
 
 
2105
 
    def _make_delta(self, old):
2106
 
        """Make an inventory delta from two inventories."""
2107
 
        if type(old) != CHKInventory:
2108
 
            return CommonInventory._make_delta(self, old)
2109
 
        delta = []
2110
 
        for key, old_value, self_value in \
2111
 
            self.id_to_entry.iter_changes(old.id_to_entry):
2112
 
            file_id = key[0]
2113
 
            if old_value is not None:
2114
 
                old_path = old.id2path(file_id)
2115
 
            else:
2116
 
                old_path = None
2117
 
            if self_value is not None:
2118
 
                entry = self._bytes_to_entry(self_value)
2119
 
                self._fileid_to_entry_cache[file_id] = entry
2120
 
                new_path = self.id2path(file_id)
2121
 
            else:
2122
 
                entry = None
2123
 
                new_path = None
2124
 
            delta.append((old_path, new_path, file_id, entry))
2125
 
        return delta
2126
 
 
2127
 
    def path2id(self, relpath):
2128
 
        """See CommonInventory.path2id()."""
2129
 
        # TODO: perhaps support negative hits?
2130
 
        result = self._path_to_fileid_cache.get(relpath, None)
2131
 
        if result is not None:
2132
 
            return result
2133
 
        if isinstance(relpath, basestring):
2134
 
            names = osutils.splitpath(relpath)
2135
 
        else:
2136
 
            names = relpath
2137
 
        current_id = self.root_id
2138
 
        if current_id is None:
2139
 
            return None
2140
 
        parent_id_index = self.parent_id_basename_to_file_id
2141
 
        cur_path = None
2142
 
        for basename in names:
2143
 
            if cur_path is None:
2144
 
                cur_path = basename
2145
 
            else:
2146
 
                cur_path = cur_path + '/' + basename
2147
 
            basename_utf8 = basename.encode('utf8')
2148
 
            file_id = self._path_to_fileid_cache.get(cur_path, None)
2149
 
            if file_id is None:
2150
 
                key_filter = [StaticTuple(current_id, basename_utf8)]
2151
 
                items = parent_id_index.iteritems(key_filter)
2152
 
                for (parent_id, name_utf8), file_id in items:
2153
 
                    if parent_id != current_id or name_utf8 != basename_utf8:
2154
 
                        raise errors.BzrError("corrupt inventory lookup! "
2155
 
                            "%r %r %r %r" % (parent_id, current_id, name_utf8,
2156
 
                            basename_utf8))
2157
 
                if file_id is None:
2158
 
                    return None
2159
 
                else:
2160
 
                    self._path_to_fileid_cache[cur_path] = file_id
2161
 
            current_id = file_id
2162
 
        return current_id
2163
 
 
2164
 
    def to_lines(self):
2165
 
        """Serialise the inventory to lines."""
2166
 
        lines = ["chkinventory:\n"]
2167
 
        if self._search_key_name != 'plain':
2168
 
            # custom ordering grouping things that don't change together
2169
 
            lines.append('search_key_name: %s\n' % (self._search_key_name,))
2170
 
            lines.append("root_id: %s\n" % self.root_id)
2171
 
            lines.append('parent_id_basename_to_file_id: %s\n' %
2172
 
                (self.parent_id_basename_to_file_id.key()[0],))
2173
 
            lines.append("revision_id: %s\n" % self.revision_id)
2174
 
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
2175
 
        else:
2176
 
            lines.append("revision_id: %s\n" % self.revision_id)
2177
 
            lines.append("root_id: %s\n" % self.root_id)
2178
 
            if self.parent_id_basename_to_file_id is not None:
2179
 
                lines.append('parent_id_basename_to_file_id: %s\n' %
2180
 
                    (self.parent_id_basename_to_file_id.key()[0],))
2181
 
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
2182
 
        return lines
2183
 
 
2184
 
    @property
2185
 
    def root(self):
2186
 
        """Get the root entry."""
2187
 
        return self[self.root_id]
2188
 
 
2189
 
 
2190
 
class CHKInventoryDirectory(InventoryDirectory):
2191
 
    """A directory in an inventory."""
2192
 
 
2193
 
    __slots__ = ['_children', '_chk_inventory']
2194
 
 
2195
 
    def __init__(self, file_id, name, parent_id, chk_inventory):
2196
 
        # Don't call InventoryDirectory.__init__ - it isn't right for this
2197
 
        # class.
2198
 
        InventoryEntry.__init__(self, file_id, name, parent_id)
2199
 
        self._children = None
2200
 
        self._chk_inventory = chk_inventory
2201
 
 
2202
 
    @property
2203
 
    def children(self):
2204
 
        """Access the list of children of this directory.
2205
 
 
2206
 
        With a parent_id_basename_to_file_id index, loads all the children,
2207
 
        without loads the entire index. Without is bad. A more sophisticated
2208
 
        proxy object might be nice, to allow partial loading of children as
2209
 
        well when specific names are accessed. (So path traversal can be
2210
 
        written in the obvious way but not examine siblings.).
2211
 
        """
2212
 
        if self._children is not None:
2213
 
            return self._children
2214
 
        # No longer supported
2215
 
        if self._chk_inventory.parent_id_basename_to_file_id is None:
2216
 
            raise AssertionError("Inventories without"
2217
 
                " parent_id_basename_to_file_id are no longer supported")
2218
 
        result = {}
2219
 
        # XXX: Todo - use proxy objects for the children rather than loading
2220
 
        # all when the attribute is referenced.
2221
 
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
2222
 
        child_keys = set()
2223
 
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
2224
 
            key_filter=[StaticTuple(self.file_id,)]):
2225
 
            child_keys.add(StaticTuple(file_id,))
2226
 
        cached = set()
2227
 
        for file_id_key in child_keys:
2228
 
            entry = self._chk_inventory._fileid_to_entry_cache.get(
2229
 
                file_id_key[0], None)
2230
 
            if entry is not None:
2231
 
                result[entry.name] = entry
2232
 
                cached.add(file_id_key)
2233
 
        child_keys.difference_update(cached)
2234
 
        # populate; todo: do by name
2235
 
        id_to_entry = self._chk_inventory.id_to_entry
2236
 
        for file_id_key, bytes in id_to_entry.iteritems(child_keys):
2237
 
            entry = self._chk_inventory._bytes_to_entry(bytes)
2238
 
            result[entry.name] = entry
2239
 
            self._chk_inventory._fileid_to_entry_cache[file_id_key[0]] = entry
2240
 
        self._children = result
2241
 
        return result
2242
 
 
2243
1373
entry_factory = {
2244
1374
    'directory': InventoryDirectory,
2245
1375
    'file': InventoryFile,
2257
1387
    """
2258
1388
    if file_id is None:
2259
1389
        file_id = generate_ids.gen_file_id(name)
2260
 
    name = ensure_normalized_name(name)
2261
 
    try:
2262
 
        factory = entry_factory[kind]
2263
 
    except KeyError:
2264
 
        raise errors.BadFileKindError(name, kind)
2265
 
    return factory(file_id, name, parent_id)
2266
 
 
2267
 
 
2268
 
def ensure_normalized_name(name):
2269
 
    """Normalize name.
2270
 
 
2271
 
    :raises InvalidNormalization: When name is not normalized, and cannot be
2272
 
        accessed on this platform by the normalized path.
2273
 
    :return: The NFC normalised version of name.
2274
 
    """
 
1390
    else:
 
1391
        file_id = osutils.safe_file_id(file_id)
 
1392
 
2275
1393
    #------- This has been copied to bzrlib.dirstate.DirState.add, please
2276
1394
    # keep them synchronised.
2277
1395
    # we dont import normalized_filename directly because we want to be
2279
1397
    norm_name, can_access = osutils.normalized_filename(name)
2280
1398
    if norm_name != name:
2281
1399
        if can_access:
2282
 
            return norm_name
 
1400
            name = norm_name
2283
1401
        else:
2284
1402
            # TODO: jam 20060701 This would probably be more useful
2285
1403
            #       if the error was raised with the full path
2286
1404
            raise errors.InvalidNormalization(name)
2287
 
    return name
2288
 
 
2289
 
 
2290
 
_NAME_RE = lazy_regex.lazy_compile(r'^[^/\\]+$')
 
1405
 
 
1406
    try:
 
1407
        factory = entry_factory[kind]
 
1408
    except KeyError:
 
1409
        raise BzrError("unknown kind %r" % kind)
 
1410
    return factory(file_id, name, parent_id)
 
1411
 
 
1412
 
 
1413
_NAME_RE = None
2291
1414
 
2292
1415
def is_valid_name(name):
 
1416
    global _NAME_RE
 
1417
    if _NAME_RE is None:
 
1418
        _NAME_RE = re.compile(r'^[^/\\]+$')
 
1419
        
2293
1420
    return bool(_NAME_RE.match(name))
2294
 
 
2295
 
 
2296
 
def _check_delta_unique_ids(delta):
2297
 
    """Decorate a delta and check that the file ids in it are unique.
2298
 
 
2299
 
    :return: A generator over delta.
2300
 
    """
2301
 
    ids = set()
2302
 
    for item in delta:
2303
 
        length = len(ids) + 1
2304
 
        ids.add(item[2])
2305
 
        if len(ids) != length:
2306
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2307
 
                "repeated file_id")
2308
 
        yield item
2309
 
 
2310
 
 
2311
 
def _check_delta_unique_new_paths(delta):
2312
 
    """Decorate a delta and check that the new paths in it are unique.
2313
 
 
2314
 
    :return: A generator over delta.
2315
 
    """
2316
 
    paths = set()
2317
 
    for item in delta:
2318
 
        length = len(paths) + 1
2319
 
        path = item[1]
2320
 
        if path is not None:
2321
 
            paths.add(path)
2322
 
            if len(paths) != length:
2323
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2324
 
        yield item
2325
 
 
2326
 
 
2327
 
def _check_delta_unique_old_paths(delta):
2328
 
    """Decorate a delta and check that the old paths in it are unique.
2329
 
 
2330
 
    :return: A generator over delta.
2331
 
    """
2332
 
    paths = set()
2333
 
    for item in delta:
2334
 
        length = len(paths) + 1
2335
 
        path = item[0]
2336
 
        if path is not None:
2337
 
            paths.add(path)
2338
 
            if len(paths) != length:
2339
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2340
 
        yield item
2341
 
 
2342
 
 
2343
 
def _check_delta_ids_are_valid(delta):
2344
 
    """Decorate a delta and check that the ids in it are valid.
2345
 
 
2346
 
    :return: A generator over delta.
2347
 
    """
2348
 
    for item in delta:
2349
 
        entry = item[3]
2350
 
        if item[2] is None:
2351
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2352
 
                "entry with file_id None %r" % entry)
2353
 
        if type(item[2]) != str:
2354
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2355
 
                "entry with non bytes file_id %r" % entry)
2356
 
        yield item
2357
 
 
2358
 
 
2359
 
def _check_delta_ids_match_entry(delta):
2360
 
    """Decorate a delta and check that the ids in it match the entry.file_id.
2361
 
 
2362
 
    :return: A generator over delta.
2363
 
    """
2364
 
    for item in delta:
2365
 
        entry = item[3]
2366
 
        if entry is not None:
2367
 
            if entry.file_id != item[2]:
2368
 
                raise errors.InconsistentDelta(item[0] or item[1], item[2],
2369
 
                    "mismatched id with %r" % entry)
2370
 
        yield item
2371
 
 
2372
 
 
2373
 
def _check_delta_new_path_entry_both_or_None(delta):
2374
 
    """Decorate a delta and check that the new_path and entry are paired.
2375
 
 
2376
 
    :return: A generator over delta.
2377
 
    """
2378
 
    for item in delta:
2379
 
        new_path = item[1]
2380
 
        entry = item[3]
2381
 
        if new_path is None and entry is not None:
2382
 
            raise errors.InconsistentDelta(item[0], item[1],
2383
 
                "Entry with no new_path")
2384
 
        if new_path is not None and entry is None:
2385
 
            raise errors.InconsistentDelta(new_path, item[1],
2386
 
                "new_path with no entry")
2387
 
        yield item
2388
 
 
2389
 
 
2390
 
def mutable_inventory_from_tree(tree):
2391
 
    """Create a new inventory that has the same contents as a specified tree.
2392
 
 
2393
 
    :param tree: Revision tree to create inventory from
2394
 
    """
2395
 
    entries = tree.iter_entries_by_dir()
2396
 
    inv = Inventory(None, tree.get_revision_id())
2397
 
    for path, inv_entry in entries:
2398
 
        inv.add(inv_entry.copy())
2399
 
    return inv