~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/inventory.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2007-08-28 08:23:40 UTC
  • mfrom: (2757.1.1 ianc-integration)
  • Revision ID: pqm@pqm.ubuntu.com-20070828082340-2byilw23kzl3cjx4
(Daniel Watkins) Better explanation of -r in uncommit help

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
# FIXME: This refactoring of the workingtree code doesn't seem to keep
 
17
# FIXME: This refactoring of the workingtree code doesn't seem to keep 
18
18
# the WorkingTree's copy of the inventory in sync with the branch.  The
19
19
# branch modifies its working inventory when it does a commit to make
20
20
# missing files permanently removed.
27
27
# created, but it's not for now.
28
28
ROOT_ID = "TREE_ROOT"
29
29
 
 
30
import os
 
31
import re
 
32
import sys
 
33
 
30
34
from bzrlib.lazy_import import lazy_import
31
35
lazy_import(globals(), """
32
36
import collections
33
 
import copy
34
 
import os
35
 
import re
36
37
import tarfile
37
38
 
38
39
import bzrlib
39
40
from bzrlib import (
40
 
    chk_map,
41
41
    errors,
42
42
    generate_ids,
43
43
    osutils,
44
44
    symbol_versioning,
 
45
    workingtree,
45
46
    )
46
47
""")
47
48
 
49
50
    BzrCheckError,
50
51
    BzrError,
51
52
    )
52
 
from bzrlib.symbol_versioning import deprecated_in, deprecated_method
53
53
from bzrlib.trace import mutter
54
 
from bzrlib.static_tuple import StaticTuple
55
54
 
56
55
 
57
56
class InventoryEntry(object):
69
68
        file_id of the parent directory, or ROOT_ID
70
69
 
71
70
    revision
72
 
        the revision_id in which this variation of this file was
 
71
        the revision_id in which this variation of this file was 
73
72
        introduced.
74
73
 
75
74
    executable
78
77
 
79
78
    text_sha1
80
79
        sha-1 of the text of the file
81
 
 
 
80
        
82
81
    text_size
83
82
        size in bytes of the text of the file
84
 
 
 
83
        
85
84
    (reading a version 4 tree created a text_id field.)
86
85
 
87
86
    >>> i = Inventory()
90
89
    >>> i.add(InventoryDirectory('123', 'src', ROOT_ID))
91
90
    InventoryDirectory('123', 'src', parent_id='TREE_ROOT', revision=None)
92
91
    >>> i.add(InventoryFile('2323', 'hello.c', parent_id='123'))
93
 
    InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None, revision=None)
 
92
    InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None)
94
93
    >>> shouldbe = {0: '', 1: 'src', 2: 'src/hello.c'}
95
94
    >>> for ix, j in enumerate(i.iter_entries()):
96
95
    ...   print (j[0] == shouldbe[ix], j[1])
97
 
    ...
 
96
    ... 
98
97
    (True, InventoryDirectory('TREE_ROOT', u'', parent_id=None, revision=None))
99
98
    (True, InventoryDirectory('123', 'src', parent_id='TREE_ROOT', revision=None))
100
 
    (True, InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None, revision=None))
 
99
    (True, InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None))
101
100
    >>> i.add(InventoryFile('2324', 'bye.c', '123'))
102
 
    InventoryFile('2324', 'bye.c', parent_id='123', sha1=None, len=None, revision=None)
 
101
    InventoryFile('2324', 'bye.c', parent_id='123', sha1=None, len=None)
103
102
    >>> i.add(InventoryDirectory('2325', 'wibble', '123'))
104
103
    InventoryDirectory('2325', 'wibble', parent_id='123', revision=None)
105
104
    >>> i.path2id('src/wibble')
107
106
    >>> '2325' in i
108
107
    True
109
108
    >>> i.add(InventoryFile('2326', 'wibble.c', '2325'))
110
 
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
 
109
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None)
111
110
    >>> i['2326']
112
 
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
 
111
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None)
113
112
    >>> for path, entry in i.iter_entries():
114
113
    ...     print path
115
 
    ...
 
114
    ...     assert i.path2id(path)
 
115
    ... 
116
116
    <BLANKLINE>
117
117
    src
118
118
    src/bye.c
125
125
 
126
126
    # Constants returned by describe_change()
127
127
    #
128
 
    # TODO: These should probably move to some kind of FileChangeDescription
129
 
    # class; that's like what's inside a TreeDelta but we want to be able to
 
128
    # TODO: These should probably move to some kind of FileChangeDescription 
 
129
    # class; that's like what's inside a TreeDelta but we want to be able to 
130
130
    # generate them just for one file at a time.
131
131
    RENAMED = 'renamed'
132
132
    MODIFIED_AND_RENAMED = 'modified and renamed'
133
 
 
 
133
    
134
134
    __slots__ = []
135
135
 
136
136
    def detect_changes(self, old_entry):
137
137
        """Return a (text_modified, meta_modified) from this to old_entry.
138
 
 
139
 
        _read_tree_state must have been called on self and old_entry prior to
 
138
        
 
139
        _read_tree_state must have been called on self and old_entry prior to 
140
140
        calling detect_changes.
141
141
        """
142
142
        return False, False
143
143
 
 
144
    def diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
 
145
             output_to, reverse=False):
 
146
        """Perform a diff from this to to_entry.
 
147
 
 
148
        text_diff will be used for textual difference calculation.
 
149
        This is a template method, override _diff in child classes.
 
150
        """
 
151
        self._read_tree_state(tree.id2path(self.file_id), tree)
 
152
        if to_entry:
 
153
            # cannot diff from one kind to another - you must do a removal
 
154
            # and an addif they do not match.
 
155
            assert self.kind == to_entry.kind
 
156
            to_entry._read_tree_state(to_tree.id2path(to_entry.file_id),
 
157
                                      to_tree)
 
158
        self._diff(text_diff, from_label, tree, to_label, to_entry, to_tree,
 
159
                   output_to, reverse)
 
160
 
144
161
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
145
162
             output_to, reverse=False):
146
163
        """Perform a diff between two entries of the same kind."""
147
164
 
148
 
    def parent_candidates(self, previous_inventories):
149
 
        """Find possible per-file graph parents.
150
 
 
151
 
        This is currently defined by:
152
 
         - Select the last changed revision in the parent inventory.
153
 
         - Do deal with a short lived bug in bzr 0.8's development two entries
154
 
           that have the same last changed but different 'x' bit settings are
155
 
           changed in-place.
 
165
    def find_previous_heads(self, previous_inventories,
 
166
                            versioned_file_store,
 
167
                            transaction,
 
168
                            entry_vf=None):
 
169
        """Return the revisions and entries that directly precede this.
 
170
 
 
171
        Returned as a map from revision to inventory entry.
 
172
 
 
173
        This is a map containing the file revisions in all parents
 
174
        for which the file exists, and its revision is not a parent of
 
175
        any other. If the file is new, the set will be empty.
 
176
 
 
177
        :param versioned_file_store: A store where ancestry data on this
 
178
                                     file id can be queried.
 
179
        :param transaction: The transaction that queries to the versioned 
 
180
                            file store should be completed under.
 
181
        :param entry_vf: The entry versioned file, if its already available.
156
182
        """
 
183
        def get_ancestors(weave, entry):
 
184
            return set(weave.get_ancestry(entry.revision, topo_sorted=False))
157
185
        # revision:ie mapping for each ie found in previous_inventories.
158
186
        candidates = {}
 
187
        # revision:ie mapping with one revision for each head.
 
188
        heads = {}
 
189
        # revision: ancestor list for each head
 
190
        head_ancestors = {}
159
191
        # identify candidate head revision ids.
160
192
        for inv in previous_inventories:
161
193
            if self.file_id in inv:
162
194
                ie = inv[self.file_id]
 
195
                assert ie.file_id == self.file_id
 
196
                if ie.kind != self.kind:
 
197
                    # Can't be a candidate if the kind has changed.
 
198
                    continue
163
199
                if ie.revision in candidates:
164
200
                    # same revision value in two different inventories:
165
201
                    # correct possible inconsistencies:
166
 
                    #     * there was a bug in revision updates with 'x' bit
 
202
                    #     * there was a bug in revision updates with 'x' bit 
167
203
                    #       support.
168
204
                    try:
169
205
                        if candidates[ie.revision].executable != ie.executable:
171
207
                            ie.executable = False
172
208
                    except AttributeError:
173
209
                        pass
 
210
                    # must now be the same.
 
211
                    assert candidates[ie.revision] == ie
174
212
                else:
175
213
                    # add this revision as a candidate.
176
214
                    candidates[ie.revision] = ie
177
 
        return candidates
178
 
 
179
 
    @deprecated_method(deprecated_in((1, 6, 0)))
 
215
 
 
216
        # common case optimisation
 
217
        if len(candidates) == 1:
 
218
            # if there is only one candidate revision found
 
219
            # then we can opening the versioned file to access ancestry:
 
220
            # there cannot be any ancestors to eliminate when there is 
 
221
            # only one revision available.
 
222
            heads[ie.revision] = ie
 
223
            return heads
 
224
 
 
225
        # eliminate ancestors amongst the available candidates:
 
226
        # heads are those that are not an ancestor of any other candidate
 
227
        # - this provides convergence at a per-file level.
 
228
        for ie in candidates.values():
 
229
            # may be an ancestor of a known head:
 
230
            already_present = 0 != len(
 
231
                [head for head in heads 
 
232
                 if ie.revision in head_ancestors[head]])
 
233
            if already_present:
 
234
                # an ancestor of an analyzed candidate.
 
235
                continue
 
236
            # not an ancestor of a known head:
 
237
            # load the versioned file for this file id if needed
 
238
            if entry_vf is None:
 
239
                entry_vf = versioned_file_store.get_weave_or_empty(
 
240
                    self.file_id, transaction)
 
241
            ancestors = get_ancestors(entry_vf, ie)
 
242
            # may knock something else out:
 
243
            check_heads = list(heads.keys())
 
244
            for head in check_heads:
 
245
                if head in ancestors:
 
246
                    # this previously discovered 'head' is not
 
247
                    # really a head - its an ancestor of the newly 
 
248
                    # found head,
 
249
                    heads.pop(head)
 
250
            head_ancestors[ie.revision] = ancestors
 
251
            heads[ie.revision] = ie
 
252
        return heads
 
253
 
180
254
    def get_tar_item(self, root, dp, now, tree):
181
255
        """Get a tarfile item and a file stream for its content."""
182
256
        item = tarfile.TarInfo(osutils.pathjoin(root, dp).encode('utf8'))
199
273
 
200
274
    def __init__(self, file_id, name, parent_id, text_id=None):
201
275
        """Create an InventoryEntry
202
 
 
 
276
        
203
277
        The filename must be a single component, relative to the
204
278
        parent directory; it cannot be a whole path or relative name.
205
279
 
212
286
        Traceback (most recent call last):
213
287
        InvalidEntryName: Invalid entry name: src/hello.c
214
288
        """
 
289
        assert isinstance(name, basestring), name
215
290
        if '/' in name or '\\' in name:
216
291
            raise errors.InvalidEntryName(name=name)
217
292
        self.executable = False
219
294
        self.text_sha1 = None
220
295
        self.text_size = None
221
296
        self.file_id = file_id
 
297
        assert isinstance(file_id, (str, None.__class__)), \
 
298
            'bad type %r for %r' % (type(file_id), file_id)
222
299
        self.name = name
223
300
        self.text_id = text_id
224
301
        self.parent_id = parent_id
239
316
        raise BzrError("don't know how to export {%s} of kind %r" %
240
317
                       (self.file_id, self.kind))
241
318
 
242
 
    @deprecated_method(deprecated_in((1, 6, 0)))
243
319
    def put_on_disk(self, dest, dp, tree):
244
320
        """Create a representation of self on disk in the prefix dest.
245
 
 
 
321
        
246
322
        This is a template method - implement _put_on_disk in subclasses.
247
323
        """
248
324
        fullpath = osutils.pathjoin(dest, dp)
261
337
    def versionable_kind(kind):
262
338
        return (kind in ('file', 'directory', 'symlink', 'tree-reference'))
263
339
 
264
 
    def check(self, checker, rev_id, inv):
 
340
    def check(self, checker, rev_id, inv, tree):
265
341
        """Check this inventory entry is intact.
266
342
 
267
343
        This is a template method, override _check for kind specific
268
344
        tests.
269
345
 
270
 
        :param checker: Check object providing context for the checks;
 
346
        :param checker: Check object providing context for the checks; 
271
347
             can be used to find out what parts of the repository have already
272
348
             been checked.
273
349
        :param rev_id: Revision id from which this InventoryEntry was loaded.
274
350
             Not necessarily the last-changed revision for this file.
275
351
        :param inv: Inventory from which the entry was loaded.
 
352
        :param tree: RevisionTree for this entry.
276
353
        """
277
354
        if self.parent_id is not None:
278
355
            if not inv.has_id(self.parent_id):
279
356
                raise BzrCheckError('missing parent {%s} in inventory for revision {%s}'
280
357
                        % (self.parent_id, rev_id))
281
 
        checker._add_entry_to_text_key_references(inv, self)
282
 
        self._check(checker, rev_id)
 
358
        self._check(checker, rev_id, tree)
283
359
 
284
 
    def _check(self, checker, rev_id):
 
360
    def _check(self, checker, rev_id, tree):
285
361
        """Check this inventory entry for kind specific errors."""
286
 
        checker._report_items.append(
287
 
            'unknown entry kind %r in revision {%s}' % (self.kind, rev_id))
 
362
        raise BzrCheckError('unknown entry kind %r in revision {%s}' % 
 
363
                            (self.kind, rev_id))
288
364
 
289
365
    def copy(self):
290
366
        """Clone this inventory entry."""
293
369
    @staticmethod
294
370
    def describe_change(old_entry, new_entry):
295
371
        """Describe the change between old_entry and this.
296
 
 
 
372
        
297
373
        This smells of being an InterInventoryEntry situation, but as its
298
374
        the first one, we're making it a static method for now.
299
375
 
300
 
        An entry with a different parent, or different name is considered
 
376
        An entry with a different parent, or different name is considered 
301
377
        to be renamed. Reparenting is an internal detail.
302
378
        Note that renaming the parent does not trigger a rename for the
303
379
        child entry itself.
340
416
                   self.parent_id,
341
417
                   self.revision))
342
418
 
 
419
    def snapshot(self, revision, path, previous_entries,
 
420
                 work_tree, commit_builder):
 
421
        """Make a snapshot of this entry which may or may not have changed.
 
422
        
 
423
        This means that all its fields are populated, that it has its
 
424
        text stored in the text store or weave.
 
425
        """
 
426
        # mutter('new parents of %s are %r', path, previous_entries)
 
427
        self._read_tree_state(path, work_tree)
 
428
        # TODO: Where should we determine whether to reuse a
 
429
        # previous revision id or create a new revision? 20060606
 
430
        if len(previous_entries) == 1:
 
431
            # cannot be unchanged unless there is only one parent file rev.
 
432
            parent_ie = previous_entries.values()[0]
 
433
            if self._unchanged(parent_ie):
 
434
                # mutter("found unchanged entry")
 
435
                self.revision = parent_ie.revision
 
436
                return "unchanged"
 
437
        return self._snapshot_into_revision(revision, previous_entries, 
 
438
                                            work_tree, commit_builder)
 
439
 
 
440
    def _snapshot_into_revision(self, revision, previous_entries, work_tree,
 
441
                                commit_builder):
 
442
        """Record this revision unconditionally into a store.
 
443
 
 
444
        The entry's last-changed revision property (`revision`) is updated to 
 
445
        that of the new revision.
 
446
        
 
447
        :param revision: id of the new revision that is being recorded.
 
448
 
 
449
        :returns: String description of the commit (e.g. "merged", "modified"), etc.
 
450
        """
 
451
        # mutter('new revision {%s} for {%s}', revision, self.file_id)
 
452
        self.revision = revision
 
453
        self._snapshot_text(previous_entries, work_tree, commit_builder)
 
454
 
 
455
    def _snapshot_text(self, file_parents, work_tree, commit_builder): 
 
456
        """Record the 'text' of this entry, whatever form that takes.
 
457
        
 
458
        This default implementation simply adds an empty text.
 
459
        """
 
460
        raise NotImplementedError(self._snapshot_text)
 
461
 
343
462
    def __eq__(self, other):
344
 
        if other is self:
345
 
            # For the case when objects are cached
346
 
            return True
347
463
        if not isinstance(other, InventoryEntry):
348
464
            return NotImplemented
349
465
 
384
500
 
385
501
    def _read_tree_state(self, path, work_tree):
386
502
        """Populate fields in the inventory entry from the given tree.
387
 
 
 
503
        
388
504
        Note that this should be modified to be a noop on virtual trees
389
505
        as all entries created there are prepopulated.
390
506
        """
391
 
        # TODO: Rather than running this manually, we should check the
 
507
        # TODO: Rather than running this manually, we should check the 
392
508
        # working sha1 and other expensive properties when they're
393
509
        # first requested, or preload them if they're already known
394
510
        pass            # nothing to do by default
403
519
                 'text_id', 'parent_id', 'children', 'executable',
404
520
                 'revision', 'symlink_target', 'reference_revision']
405
521
 
406
 
    def _check(self, checker, rev_id):
 
522
    def _check(self, checker, rev_id, tree):
407
523
        """See InventoryEntry._check"""
408
524
 
409
525
    def __init__(self, file_id):
420
536
    def __eq__(self, other):
421
537
        if not isinstance(other, RootEntry):
422
538
            return NotImplemented
423
 
 
 
539
        
424
540
        return (self.file_id == other.file_id) \
425
541
               and (self.children == other.children)
426
542
 
432
548
                 'text_id', 'parent_id', 'children', 'executable',
433
549
                 'revision', 'symlink_target', 'reference_revision']
434
550
 
435
 
    def _check(self, checker, rev_id):
 
551
    def _check(self, checker, rev_id, tree):
436
552
        """See InventoryEntry._check"""
437
 
        if (self.text_sha1 is not None or self.text_size is not None or
438
 
            self.text_id is not None):
439
 
            checker._report_items.append('directory {%s} has text in revision {%s}'
 
553
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
 
554
            raise BzrCheckError('directory {%s} has text in revision {%s}'
440
555
                                % (self.file_id, rev_id))
441
 
        # In non rich root repositories we do not expect a file graph for the
442
 
        # root.
443
 
        if self.name == '' and not checker.rich_roots:
444
 
            return
445
 
        # Directories are stored as an empty file, but the file should exist
446
 
        # to provide a per-fileid log. The hash of every directory content is
447
 
        # "da..." below (the sha1sum of '').
448
 
        checker.add_pending_item(rev_id,
449
 
            ('texts', self.file_id, self.revision), 'text',
450
 
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
451
556
 
452
557
    def copy(self):
453
558
        other = InventoryDirectory(self.file_id, self.name, self.parent_id)
478
583
        """See InventoryEntry._put_on_disk."""
479
584
        os.mkdir(fullpath)
480
585
 
 
586
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
587
        """See InventoryEntry._snapshot_text."""
 
588
        commit_builder.modified_directory(self.file_id, file_parents)
 
589
 
481
590
 
482
591
class InventoryFile(InventoryEntry):
483
592
    """A file in an inventory."""
486
595
                 'text_id', 'parent_id', 'children', 'executable',
487
596
                 'revision', 'symlink_target', 'reference_revision']
488
597
 
489
 
    def _check(self, checker, tree_revision_id):
 
598
    def _check(self, checker, tree_revision_id, tree):
490
599
        """See InventoryEntry._check"""
491
 
        # TODO: check size too.
492
 
        checker.add_pending_item(tree_revision_id,
493
 
            ('texts', self.file_id, self.revision), 'text',
494
 
             self.text_sha1)
495
 
        if self.text_size is None:
496
 
            checker._report_items.append(
497
 
                'fileid {%s} in {%s} has None for text_size' % (self.file_id,
498
 
                tree_revision_id))
 
600
        t = (self.file_id, self.revision)
 
601
        if t in checker.checked_texts:
 
602
            prev_sha = checker.checked_texts[t]
 
603
            if prev_sha != self.text_sha1:
 
604
                raise BzrCheckError('mismatched sha1 on {%s} in {%s}' %
 
605
                                    (self.file_id, tree_revision_id))
 
606
            else:
 
607
                checker.repeated_text_cnt += 1
 
608
                return
 
609
 
 
610
        if self.file_id not in checker.checked_weaves:
 
611
            mutter('check weave {%s}', self.file_id)
 
612
            w = tree._get_weave(self.file_id)
 
613
            # Not passing a progress bar, because it creates a new
 
614
            # progress, which overwrites the current progress,
 
615
            # and doesn't look nice
 
616
            w.check()
 
617
            checker.checked_weaves[self.file_id] = True
 
618
        else:
 
619
            w = tree._get_weave(self.file_id)
 
620
 
 
621
        mutter('check version {%s} of {%s}', tree_revision_id, self.file_id)
 
622
        checker.checked_text_cnt += 1
 
623
        # We can't check the length, because Weave doesn't store that
 
624
        # information, and the whole point of looking at the weave's
 
625
        # sha1sum is that we don't have to extract the text.
 
626
        if self.text_sha1 != w.get_sha1(self.revision):
 
627
            raise BzrCheckError('text {%s} version {%s} wrong sha1' 
 
628
                                % (self.file_id, self.revision))
 
629
        checker.checked_texts[t] = self.text_sha1
499
630
 
500
631
    def copy(self):
501
632
        other = InventoryFile(self.file_id, self.name, self.parent_id)
508
639
 
509
640
    def detect_changes(self, old_entry):
510
641
        """See InventoryEntry.detect_changes."""
 
642
        assert self.text_sha1 is not None
 
643
        assert old_entry.text_sha1 is not None
511
644
        text_modified = (self.text_sha1 != old_entry.text_sha1)
512
645
        meta_modified = (self.executable != old_entry.executable)
513
646
        return text_modified, meta_modified
515
648
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
516
649
             output_to, reverse=False):
517
650
        """See InventoryEntry._diff."""
518
 
        from bzrlib.diff import DiffText
519
 
        from_file_id = self.file_id
520
 
        if to_entry:
521
 
            to_file_id = to_entry.file_id
522
 
        else:
523
 
            to_file_id = None
524
 
        if reverse:
525
 
            to_file_id, from_file_id = from_file_id, to_file_id
526
 
            tree, to_tree = to_tree, tree
527
 
            from_label, to_label = to_label, from_label
528
 
        differ = DiffText(tree, to_tree, output_to, 'utf-8', '', '',
529
 
                          text_diff)
530
 
        return differ.diff_text(from_file_id, to_file_id, from_label, to_label)
 
651
        try:
 
652
            from_text = tree.get_file(self.file_id).readlines()
 
653
            if to_entry:
 
654
                to_text = to_tree.get_file(to_entry.file_id).readlines()
 
655
            else:
 
656
                to_text = []
 
657
            if not reverse:
 
658
                text_diff(from_label, from_text,
 
659
                          to_label, to_text, output_to)
 
660
            else:
 
661
                text_diff(to_label, to_text,
 
662
                          from_label, from_text, output_to)
 
663
        except errors.BinaryFile:
 
664
            if reverse:
 
665
                label_pair = (to_label, from_label)
 
666
            else:
 
667
                label_pair = (from_label, to_label)
 
668
            print >> output_to, \
 
669
                  ("Binary files %s and %s differ" % label_pair).encode('utf8')
531
670
 
532
671
    def has_text(self):
533
672
        """See InventoryEntry.has_text."""
566
705
        self.executable = work_tree.is_executable(self.file_id, path=path)
567
706
 
568
707
    def __repr__(self):
569
 
        return ("%s(%r, %r, parent_id=%r, sha1=%r, len=%s, revision=%s)"
 
708
        return ("%s(%r, %r, parent_id=%r, sha1=%r, len=%s)"
570
709
                % (self.__class__.__name__,
571
710
                   self.file_id,
572
711
                   self.name,
573
712
                   self.parent_id,
574
713
                   self.text_sha1,
575
 
                   self.text_size,
576
 
                   self.revision))
 
714
                   self.text_size))
577
715
 
578
716
    def _forget_tree_state(self):
579
717
        self.text_sha1 = None
580
718
 
 
719
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
720
        """See InventoryEntry._snapshot_text."""
 
721
        def get_content_byte_lines():
 
722
            return work_tree.get_file(self.file_id).readlines()
 
723
        self.text_sha1, self.text_size = commit_builder.modified_file_text(
 
724
            self.file_id, file_parents, get_content_byte_lines, self.text_sha1, self.text_size)
 
725
 
581
726
    def _unchanged(self, previous_ie):
582
727
        """See InventoryEntry._unchanged."""
583
728
        compatible = super(InventoryFile, self)._unchanged(previous_ie)
599
744
                 'text_id', 'parent_id', 'children', 'executable',
600
745
                 'revision', 'symlink_target', 'reference_revision']
601
746
 
602
 
    def _check(self, checker, tree_revision_id):
 
747
    def _check(self, checker, rev_id, tree):
603
748
        """See InventoryEntry._check"""
604
749
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
605
 
            checker._report_items.append(
606
 
               'symlink {%s} has text in revision {%s}'
607
 
                    % (self.file_id, tree_revision_id))
 
750
            raise BzrCheckError('symlink {%s} has text in revision {%s}'
 
751
                    % (self.file_id, rev_id))
608
752
        if self.symlink_target is None:
609
 
            checker._report_items.append(
610
 
                'symlink {%s} has no target in revision {%s}'
611
 
                    % (self.file_id, tree_revision_id))
612
 
        # Symlinks are stored as ''
613
 
        checker.add_pending_item(tree_revision_id,
614
 
            ('texts', self.file_id, self.revision), 'text',
615
 
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
 
753
            raise BzrCheckError('symlink {%s} has no target in revision {%s}'
 
754
                    % (self.file_id, rev_id))
616
755
 
617
756
    def copy(self):
618
757
        other = InventoryLink(self.file_id, self.name, self.parent_id)
632
771
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
633
772
             output_to, reverse=False):
634
773
        """See InventoryEntry._diff."""
635
 
        from bzrlib.diff import DiffSymlink
636
 
        old_target = self.symlink_target
 
774
        from_text = self.symlink_target
637
775
        if to_entry is not None:
638
 
            new_target = to_entry.symlink_target
639
 
        else:
640
 
            new_target = None
641
 
        if not reverse:
642
 
            old_tree = tree
643
 
            new_tree = to_tree
644
 
        else:
645
 
            old_tree = to_tree
646
 
            new_tree = tree
647
 
            new_target, old_target = old_target, new_target
648
 
        differ = DiffSymlink(old_tree, new_tree, output_to)
649
 
        return differ.diff_symlink(old_target, new_target)
 
776
            to_text = to_entry.symlink_target
 
777
            if reverse:
 
778
                temp = from_text
 
779
                from_text = to_text
 
780
                to_text = temp
 
781
            print >>output_to, '=== target changed %r => %r' % (from_text, to_text)
 
782
        else:
 
783
            if not reverse:
 
784
                print >>output_to, '=== target was %r' % self.symlink_target
 
785
            else:
 
786
                print >>output_to, '=== target is %r' % self.symlink_target
650
787
 
651
788
    def __init__(self, file_id, name, parent_id):
652
789
        super(InventoryLink, self).__init__(file_id, name, parent_id)
686
823
            compatible = False
687
824
        return compatible
688
825
 
 
826
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
827
        """See InventoryEntry._snapshot_text."""
 
828
        commit_builder.modified_link(
 
829
            self.file_id, file_parents, self.symlink_target)
 
830
 
689
831
 
690
832
class TreeReference(InventoryEntry):
691
 
 
 
833
    
692
834
    kind = 'tree-reference'
693
 
 
 
835
    
694
836
    def __init__(self, file_id, name, parent_id, revision=None,
695
837
                 reference_revision=None):
696
838
        InventoryEntry.__init__(self, file_id, name, parent_id)
701
843
        return TreeReference(self.file_id, self.name, self.parent_id,
702
844
                             self.revision, self.reference_revision)
703
845
 
 
846
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
847
        commit_builder.modified_reference(self.file_id, file_parents)
 
848
 
704
849
    def _read_tree_state(self, path, work_tree):
705
850
        """Populate fields in the inventory entry from the given tree.
706
851
        """
708
853
            self.file_id, path)
709
854
 
710
855
    def _forget_tree_state(self):
711
 
        self.reference_revision = None
712
 
 
713
 
    def _unchanged(self, previous_ie):
714
 
        """See InventoryEntry._unchanged."""
715
 
        compatible = super(TreeReference, self)._unchanged(previous_ie)
716
 
        if self.reference_revision != previous_ie.reference_revision:
717
 
            compatible = False
718
 
        return compatible
719
 
 
720
 
 
721
 
class CommonInventory(object):
722
 
    """Basic inventory logic, defined in terms of primitives like has_id.
723
 
 
724
 
    An inventory is the metadata about the contents of a tree.
725
 
 
726
 
    This is broadly a map from file_id to entries such as directories, files,
727
 
    symlinks and tree references. Each entry maintains its own metadata like
728
 
    SHA1 and length for files, or children for a directory.
729
 
 
 
856
        self.reference_revision = None 
 
857
 
 
858
 
 
859
class Inventory(object):
 
860
    """Inventory of versioned files in a tree.
 
861
 
 
862
    This describes which file_id is present at each point in the tree,
 
863
    and possibly the SHA-1 or other information about the file.
730
864
    Entries can be looked up either by path or by file_id.
731
865
 
 
866
    The inventory represents a typical unix file tree, with
 
867
    directories containing files and subdirectories.  We never store
 
868
    the full path to a file, because renaming a directory implicitly
 
869
    moves all of its contents.  This class internally maintains a
 
870
    lookup tree that allows the children under a directory to be
 
871
    returned quickly.
 
872
 
732
873
    InventoryEntry objects must not be modified after they are
733
874
    inserted, other than through the Inventory API.
 
875
 
 
876
    >>> inv = Inventory()
 
877
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
878
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
879
    >>> inv['123-123'].name
 
880
    'hello.c'
 
881
 
 
882
    May be treated as an iterator or set to look up file ids:
 
883
    
 
884
    >>> bool(inv.path2id('hello.c'))
 
885
    True
 
886
    >>> '123-123' in inv
 
887
    True
 
888
 
 
889
    May also look up by name:
 
890
 
 
891
    >>> [x[0] for x in inv.iter_entries()]
 
892
    ['', u'hello.c']
 
893
    >>> inv = Inventory('TREE_ROOT-12345678-12345678')
 
894
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
895
    Traceback (most recent call last):
 
896
    BzrError: parent_id {TREE_ROOT} not in inventory
 
897
    >>> inv.add(InventoryFile('123-123', 'hello.c', 'TREE_ROOT-12345678-12345678'))
 
898
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT-12345678-12345678', sha1=None, len=None)
734
899
    """
735
 
 
736
 
    def __contains__(self, file_id):
737
 
        """True if this entry contains a file with given id.
738
 
 
739
 
        >>> inv = Inventory()
740
 
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
741
 
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
742
 
        >>> '123' in inv
743
 
        True
744
 
        >>> '456' in inv
745
 
        False
746
 
 
747
 
        Note that this method along with __iter__ are not encouraged for use as
748
 
        they are less clear than specific query methods - they may be rmeoved
749
 
        in the future.
750
 
        """
751
 
        return self.has_id(file_id)
752
 
 
753
 
    def has_filename(self, filename):
754
 
        return bool(self.path2id(filename))
755
 
 
756
 
    def id2path(self, file_id):
757
 
        """Return as a string the path to file_id.
758
 
 
759
 
        >>> i = Inventory()
760
 
        >>> e = i.add(InventoryDirectory('src-id', 'src', ROOT_ID))
761
 
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
762
 
        >>> print i.id2path('foo-id')
763
 
        src/foo.c
764
 
 
765
 
        :raises NoSuchId: If file_id is not present in the inventory.
766
 
        """
767
 
        # get all names, skipping root
768
 
        return '/'.join(reversed(
769
 
            [parent.name for parent in
770
 
             self._iter_file_id_parents(file_id)][:-1]))
771
 
 
772
 
    def iter_entries(self, from_dir=None, recursive=True):
773
 
        """Return (path, entry) pairs, in order by name.
774
 
        
775
 
        :param from_dir: if None, start from the root,
776
 
          otherwise start from this directory (either file-id or entry)
777
 
        :param recursive: recurse into directories or not
778
 
        """
 
900
    def __init__(self, root_id=ROOT_ID, revision_id=None):
 
901
        """Create or read an inventory.
 
902
 
 
903
        If a working directory is specified, the inventory is read
 
904
        from there.  If the file is specified, read from that. If not,
 
905
        the inventory is created empty.
 
906
 
 
907
        The inventory is created with a default root directory, with
 
908
        an id of None.
 
909
        """
 
910
        if root_id is not None:
 
911
            assert root_id.__class__ == str
 
912
            self._set_root(InventoryDirectory(root_id, u'', None))
 
913
        else:
 
914
            self.root = None
 
915
            self._byid = {}
 
916
        self.revision_id = revision_id
 
917
 
 
918
    def _set_root(self, ie):
 
919
        self.root = ie
 
920
        self._byid = {self.root.file_id: self.root}
 
921
 
 
922
    def copy(self):
 
923
        # TODO: jam 20051218 Should copy also copy the revision_id?
 
924
        entries = self.iter_entries()
 
925
        other = Inventory(entries.next()[1].file_id)
 
926
        # copy recursively so we know directories will be added before
 
927
        # their children.  There are more efficient ways than this...
 
928
        for path, entry in entries():
 
929
            other.add(entry.copy())
 
930
        return other
 
931
 
 
932
    def __iter__(self):
 
933
        return iter(self._byid)
 
934
 
 
935
    def __len__(self):
 
936
        """Returns number of entries."""
 
937
        return len(self._byid)
 
938
 
 
939
    def iter_entries(self, from_dir=None):
 
940
        """Return (path, entry) pairs, in order by name."""
779
941
        if from_dir is None:
780
942
            if self.root is None:
781
943
                return
782
944
            from_dir = self.root
783
945
            yield '', self.root
784
946
        elif isinstance(from_dir, basestring):
785
 
            from_dir = self[from_dir]
786
 
 
 
947
            from_dir = self._byid[from_dir]
 
948
            
787
949
        # unrolling the recursive called changed the time from
788
950
        # 440ms/663ms (inline/total) to 116ms/116ms
789
951
        children = from_dir.children.items()
790
952
        children.sort()
791
 
        if not recursive:
792
 
            for name, ie in children:
793
 
                yield name, ie
794
 
            return
795
953
        children = collections.deque(children)
796
954
        stack = [(u'', children)]
797
955
        while stack:
822
980
                # if we finished all children, pop it off the stack
823
981
                stack.pop()
824
982
 
825
 
    def iter_entries_by_dir(self, from_dir=None, specific_file_ids=None,
826
 
        yield_parents=False):
 
983
    def iter_entries_by_dir(self, from_dir=None, specific_file_ids=None):
827
984
        """Iterate over the entries in a directory first order.
828
985
 
829
986
        This returns all entries for a directory before returning
831
988
        lexicographically sorted order, and is a hybrid between
832
989
        depth-first and breadth-first.
833
990
 
834
 
        :param yield_parents: If True, yield the parents from the root leading
835
 
            down to specific_file_ids that have been requested. This has no
836
 
            impact if specific_file_ids is None.
837
991
        :return: This yields (path, entry) pairs
838
992
        """
839
 
        if specific_file_ids and not isinstance(specific_file_ids, set):
840
 
            specific_file_ids = set(specific_file_ids)
 
993
        if specific_file_ids:
 
994
            safe = osutils.safe_file_id
 
995
            specific_file_ids = set(safe(fid) for fid in specific_file_ids)
841
996
        # TODO? Perhaps this should return the from_dir so that the root is
842
997
        # yielded? or maybe an option?
843
998
        if from_dir is None:
844
999
            if self.root is None:
845
1000
                return
846
1001
            # Optimize a common case
847
 
            if (not yield_parents and specific_file_ids is not None and
848
 
                len(specific_file_ids) == 1):
 
1002
            if specific_file_ids is not None and len(specific_file_ids) == 1:
849
1003
                file_id = list(specific_file_ids)[0]
850
1004
                if file_id in self:
851
1005
                    yield self.id2path(file_id), self[file_id]
852
 
                return
 
1006
                return 
853
1007
            from_dir = self.root
854
 
            if (specific_file_ids is None or yield_parents or
 
1008
            if (specific_file_ids is None or 
855
1009
                self.root.file_id in specific_file_ids):
856
1010
                yield u'', self.root
857
1011
        elif isinstance(from_dir, basestring):
858
 
            from_dir = self[from_dir]
 
1012
            from_dir = self._byid[from_dir]
859
1013
 
860
1014
        if specific_file_ids is not None:
861
1015
            # TODO: jam 20070302 This could really be done as a loop rather
862
1016
            #       than a bunch of recursive calls.
863
1017
            parents = set()
864
 
            byid = self
 
1018
            byid = self._byid
865
1019
            def add_ancestors(file_id):
866
1020
                if file_id not in byid:
867
1021
                    return
875
1029
                add_ancestors(file_id)
876
1030
        else:
877
1031
            parents = None
878
 
 
 
1032
            
879
1033
        stack = [(u'', from_dir)]
880
1034
        while stack:
881
1035
            cur_relpath, cur_dir = stack.pop()
885
1039
 
886
1040
                child_relpath = cur_relpath + child_name
887
1041
 
888
 
                if (specific_file_ids is None or
889
 
                    child_ie.file_id in specific_file_ids or
890
 
                    (yield_parents and child_ie.file_id in parents)):
 
1042
                if (specific_file_ids is None or 
 
1043
                    child_ie.file_id in specific_file_ids):
891
1044
                    yield child_relpath, child_ie
892
1045
 
893
1046
                if child_ie.kind == 'directory':
895
1048
                        child_dirs.append((child_relpath+'/', child_ie))
896
1049
            stack.extend(reversed(child_dirs))
897
1050
 
898
 
    def _make_delta(self, old):
899
 
        """Make an inventory delta from two inventories."""
900
 
        old_ids = set(old)
901
 
        new_ids = set(self)
902
 
        adds = new_ids - old_ids
903
 
        deletes = old_ids - new_ids
904
 
        common = old_ids.intersection(new_ids)
905
 
        delta = []
906
 
        for file_id in deletes:
907
 
            delta.append((old.id2path(file_id), None, file_id, None))
908
 
        for file_id in adds:
909
 
            delta.append((None, self.id2path(file_id), file_id, self[file_id]))
910
 
        for file_id in common:
911
 
            if old[file_id] != self[file_id]:
912
 
                delta.append((old.id2path(file_id), self.id2path(file_id),
913
 
                    file_id, self[file_id]))
914
 
        return delta
915
 
 
916
 
    def _get_mutable_inventory(self):
917
 
        """Returns a mutable copy of the object.
918
 
 
919
 
        Some inventories are immutable, yet working trees, for example, needs
920
 
        to mutate exisiting inventories instead of creating a new one.
921
 
        """
922
 
        raise NotImplementedError(self._get_mutable_inventory)
923
 
 
924
1051
    def make_entry(self, kind, name, parent_id, file_id=None):
925
1052
        """Simple thunk to bzrlib.inventory.make_entry."""
926
1053
        return make_entry(kind, name, parent_id, file_id)
949
1076
        accum = []
950
1077
        def descend(parent_ie, parent_path):
951
1078
            accum.append((parent_path, parent_ie))
952
 
 
 
1079
            
953
1080
            kids = [(ie.name, ie) for ie in parent_ie.children.itervalues() if ie.kind == 'directory']
954
1081
            kids.sort()
955
1082
 
958
1085
                descend(child_ie, child_path)
959
1086
        descend(self.root, u'')
960
1087
        return accum
961
 
 
962
 
    def path2id(self, relpath):
963
 
        """Walk down through directories to return entry of last component.
964
 
 
965
 
        :param relpath: may be either a list of path components, or a single
966
 
            string, in which case it is automatically split.
967
 
 
968
 
        This returns the entry of the last component in the path,
969
 
        which may be either a file or a directory.
970
 
 
971
 
        Returns None IFF the path is not found.
972
 
        """
973
 
        if isinstance(relpath, basestring):
974
 
            names = osutils.splitpath(relpath)
975
 
        else:
976
 
            names = relpath
977
 
 
978
 
        try:
979
 
            parent = self.root
980
 
        except errors.NoSuchId:
981
 
            # root doesn't exist yet so nothing else can
982
 
            return None
983
 
        if parent is None:
984
 
            return None
985
 
        for f in names:
986
 
            try:
987
 
                children = getattr(parent, 'children', None)
988
 
                if children is None:
989
 
                    return None
990
 
                cie = children[f]
991
 
                parent = cie
992
 
            except KeyError:
993
 
                # or raise an error?
994
 
                return None
995
 
 
996
 
        return parent.file_id
997
 
 
998
 
    def filter(self, specific_fileids):
999
 
        """Get an inventory view filtered against a set of file-ids.
1000
 
 
1001
 
        Children of directories and parents are included.
1002
 
 
1003
 
        The result may or may not reference the underlying inventory
1004
 
        so it should be treated as immutable.
1005
 
        """
1006
 
        interesting_parents = set()
1007
 
        for fileid in specific_fileids:
1008
 
            try:
1009
 
                interesting_parents.update(self.get_idpath(fileid))
1010
 
            except errors.NoSuchId:
1011
 
                # This fileid is not in the inventory - that's ok
1012
 
                pass
1013
 
        entries = self.iter_entries()
1014
 
        if self.root is None:
1015
 
            return Inventory(root_id=None)
1016
 
        other = Inventory(entries.next()[1].file_id)
1017
 
        other.root.revision = self.root.revision
1018
 
        other.revision_id = self.revision_id
1019
 
        directories_to_expand = set()
1020
 
        for path, entry in entries:
1021
 
            file_id = entry.file_id
1022
 
            if (file_id in specific_fileids
1023
 
                or entry.parent_id in directories_to_expand):
1024
 
                if entry.kind == 'directory':
1025
 
                    directories_to_expand.add(file_id)
1026
 
            elif file_id not in interesting_parents:
1027
 
                continue
1028
 
            other.add(entry.copy())
1029
 
        return other
1030
 
 
1031
 
    def get_idpath(self, file_id):
1032
 
        """Return a list of file_ids for the path to an entry.
1033
 
 
1034
 
        The list contains one element for each directory followed by
1035
 
        the id of the file itself.  So the length of the returned list
1036
 
        is equal to the depth of the file in the tree, counting the
1037
 
        root directory as depth 1.
1038
 
        """
1039
 
        p = []
1040
 
        for parent in self._iter_file_id_parents(file_id):
1041
 
            p.insert(0, parent.file_id)
1042
 
        return p
1043
 
 
1044
 
 
1045
 
class Inventory(CommonInventory):
1046
 
    """Mutable dict based in-memory inventory.
1047
 
 
1048
 
    We never store the full path to a file, because renaming a directory
1049
 
    implicitly moves all of its contents.  This class internally maintains a
1050
 
    lookup tree that allows the children under a directory to be
1051
 
    returned quickly.
1052
 
 
1053
 
    >>> inv = Inventory()
1054
 
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
1055
 
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1056
 
    >>> inv['123-123'].name
1057
 
    'hello.c'
1058
 
 
1059
 
    Id's may be looked up from paths:
1060
 
 
1061
 
    >>> inv.path2id('hello.c')
1062
 
    '123-123'
1063
 
    >>> '123-123' in inv
1064
 
    True
1065
 
 
1066
 
    There are iterators over the contents:
1067
 
 
1068
 
    >>> [entry[0] for entry in inv.iter_entries()]
1069
 
    ['', u'hello.c']
1070
 
    """
1071
 
 
1072
 
    def __init__(self, root_id=ROOT_ID, revision_id=None):
1073
 
        """Create or read an inventory.
1074
 
 
1075
 
        If a working directory is specified, the inventory is read
1076
 
        from there.  If the file is specified, read from that. If not,
1077
 
        the inventory is created empty.
1078
 
 
1079
 
        The inventory is created with a default root directory, with
1080
 
        an id of None.
1081
 
        """
1082
 
        if root_id is not None:
1083
 
            self._set_root(InventoryDirectory(root_id, u'', None))
1084
 
        else:
1085
 
            self.root = None
1086
 
            self._byid = {}
1087
 
        self.revision_id = revision_id
1088
 
 
1089
 
    def __repr__(self):
1090
 
        # More than one page of ouput is not useful anymore to debug
1091
 
        max_len = 2048
1092
 
        closing = '...}'
1093
 
        contents = repr(self._byid)
1094
 
        if len(contents) > max_len:
1095
 
            contents = contents[:(max_len-len(closing))] + closing
1096
 
        return "<Inventory object at %x, contents=%r>" % (id(self), contents)
1097
 
 
1098
 
    def apply_delta(self, delta):
1099
 
        """Apply a delta to this inventory.
1100
 
 
1101
 
        See the inventory developers documentation for the theory behind
1102
 
        inventory deltas.
1103
 
 
1104
 
        If delta application fails the inventory is left in an indeterminate
1105
 
        state and must not be used.
1106
 
 
1107
 
        :param delta: A list of changes to apply. After all the changes are
1108
 
            applied the final inventory must be internally consistent, but it
1109
 
            is ok to supply changes which, if only half-applied would have an
1110
 
            invalid result - such as supplying two changes which rename two
1111
 
            files, 'A' and 'B' with each other : [('A', 'B', 'A-id', a_entry),
1112
 
            ('B', 'A', 'B-id', b_entry)].
1113
 
 
1114
 
            Each change is a tuple, of the form (old_path, new_path, file_id,
1115
 
            new_entry).
1116
 
 
1117
 
            When new_path is None, the change indicates the removal of an entry
1118
 
            from the inventory and new_entry will be ignored (using None is
1119
 
            appropriate). If new_path is not None, then new_entry must be an
1120
 
            InventoryEntry instance, which will be incorporated into the
1121
 
            inventory (and replace any existing entry with the same file id).
1122
 
 
1123
 
            When old_path is None, the change indicates the addition of
1124
 
            a new entry to the inventory.
1125
 
 
1126
 
            When neither new_path nor old_path are None, the change is a
1127
 
            modification to an entry, such as a rename, reparent, kind change
1128
 
            etc.
1129
 
 
1130
 
            The children attribute of new_entry is ignored. This is because
1131
 
            this method preserves children automatically across alterations to
1132
 
            the parent of the children, and cases where the parent id of a
1133
 
            child is changing require the child to be passed in as a separate
1134
 
            change regardless. E.g. in the recursive deletion of a directory -
1135
 
            the directory's children must be included in the delta, or the
1136
 
            final inventory will be invalid.
1137
 
 
1138
 
            Note that a file_id must only appear once within a given delta.
1139
 
            An AssertionError is raised otherwise.
1140
 
        """
1141
 
        # Check that the delta is legal. It would be nice if this could be
1142
 
        # done within the loops below but it's safer to validate the delta
1143
 
        # before starting to mutate the inventory, as there isn't a rollback
1144
 
        # facility.
1145
 
        list(_check_delta_unique_ids(_check_delta_unique_new_paths(
1146
 
            _check_delta_unique_old_paths(_check_delta_ids_match_entry(
1147
 
            _check_delta_ids_are_valid(
1148
 
            _check_delta_new_path_entry_both_or_None(
1149
 
            delta)))))))
1150
 
 
1151
 
        children = {}
1152
 
        # Remove all affected items which were in the original inventory,
1153
 
        # starting with the longest paths, thus ensuring parents are examined
1154
 
        # after their children, which means that everything we examine has no
1155
 
        # modified children remaining by the time we examine it.
1156
 
        for old_path, file_id in sorted(((op, f) for op, np, f, e in delta
1157
 
                                        if op is not None), reverse=True):
1158
 
            # Preserve unaltered children of file_id for later reinsertion.
1159
 
            file_id_children = getattr(self[file_id], 'children', {})
1160
 
            if len(file_id_children):
1161
 
                children[file_id] = file_id_children
1162
 
            if self.id2path(file_id) != old_path:
1163
 
                raise errors.InconsistentDelta(old_path, file_id,
1164
 
                    "Entry was at wrong other path %r." % self.id2path(file_id))
1165
 
            # Remove file_id and the unaltered children. If file_id is not
1166
 
            # being deleted it will be reinserted back later.
1167
 
            self.remove_recursive_id(file_id)
1168
 
        # Insert all affected which should be in the new inventory, reattaching
1169
 
        # their children if they had any. This is done from shortest path to
1170
 
        # longest, ensuring that items which were modified and whose parents in
1171
 
        # the resulting inventory were also modified, are inserted after their
1172
 
        # parents.
1173
 
        for new_path, f, new_entry in sorted((np, f, e) for op, np, f, e in
1174
 
                                          delta if np is not None):
1175
 
            if new_entry.kind == 'directory':
1176
 
                # Pop the child which to allow detection of children whose
1177
 
                # parents were deleted and which were not reattached to a new
1178
 
                # parent.
1179
 
                replacement = InventoryDirectory(new_entry.file_id,
1180
 
                    new_entry.name, new_entry.parent_id)
1181
 
                replacement.revision = new_entry.revision
1182
 
                replacement.children = children.pop(replacement.file_id, {})
1183
 
                new_entry = replacement
1184
 
            try:
1185
 
                self.add(new_entry)
1186
 
            except errors.DuplicateFileId:
1187
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1188
 
                    "New id is already present in target.")
1189
 
            except AttributeError:
1190
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1191
 
                    "Parent is not a directory.")
1192
 
            if self.id2path(new_entry.file_id) != new_path:
1193
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1194
 
                    "New path is not consistent with parent path.")
1195
 
        if len(children):
1196
 
            # Get the parent id that was deleted
1197
 
            parent_id, children = children.popitem()
1198
 
            raise errors.InconsistentDelta("<deleted>", parent_id,
1199
 
                "The file id was deleted but its children were not deleted.")
1200
 
 
1201
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1202
 
                              propagate_caches=False):
1203
 
        """See CHKInventory.create_by_apply_delta()"""
1204
 
        new_inv = self.copy()
1205
 
        new_inv.apply_delta(inventory_delta)
1206
 
        new_inv.revision_id = new_revision_id
1207
 
        return new_inv
1208
 
 
1209
 
    def _set_root(self, ie):
1210
 
        self.root = ie
1211
 
        self._byid = {self.root.file_id: self.root}
1212
 
 
1213
 
    def copy(self):
1214
 
        # TODO: jam 20051218 Should copy also copy the revision_id?
1215
 
        entries = self.iter_entries()
1216
 
        if self.root is None:
1217
 
            return Inventory(root_id=None)
1218
 
        other = Inventory(entries.next()[1].file_id)
1219
 
        other.root.revision = self.root.revision
1220
 
        # copy recursively so we know directories will be added before
1221
 
        # their children.  There are more efficient ways than this...
1222
 
        for path, entry in entries:
1223
 
            other.add(entry.copy())
1224
 
        return other
1225
 
 
1226
 
    def _get_mutable_inventory(self):
1227
 
        """See CommonInventory._get_mutable_inventory."""
1228
 
        return copy.deepcopy(self)
1229
 
 
1230
 
    def __iter__(self):
1231
 
        """Iterate over all file-ids."""
1232
 
        return iter(self._byid)
1233
 
 
1234
 
    def iter_just_entries(self):
1235
 
        """Iterate over all entries.
1236
1088
        
1237
 
        Unlike iter_entries(), just the entries are returned (not (path, ie))
1238
 
        and the order of entries is undefined.
 
1089
    def __contains__(self, file_id):
 
1090
        """True if this entry contains a file with given id.
1239
1091
 
1240
 
        XXX: We may not want to merge this into bzr.dev.
 
1092
        >>> inv = Inventory()
 
1093
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
 
1094
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
1095
        >>> '123' in inv
 
1096
        True
 
1097
        >>> '456' in inv
 
1098
        False
1241
1099
        """
1242
 
        if self.root is None:
1243
 
            return
1244
 
        for _, ie in self._byid.iteritems():
1245
 
            yield ie
1246
 
 
1247
 
    def __len__(self):
1248
 
        """Returns number of entries."""
1249
 
        return len(self._byid)
 
1100
        file_id = osutils.safe_file_id(file_id)
 
1101
        return (file_id in self._byid)
1250
1102
 
1251
1103
    def __getitem__(self, file_id):
1252
1104
        """Return the entry for given file_id.
1253
1105
 
1254
1106
        >>> inv = Inventory()
1255
1107
        >>> inv.add(InventoryFile('123123', 'hello.c', ROOT_ID))
1256
 
        InventoryFile('123123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1108
        InventoryFile('123123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None)
1257
1109
        >>> inv['123123'].name
1258
1110
        'hello.c'
1259
1111
        """
 
1112
        file_id = osutils.safe_file_id(file_id)
1260
1113
        try:
1261
1114
            return self._byid[file_id]
1262
1115
        except KeyError:
1264
1117
            raise errors.NoSuchId(self, file_id)
1265
1118
 
1266
1119
    def get_file_kind(self, file_id):
 
1120
        file_id = osutils.safe_file_id(file_id)
1267
1121
        return self._byid[file_id].kind
1268
1122
 
1269
1123
    def get_child(self, parent_id, filename):
 
1124
        parent_id = osutils.safe_file_id(parent_id)
1270
1125
        return self[parent_id].children.get(filename)
1271
1126
 
1272
1127
    def _add_child(self, entry):
1285
1140
        To add  a file to a branch ready to be committed, use Branch.add,
1286
1141
        which calls this.
1287
1142
 
1288
 
        :return: entry
 
1143
        Returns the new entry object.
1289
1144
        """
1290
1145
        if entry.file_id in self._byid:
1291
1146
            raise errors.DuplicateFileId(entry.file_id,
1292
1147
                                         self._byid[entry.file_id])
 
1148
 
1293
1149
        if entry.parent_id is None:
 
1150
            assert self.root is None and len(self._byid) == 0
1294
1151
            self.root = entry
1295
1152
        else:
1296
1153
            try:
1297
1154
                parent = self._byid[entry.parent_id]
1298
1155
            except KeyError:
1299
 
                raise errors.InconsistentDelta("<unknown>", entry.parent_id,
1300
 
                    "Parent not in inventory.")
 
1156
                raise BzrError("parent_id {%s} not in inventory" %
 
1157
                               entry.parent_id)
 
1158
 
1301
1159
            if entry.name in parent.children:
1302
 
                raise errors.InconsistentDelta(
1303
 
                    self.id2path(parent.children[entry.name].file_id),
1304
 
                    entry.file_id,
1305
 
                    "Path already versioned")
 
1160
                raise BzrError("%s is already versioned" %
 
1161
                        osutils.pathjoin(self.id2path(parent.file_id),
 
1162
                        entry.name).encode('utf-8'))
1306
1163
            parent.children[entry.name] = entry
1307
1164
        return self._add_child(entry)
1308
1165
 
1312
1169
        The immediate parent must already be versioned.
1313
1170
 
1314
1171
        Returns the new entry object."""
1315
 
 
 
1172
        
1316
1173
        parts = osutils.splitpath(relpath)
1317
1174
 
1318
1175
        if len(parts) == 0:
1319
1176
            if file_id is None:
1320
1177
                file_id = generate_ids.gen_root_id()
 
1178
            else:
 
1179
                file_id = osutils.safe_file_id(file_id)
1321
1180
            self.root = InventoryDirectory(file_id, '', None)
1322
1181
            self._byid = {self.root.file_id: self.root}
1323
1182
            return self.root
1334
1193
 
1335
1194
        >>> inv = Inventory()
1336
1195
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
1337
 
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1196
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None)
1338
1197
        >>> '123' in inv
1339
1198
        True
1340
1199
        >>> del inv['123']
1341
1200
        >>> '123' in inv
1342
1201
        False
1343
1202
        """
 
1203
        file_id = osutils.safe_file_id(file_id)
1344
1204
        ie = self[file_id]
 
1205
 
 
1206
        assert ie.parent_id is None or \
 
1207
            self[ie.parent_id].children[ie.name] == ie
 
1208
        
1345
1209
        del self._byid[file_id]
1346
1210
        if ie.parent_id is not None:
1347
1211
            del self[ie.parent_id].children[ie.name]
1354
1218
        >>> i1 == i2
1355
1219
        True
1356
1220
        >>> i1.add(InventoryFile('123', 'foo', ROOT_ID))
1357
 
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1221
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None)
1358
1222
        >>> i1 == i2
1359
1223
        False
1360
1224
        >>> i2.add(InventoryFile('123', 'foo', ROOT_ID))
1361
 
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1225
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None)
1362
1226
        >>> i1 == i2
1363
1227
        True
1364
1228
        """
1375
1239
 
1376
1240
    def _iter_file_id_parents(self, file_id):
1377
1241
        """Yield the parents of file_id up to the root."""
 
1242
        file_id = osutils.safe_file_id(file_id)
1378
1243
        while file_id is not None:
1379
1244
            try:
1380
1245
                ie = self._byid[file_id]
1383
1248
            yield ie
1384
1249
            file_id = ie.parent_id
1385
1250
 
 
1251
    def get_idpath(self, file_id):
 
1252
        """Return a list of file_ids for the path to an entry.
 
1253
 
 
1254
        The list contains one element for each directory followed by
 
1255
        the id of the file itself.  So the length of the returned list
 
1256
        is equal to the depth of the file in the tree, counting the
 
1257
        root directory as depth 1.
 
1258
        """
 
1259
        file_id = osutils.safe_file_id(file_id)
 
1260
        p = []
 
1261
        for parent in self._iter_file_id_parents(file_id):
 
1262
            p.insert(0, parent.file_id)
 
1263
        return p
 
1264
 
 
1265
    def id2path(self, file_id):
 
1266
        """Return as a string the path to file_id.
 
1267
        
 
1268
        >>> i = Inventory()
 
1269
        >>> e = i.add(InventoryDirectory('src-id', 'src', ROOT_ID))
 
1270
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
 
1271
        >>> print i.id2path('foo-id')
 
1272
        src/foo.c
 
1273
        """
 
1274
        file_id = osutils.safe_file_id(file_id)
 
1275
        # get all names, skipping root
 
1276
        return '/'.join(reversed(
 
1277
            [parent.name for parent in 
 
1278
             self._iter_file_id_parents(file_id)][:-1]))
 
1279
            
 
1280
    def path2id(self, name):
 
1281
        """Walk down through directories to return entry of last component.
 
1282
 
 
1283
        names may be either a list of path components, or a single
 
1284
        string, in which case it is automatically split.
 
1285
 
 
1286
        This returns the entry of the last component in the path,
 
1287
        which may be either a file or a directory.
 
1288
 
 
1289
        Returns None IFF the path is not found.
 
1290
        """
 
1291
        if isinstance(name, basestring):
 
1292
            name = osutils.splitpath(name)
 
1293
 
 
1294
        # mutter("lookup path %r" % name)
 
1295
 
 
1296
        parent = self.root
 
1297
        if parent is None:
 
1298
            return None
 
1299
        for f in name:
 
1300
            try:
 
1301
                children = getattr(parent, 'children', None)
 
1302
                if children is None:
 
1303
                    return None
 
1304
                cie = children[f]
 
1305
                assert cie.name == f
 
1306
                assert cie.parent_id == parent.file_id
 
1307
                parent = cie
 
1308
            except KeyError:
 
1309
                # or raise an error?
 
1310
                return None
 
1311
 
 
1312
        return parent.file_id
 
1313
 
 
1314
    def has_filename(self, names):
 
1315
        return bool(self.path2id(names))
 
1316
 
1386
1317
    def has_id(self, file_id):
 
1318
        file_id = osutils.safe_file_id(file_id)
1387
1319
        return (file_id in self._byid)
1388
1320
 
1389
 
    def _make_delta(self, old):
1390
 
        """Make an inventory delta from two inventories."""
1391
 
        old_getter = getattr(old, '_byid', old)
1392
 
        new_getter = self._byid
1393
 
        old_ids = set(old_getter)
1394
 
        new_ids = set(new_getter)
1395
 
        adds = new_ids - old_ids
1396
 
        deletes = old_ids - new_ids
1397
 
        if not adds and not deletes:
1398
 
            common = new_ids
1399
 
        else:
1400
 
            common = old_ids.intersection(new_ids)
1401
 
        delta = []
1402
 
        for file_id in deletes:
1403
 
            delta.append((old.id2path(file_id), None, file_id, None))
1404
 
        for file_id in adds:
1405
 
            delta.append((None, self.id2path(file_id), file_id, self[file_id]))
1406
 
        for file_id in common:
1407
 
            new_ie = new_getter[file_id]
1408
 
            old_ie = old_getter[file_id]
1409
 
            # If xml_serializer returns the cached InventoryEntries (rather
1410
 
            # than always doing .copy()), inlining the 'is' check saves 2.7M
1411
 
            # calls to __eq__.  Under lsprof this saves 20s => 6s.
1412
 
            # It is a minor improvement without lsprof.
1413
 
            if old_ie is new_ie or old_ie == new_ie:
1414
 
                continue
1415
 
            else:
1416
 
                delta.append((old.id2path(file_id), self.id2path(file_id),
1417
 
                              file_id, new_ie))
1418
 
        return delta
1419
 
 
1420
1321
    def remove_recursive_id(self, file_id):
1421
1322
        """Remove file_id, and children, from the inventory.
1422
 
 
 
1323
        
1423
1324
        :param file_id: A file_id to remove.
1424
1325
        """
 
1326
        file_id = osutils.safe_file_id(file_id)
1425
1327
        to_find_delete = [self._byid[file_id]]
1426
1328
        to_delete = []
1427
1329
        while to_find_delete:
1444
1346
 
1445
1347
        This does not move the working file.
1446
1348
        """
1447
 
        new_name = ensure_normalized_name(new_name)
 
1349
        file_id = osutils.safe_file_id(file_id)
1448
1350
        if not is_valid_name(new_name):
1449
1351
            raise BzrError("not an acceptable filename: %r" % new_name)
1450
1352
 
1464
1366
 
1465
1367
        del old_parent.children[file_ie.name]
1466
1368
        new_parent.children[new_name] = file_ie
1467
 
 
 
1369
        
1468
1370
        file_ie.name = new_name
1469
1371
        file_ie.parent_id = new_parent_id
1470
1372
 
1471
1373
    def is_root(self, file_id):
 
1374
        file_id = osutils.safe_file_id(file_id)
1472
1375
        return self.root is not None and file_id == self.root.file_id
1473
1376
 
1474
1377
 
1475
 
class CHKInventory(CommonInventory):
1476
 
    """An inventory persisted in a CHK store.
1477
 
 
1478
 
    By design, a CHKInventory is immutable so many of the methods
1479
 
    supported by Inventory - add, rename, apply_delta, etc - are *not*
1480
 
    supported. To create a new CHKInventory, use create_by_apply_delta()
1481
 
    or from_inventory(), say.
1482
 
 
1483
 
    Internally, a CHKInventory has one or two CHKMaps:
1484
 
 
1485
 
    * id_to_entry - a map from (file_id,) => InventoryEntry as bytes
1486
 
    * parent_id_basename_to_file_id - a map from (parent_id, basename_utf8)
1487
 
        => file_id as bytes
1488
 
 
1489
 
    The second map is optional and not present in early CHkRepository's.
1490
 
 
1491
 
    No caching is performed: every method call or item access will perform
1492
 
    requests to the storage layer. As such, keep references to objects you
1493
 
    want to reuse.
1494
 
    """
1495
 
 
1496
 
    def __init__(self, search_key_name):
1497
 
        CommonInventory.__init__(self)
1498
 
        self._fileid_to_entry_cache = {}
1499
 
        self._path_to_fileid_cache = {}
1500
 
        self._search_key_name = search_key_name
1501
 
        self.root_id = None
1502
 
 
1503
 
    def __eq__(self, other):
1504
 
        """Compare two sets by comparing their contents."""
1505
 
        if not isinstance(other, CHKInventory):
1506
 
            return NotImplemented
1507
 
 
1508
 
        this_key = self.id_to_entry.key()
1509
 
        other_key = other.id_to_entry.key()
1510
 
        this_pid_key = self.parent_id_basename_to_file_id.key()
1511
 
        other_pid_key = other.parent_id_basename_to_file_id.key()
1512
 
        if None in (this_key, this_pid_key, other_key, other_pid_key):
1513
 
            return False
1514
 
        return this_key == other_key and this_pid_key == other_pid_key
1515
 
 
1516
 
    def _entry_to_bytes(self, entry):
1517
 
        """Serialise entry as a single bytestring.
1518
 
 
1519
 
        :param Entry: An inventory entry.
1520
 
        :return: A bytestring for the entry.
1521
 
 
1522
 
        The BNF:
1523
 
        ENTRY ::= FILE | DIR | SYMLINK | TREE
1524
 
        FILE ::= "file: " COMMON SEP SHA SEP SIZE SEP EXECUTABLE
1525
 
        DIR ::= "dir: " COMMON
1526
 
        SYMLINK ::= "symlink: " COMMON SEP TARGET_UTF8
1527
 
        TREE ::= "tree: " COMMON REFERENCE_REVISION
1528
 
        COMMON ::= FILE_ID SEP PARENT_ID SEP NAME_UTF8 SEP REVISION
1529
 
        SEP ::= "\n"
1530
 
        """
1531
 
        if entry.parent_id is not None:
1532
 
            parent_str = entry.parent_id
1533
 
        else:
1534
 
            parent_str = ''
1535
 
        name_str = entry.name.encode("utf8")
1536
 
        if entry.kind == 'file':
1537
 
            if entry.executable:
1538
 
                exec_str = "Y"
1539
 
            else:
1540
 
                exec_str = "N"
1541
 
            return "file: %s\n%s\n%s\n%s\n%s\n%d\n%s" % (
1542
 
                entry.file_id, parent_str, name_str, entry.revision,
1543
 
                entry.text_sha1, entry.text_size, exec_str)
1544
 
        elif entry.kind == 'directory':
1545
 
            return "dir: %s\n%s\n%s\n%s" % (
1546
 
                entry.file_id, parent_str, name_str, entry.revision)
1547
 
        elif entry.kind == 'symlink':
1548
 
            return "symlink: %s\n%s\n%s\n%s\n%s" % (
1549
 
                entry.file_id, parent_str, name_str, entry.revision,
1550
 
                entry.symlink_target.encode("utf8"))
1551
 
        elif entry.kind == 'tree-reference':
1552
 
            return "tree: %s\n%s\n%s\n%s\n%s" % (
1553
 
                entry.file_id, parent_str, name_str, entry.revision,
1554
 
                entry.reference_revision)
1555
 
        else:
1556
 
            raise ValueError("unknown kind %r" % entry.kind)
1557
 
 
1558
 
    def _expand_fileids_to_parents_and_children(self, file_ids):
1559
 
        """Give a more wholistic view starting with the given file_ids.
1560
 
 
1561
 
        For any file_id which maps to a directory, we will include all children
1562
 
        of that directory. We will also include all directories which are
1563
 
        parents of the given file_ids, but we will not include their children.
1564
 
 
1565
 
        eg:
1566
 
          /     # TREE_ROOT
1567
 
          foo/  # foo-id
1568
 
            baz # baz-id
1569
 
            frob/ # frob-id
1570
 
              fringle # fringle-id
1571
 
          bar/  # bar-id
1572
 
            bing # bing-id
1573
 
 
1574
 
        if given [foo-id] we will include
1575
 
            TREE_ROOT as interesting parents
1576
 
        and 
1577
 
            foo-id, baz-id, frob-id, fringle-id
1578
 
        As interesting ids.
1579
 
        """
1580
 
        interesting = set()
1581
 
        # TODO: Pre-pass over the list of fileids to see if anything is already
1582
 
        #       deserialized in self._fileid_to_entry_cache
1583
 
 
1584
 
        directories_to_expand = set()
1585
 
        children_of_parent_id = {}
1586
 
        # It is okay if some of the fileids are missing
1587
 
        for entry in self._getitems(file_ids):
1588
 
            if entry.kind == 'directory':
1589
 
                directories_to_expand.add(entry.file_id)
1590
 
            interesting.add(entry.parent_id)
1591
 
            children_of_parent_id.setdefault(entry.parent_id, []
1592
 
                                             ).append(entry.file_id)
1593
 
 
1594
 
        # Now, interesting has all of the direct parents, but not the
1595
 
        # parents of those parents. It also may have some duplicates with
1596
 
        # specific_fileids
1597
 
        remaining_parents = interesting.difference(file_ids)
1598
 
        # When we hit the TREE_ROOT, we'll get an interesting parent of None,
1599
 
        # but we don't actually want to recurse into that
1600
 
        interesting.add(None) # this will auto-filter it in the loop
1601
 
        remaining_parents.discard(None) 
1602
 
        while remaining_parents:
1603
 
            next_parents = set()
1604
 
            for entry in self._getitems(remaining_parents):
1605
 
                next_parents.add(entry.parent_id)
1606
 
                children_of_parent_id.setdefault(entry.parent_id, []
1607
 
                                                 ).append(entry.file_id)
1608
 
            # Remove any search tips we've already processed
1609
 
            remaining_parents = next_parents.difference(interesting)
1610
 
            interesting.update(remaining_parents)
1611
 
            # We should probably also .difference(directories_to_expand)
1612
 
        interesting.update(file_ids)
1613
 
        interesting.discard(None)
1614
 
        while directories_to_expand:
1615
 
            # Expand directories by looking in the
1616
 
            # parent_id_basename_to_file_id map
1617
 
            keys = [StaticTuple(f,).intern() for f in directories_to_expand]
1618
 
            directories_to_expand = set()
1619
 
            items = self.parent_id_basename_to_file_id.iteritems(keys)
1620
 
            next_file_ids = set([item[1] for item in items])
1621
 
            next_file_ids = next_file_ids.difference(interesting)
1622
 
            interesting.update(next_file_ids)
1623
 
            for entry in self._getitems(next_file_ids):
1624
 
                if entry.kind == 'directory':
1625
 
                    directories_to_expand.add(entry.file_id)
1626
 
                children_of_parent_id.setdefault(entry.parent_id, []
1627
 
                                                 ).append(entry.file_id)
1628
 
        return interesting, children_of_parent_id
1629
 
 
1630
 
    def filter(self, specific_fileids):
1631
 
        """Get an inventory view filtered against a set of file-ids.
1632
 
 
1633
 
        Children of directories and parents are included.
1634
 
 
1635
 
        The result may or may not reference the underlying inventory
1636
 
        so it should be treated as immutable.
1637
 
        """
1638
 
        (interesting,
1639
 
         parent_to_children) = self._expand_fileids_to_parents_and_children(
1640
 
                                specific_fileids)
1641
 
        # There is some overlap here, but we assume that all interesting items
1642
 
        # are in the _fileid_to_entry_cache because we had to read them to
1643
 
        # determine if they were a dir we wanted to recurse, or just a file
1644
 
        # This should give us all the entries we'll want to add, so start
1645
 
        # adding
1646
 
        other = Inventory(self.root_id)
1647
 
        other.root.revision = self.root.revision
1648
 
        other.revision_id = self.revision_id
1649
 
        if not interesting or not parent_to_children:
1650
 
            # empty filter, or filtering entrys that don't exist
1651
 
            # (if even 1 existed, then we would have populated
1652
 
            # parent_to_children with at least the tree root.)
1653
 
            return other
1654
 
        cache = self._fileid_to_entry_cache
1655
 
        try:
1656
 
            remaining_children = collections.deque(parent_to_children[self.root_id])
1657
 
        except:
1658
 
            import pdb; pdb.set_trace()
1659
 
            raise
1660
 
        while remaining_children:
1661
 
            file_id = remaining_children.popleft()
1662
 
            ie = cache[file_id]
1663
 
            if ie.kind == 'directory':
1664
 
                ie = ie.copy() # We create a copy to depopulate the .children attribute
1665
 
            # TODO: depending on the uses of 'other' we should probably alwyas
1666
 
            #       '.copy()' to prevent someone from mutating other and
1667
 
            #       invaliding our internal cache
1668
 
            other.add(ie)
1669
 
            if file_id in parent_to_children:
1670
 
                remaining_children.extend(parent_to_children[file_id])
1671
 
        return other
1672
 
 
1673
 
    @staticmethod
1674
 
    def _bytes_to_utf8name_key(bytes):
1675
 
        """Get the file_id, revision_id key out of bytes."""
1676
 
        # We don't normally care about name, except for times when we want
1677
 
        # to filter out empty names because of non rich-root...
1678
 
        sections = bytes.split('\n')
1679
 
        kind, file_id = sections[0].split(': ')
1680
 
        return (sections[2], intern(file_id), intern(sections[3]))
1681
 
 
1682
 
    def _bytes_to_entry(self, bytes):
1683
 
        """Deserialise a serialised entry."""
1684
 
        sections = bytes.split('\n')
1685
 
        if sections[0].startswith("file: "):
1686
 
            result = InventoryFile(sections[0][6:],
1687
 
                sections[2].decode('utf8'),
1688
 
                sections[1])
1689
 
            result.text_sha1 = sections[4]
1690
 
            result.text_size = int(sections[5])
1691
 
            result.executable = sections[6] == "Y"
1692
 
        elif sections[0].startswith("dir: "):
1693
 
            result = CHKInventoryDirectory(sections[0][5:],
1694
 
                sections[2].decode('utf8'),
1695
 
                sections[1], self)
1696
 
        elif sections[0].startswith("symlink: "):
1697
 
            result = InventoryLink(sections[0][9:],
1698
 
                sections[2].decode('utf8'),
1699
 
                sections[1])
1700
 
            result.symlink_target = sections[4].decode('utf8')
1701
 
        elif sections[0].startswith("tree: "):
1702
 
            result = TreeReference(sections[0][6:],
1703
 
                sections[2].decode('utf8'),
1704
 
                sections[1])
1705
 
            result.reference_revision = sections[4]
1706
 
        else:
1707
 
            raise ValueError("Not a serialised entry %r" % bytes)
1708
 
        result.file_id = intern(result.file_id)
1709
 
        result.revision = intern(sections[3])
1710
 
        if result.parent_id == '':
1711
 
            result.parent_id = None
1712
 
        self._fileid_to_entry_cache[result.file_id] = result
1713
 
        return result
1714
 
 
1715
 
    def _get_mutable_inventory(self):
1716
 
        """See CommonInventory._get_mutable_inventory."""
1717
 
        entries = self.iter_entries()
1718
 
        inv = Inventory(None, self.revision_id)
1719
 
        for path, inv_entry in entries:
1720
 
            inv.add(inv_entry.copy())
1721
 
        return inv
1722
 
 
1723
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1724
 
        propagate_caches=False):
1725
 
        """Create a new CHKInventory by applying inventory_delta to this one.
1726
 
 
1727
 
        See the inventory developers documentation for the theory behind
1728
 
        inventory deltas.
1729
 
 
1730
 
        :param inventory_delta: The inventory delta to apply. See
1731
 
            Inventory.apply_delta for details.
1732
 
        :param new_revision_id: The revision id of the resulting CHKInventory.
1733
 
        :param propagate_caches: If True, the caches for this inventory are
1734
 
          copied to and updated for the result.
1735
 
        :return: The new CHKInventory.
1736
 
        """
1737
 
        split = osutils.split
1738
 
        result = CHKInventory(self._search_key_name)
1739
 
        if propagate_caches:
1740
 
            # Just propagate the path-to-fileid cache for now
1741
 
            result._path_to_fileid_cache = dict(self._path_to_fileid_cache.iteritems())
1742
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1743
 
        self.id_to_entry._ensure_root()
1744
 
        maximum_size = self.id_to_entry._root_node.maximum_size
1745
 
        result.revision_id = new_revision_id
1746
 
        result.id_to_entry = chk_map.CHKMap(
1747
 
            self.id_to_entry._store,
1748
 
            self.id_to_entry.key(),
1749
 
            search_key_func=search_key_func)
1750
 
        result.id_to_entry._ensure_root()
1751
 
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
1752
 
        # Change to apply to the parent_id_basename delta. The dict maps
1753
 
        # (parent_id, basename) -> (old_key, new_value). We use a dict because
1754
 
        # when a path has its id replaced (e.g. the root is changed, or someone
1755
 
        # does bzr mv a b, bzr mv c a, we should output a single change to this
1756
 
        # map rather than two.
1757
 
        parent_id_basename_delta = {}
1758
 
        if self.parent_id_basename_to_file_id is not None:
1759
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1760
 
                self.parent_id_basename_to_file_id._store,
1761
 
                self.parent_id_basename_to_file_id.key(),
1762
 
                search_key_func=search_key_func)
1763
 
            result.parent_id_basename_to_file_id._ensure_root()
1764
 
            self.parent_id_basename_to_file_id._ensure_root()
1765
 
            result_p_id_root = result.parent_id_basename_to_file_id._root_node
1766
 
            p_id_root = self.parent_id_basename_to_file_id._root_node
1767
 
            result_p_id_root.set_maximum_size(p_id_root.maximum_size)
1768
 
            result_p_id_root._key_width = p_id_root._key_width
1769
 
        else:
1770
 
            result.parent_id_basename_to_file_id = None
1771
 
        result.root_id = self.root_id
1772
 
        id_to_entry_delta = []
1773
 
        # inventory_delta is only traversed once, so we just update the
1774
 
        # variable.
1775
 
        # Check for repeated file ids
1776
 
        inventory_delta = _check_delta_unique_ids(inventory_delta)
1777
 
        # Repeated old paths
1778
 
        inventory_delta = _check_delta_unique_old_paths(inventory_delta)
1779
 
        # Check for repeated new paths
1780
 
        inventory_delta = _check_delta_unique_new_paths(inventory_delta)
1781
 
        # Check for entries that don't match the fileid
1782
 
        inventory_delta = _check_delta_ids_match_entry(inventory_delta)
1783
 
        # Check for nonsense fileids
1784
 
        inventory_delta = _check_delta_ids_are_valid(inventory_delta)
1785
 
        # Check for new_path <-> entry consistency
1786
 
        inventory_delta = _check_delta_new_path_entry_both_or_None(
1787
 
            inventory_delta)
1788
 
        # All changed entries need to have their parents be directories and be
1789
 
        # at the right path. This set contains (path, id) tuples.
1790
 
        parents = set()
1791
 
        # When we delete an item, all the children of it must be either deleted
1792
 
        # or altered in their own right. As we batch process the change via
1793
 
        # CHKMap.apply_delta, we build a set of things to use to validate the
1794
 
        # delta.
1795
 
        deletes = set()
1796
 
        altered = set()
1797
 
        for old_path, new_path, file_id, entry in inventory_delta:
1798
 
            # file id changes
1799
 
            if new_path == '':
1800
 
                result.root_id = file_id
1801
 
            if new_path is None:
1802
 
                # Make a delete:
1803
 
                new_key = None
1804
 
                new_value = None
1805
 
                # Update caches
1806
 
                if propagate_caches:
1807
 
                    try:
1808
 
                        del result._path_to_fileid_cache[old_path]
1809
 
                    except KeyError:
1810
 
                        pass
1811
 
                deletes.add(file_id)
1812
 
            else:
1813
 
                new_key = StaticTuple(file_id,)
1814
 
                new_value = result._entry_to_bytes(entry)
1815
 
                # Update caches. It's worth doing this whether
1816
 
                # we're propagating the old caches or not.
1817
 
                result._path_to_fileid_cache[new_path] = file_id
1818
 
                parents.add((split(new_path)[0], entry.parent_id))
1819
 
            if old_path is None:
1820
 
                old_key = None
1821
 
            else:
1822
 
                old_key = StaticTuple(file_id,)
1823
 
                if self.id2path(file_id) != old_path:
1824
 
                    raise errors.InconsistentDelta(old_path, file_id,
1825
 
                        "Entry was at wrong other path %r." %
1826
 
                        self.id2path(file_id))
1827
 
                altered.add(file_id)
1828
 
            id_to_entry_delta.append(StaticTuple(old_key, new_key, new_value))
1829
 
            if result.parent_id_basename_to_file_id is not None:
1830
 
                # parent_id, basename changes
1831
 
                if old_path is None:
1832
 
                    old_key = None
1833
 
                else:
1834
 
                    old_entry = self[file_id]
1835
 
                    old_key = self._parent_id_basename_key(old_entry)
1836
 
                if new_path is None:
1837
 
                    new_key = None
1838
 
                    new_value = None
1839
 
                else:
1840
 
                    new_key = self._parent_id_basename_key(entry)
1841
 
                    new_value = file_id
1842
 
                # If the two keys are the same, the value will be unchanged
1843
 
                # as its always the file id for this entry.
1844
 
                if old_key != new_key:
1845
 
                    # Transform a change into explicit delete/add preserving
1846
 
                    # a possible match on the key from a different file id.
1847
 
                    if old_key is not None:
1848
 
                        parent_id_basename_delta.setdefault(
1849
 
                            old_key, [None, None])[0] = old_key
1850
 
                    if new_key is not None:
1851
 
                        parent_id_basename_delta.setdefault(
1852
 
                            new_key, [None, None])[1] = new_value
1853
 
        # validate that deletes are complete.
1854
 
        for file_id in deletes:
1855
 
            entry = self[file_id]
1856
 
            if entry.kind != 'directory':
1857
 
                continue
1858
 
            # This loop could potentially be better by using the id_basename
1859
 
            # map to just get the child file ids.
1860
 
            for child in entry.children.values():
1861
 
                if child.file_id not in altered:
1862
 
                    raise errors.InconsistentDelta(self.id2path(child.file_id),
1863
 
                        child.file_id, "Child not deleted or reparented when "
1864
 
                        "parent deleted.")
1865
 
        result.id_to_entry.apply_delta(id_to_entry_delta)
1866
 
        if parent_id_basename_delta:
1867
 
            # Transform the parent_id_basename delta data into a linear delta
1868
 
            # with only one record for a given key. Optimally this would allow
1869
 
            # re-keying, but its simpler to just output that as a delete+add
1870
 
            # to spend less time calculating the delta.
1871
 
            delta_list = []
1872
 
            for key, (old_key, value) in parent_id_basename_delta.iteritems():
1873
 
                if value is not None:
1874
 
                    delta_list.append((old_key, key, value))
1875
 
                else:
1876
 
                    delta_list.append((old_key, None, None))
1877
 
            result.parent_id_basename_to_file_id.apply_delta(delta_list)
1878
 
        parents.discard(('', None))
1879
 
        for parent_path, parent in parents:
1880
 
            try:
1881
 
                if result[parent].kind != 'directory':
1882
 
                    raise errors.InconsistentDelta(result.id2path(parent), parent,
1883
 
                        'Not a directory, but given children')
1884
 
            except errors.NoSuchId:
1885
 
                raise errors.InconsistentDelta("<unknown>", parent,
1886
 
                    "Parent is not present in resulting inventory.")
1887
 
            if result.path2id(parent_path) != parent:
1888
 
                raise errors.InconsistentDelta(parent_path, parent,
1889
 
                    "Parent has wrong path %r." % result.path2id(parent_path))
1890
 
        return result
1891
 
 
1892
 
    @classmethod
1893
 
    def deserialise(klass, chk_store, bytes, expected_revision_id):
1894
 
        """Deserialise a CHKInventory.
1895
 
 
1896
 
        :param chk_store: A CHK capable VersionedFiles instance.
1897
 
        :param bytes: The serialised bytes.
1898
 
        :param expected_revision_id: The revision ID we think this inventory is
1899
 
            for.
1900
 
        :return: A CHKInventory
1901
 
        """
1902
 
        lines = bytes.split('\n')
1903
 
        if lines[-1] != '':
1904
 
            raise AssertionError('bytes to deserialize must end with an eol')
1905
 
        lines.pop()
1906
 
        if lines[0] != 'chkinventory:':
1907
 
            raise ValueError("not a serialised CHKInventory: %r" % bytes)
1908
 
        info = {}
1909
 
        allowed_keys = frozenset(['root_id', 'revision_id', 'search_key_name',
1910
 
                                  'parent_id_basename_to_file_id',
1911
 
                                  'id_to_entry'])
1912
 
        for line in lines[1:]:
1913
 
            key, value = line.split(': ', 1)
1914
 
            if key not in allowed_keys:
1915
 
                raise errors.BzrError('Unknown key in inventory: %r\n%r'
1916
 
                                      % (key, bytes))
1917
 
            if key in info:
1918
 
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
1919
 
                                      % (key, bytes))
1920
 
            info[key] = value
1921
 
        revision_id = intern(info['revision_id'])
1922
 
        root_id = intern(info['root_id'])
1923
 
        search_key_name = intern(info.get('search_key_name', 'plain'))
1924
 
        parent_id_basename_to_file_id = intern(info.get(
1925
 
            'parent_id_basename_to_file_id', None))
1926
 
        if not parent_id_basename_to_file_id.startswith('sha1:'):
1927
 
            raise ValueError('parent_id_basename_to_file_id should be a sha1'
1928
 
                             ' key not %r' % (parent_id_basename_to_file_id,))
1929
 
        id_to_entry = info['id_to_entry']
1930
 
        if not id_to_entry.startswith('sha1:'):
1931
 
            raise ValueError('id_to_entry should be a sha1'
1932
 
                             ' key not %r' % (id_to_entry,))
1933
 
 
1934
 
        result = CHKInventory(search_key_name)
1935
 
        result.revision_id = revision_id
1936
 
        result.root_id = root_id
1937
 
        search_key_func = chk_map.search_key_registry.get(
1938
 
                            result._search_key_name)
1939
 
        if parent_id_basename_to_file_id is not None:
1940
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1941
 
                chk_store, StaticTuple(parent_id_basename_to_file_id,),
1942
 
                search_key_func=search_key_func)
1943
 
        else:
1944
 
            result.parent_id_basename_to_file_id = None
1945
 
 
1946
 
        result.id_to_entry = chk_map.CHKMap(chk_store,
1947
 
                                            StaticTuple(id_to_entry,),
1948
 
                                            search_key_func=search_key_func)
1949
 
        if (result.revision_id,) != expected_revision_id:
1950
 
            raise ValueError("Mismatched revision id and expected: %r, %r" %
1951
 
                (result.revision_id, expected_revision_id))
1952
 
        return result
1953
 
 
1954
 
    @classmethod
1955
 
    def from_inventory(klass, chk_store, inventory, maximum_size=0, search_key_name='plain'):
1956
 
        """Create a CHKInventory from an existing inventory.
1957
 
 
1958
 
        The content of inventory is copied into the chk_store, and a
1959
 
        CHKInventory referencing that is returned.
1960
 
 
1961
 
        :param chk_store: A CHK capable VersionedFiles instance.
1962
 
        :param inventory: The inventory to copy.
1963
 
        :param maximum_size: The CHKMap node size limit.
1964
 
        :param search_key_name: The identifier for the search key function
1965
 
        """
1966
 
        result = klass(search_key_name)
1967
 
        result.revision_id = inventory.revision_id
1968
 
        result.root_id = inventory.root.file_id
1969
 
 
1970
 
        entry_to_bytes = result._entry_to_bytes
1971
 
        parent_id_basename_key = result._parent_id_basename_key
1972
 
        id_to_entry_dict = {}
1973
 
        parent_id_basename_dict = {}
1974
 
        for path, entry in inventory.iter_entries():
1975
 
            key = StaticTuple(entry.file_id,).intern()
1976
 
            id_to_entry_dict[key] = entry_to_bytes(entry)
1977
 
            p_id_key = parent_id_basename_key(entry)
1978
 
            parent_id_basename_dict[p_id_key] = entry.file_id
1979
 
 
1980
 
        result._populate_from_dicts(chk_store, id_to_entry_dict,
1981
 
            parent_id_basename_dict, maximum_size=maximum_size)
1982
 
        return result
1983
 
 
1984
 
    def _populate_from_dicts(self, chk_store, id_to_entry_dict,
1985
 
                             parent_id_basename_dict, maximum_size):
1986
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1987
 
        root_key = chk_map.CHKMap.from_dict(chk_store, id_to_entry_dict,
1988
 
                   maximum_size=maximum_size, key_width=1,
1989
 
                   search_key_func=search_key_func)
1990
 
        self.id_to_entry = chk_map.CHKMap(chk_store, root_key,
1991
 
                                          search_key_func)
1992
 
        root_key = chk_map.CHKMap.from_dict(chk_store,
1993
 
                   parent_id_basename_dict,
1994
 
                   maximum_size=maximum_size, key_width=2,
1995
 
                   search_key_func=search_key_func)
1996
 
        self.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
1997
 
                                                    root_key, search_key_func)
1998
 
 
1999
 
    def _parent_id_basename_key(self, entry):
2000
 
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
2001
 
        if entry.parent_id is not None:
2002
 
            parent_id = entry.parent_id
2003
 
        else:
2004
 
            parent_id = ''
2005
 
        return StaticTuple(parent_id, entry.name.encode('utf8')).intern()
2006
 
 
2007
 
    def __getitem__(self, file_id):
2008
 
        """map a single file_id -> InventoryEntry."""
2009
 
        if file_id is None:
2010
 
            raise errors.NoSuchId(self, file_id)
2011
 
        result = self._fileid_to_entry_cache.get(file_id, None)
2012
 
        if result is not None:
2013
 
            return result
2014
 
        try:
2015
 
            return self._bytes_to_entry(
2016
 
                self.id_to_entry.iteritems([StaticTuple(file_id,)]).next()[1])
2017
 
        except StopIteration:
2018
 
            # really we're passing an inventory, not a tree...
2019
 
            raise errors.NoSuchId(self, file_id)
2020
 
 
2021
 
    def _getitems(self, file_ids):
2022
 
        """Similar to __getitem__, but lets you query for multiple.
2023
 
        
2024
 
        The returned order is undefined. And currently if an item doesn't
2025
 
        exist, it isn't included in the output.
2026
 
        """
2027
 
        result = []
2028
 
        remaining = []
2029
 
        for file_id in file_ids:
2030
 
            entry = self._fileid_to_entry_cache.get(file_id, None)
2031
 
            if entry is None:
2032
 
                remaining.append(file_id)
2033
 
            else:
2034
 
                result.append(entry)
2035
 
        file_keys = [StaticTuple(f,).intern() for f in remaining]
2036
 
        for file_key, value in self.id_to_entry.iteritems(file_keys):
2037
 
            entry = self._bytes_to_entry(value)
2038
 
            result.append(entry)
2039
 
            self._fileid_to_entry_cache[entry.file_id] = entry
2040
 
        return result
2041
 
 
2042
 
    def has_id(self, file_id):
2043
 
        # Perhaps have an explicit 'contains' method on CHKMap ?
2044
 
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
2045
 
            return True
2046
 
        return len(list(
2047
 
            self.id_to_entry.iteritems([StaticTuple(file_id,)]))) == 1
2048
 
 
2049
 
    def is_root(self, file_id):
2050
 
        return file_id == self.root_id
2051
 
 
2052
 
    def _iter_file_id_parents(self, file_id):
2053
 
        """Yield the parents of file_id up to the root."""
2054
 
        while file_id is not None:
2055
 
            try:
2056
 
                ie = self[file_id]
2057
 
            except KeyError:
2058
 
                raise errors.NoSuchId(tree=self, file_id=file_id)
2059
 
            yield ie
2060
 
            file_id = ie.parent_id
2061
 
 
2062
 
    def __iter__(self):
2063
 
        """Iterate over all file-ids."""
2064
 
        for key, _ in self.id_to_entry.iteritems():
2065
 
            yield key[-1]
2066
 
 
2067
 
    def iter_just_entries(self):
2068
 
        """Iterate over all entries.
2069
 
        
2070
 
        Unlike iter_entries(), just the entries are returned (not (path, ie))
2071
 
        and the order of entries is undefined.
2072
 
 
2073
 
        XXX: We may not want to merge this into bzr.dev.
2074
 
        """
2075
 
        for key, entry in self.id_to_entry.iteritems():
2076
 
            file_id = key[0]
2077
 
            ie = self._fileid_to_entry_cache.get(file_id, None)
2078
 
            if ie is None:
2079
 
                ie = self._bytes_to_entry(entry)
2080
 
                self._fileid_to_entry_cache[file_id] = ie
2081
 
            yield ie
2082
 
 
2083
 
    def iter_changes(self, basis):
2084
 
        """Generate a Tree.iter_changes change list between this and basis.
2085
 
 
2086
 
        :param basis: Another CHKInventory.
2087
 
        :return: An iterator over the changes between self and basis, as per
2088
 
            tree.iter_changes().
2089
 
        """
2090
 
        # We want: (file_id, (path_in_source, path_in_target),
2091
 
        # changed_content, versioned, parent, name, kind,
2092
 
        # executable)
2093
 
        for key, basis_value, self_value in \
2094
 
            self.id_to_entry.iter_changes(basis.id_to_entry):
2095
 
            file_id = key[0]
2096
 
            if basis_value is not None:
2097
 
                basis_entry = basis._bytes_to_entry(basis_value)
2098
 
                path_in_source = basis.id2path(file_id)
2099
 
                basis_parent = basis_entry.parent_id
2100
 
                basis_name = basis_entry.name
2101
 
                basis_executable = basis_entry.executable
2102
 
            else:
2103
 
                path_in_source = None
2104
 
                basis_parent = None
2105
 
                basis_name = None
2106
 
                basis_executable = None
2107
 
            if self_value is not None:
2108
 
                self_entry = self._bytes_to_entry(self_value)
2109
 
                path_in_target = self.id2path(file_id)
2110
 
                self_parent = self_entry.parent_id
2111
 
                self_name = self_entry.name
2112
 
                self_executable = self_entry.executable
2113
 
            else:
2114
 
                path_in_target = None
2115
 
                self_parent = None
2116
 
                self_name = None
2117
 
                self_executable = None
2118
 
            if basis_value is None:
2119
 
                # add
2120
 
                kind = (None, self_entry.kind)
2121
 
                versioned = (False, True)
2122
 
            elif self_value is None:
2123
 
                # delete
2124
 
                kind = (basis_entry.kind, None)
2125
 
                versioned = (True, False)
2126
 
            else:
2127
 
                kind = (basis_entry.kind, self_entry.kind)
2128
 
                versioned = (True, True)
2129
 
            changed_content = False
2130
 
            if kind[0] != kind[1]:
2131
 
                changed_content = True
2132
 
            elif kind[0] == 'file':
2133
 
                if (self_entry.text_size != basis_entry.text_size or
2134
 
                    self_entry.text_sha1 != basis_entry.text_sha1):
2135
 
                    changed_content = True
2136
 
            elif kind[0] == 'symlink':
2137
 
                if self_entry.symlink_target != basis_entry.symlink_target:
2138
 
                    changed_content = True
2139
 
            elif kind[0] == 'tree-reference':
2140
 
                if (self_entry.reference_revision !=
2141
 
                    basis_entry.reference_revision):
2142
 
                    changed_content = True
2143
 
            parent = (basis_parent, self_parent)
2144
 
            name = (basis_name, self_name)
2145
 
            executable = (basis_executable, self_executable)
2146
 
            if (not changed_content
2147
 
                and parent[0] == parent[1]
2148
 
                and name[0] == name[1]
2149
 
                and executable[0] == executable[1]):
2150
 
                # Could happen when only the revision changed for a directory
2151
 
                # for instance.
2152
 
                continue
2153
 
            yield (file_id, (path_in_source, path_in_target), changed_content,
2154
 
                versioned, parent, name, kind, executable)
2155
 
 
2156
 
    def __len__(self):
2157
 
        """Return the number of entries in the inventory."""
2158
 
        return len(self.id_to_entry)
2159
 
 
2160
 
    def _make_delta(self, old):
2161
 
        """Make an inventory delta from two inventories."""
2162
 
        if type(old) != CHKInventory:
2163
 
            return CommonInventory._make_delta(self, old)
2164
 
        delta = []
2165
 
        for key, old_value, self_value in \
2166
 
            self.id_to_entry.iter_changes(old.id_to_entry):
2167
 
            file_id = key[0]
2168
 
            if old_value is not None:
2169
 
                old_path = old.id2path(file_id)
2170
 
            else:
2171
 
                old_path = None
2172
 
            if self_value is not None:
2173
 
                entry = self._bytes_to_entry(self_value)
2174
 
                self._fileid_to_entry_cache[file_id] = entry
2175
 
                new_path = self.id2path(file_id)
2176
 
            else:
2177
 
                entry = None
2178
 
                new_path = None
2179
 
            delta.append((old_path, new_path, file_id, entry))
2180
 
        return delta
2181
 
 
2182
 
    def path2id(self, relpath):
2183
 
        """See CommonInventory.path2id()."""
2184
 
        # TODO: perhaps support negative hits?
2185
 
        result = self._path_to_fileid_cache.get(relpath, None)
2186
 
        if result is not None:
2187
 
            return result
2188
 
        if isinstance(relpath, basestring):
2189
 
            names = osutils.splitpath(relpath)
2190
 
        else:
2191
 
            names = relpath
2192
 
        current_id = self.root_id
2193
 
        if current_id is None:
2194
 
            return None
2195
 
        parent_id_index = self.parent_id_basename_to_file_id
2196
 
        cur_path = None
2197
 
        for basename in names:
2198
 
            if cur_path is None:
2199
 
                cur_path = basename
2200
 
            else:
2201
 
                cur_path = cur_path + '/' + basename
2202
 
            basename_utf8 = basename.encode('utf8')
2203
 
            file_id = self._path_to_fileid_cache.get(cur_path, None)
2204
 
            if file_id is None:
2205
 
                key_filter = [StaticTuple(current_id, basename_utf8)]
2206
 
                items = parent_id_index.iteritems(key_filter)
2207
 
                for (parent_id, name_utf8), file_id in items:
2208
 
                    if parent_id != current_id or name_utf8 != basename_utf8:
2209
 
                        raise errors.BzrError("corrupt inventory lookup! "
2210
 
                            "%r %r %r %r" % (parent_id, current_id, name_utf8,
2211
 
                            basename_utf8))
2212
 
                if file_id is None:
2213
 
                    return None
2214
 
                else:
2215
 
                    self._path_to_fileid_cache[cur_path] = file_id
2216
 
            current_id = file_id
2217
 
        return current_id
2218
 
 
2219
 
    def to_lines(self):
2220
 
        """Serialise the inventory to lines."""
2221
 
        lines = ["chkinventory:\n"]
2222
 
        if self._search_key_name != 'plain':
2223
 
            # custom ordering grouping things that don't change together
2224
 
            lines.append('search_key_name: %s\n' % (self._search_key_name,))
2225
 
            lines.append("root_id: %s\n" % self.root_id)
2226
 
            lines.append('parent_id_basename_to_file_id: %s\n' %
2227
 
                (self.parent_id_basename_to_file_id.key()[0],))
2228
 
            lines.append("revision_id: %s\n" % self.revision_id)
2229
 
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
2230
 
        else:
2231
 
            lines.append("revision_id: %s\n" % self.revision_id)
2232
 
            lines.append("root_id: %s\n" % self.root_id)
2233
 
            if self.parent_id_basename_to_file_id is not None:
2234
 
                lines.append('parent_id_basename_to_file_id: %s\n' %
2235
 
                    (self.parent_id_basename_to_file_id.key()[0],))
2236
 
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
2237
 
        return lines
2238
 
 
2239
 
    @property
2240
 
    def root(self):
2241
 
        """Get the root entry."""
2242
 
        return self[self.root_id]
2243
 
 
2244
 
 
2245
 
class CHKInventoryDirectory(InventoryDirectory):
2246
 
    """A directory in an inventory."""
2247
 
 
2248
 
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
2249
 
                 'text_id', 'parent_id', '_children', 'executable',
2250
 
                 'revision', 'symlink_target', 'reference_revision',
2251
 
                 '_chk_inventory']
2252
 
 
2253
 
    def __init__(self, file_id, name, parent_id, chk_inventory):
2254
 
        # Don't call InventoryDirectory.__init__ - it isn't right for this
2255
 
        # class.
2256
 
        InventoryEntry.__init__(self, file_id, name, parent_id)
2257
 
        self._children = None
2258
 
        self.kind = 'directory'
2259
 
        self._chk_inventory = chk_inventory
2260
 
 
2261
 
    @property
2262
 
    def children(self):
2263
 
        """Access the list of children of this directory.
2264
 
 
2265
 
        With a parent_id_basename_to_file_id index, loads all the children,
2266
 
        without loads the entire index. Without is bad. A more sophisticated
2267
 
        proxy object might be nice, to allow partial loading of children as
2268
 
        well when specific names are accessed. (So path traversal can be
2269
 
        written in the obvious way but not examine siblings.).
2270
 
        """
2271
 
        if self._children is not None:
2272
 
            return self._children
2273
 
        # No longer supported
2274
 
        if self._chk_inventory.parent_id_basename_to_file_id is None:
2275
 
            raise AssertionError("Inventories without"
2276
 
                " parent_id_basename_to_file_id are no longer supported")
2277
 
        result = {}
2278
 
        # XXX: Todo - use proxy objects for the children rather than loading
2279
 
        # all when the attribute is referenced.
2280
 
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
2281
 
        child_keys = set()
2282
 
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
2283
 
            key_filter=[StaticTuple(self.file_id,)]):
2284
 
            child_keys.add(StaticTuple(file_id,))
2285
 
        cached = set()
2286
 
        for file_id_key in child_keys:
2287
 
            entry = self._chk_inventory._fileid_to_entry_cache.get(
2288
 
                file_id_key[0], None)
2289
 
            if entry is not None:
2290
 
                result[entry.name] = entry
2291
 
                cached.add(file_id_key)
2292
 
        child_keys.difference_update(cached)
2293
 
        # populate; todo: do by name
2294
 
        id_to_entry = self._chk_inventory.id_to_entry
2295
 
        for file_id_key, bytes in id_to_entry.iteritems(child_keys):
2296
 
            entry = self._chk_inventory._bytes_to_entry(bytes)
2297
 
            result[entry.name] = entry
2298
 
            self._chk_inventory._fileid_to_entry_cache[file_id_key[0]] = entry
2299
 
        self._children = result
2300
 
        return result
2301
 
 
2302
1378
entry_factory = {
2303
1379
    'directory': InventoryDirectory,
2304
1380
    'file': InventoryFile,
2316
1392
    """
2317
1393
    if file_id is None:
2318
1394
        file_id = generate_ids.gen_file_id(name)
2319
 
    name = ensure_normalized_name(name)
2320
 
    try:
2321
 
        factory = entry_factory[kind]
2322
 
    except KeyError:
2323
 
        raise errors.BadFileKindError(name, kind)
2324
 
    return factory(file_id, name, parent_id)
2325
 
 
2326
 
 
2327
 
def ensure_normalized_name(name):
2328
 
    """Normalize name.
2329
 
 
2330
 
    :raises InvalidNormalization: When name is not normalized, and cannot be
2331
 
        accessed on this platform by the normalized path.
2332
 
    :return: The NFC normalised version of name.
2333
 
    """
 
1395
    else:
 
1396
        file_id = osutils.safe_file_id(file_id)
 
1397
 
2334
1398
    #------- This has been copied to bzrlib.dirstate.DirState.add, please
2335
1399
    # keep them synchronised.
2336
1400
    # we dont import normalized_filename directly because we want to be
2338
1402
    norm_name, can_access = osutils.normalized_filename(name)
2339
1403
    if norm_name != name:
2340
1404
        if can_access:
2341
 
            return norm_name
 
1405
            name = norm_name
2342
1406
        else:
2343
1407
            # TODO: jam 20060701 This would probably be more useful
2344
1408
            #       if the error was raised with the full path
2345
1409
            raise errors.InvalidNormalization(name)
2346
 
    return name
 
1410
 
 
1411
    try:
 
1412
        factory = entry_factory[kind]
 
1413
    except KeyError:
 
1414
        raise BzrError("unknown kind %r" % kind)
 
1415
    return factory(file_id, name, parent_id)
2347
1416
 
2348
1417
 
2349
1418
_NAME_RE = None
2352
1421
    global _NAME_RE
2353
1422
    if _NAME_RE is None:
2354
1423
        _NAME_RE = re.compile(r'^[^/\\]+$')
2355
 
 
 
1424
        
2356
1425
    return bool(_NAME_RE.match(name))
2357
 
 
2358
 
 
2359
 
def _check_delta_unique_ids(delta):
2360
 
    """Decorate a delta and check that the file ids in it are unique.
2361
 
 
2362
 
    :return: A generator over delta.
2363
 
    """
2364
 
    ids = set()
2365
 
    for item in delta:
2366
 
        length = len(ids) + 1
2367
 
        ids.add(item[2])
2368
 
        if len(ids) != length:
2369
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2370
 
                "repeated file_id")
2371
 
        yield item
2372
 
 
2373
 
 
2374
 
def _check_delta_unique_new_paths(delta):
2375
 
    """Decorate a delta and check that the new paths in it are unique.
2376
 
 
2377
 
    :return: A generator over delta.
2378
 
    """
2379
 
    paths = set()
2380
 
    for item in delta:
2381
 
        length = len(paths) + 1
2382
 
        path = item[1]
2383
 
        if path is not None:
2384
 
            paths.add(path)
2385
 
            if len(paths) != length:
2386
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2387
 
        yield item
2388
 
 
2389
 
 
2390
 
def _check_delta_unique_old_paths(delta):
2391
 
    """Decorate a delta and check that the old paths in it are unique.
2392
 
 
2393
 
    :return: A generator over delta.
2394
 
    """
2395
 
    paths = set()
2396
 
    for item in delta:
2397
 
        length = len(paths) + 1
2398
 
        path = item[0]
2399
 
        if path is not None:
2400
 
            paths.add(path)
2401
 
            if len(paths) != length:
2402
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2403
 
        yield item
2404
 
 
2405
 
 
2406
 
def _check_delta_ids_are_valid(delta):
2407
 
    """Decorate a delta and check that the ids in it are valid.
2408
 
 
2409
 
    :return: A generator over delta.
2410
 
    """
2411
 
    for item in delta:
2412
 
        entry = item[3]
2413
 
        if item[2] is None:
2414
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2415
 
                "entry with file_id None %r" % entry)
2416
 
        if type(item[2]) != str:
2417
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2418
 
                "entry with non bytes file_id %r" % entry)
2419
 
        yield item
2420
 
 
2421
 
 
2422
 
def _check_delta_ids_match_entry(delta):
2423
 
    """Decorate a delta and check that the ids in it match the entry.file_id.
2424
 
 
2425
 
    :return: A generator over delta.
2426
 
    """
2427
 
    for item in delta:
2428
 
        entry = item[3]
2429
 
        if entry is not None:
2430
 
            if entry.file_id != item[2]:
2431
 
                raise errors.InconsistentDelta(item[0] or item[1], item[2],
2432
 
                    "mismatched id with %r" % entry)
2433
 
        yield item
2434
 
 
2435
 
 
2436
 
def _check_delta_new_path_entry_both_or_None(delta):
2437
 
    """Decorate a delta and check that the new_path and entry are paired.
2438
 
 
2439
 
    :return: A generator over delta.
2440
 
    """
2441
 
    for item in delta:
2442
 
        new_path = item[1]
2443
 
        entry = item[3]
2444
 
        if new_path is None and entry is not None:
2445
 
            raise errors.InconsistentDelta(item[0], item[1],
2446
 
                "Entry with no new_path")
2447
 
        if new_path is not None and entry is None:
2448
 
            raise errors.InconsistentDelta(new_path, item[1],
2449
 
                "new_path with no entry")
2450
 
        yield item