~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/inventory.py

  • Committer: Robert Collins
  • Date: 2007-03-07 01:14:11 UTC
  • mfrom: (2321 +trunk)
  • mto: (2321.1.1 integration)
  • mto: This revision was merged to the branch mainline in revision 2322.
  • Revision ID: robertc@robertcollins.net-20070307011411-0cmmc8atx67v3nv7
Merge bzr.dev.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
# FIXME: This refactoring of the workingtree code doesn't seem to keep
 
17
# FIXME: This refactoring of the workingtree code doesn't seem to keep 
18
18
# the WorkingTree's copy of the inventory in sync with the branch.  The
19
19
# branch modifies its working inventory when it does a commit to make
20
20
# missing files permanently removed.
27
27
# created, but it's not for now.
28
28
ROOT_ID = "TREE_ROOT"
29
29
 
 
30
import os
 
31
import re
 
32
import sys
 
33
 
30
34
from bzrlib.lazy_import import lazy_import
31
35
lazy_import(globals(), """
32
36
import collections
33
 
import copy
34
 
import os
35
 
import re
36
37
import tarfile
37
38
 
38
39
import bzrlib
39
40
from bzrlib import (
40
 
    chk_map,
41
41
    errors,
42
42
    generate_ids,
43
43
    osutils,
44
44
    symbol_versioning,
 
45
    workingtree,
45
46
    )
46
47
""")
47
48
 
49
50
    BzrCheckError,
50
51
    BzrError,
51
52
    )
52
 
from bzrlib.symbol_versioning import deprecated_in, deprecated_method
53
53
from bzrlib.trace import mutter
54
 
from bzrlib.static_tuple import StaticTuple
55
54
 
56
55
 
57
56
class InventoryEntry(object):
69
68
        file_id of the parent directory, or ROOT_ID
70
69
 
71
70
    revision
72
 
        the revision_id in which this variation of this file was
 
71
        the revision_id in which this variation of this file was 
73
72
        introduced.
74
73
 
75
74
    executable
78
77
 
79
78
    text_sha1
80
79
        sha-1 of the text of the file
81
 
 
 
80
        
82
81
    text_size
83
82
        size in bytes of the text of the file
84
 
 
 
83
        
85
84
    (reading a version 4 tree created a text_id field.)
86
85
 
87
86
    >>> i = Inventory()
90
89
    >>> i.add(InventoryDirectory('123', 'src', ROOT_ID))
91
90
    InventoryDirectory('123', 'src', parent_id='TREE_ROOT', revision=None)
92
91
    >>> i.add(InventoryFile('2323', 'hello.c', parent_id='123'))
93
 
    InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None, revision=None)
 
92
    InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None)
94
93
    >>> shouldbe = {0: '', 1: 'src', 2: 'src/hello.c'}
95
94
    >>> for ix, j in enumerate(i.iter_entries()):
96
95
    ...   print (j[0] == shouldbe[ix], j[1])
97
 
    ...
 
96
    ... 
98
97
    (True, InventoryDirectory('TREE_ROOT', u'', parent_id=None, revision=None))
99
98
    (True, InventoryDirectory('123', 'src', parent_id='TREE_ROOT', revision=None))
100
 
    (True, InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None, revision=None))
 
99
    (True, InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None))
101
100
    >>> i.add(InventoryFile('2324', 'bye.c', '123'))
102
 
    InventoryFile('2324', 'bye.c', parent_id='123', sha1=None, len=None, revision=None)
 
101
    InventoryFile('2324', 'bye.c', parent_id='123', sha1=None, len=None)
103
102
    >>> i.add(InventoryDirectory('2325', 'wibble', '123'))
104
103
    InventoryDirectory('2325', 'wibble', parent_id='123', revision=None)
105
104
    >>> i.path2id('src/wibble')
107
106
    >>> '2325' in i
108
107
    True
109
108
    >>> i.add(InventoryFile('2326', 'wibble.c', '2325'))
110
 
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
 
109
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None)
111
110
    >>> i['2326']
112
 
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
 
111
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None)
113
112
    >>> for path, entry in i.iter_entries():
114
113
    ...     print path
115
 
    ...
 
114
    ...     assert i.path2id(path)
 
115
    ... 
116
116
    <BLANKLINE>
117
117
    src
118
118
    src/bye.c
125
125
 
126
126
    # Constants returned by describe_change()
127
127
    #
128
 
    # TODO: These should probably move to some kind of FileChangeDescription
129
 
    # class; that's like what's inside a TreeDelta but we want to be able to
 
128
    # TODO: These should probably move to some kind of FileChangeDescription 
 
129
    # class; that's like what's inside a TreeDelta but we want to be able to 
130
130
    # generate them just for one file at a time.
131
131
    RENAMED = 'renamed'
132
132
    MODIFIED_AND_RENAMED = 'modified and renamed'
133
 
 
 
133
    
134
134
    __slots__ = []
135
135
 
136
136
    def detect_changes(self, old_entry):
137
137
        """Return a (text_modified, meta_modified) from this to old_entry.
138
 
 
139
 
        _read_tree_state must have been called on self and old_entry prior to
 
138
        
 
139
        _read_tree_state must have been called on self and old_entry prior to 
140
140
        calling detect_changes.
141
141
        """
142
142
        return False, False
143
143
 
 
144
    def diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
 
145
             output_to, reverse=False):
 
146
        """Perform a diff from this to to_entry.
 
147
 
 
148
        text_diff will be used for textual difference calculation.
 
149
        This is a template method, override _diff in child classes.
 
150
        """
 
151
        self._read_tree_state(tree.id2path(self.file_id), tree)
 
152
        if to_entry:
 
153
            # cannot diff from one kind to another - you must do a removal
 
154
            # and an addif they do not match.
 
155
            assert self.kind == to_entry.kind
 
156
            to_entry._read_tree_state(to_tree.id2path(to_entry.file_id),
 
157
                                      to_tree)
 
158
        self._diff(text_diff, from_label, tree, to_label, to_entry, to_tree,
 
159
                   output_to, reverse)
 
160
 
144
161
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
145
162
             output_to, reverse=False):
146
163
        """Perform a diff between two entries of the same kind."""
147
164
 
148
 
    def parent_candidates(self, previous_inventories):
149
 
        """Find possible per-file graph parents.
150
 
 
151
 
        This is currently defined by:
152
 
         - Select the last changed revision in the parent inventory.
153
 
         - Do deal with a short lived bug in bzr 0.8's development two entries
154
 
           that have the same last changed but different 'x' bit settings are
155
 
           changed in-place.
 
165
    def find_previous_heads(self, previous_inventories,
 
166
                            versioned_file_store,
 
167
                            transaction,
 
168
                            entry_vf=None):
 
169
        """Return the revisions and entries that directly precede this.
 
170
 
 
171
        Returned as a map from revision to inventory entry.
 
172
 
 
173
        This is a map containing the file revisions in all parents
 
174
        for which the file exists, and its revision is not a parent of
 
175
        any other. If the file is new, the set will be empty.
 
176
 
 
177
        :param versioned_file_store: A store where ancestry data on this
 
178
                                     file id can be queried.
 
179
        :param transaction: The transaction that queries to the versioned 
 
180
                            file store should be completed under.
 
181
        :param entry_vf: The entry versioned file, if its already available.
156
182
        """
 
183
        def get_ancestors(weave, entry):
 
184
            return set(weave.get_ancestry(entry.revision))
157
185
        # revision:ie mapping for each ie found in previous_inventories.
158
186
        candidates = {}
 
187
        # revision:ie mapping with one revision for each head.
 
188
        heads = {}
 
189
        # revision: ancestor list for each head
 
190
        head_ancestors = {}
159
191
        # identify candidate head revision ids.
160
192
        for inv in previous_inventories:
161
193
            if self.file_id in inv:
162
194
                ie = inv[self.file_id]
 
195
                assert ie.file_id == self.file_id
163
196
                if ie.revision in candidates:
164
197
                    # same revision value in two different inventories:
165
198
                    # correct possible inconsistencies:
166
 
                    #     * there was a bug in revision updates with 'x' bit
 
199
                    #     * there was a bug in revision updates with 'x' bit 
167
200
                    #       support.
168
201
                    try:
169
202
                        if candidates[ie.revision].executable != ie.executable:
171
204
                            ie.executable = False
172
205
                    except AttributeError:
173
206
                        pass
 
207
                    # must now be the same.
 
208
                    assert candidates[ie.revision] == ie
174
209
                else:
175
210
                    # add this revision as a candidate.
176
211
                    candidates[ie.revision] = ie
177
 
        return candidates
178
 
 
179
 
    @deprecated_method(deprecated_in((1, 6, 0)))
 
212
 
 
213
        # common case optimisation
 
214
        if len(candidates) == 1:
 
215
            # if there is only one candidate revision found
 
216
            # then we can opening the versioned file to access ancestry:
 
217
            # there cannot be any ancestors to eliminate when there is 
 
218
            # only one revision available.
 
219
            heads[ie.revision] = ie
 
220
            return heads
 
221
 
 
222
        # eliminate ancestors amongst the available candidates:
 
223
        # heads are those that are not an ancestor of any other candidate
 
224
        # - this provides convergence at a per-file level.
 
225
        for ie in candidates.values():
 
226
            # may be an ancestor of a known head:
 
227
            already_present = 0 != len(
 
228
                [head for head in heads 
 
229
                 if ie.revision in head_ancestors[head]])
 
230
            if already_present:
 
231
                # an ancestor of an analyzed candidate.
 
232
                continue
 
233
            # not an ancestor of a known head:
 
234
            # load the versioned file for this file id if needed
 
235
            if entry_vf is None:
 
236
                entry_vf = versioned_file_store.get_weave_or_empty(
 
237
                    self.file_id, transaction)
 
238
            ancestors = get_ancestors(entry_vf, ie)
 
239
            # may knock something else out:
 
240
            check_heads = list(heads.keys())
 
241
            for head in check_heads:
 
242
                if head in ancestors:
 
243
                    # this previously discovered 'head' is not
 
244
                    # really a head - its an ancestor of the newly 
 
245
                    # found head,
 
246
                    heads.pop(head)
 
247
            head_ancestors[ie.revision] = ancestors
 
248
            heads[ie.revision] = ie
 
249
        return heads
 
250
 
180
251
    def get_tar_item(self, root, dp, now, tree):
181
252
        """Get a tarfile item and a file stream for its content."""
182
253
        item = tarfile.TarInfo(osutils.pathjoin(root, dp).encode('utf8'))
199
270
 
200
271
    def __init__(self, file_id, name, parent_id, text_id=None):
201
272
        """Create an InventoryEntry
202
 
 
 
273
        
203
274
        The filename must be a single component, relative to the
204
275
        parent directory; it cannot be a whole path or relative name.
205
276
 
212
283
        Traceback (most recent call last):
213
284
        InvalidEntryName: Invalid entry name: src/hello.c
214
285
        """
 
286
        assert isinstance(name, basestring), name
215
287
        if '/' in name or '\\' in name:
216
288
            raise errors.InvalidEntryName(name=name)
217
289
        self.executable = False
219
291
        self.text_sha1 = None
220
292
        self.text_size = None
221
293
        self.file_id = file_id
 
294
        assert isinstance(file_id, (str, None.__class__)), \
 
295
            'bad type %r for %r' % (type(file_id), file_id)
222
296
        self.name = name
223
297
        self.text_id = text_id
224
298
        self.parent_id = parent_id
239
313
        raise BzrError("don't know how to export {%s} of kind %r" %
240
314
                       (self.file_id, self.kind))
241
315
 
242
 
    @deprecated_method(deprecated_in((1, 6, 0)))
243
316
    def put_on_disk(self, dest, dp, tree):
244
317
        """Create a representation of self on disk in the prefix dest.
245
 
 
 
318
        
246
319
        This is a template method - implement _put_on_disk in subclasses.
247
320
        """
248
321
        fullpath = osutils.pathjoin(dest, dp)
261
334
    def versionable_kind(kind):
262
335
        return (kind in ('file', 'directory', 'symlink', 'tree-reference'))
263
336
 
264
 
    def check(self, checker, rev_id, inv):
 
337
    def check(self, checker, rev_id, inv, tree):
265
338
        """Check this inventory entry is intact.
266
339
 
267
340
        This is a template method, override _check for kind specific
268
341
        tests.
269
342
 
270
 
        :param checker: Check object providing context for the checks;
 
343
        :param checker: Check object providing context for the checks; 
271
344
             can be used to find out what parts of the repository have already
272
345
             been checked.
273
346
        :param rev_id: Revision id from which this InventoryEntry was loaded.
274
347
             Not necessarily the last-changed revision for this file.
275
348
        :param inv: Inventory from which the entry was loaded.
 
349
        :param tree: RevisionTree for this entry.
276
350
        """
277
351
        if self.parent_id is not None:
278
352
            if not inv.has_id(self.parent_id):
279
353
                raise BzrCheckError('missing parent {%s} in inventory for revision {%s}'
280
354
                        % (self.parent_id, rev_id))
281
 
        checker._add_entry_to_text_key_references(inv, self)
282
 
        self._check(checker, rev_id)
 
355
        self._check(checker, rev_id, tree)
283
356
 
284
 
    def _check(self, checker, rev_id):
 
357
    def _check(self, checker, rev_id, tree):
285
358
        """Check this inventory entry for kind specific errors."""
286
 
        checker._report_items.append(
287
 
            'unknown entry kind %r in revision {%s}' % (self.kind, rev_id))
 
359
        raise BzrCheckError('unknown entry kind %r in revision {%s}' % 
 
360
                            (self.kind, rev_id))
288
361
 
289
362
    def copy(self):
290
363
        """Clone this inventory entry."""
293
366
    @staticmethod
294
367
    def describe_change(old_entry, new_entry):
295
368
        """Describe the change between old_entry and this.
296
 
 
 
369
        
297
370
        This smells of being an InterInventoryEntry situation, but as its
298
371
        the first one, we're making it a static method for now.
299
372
 
300
 
        An entry with a different parent, or different name is considered
 
373
        An entry with a different parent, or different name is considered 
301
374
        to be renamed. Reparenting is an internal detail.
302
375
        Note that renaming the parent does not trigger a rename for the
303
376
        child entry itself.
340
413
                   self.parent_id,
341
414
                   self.revision))
342
415
 
 
416
    def snapshot(self, revision, path, previous_entries,
 
417
                 work_tree, commit_builder):
 
418
        """Make a snapshot of this entry which may or may not have changed.
 
419
        
 
420
        This means that all its fields are populated, that it has its
 
421
        text stored in the text store or weave.
 
422
        """
 
423
        # mutter('new parents of %s are %r', path, previous_entries)
 
424
        self._read_tree_state(path, work_tree)
 
425
        # TODO: Where should we determine whether to reuse a
 
426
        # previous revision id or create a new revision? 20060606
 
427
        if len(previous_entries) == 1:
 
428
            # cannot be unchanged unless there is only one parent file rev.
 
429
            parent_ie = previous_entries.values()[0]
 
430
            if self._unchanged(parent_ie):
 
431
                # mutter("found unchanged entry")
 
432
                self.revision = parent_ie.revision
 
433
                return "unchanged"
 
434
        return self._snapshot_into_revision(revision, previous_entries, 
 
435
                                            work_tree, commit_builder)
 
436
 
 
437
    def _snapshot_into_revision(self, revision, previous_entries, work_tree,
 
438
                                commit_builder):
 
439
        """Record this revision unconditionally into a store.
 
440
 
 
441
        The entry's last-changed revision property (`revision`) is updated to 
 
442
        that of the new revision.
 
443
        
 
444
        :param revision: id of the new revision that is being recorded.
 
445
 
 
446
        :returns: String description of the commit (e.g. "merged", "modified"), etc.
 
447
        """
 
448
        # mutter('new revision {%s} for {%s}', revision, self.file_id)
 
449
        self.revision = revision
 
450
        self._snapshot_text(previous_entries, work_tree, commit_builder)
 
451
 
 
452
    def _snapshot_text(self, file_parents, work_tree, commit_builder): 
 
453
        """Record the 'text' of this entry, whatever form that takes.
 
454
        
 
455
        This default implementation simply adds an empty text.
 
456
        """
 
457
        raise NotImplementedError(self._snapshot_text)
 
458
 
343
459
    def __eq__(self, other):
344
 
        if other is self:
345
 
            # For the case when objects are cached
346
 
            return True
347
460
        if not isinstance(other, InventoryEntry):
348
461
            return NotImplemented
349
462
 
378
491
        # renamed
379
492
        elif previous_ie.name != self.name:
380
493
            compatible = False
381
 
        elif previous_ie.kind != self.kind:
382
 
            compatible = False
383
494
        return compatible
384
495
 
385
496
    def _read_tree_state(self, path, work_tree):
386
497
        """Populate fields in the inventory entry from the given tree.
387
 
 
 
498
        
388
499
        Note that this should be modified to be a noop on virtual trees
389
500
        as all entries created there are prepopulated.
390
501
        """
391
 
        # TODO: Rather than running this manually, we should check the
 
502
        # TODO: Rather than running this manually, we should check the 
392
503
        # working sha1 and other expensive properties when they're
393
504
        # first requested, or preload them if they're already known
394
505
        pass            # nothing to do by default
403
514
                 'text_id', 'parent_id', 'children', 'executable',
404
515
                 'revision', 'symlink_target', 'reference_revision']
405
516
 
406
 
    def _check(self, checker, rev_id):
 
517
    def _check(self, checker, rev_id, tree):
407
518
        """See InventoryEntry._check"""
408
519
 
409
520
    def __init__(self, file_id):
420
531
    def __eq__(self, other):
421
532
        if not isinstance(other, RootEntry):
422
533
            return NotImplemented
423
 
 
 
534
        
424
535
        return (self.file_id == other.file_id) \
425
536
               and (self.children == other.children)
426
537
 
432
543
                 'text_id', 'parent_id', 'children', 'executable',
433
544
                 'revision', 'symlink_target', 'reference_revision']
434
545
 
435
 
    def _check(self, checker, rev_id):
 
546
    def _check(self, checker, rev_id, tree):
436
547
        """See InventoryEntry._check"""
437
 
        if (self.text_sha1 is not None or self.text_size is not None or
438
 
            self.text_id is not None):
439
 
            checker._report_items.append('directory {%s} has text in revision {%s}'
 
548
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
 
549
            raise BzrCheckError('directory {%s} has text in revision {%s}'
440
550
                                % (self.file_id, rev_id))
441
 
        # In non rich root repositories we do not expect a file graph for the
442
 
        # root.
443
 
        if self.name == '' and not checker.rich_roots:
444
 
            return
445
 
        # Directories are stored as an empty file, but the file should exist
446
 
        # to provide a per-fileid log. The hash of every directory content is
447
 
        # "da..." below (the sha1sum of '').
448
 
        checker.add_pending_item(rev_id,
449
 
            ('texts', self.file_id, self.revision), 'text',
450
 
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
451
551
 
452
552
    def copy(self):
453
553
        other = InventoryDirectory(self.file_id, self.name, self.parent_id)
478
578
        """See InventoryEntry._put_on_disk."""
479
579
        os.mkdir(fullpath)
480
580
 
 
581
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
582
        """See InventoryEntry._snapshot_text."""
 
583
        commit_builder.modified_directory(self.file_id, file_parents)
 
584
 
481
585
 
482
586
class InventoryFile(InventoryEntry):
483
587
    """A file in an inventory."""
486
590
                 'text_id', 'parent_id', 'children', 'executable',
487
591
                 'revision', 'symlink_target', 'reference_revision']
488
592
 
489
 
    def _check(self, checker, tree_revision_id):
 
593
    def _check(self, checker, tree_revision_id, tree):
490
594
        """See InventoryEntry._check"""
491
 
        # TODO: check size too.
492
 
        checker.add_pending_item(tree_revision_id,
493
 
            ('texts', self.file_id, self.revision), 'text',
494
 
             self.text_sha1)
495
 
        if self.text_size is None:
496
 
            checker._report_items.append(
497
 
                'fileid {%s} in {%s} has None for text_size' % (self.file_id,
498
 
                tree_revision_id))
 
595
        t = (self.file_id, self.revision)
 
596
        if t in checker.checked_texts:
 
597
            prev_sha = checker.checked_texts[t]
 
598
            if prev_sha != self.text_sha1:
 
599
                raise BzrCheckError('mismatched sha1 on {%s} in {%s}' %
 
600
                                    (self.file_id, tree_revision_id))
 
601
            else:
 
602
                checker.repeated_text_cnt += 1
 
603
                return
 
604
 
 
605
        if self.file_id not in checker.checked_weaves:
 
606
            mutter('check weave {%s}', self.file_id)
 
607
            w = tree.get_weave(self.file_id)
 
608
            # Not passing a progress bar, because it creates a new
 
609
            # progress, which overwrites the current progress,
 
610
            # and doesn't look nice
 
611
            w.check()
 
612
            checker.checked_weaves[self.file_id] = True
 
613
        else:
 
614
            w = tree.get_weave(self.file_id)
 
615
 
 
616
        mutter('check version {%s} of {%s}', tree_revision_id, self.file_id)
 
617
        checker.checked_text_cnt += 1
 
618
        # We can't check the length, because Weave doesn't store that
 
619
        # information, and the whole point of looking at the weave's
 
620
        # sha1sum is that we don't have to extract the text.
 
621
        if self.text_sha1 != w.get_sha1(self.revision):
 
622
            raise BzrCheckError('text {%s} version {%s} wrong sha1' 
 
623
                                % (self.file_id, self.revision))
 
624
        checker.checked_texts[t] = self.text_sha1
499
625
 
500
626
    def copy(self):
501
627
        other = InventoryFile(self.file_id, self.name, self.parent_id)
508
634
 
509
635
    def detect_changes(self, old_entry):
510
636
        """See InventoryEntry.detect_changes."""
 
637
        assert self.text_sha1 is not None
 
638
        assert old_entry.text_sha1 is not None
511
639
        text_modified = (self.text_sha1 != old_entry.text_sha1)
512
640
        meta_modified = (self.executable != old_entry.executable)
513
641
        return text_modified, meta_modified
515
643
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
516
644
             output_to, reverse=False):
517
645
        """See InventoryEntry._diff."""
518
 
        from bzrlib.diff import DiffText
519
 
        from_file_id = self.file_id
520
 
        if to_entry:
521
 
            to_file_id = to_entry.file_id
522
 
        else:
523
 
            to_file_id = None
524
 
        if reverse:
525
 
            to_file_id, from_file_id = from_file_id, to_file_id
526
 
            tree, to_tree = to_tree, tree
527
 
            from_label, to_label = to_label, from_label
528
 
        differ = DiffText(tree, to_tree, output_to, 'utf-8', '', '',
529
 
                          text_diff)
530
 
        return differ.diff_text(from_file_id, to_file_id, from_label, to_label)
 
646
        try:
 
647
            from_text = tree.get_file(self.file_id).readlines()
 
648
            if to_entry:
 
649
                to_text = to_tree.get_file(to_entry.file_id).readlines()
 
650
            else:
 
651
                to_text = []
 
652
            if not reverse:
 
653
                text_diff(from_label, from_text,
 
654
                          to_label, to_text, output_to)
 
655
            else:
 
656
                text_diff(to_label, to_text,
 
657
                          from_label, from_text, output_to)
 
658
        except errors.BinaryFile:
 
659
            if reverse:
 
660
                label_pair = (to_label, from_label)
 
661
            else:
 
662
                label_pair = (from_label, to_label)
 
663
            print >> output_to, "Binary files %s and %s differ" % label_pair
531
664
 
532
665
    def has_text(self):
533
666
        """See InventoryEntry.has_text."""
566
699
        self.executable = work_tree.is_executable(self.file_id, path=path)
567
700
 
568
701
    def __repr__(self):
569
 
        return ("%s(%r, %r, parent_id=%r, sha1=%r, len=%s, revision=%s)"
 
702
        return ("%s(%r, %r, parent_id=%r, sha1=%r, len=%s)"
570
703
                % (self.__class__.__name__,
571
704
                   self.file_id,
572
705
                   self.name,
573
706
                   self.parent_id,
574
707
                   self.text_sha1,
575
 
                   self.text_size,
576
 
                   self.revision))
 
708
                   self.text_size))
577
709
 
578
710
    def _forget_tree_state(self):
579
711
        self.text_sha1 = None
580
712
 
 
713
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
714
        """See InventoryEntry._snapshot_text."""
 
715
        def get_content_byte_lines():
 
716
            return work_tree.get_file(self.file_id).readlines()
 
717
        self.text_sha1, self.text_size = commit_builder.modified_file_text(
 
718
            self.file_id, file_parents, get_content_byte_lines, self.text_sha1, self.text_size)
 
719
 
581
720
    def _unchanged(self, previous_ie):
582
721
        """See InventoryEntry._unchanged."""
583
722
        compatible = super(InventoryFile, self)._unchanged(previous_ie)
599
738
                 'text_id', 'parent_id', 'children', 'executable',
600
739
                 'revision', 'symlink_target', 'reference_revision']
601
740
 
602
 
    def _check(self, checker, tree_revision_id):
 
741
    def _check(self, checker, rev_id, tree):
603
742
        """See InventoryEntry._check"""
604
743
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
605
 
            checker._report_items.append(
606
 
               'symlink {%s} has text in revision {%s}'
607
 
                    % (self.file_id, tree_revision_id))
 
744
            raise BzrCheckError('symlink {%s} has text in revision {%s}'
 
745
                    % (self.file_id, rev_id))
608
746
        if self.symlink_target is None:
609
 
            checker._report_items.append(
610
 
                'symlink {%s} has no target in revision {%s}'
611
 
                    % (self.file_id, tree_revision_id))
612
 
        # Symlinks are stored as ''
613
 
        checker.add_pending_item(tree_revision_id,
614
 
            ('texts', self.file_id, self.revision), 'text',
615
 
             'da39a3ee5e6b4b0d3255bfef95601890afd80709')
 
747
            raise BzrCheckError('symlink {%s} has no target in revision {%s}'
 
748
                    % (self.file_id, rev_id))
616
749
 
617
750
    def copy(self):
618
751
        other = InventoryLink(self.file_id, self.name, self.parent_id)
632
765
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
633
766
             output_to, reverse=False):
634
767
        """See InventoryEntry._diff."""
635
 
        from bzrlib.diff import DiffSymlink
636
 
        old_target = self.symlink_target
 
768
        from_text = self.symlink_target
637
769
        if to_entry is not None:
638
 
            new_target = to_entry.symlink_target
639
 
        else:
640
 
            new_target = None
641
 
        if not reverse:
642
 
            old_tree = tree
643
 
            new_tree = to_tree
644
 
        else:
645
 
            old_tree = to_tree
646
 
            new_tree = tree
647
 
            new_target, old_target = old_target, new_target
648
 
        differ = DiffSymlink(old_tree, new_tree, output_to)
649
 
        return differ.diff_symlink(old_target, new_target)
 
770
            to_text = to_entry.symlink_target
 
771
            if reverse:
 
772
                temp = from_text
 
773
                from_text = to_text
 
774
                to_text = temp
 
775
            print >>output_to, '=== target changed %r => %r' % (from_text, to_text)
 
776
        else:
 
777
            if not reverse:
 
778
                print >>output_to, '=== target was %r' % self.symlink_target
 
779
            else:
 
780
                print >>output_to, '=== target is %r' % self.symlink_target
650
781
 
651
782
    def __init__(self, file_id, name, parent_id):
652
783
        super(InventoryLink, self).__init__(file_id, name, parent_id)
686
817
            compatible = False
687
818
        return compatible
688
819
 
 
820
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
821
        """See InventoryEntry._snapshot_text."""
 
822
        commit_builder.modified_link(
 
823
            self.file_id, file_parents, self.symlink_target)
 
824
 
689
825
 
690
826
class TreeReference(InventoryEntry):
691
 
 
 
827
    
692
828
    kind = 'tree-reference'
693
 
 
 
829
    
694
830
    def __init__(self, file_id, name, parent_id, revision=None,
695
831
                 reference_revision=None):
696
832
        InventoryEntry.__init__(self, file_id, name, parent_id)
701
837
        return TreeReference(self.file_id, self.name, self.parent_id,
702
838
                             self.revision, self.reference_revision)
703
839
 
 
840
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
841
        commit_builder.modified_reference(self.file_id, file_parents)
 
842
 
704
843
    def _read_tree_state(self, path, work_tree):
705
844
        """Populate fields in the inventory entry from the given tree.
706
845
        """
708
847
            self.file_id, path)
709
848
 
710
849
    def _forget_tree_state(self):
711
 
        self.reference_revision = None
712
 
 
713
 
    def _unchanged(self, previous_ie):
714
 
        """See InventoryEntry._unchanged."""
715
 
        compatible = super(TreeReference, self)._unchanged(previous_ie)
716
 
        if self.reference_revision != previous_ie.reference_revision:
717
 
            compatible = False
718
 
        return compatible
719
 
 
720
 
 
721
 
class CommonInventory(object):
722
 
    """Basic inventory logic, defined in terms of primitives like has_id.
723
 
 
724
 
    An inventory is the metadata about the contents of a tree.
725
 
 
726
 
    This is broadly a map from file_id to entries such as directories, files,
727
 
    symlinks and tree references. Each entry maintains its own metadata like
728
 
    SHA1 and length for files, or children for a directory.
729
 
 
 
850
        self.reference_revision = None 
 
851
 
 
852
 
 
853
class Inventory(object):
 
854
    """Inventory of versioned files in a tree.
 
855
 
 
856
    This describes which file_id is present at each point in the tree,
 
857
    and possibly the SHA-1 or other information about the file.
730
858
    Entries can be looked up either by path or by file_id.
731
859
 
 
860
    The inventory represents a typical unix file tree, with
 
861
    directories containing files and subdirectories.  We never store
 
862
    the full path to a file, because renaming a directory implicitly
 
863
    moves all of its contents.  This class internally maintains a
 
864
    lookup tree that allows the children under a directory to be
 
865
    returned quickly.
 
866
 
732
867
    InventoryEntry objects must not be modified after they are
733
868
    inserted, other than through the Inventory API.
 
869
 
 
870
    >>> inv = Inventory()
 
871
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
872
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
873
    >>> inv['123-123'].name
 
874
    'hello.c'
 
875
 
 
876
    May be treated as an iterator or set to look up file ids:
 
877
    
 
878
    >>> bool(inv.path2id('hello.c'))
 
879
    True
 
880
    >>> '123-123' in inv
 
881
    True
 
882
 
 
883
    May also look up by name:
 
884
 
 
885
    >>> [x[0] for x in inv.iter_entries()]
 
886
    ['', u'hello.c']
 
887
    >>> inv = Inventory('TREE_ROOT-12345678-12345678')
 
888
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
889
    Traceback (most recent call last):
 
890
    BzrError: parent_id {TREE_ROOT} not in inventory
 
891
    >>> inv.add(InventoryFile('123-123', 'hello.c', 'TREE_ROOT-12345678-12345678'))
 
892
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT-12345678-12345678', sha1=None, len=None)
734
893
    """
735
 
 
736
 
    def __contains__(self, file_id):
737
 
        """True if this entry contains a file with given id.
738
 
 
739
 
        >>> inv = Inventory()
740
 
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
741
 
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
742
 
        >>> '123' in inv
743
 
        True
744
 
        >>> '456' in inv
745
 
        False
746
 
 
747
 
        Note that this method along with __iter__ are not encouraged for use as
748
 
        they are less clear than specific query methods - they may be rmeoved
749
 
        in the future.
750
 
        """
751
 
        return self.has_id(file_id)
752
 
 
753
 
    def has_filename(self, filename):
754
 
        return bool(self.path2id(filename))
755
 
 
756
 
    def id2path(self, file_id):
757
 
        """Return as a string the path to file_id.
758
 
 
759
 
        >>> i = Inventory()
760
 
        >>> e = i.add(InventoryDirectory('src-id', 'src', ROOT_ID))
761
 
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
762
 
        >>> print i.id2path('foo-id')
763
 
        src/foo.c
764
 
 
765
 
        :raises NoSuchId: If file_id is not present in the inventory.
766
 
        """
767
 
        # get all names, skipping root
768
 
        return '/'.join(reversed(
769
 
            [parent.name for parent in
770
 
             self._iter_file_id_parents(file_id)][:-1]))
771
 
 
772
 
    def iter_entries(self, from_dir=None, recursive=True):
773
 
        """Return (path, entry) pairs, in order by name.
774
 
        
775
 
        :param from_dir: if None, start from the root,
776
 
          otherwise start from this directory (either file-id or entry)
777
 
        :param recursive: recurse into directories or not
778
 
        """
 
894
    def __init__(self, root_id=ROOT_ID, revision_id=None):
 
895
        """Create or read an inventory.
 
896
 
 
897
        If a working directory is specified, the inventory is read
 
898
        from there.  If the file is specified, read from that. If not,
 
899
        the inventory is created empty.
 
900
 
 
901
        The inventory is created with a default root directory, with
 
902
        an id of None.
 
903
        """
 
904
        if root_id is not None:
 
905
            assert root_id.__class__ == str
 
906
            self._set_root(InventoryDirectory(root_id, u'', None))
 
907
        else:
 
908
            self.root = None
 
909
            self._byid = {}
 
910
        self.revision_id = revision_id
 
911
 
 
912
    def _set_root(self, ie):
 
913
        self.root = ie
 
914
        self._byid = {self.root.file_id: self.root}
 
915
 
 
916
    def copy(self):
 
917
        # TODO: jam 20051218 Should copy also copy the revision_id?
 
918
        entries = self.iter_entries()
 
919
        other = Inventory(entries.next()[1].file_id)
 
920
        # copy recursively so we know directories will be added before
 
921
        # their children.  There are more efficient ways than this...
 
922
        for path, entry in entries():
 
923
            other.add(entry.copy())
 
924
        return other
 
925
 
 
926
    def __iter__(self):
 
927
        return iter(self._byid)
 
928
 
 
929
    def __len__(self):
 
930
        """Returns number of entries."""
 
931
        return len(self._byid)
 
932
 
 
933
    def iter_entries(self, from_dir=None):
 
934
        """Return (path, entry) pairs, in order by name."""
779
935
        if from_dir is None:
780
936
            if self.root is None:
781
937
                return
782
938
            from_dir = self.root
783
939
            yield '', self.root
784
940
        elif isinstance(from_dir, basestring):
785
 
            from_dir = self[from_dir]
786
 
 
 
941
            from_dir = self._byid[from_dir]
 
942
            
787
943
        # unrolling the recursive called changed the time from
788
944
        # 440ms/663ms (inline/total) to 116ms/116ms
789
945
        children = from_dir.children.items()
790
946
        children.sort()
791
 
        if not recursive:
792
 
            for name, ie in children:
793
 
                yield name, ie
794
 
            return
795
947
        children = collections.deque(children)
796
948
        stack = [(u'', children)]
797
949
        while stack:
822
974
                # if we finished all children, pop it off the stack
823
975
                stack.pop()
824
976
 
825
 
    def iter_entries_by_dir(self, from_dir=None, specific_file_ids=None,
826
 
        yield_parents=False):
 
977
    def iter_entries_by_dir(self, from_dir=None, specific_file_ids=None):
827
978
        """Iterate over the entries in a directory first order.
828
979
 
829
980
        This returns all entries for a directory before returning
831
982
        lexicographically sorted order, and is a hybrid between
832
983
        depth-first and breadth-first.
833
984
 
834
 
        :param yield_parents: If True, yield the parents from the root leading
835
 
            down to specific_file_ids that have been requested. This has no
836
 
            impact if specific_file_ids is None.
837
985
        :return: This yields (path, entry) pairs
838
986
        """
839
 
        if specific_file_ids and not isinstance(specific_file_ids, set):
840
 
            specific_file_ids = set(specific_file_ids)
 
987
        if specific_file_ids:
 
988
            safe = osutils.safe_file_id
 
989
            specific_file_ids = set(safe(fid) for fid in specific_file_ids)
841
990
        # TODO? Perhaps this should return the from_dir so that the root is
842
991
        # yielded? or maybe an option?
843
992
        if from_dir is None:
844
993
            if self.root is None:
845
994
                return
846
995
            # Optimize a common case
847
 
            if (not yield_parents and specific_file_ids is not None and
848
 
                len(specific_file_ids) == 1):
 
996
            if specific_file_ids is not None and len(specific_file_ids) == 1:
849
997
                file_id = list(specific_file_ids)[0]
850
998
                if file_id in self:
851
999
                    yield self.id2path(file_id), self[file_id]
852
 
                return
 
1000
                return 
853
1001
            from_dir = self.root
854
 
            if (specific_file_ids is None or yield_parents or
 
1002
            if (specific_file_ids is None or 
855
1003
                self.root.file_id in specific_file_ids):
856
1004
                yield u'', self.root
857
1005
        elif isinstance(from_dir, basestring):
858
 
            from_dir = self[from_dir]
 
1006
            from_dir = self._byid[from_dir]
859
1007
 
860
1008
        if specific_file_ids is not None:
861
1009
            # TODO: jam 20070302 This could really be done as a loop rather
862
1010
            #       than a bunch of recursive calls.
863
1011
            parents = set()
864
 
            byid = self
 
1012
            byid = self._byid
865
1013
            def add_ancestors(file_id):
866
1014
                if file_id not in byid:
867
1015
                    return
875
1023
                add_ancestors(file_id)
876
1024
        else:
877
1025
            parents = None
878
 
 
 
1026
            
879
1027
        stack = [(u'', from_dir)]
880
1028
        while stack:
881
1029
            cur_relpath, cur_dir = stack.pop()
885
1033
 
886
1034
                child_relpath = cur_relpath + child_name
887
1035
 
888
 
                if (specific_file_ids is None or
889
 
                    child_ie.file_id in specific_file_ids or
890
 
                    (yield_parents and child_ie.file_id in parents)):
 
1036
                if (specific_file_ids is None or 
 
1037
                    child_ie.file_id in specific_file_ids):
891
1038
                    yield child_relpath, child_ie
892
1039
 
893
1040
                if child_ie.kind == 'directory':
895
1042
                        child_dirs.append((child_relpath+'/', child_ie))
896
1043
            stack.extend(reversed(child_dirs))
897
1044
 
898
 
    def _make_delta(self, old):
899
 
        """Make an inventory delta from two inventories."""
900
 
        old_ids = set(old)
901
 
        new_ids = set(self)
902
 
        adds = new_ids - old_ids
903
 
        deletes = old_ids - new_ids
904
 
        common = old_ids.intersection(new_ids)
905
 
        delta = []
906
 
        for file_id in deletes:
907
 
            delta.append((old.id2path(file_id), None, file_id, None))
908
 
        for file_id in adds:
909
 
            delta.append((None, self.id2path(file_id), file_id, self[file_id]))
910
 
        for file_id in common:
911
 
            if old[file_id] != self[file_id]:
912
 
                delta.append((old.id2path(file_id), self.id2path(file_id),
913
 
                    file_id, self[file_id]))
914
 
        return delta
915
 
 
916
 
    def _get_mutable_inventory(self):
917
 
        """Returns a mutable copy of the object.
918
 
 
919
 
        Some inventories are immutable, yet working trees, for example, needs
920
 
        to mutate exisiting inventories instead of creating a new one.
921
 
        """
922
 
        raise NotImplementedError(self._get_mutable_inventory)
923
 
 
924
 
    def make_entry(self, kind, name, parent_id, file_id=None):
925
 
        """Simple thunk to bzrlib.inventory.make_entry."""
926
 
        return make_entry(kind, name, parent_id, file_id)
927
 
 
928
1045
    def entries(self):
929
1046
        """Return list of (path, ie) for all entries except the root.
930
1047
 
949
1066
        accum = []
950
1067
        def descend(parent_ie, parent_path):
951
1068
            accum.append((parent_path, parent_ie))
952
 
 
 
1069
            
953
1070
            kids = [(ie.name, ie) for ie in parent_ie.children.itervalues() if ie.kind == 'directory']
954
1071
            kids.sort()
955
1072
 
958
1075
                descend(child_ie, child_path)
959
1076
        descend(self.root, u'')
960
1077
        return accum
961
 
 
962
 
    def path2id(self, relpath):
963
 
        """Walk down through directories to return entry of last component.
964
 
 
965
 
        :param relpath: may be either a list of path components, or a single
966
 
            string, in which case it is automatically split.
967
 
 
968
 
        This returns the entry of the last component in the path,
969
 
        which may be either a file or a directory.
970
 
 
971
 
        Returns None IFF the path is not found.
972
 
        """
973
 
        if isinstance(relpath, basestring):
974
 
            names = osutils.splitpath(relpath)
975
 
        else:
976
 
            names = relpath
977
 
 
978
 
        try:
979
 
            parent = self.root
980
 
        except errors.NoSuchId:
981
 
            # root doesn't exist yet so nothing else can
982
 
            return None
983
 
        if parent is None:
984
 
            return None
985
 
        for f in names:
986
 
            try:
987
 
                children = getattr(parent, 'children', None)
988
 
                if children is None:
989
 
                    return None
990
 
                cie = children[f]
991
 
                parent = cie
992
 
            except KeyError:
993
 
                # or raise an error?
994
 
                return None
995
 
 
996
 
        return parent.file_id
997
 
 
998
 
    def filter(self, specific_fileids):
999
 
        """Get an inventory view filtered against a set of file-ids.
1000
 
 
1001
 
        Children of directories and parents are included.
1002
 
 
1003
 
        The result may or may not reference the underlying inventory
1004
 
        so it should be treated as immutable.
1005
 
        """
1006
 
        interesting_parents = set()
1007
 
        for fileid in specific_fileids:
1008
 
            try:
1009
 
                interesting_parents.update(self.get_idpath(fileid))
1010
 
            except errors.NoSuchId:
1011
 
                # This fileid is not in the inventory - that's ok
1012
 
                pass
1013
 
        entries = self.iter_entries()
1014
 
        if self.root is None:
1015
 
            return Inventory(root_id=None)
1016
 
        other = Inventory(entries.next()[1].file_id)
1017
 
        other.root.revision = self.root.revision
1018
 
        other.revision_id = self.revision_id
1019
 
        directories_to_expand = set()
1020
 
        for path, entry in entries:
1021
 
            file_id = entry.file_id
1022
 
            if (file_id in specific_fileids
1023
 
                or entry.parent_id in directories_to_expand):
1024
 
                if entry.kind == 'directory':
1025
 
                    directories_to_expand.add(file_id)
1026
 
            elif file_id not in interesting_parents:
1027
 
                continue
1028
 
            other.add(entry.copy())
1029
 
        return other
1030
 
 
1031
 
    def get_idpath(self, file_id):
1032
 
        """Return a list of file_ids for the path to an entry.
1033
 
 
1034
 
        The list contains one element for each directory followed by
1035
 
        the id of the file itself.  So the length of the returned list
1036
 
        is equal to the depth of the file in the tree, counting the
1037
 
        root directory as depth 1.
1038
 
        """
1039
 
        p = []
1040
 
        for parent in self._iter_file_id_parents(file_id):
1041
 
            p.insert(0, parent.file_id)
1042
 
        return p
1043
 
 
1044
 
 
1045
 
class Inventory(CommonInventory):
1046
 
    """Mutable dict based in-memory inventory.
1047
 
 
1048
 
    We never store the full path to a file, because renaming a directory
1049
 
    implicitly moves all of its contents.  This class internally maintains a
1050
 
    lookup tree that allows the children under a directory to be
1051
 
    returned quickly.
1052
 
 
1053
 
    >>> inv = Inventory()
1054
 
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
1055
 
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1056
 
    >>> inv['123-123'].name
1057
 
    'hello.c'
1058
 
 
1059
 
    Id's may be looked up from paths:
1060
 
 
1061
 
    >>> inv.path2id('hello.c')
1062
 
    '123-123'
1063
 
    >>> '123-123' in inv
1064
 
    True
1065
 
 
1066
 
    There are iterators over the contents:
1067
 
 
1068
 
    >>> [entry[0] for entry in inv.iter_entries()]
1069
 
    ['', u'hello.c']
1070
 
    """
1071
 
 
1072
 
    def __init__(self, root_id=ROOT_ID, revision_id=None):
1073
 
        """Create or read an inventory.
1074
 
 
1075
 
        If a working directory is specified, the inventory is read
1076
 
        from there.  If the file is specified, read from that. If not,
1077
 
        the inventory is created empty.
1078
 
 
1079
 
        The inventory is created with a default root directory, with
1080
 
        an id of None.
1081
 
        """
1082
 
        if root_id is not None:
1083
 
            self._set_root(InventoryDirectory(root_id, u'', None))
1084
 
        else:
1085
 
            self.root = None
1086
 
            self._byid = {}
1087
 
        self.revision_id = revision_id
1088
 
 
1089
 
    def __repr__(self):
1090
 
        # More than one page of ouput is not useful anymore to debug
1091
 
        max_len = 2048
1092
 
        closing = '...}'
1093
 
        contents = repr(self._byid)
1094
 
        if len(contents) > max_len:
1095
 
            contents = contents[:(max_len-len(closing))] + closing
1096
 
        return "<Inventory object at %x, contents=%r>" % (id(self), contents)
1097
 
 
1098
 
    def apply_delta(self, delta):
1099
 
        """Apply a delta to this inventory.
1100
 
 
1101
 
        See the inventory developers documentation for the theory behind
1102
 
        inventory deltas.
1103
 
 
1104
 
        If delta application fails the inventory is left in an indeterminate
1105
 
        state and must not be used.
1106
 
 
1107
 
        :param delta: A list of changes to apply. After all the changes are
1108
 
            applied the final inventory must be internally consistent, but it
1109
 
            is ok to supply changes which, if only half-applied would have an
1110
 
            invalid result - such as supplying two changes which rename two
1111
 
            files, 'A' and 'B' with each other : [('A', 'B', 'A-id', a_entry),
1112
 
            ('B', 'A', 'B-id', b_entry)].
1113
 
 
1114
 
            Each change is a tuple, of the form (old_path, new_path, file_id,
1115
 
            new_entry).
1116
 
 
1117
 
            When new_path is None, the change indicates the removal of an entry
1118
 
            from the inventory and new_entry will be ignored (using None is
1119
 
            appropriate). If new_path is not None, then new_entry must be an
1120
 
            InventoryEntry instance, which will be incorporated into the
1121
 
            inventory (and replace any existing entry with the same file id).
1122
 
 
1123
 
            When old_path is None, the change indicates the addition of
1124
 
            a new entry to the inventory.
1125
 
 
1126
 
            When neither new_path nor old_path are None, the change is a
1127
 
            modification to an entry, such as a rename, reparent, kind change
1128
 
            etc.
1129
 
 
1130
 
            The children attribute of new_entry is ignored. This is because
1131
 
            this method preserves children automatically across alterations to
1132
 
            the parent of the children, and cases where the parent id of a
1133
 
            child is changing require the child to be passed in as a separate
1134
 
            change regardless. E.g. in the recursive deletion of a directory -
1135
 
            the directory's children must be included in the delta, or the
1136
 
            final inventory will be invalid.
1137
 
 
1138
 
            Note that a file_id must only appear once within a given delta.
1139
 
            An AssertionError is raised otherwise.
1140
 
        """
1141
 
        # Check that the delta is legal. It would be nice if this could be
1142
 
        # done within the loops below but it's safer to validate the delta
1143
 
        # before starting to mutate the inventory, as there isn't a rollback
1144
 
        # facility.
1145
 
        list(_check_delta_unique_ids(_check_delta_unique_new_paths(
1146
 
            _check_delta_unique_old_paths(_check_delta_ids_match_entry(
1147
 
            _check_delta_ids_are_valid(
1148
 
            _check_delta_new_path_entry_both_or_None(
1149
 
            delta)))))))
1150
 
 
1151
 
        children = {}
1152
 
        # Remove all affected items which were in the original inventory,
1153
 
        # starting with the longest paths, thus ensuring parents are examined
1154
 
        # after their children, which means that everything we examine has no
1155
 
        # modified children remaining by the time we examine it.
1156
 
        for old_path, file_id in sorted(((op, f) for op, np, f, e in delta
1157
 
                                        if op is not None), reverse=True):
1158
 
            # Preserve unaltered children of file_id for later reinsertion.
1159
 
            file_id_children = getattr(self[file_id], 'children', {})
1160
 
            if len(file_id_children):
1161
 
                children[file_id] = file_id_children
1162
 
            if self.id2path(file_id) != old_path:
1163
 
                raise errors.InconsistentDelta(old_path, file_id,
1164
 
                    "Entry was at wrong other path %r." % self.id2path(file_id))
1165
 
            # Remove file_id and the unaltered children. If file_id is not
1166
 
            # being deleted it will be reinserted back later.
1167
 
            self.remove_recursive_id(file_id)
1168
 
        # Insert all affected which should be in the new inventory, reattaching
1169
 
        # their children if they had any. This is done from shortest path to
1170
 
        # longest, ensuring that items which were modified and whose parents in
1171
 
        # the resulting inventory were also modified, are inserted after their
1172
 
        # parents.
1173
 
        for new_path, f, new_entry in sorted((np, f, e) for op, np, f, e in
1174
 
                                          delta if np is not None):
1175
 
            if new_entry.kind == 'directory':
1176
 
                # Pop the child which to allow detection of children whose
1177
 
                # parents were deleted and which were not reattached to a new
1178
 
                # parent.
1179
 
                replacement = InventoryDirectory(new_entry.file_id,
1180
 
                    new_entry.name, new_entry.parent_id)
1181
 
                replacement.revision = new_entry.revision
1182
 
                replacement.children = children.pop(replacement.file_id, {})
1183
 
                new_entry = replacement
1184
 
            try:
1185
 
                self.add(new_entry)
1186
 
            except errors.DuplicateFileId:
1187
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1188
 
                    "New id is already present in target.")
1189
 
            except AttributeError:
1190
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1191
 
                    "Parent is not a directory.")
1192
 
            if self.id2path(new_entry.file_id) != new_path:
1193
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1194
 
                    "New path is not consistent with parent path.")
1195
 
        if len(children):
1196
 
            # Get the parent id that was deleted
1197
 
            parent_id, children = children.popitem()
1198
 
            raise errors.InconsistentDelta("<deleted>", parent_id,
1199
 
                "The file id was deleted but its children were not deleted.")
1200
 
 
1201
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1202
 
                              propagate_caches=False):
1203
 
        """See CHKInventory.create_by_apply_delta()"""
1204
 
        new_inv = self.copy()
1205
 
        new_inv.apply_delta(inventory_delta)
1206
 
        new_inv.revision_id = new_revision_id
1207
 
        return new_inv
1208
 
 
1209
 
    def _set_root(self, ie):
1210
 
        self.root = ie
1211
 
        self._byid = {self.root.file_id: self.root}
1212
 
 
1213
 
    def copy(self):
1214
 
        # TODO: jam 20051218 Should copy also copy the revision_id?
1215
 
        entries = self.iter_entries()
1216
 
        if self.root is None:
1217
 
            return Inventory(root_id=None)
1218
 
        other = Inventory(entries.next()[1].file_id)
1219
 
        other.root.revision = self.root.revision
1220
 
        # copy recursively so we know directories will be added before
1221
 
        # their children.  There are more efficient ways than this...
1222
 
        for path, entry in entries:
1223
 
            other.add(entry.copy())
1224
 
        return other
1225
 
 
1226
 
    def _get_mutable_inventory(self):
1227
 
        """See CommonInventory._get_mutable_inventory."""
1228
 
        return copy.deepcopy(self)
1229
 
 
1230
 
    def __iter__(self):
1231
 
        """Iterate over all file-ids."""
1232
 
        return iter(self._byid)
1233
 
 
1234
 
    def iter_just_entries(self):
1235
 
        """Iterate over all entries.
1236
1078
        
1237
 
        Unlike iter_entries(), just the entries are returned (not (path, ie))
1238
 
        and the order of entries is undefined.
 
1079
    def __contains__(self, file_id):
 
1080
        """True if this entry contains a file with given id.
1239
1081
 
1240
 
        XXX: We may not want to merge this into bzr.dev.
 
1082
        >>> inv = Inventory()
 
1083
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
 
1084
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
1085
        >>> '123' in inv
 
1086
        True
 
1087
        >>> '456' in inv
 
1088
        False
1241
1089
        """
1242
 
        if self.root is None:
1243
 
            return
1244
 
        for _, ie in self._byid.iteritems():
1245
 
            yield ie
1246
 
 
1247
 
    def __len__(self):
1248
 
        """Returns number of entries."""
1249
 
        return len(self._byid)
 
1090
        file_id = osutils.safe_file_id(file_id)
 
1091
        return (file_id in self._byid)
1250
1092
 
1251
1093
    def __getitem__(self, file_id):
1252
1094
        """Return the entry for given file_id.
1253
1095
 
1254
1096
        >>> inv = Inventory()
1255
1097
        >>> inv.add(InventoryFile('123123', 'hello.c', ROOT_ID))
1256
 
        InventoryFile('123123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1098
        InventoryFile('123123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None)
1257
1099
        >>> inv['123123'].name
1258
1100
        'hello.c'
1259
1101
        """
 
1102
        file_id = osutils.safe_file_id(file_id)
1260
1103
        try:
1261
1104
            return self._byid[file_id]
1262
1105
        except KeyError:
1264
1107
            raise errors.NoSuchId(self, file_id)
1265
1108
 
1266
1109
    def get_file_kind(self, file_id):
 
1110
        file_id = osutils.safe_file_id(file_id)
1267
1111
        return self._byid[file_id].kind
1268
1112
 
1269
1113
    def get_child(self, parent_id, filename):
 
1114
        parent_id = osutils.safe_file_id(parent_id)
1270
1115
        return self[parent_id].children.get(filename)
1271
1116
 
1272
1117
    def _add_child(self, entry):
1285
1130
        To add  a file to a branch ready to be committed, use Branch.add,
1286
1131
        which calls this.
1287
1132
 
1288
 
        :return: entry
 
1133
        Returns the new entry object.
1289
1134
        """
1290
1135
        if entry.file_id in self._byid:
1291
1136
            raise errors.DuplicateFileId(entry.file_id,
1292
1137
                                         self._byid[entry.file_id])
 
1138
 
1293
1139
        if entry.parent_id is None:
 
1140
            assert self.root is None and len(self._byid) == 0
1294
1141
            self.root = entry
1295
1142
        else:
1296
1143
            try:
1297
1144
                parent = self._byid[entry.parent_id]
1298
1145
            except KeyError:
1299
 
                raise errors.InconsistentDelta("<unknown>", entry.parent_id,
1300
 
                    "Parent not in inventory.")
 
1146
                raise BzrError("parent_id {%s} not in inventory" %
 
1147
                               entry.parent_id)
 
1148
 
1301
1149
            if entry.name in parent.children:
1302
 
                raise errors.InconsistentDelta(
1303
 
                    self.id2path(parent.children[entry.name].file_id),
1304
 
                    entry.file_id,
1305
 
                    "Path already versioned")
 
1150
                raise BzrError("%s is already versioned" %
 
1151
                        osutils.pathjoin(self.id2path(parent.file_id),
 
1152
                        entry.name))
1306
1153
            parent.children[entry.name] = entry
1307
1154
        return self._add_child(entry)
1308
1155
 
1312
1159
        The immediate parent must already be versioned.
1313
1160
 
1314
1161
        Returns the new entry object."""
1315
 
 
 
1162
        
1316
1163
        parts = osutils.splitpath(relpath)
1317
1164
 
1318
1165
        if len(parts) == 0:
1319
1166
            if file_id is None:
1320
1167
                file_id = generate_ids.gen_root_id()
 
1168
            else:
 
1169
                file_id = osutils.safe_file_id(file_id)
1321
1170
            self.root = InventoryDirectory(file_id, '', None)
1322
1171
            self._byid = {self.root.file_id: self.root}
1323
1172
            return self.root
1334
1183
 
1335
1184
        >>> inv = Inventory()
1336
1185
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
1337
 
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1186
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None)
1338
1187
        >>> '123' in inv
1339
1188
        True
1340
1189
        >>> del inv['123']
1341
1190
        >>> '123' in inv
1342
1191
        False
1343
1192
        """
 
1193
        file_id = osutils.safe_file_id(file_id)
1344
1194
        ie = self[file_id]
 
1195
 
 
1196
        assert ie.parent_id is None or \
 
1197
            self[ie.parent_id].children[ie.name] == ie
 
1198
        
1345
1199
        del self._byid[file_id]
1346
1200
        if ie.parent_id is not None:
1347
1201
            del self[ie.parent_id].children[ie.name]
1354
1208
        >>> i1 == i2
1355
1209
        True
1356
1210
        >>> i1.add(InventoryFile('123', 'foo', ROOT_ID))
1357
 
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1211
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None)
1358
1212
        >>> i1 == i2
1359
1213
        False
1360
1214
        >>> i2.add(InventoryFile('123', 'foo', ROOT_ID))
1361
 
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1215
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None)
1362
1216
        >>> i1 == i2
1363
1217
        True
1364
1218
        """
1375
1229
 
1376
1230
    def _iter_file_id_parents(self, file_id):
1377
1231
        """Yield the parents of file_id up to the root."""
 
1232
        file_id = osutils.safe_file_id(file_id)
1378
1233
        while file_id is not None:
1379
1234
            try:
1380
1235
                ie = self._byid[file_id]
1383
1238
            yield ie
1384
1239
            file_id = ie.parent_id
1385
1240
 
 
1241
    def get_idpath(self, file_id):
 
1242
        """Return a list of file_ids for the path to an entry.
 
1243
 
 
1244
        The list contains one element for each directory followed by
 
1245
        the id of the file itself.  So the length of the returned list
 
1246
        is equal to the depth of the file in the tree, counting the
 
1247
        root directory as depth 1.
 
1248
        """
 
1249
        file_id = osutils.safe_file_id(file_id)
 
1250
        p = []
 
1251
        for parent in self._iter_file_id_parents(file_id):
 
1252
            p.insert(0, parent.file_id)
 
1253
        return p
 
1254
 
 
1255
    def id2path(self, file_id):
 
1256
        """Return as a string the path to file_id.
 
1257
        
 
1258
        >>> i = Inventory()
 
1259
        >>> e = i.add(InventoryDirectory('src-id', 'src', ROOT_ID))
 
1260
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
 
1261
        >>> print i.id2path('foo-id')
 
1262
        src/foo.c
 
1263
        """
 
1264
        file_id = osutils.safe_file_id(file_id)
 
1265
        # get all names, skipping root
 
1266
        return '/'.join(reversed(
 
1267
            [parent.name for parent in 
 
1268
             self._iter_file_id_parents(file_id)][:-1]))
 
1269
            
 
1270
    def path2id(self, name):
 
1271
        """Walk down through directories to return entry of last component.
 
1272
 
 
1273
        names may be either a list of path components, or a single
 
1274
        string, in which case it is automatically split.
 
1275
 
 
1276
        This returns the entry of the last component in the path,
 
1277
        which may be either a file or a directory.
 
1278
 
 
1279
        Returns None IFF the path is not found.
 
1280
        """
 
1281
        if isinstance(name, basestring):
 
1282
            name = osutils.splitpath(name)
 
1283
 
 
1284
        # mutter("lookup path %r" % name)
 
1285
 
 
1286
        parent = self.root
 
1287
        if parent is None:
 
1288
            return None
 
1289
        for f in name:
 
1290
            try:
 
1291
                children = getattr(parent, 'children', None)
 
1292
                if children is None:
 
1293
                    return None
 
1294
                cie = children[f]
 
1295
                assert cie.name == f
 
1296
                assert cie.parent_id == parent.file_id
 
1297
                parent = cie
 
1298
            except KeyError:
 
1299
                # or raise an error?
 
1300
                return None
 
1301
 
 
1302
        return parent.file_id
 
1303
 
 
1304
    def has_filename(self, names):
 
1305
        return bool(self.path2id(names))
 
1306
 
1386
1307
    def has_id(self, file_id):
 
1308
        file_id = osutils.safe_file_id(file_id)
1387
1309
        return (file_id in self._byid)
1388
1310
 
1389
 
    def _make_delta(self, old):
1390
 
        """Make an inventory delta from two inventories."""
1391
 
        old_getter = getattr(old, '_byid', old)
1392
 
        new_getter = self._byid
1393
 
        old_ids = set(old_getter)
1394
 
        new_ids = set(new_getter)
1395
 
        adds = new_ids - old_ids
1396
 
        deletes = old_ids - new_ids
1397
 
        if not adds and not deletes:
1398
 
            common = new_ids
1399
 
        else:
1400
 
            common = old_ids.intersection(new_ids)
1401
 
        delta = []
1402
 
        for file_id in deletes:
1403
 
            delta.append((old.id2path(file_id), None, file_id, None))
1404
 
        for file_id in adds:
1405
 
            delta.append((None, self.id2path(file_id), file_id, self[file_id]))
1406
 
        for file_id in common:
1407
 
            new_ie = new_getter[file_id]
1408
 
            old_ie = old_getter[file_id]
1409
 
            # If xml_serializer returns the cached InventoryEntries (rather
1410
 
            # than always doing .copy()), inlining the 'is' check saves 2.7M
1411
 
            # calls to __eq__.  Under lsprof this saves 20s => 6s.
1412
 
            # It is a minor improvement without lsprof.
1413
 
            if old_ie is new_ie or old_ie == new_ie:
1414
 
                continue
1415
 
            else:
1416
 
                delta.append((old.id2path(file_id), self.id2path(file_id),
1417
 
                              file_id, new_ie))
1418
 
        return delta
1419
 
 
1420
1311
    def remove_recursive_id(self, file_id):
1421
1312
        """Remove file_id, and children, from the inventory.
1422
 
 
 
1313
        
1423
1314
        :param file_id: A file_id to remove.
1424
1315
        """
 
1316
        file_id = osutils.safe_file_id(file_id)
1425
1317
        to_find_delete = [self._byid[file_id]]
1426
1318
        to_delete = []
1427
1319
        while to_find_delete:
1434
1326
            del self._byid[file_id]
1435
1327
        if ie.parent_id is not None:
1436
1328
            del self[ie.parent_id].children[ie.name]
1437
 
        else:
1438
 
            self.root = None
1439
1329
 
1440
1330
    def rename(self, file_id, new_parent_id, new_name):
1441
1331
        """Move a file within the inventory.
1444
1334
 
1445
1335
        This does not move the working file.
1446
1336
        """
1447
 
        new_name = ensure_normalized_name(new_name)
 
1337
        file_id = osutils.safe_file_id(file_id)
1448
1338
        if not is_valid_name(new_name):
1449
1339
            raise BzrError("not an acceptable filename: %r" % new_name)
1450
1340
 
1464
1354
 
1465
1355
        del old_parent.children[file_ie.name]
1466
1356
        new_parent.children[new_name] = file_ie
1467
 
 
 
1357
        
1468
1358
        file_ie.name = new_name
1469
1359
        file_ie.parent_id = new_parent_id
1470
1360
 
1471
1361
    def is_root(self, file_id):
 
1362
        file_id = osutils.safe_file_id(file_id)
1472
1363
        return self.root is not None and file_id == self.root.file_id
1473
1364
 
1474
1365
 
1475
 
class CHKInventory(CommonInventory):
1476
 
    """An inventory persisted in a CHK store.
1477
 
 
1478
 
    By design, a CHKInventory is immutable so many of the methods
1479
 
    supported by Inventory - add, rename, apply_delta, etc - are *not*
1480
 
    supported. To create a new CHKInventory, use create_by_apply_delta()
1481
 
    or from_inventory(), say.
1482
 
 
1483
 
    Internally, a CHKInventory has one or two CHKMaps:
1484
 
 
1485
 
    * id_to_entry - a map from (file_id,) => InventoryEntry as bytes
1486
 
    * parent_id_basename_to_file_id - a map from (parent_id, basename_utf8)
1487
 
        => file_id as bytes
1488
 
 
1489
 
    The second map is optional and not present in early CHkRepository's.
1490
 
 
1491
 
    No caching is performed: every method call or item access will perform
1492
 
    requests to the storage layer. As such, keep references to objects you
1493
 
    want to reuse.
1494
 
    """
1495
 
 
1496
 
    def __init__(self, search_key_name):
1497
 
        CommonInventory.__init__(self)
1498
 
        self._fileid_to_entry_cache = {}
1499
 
        self._path_to_fileid_cache = {}
1500
 
        self._search_key_name = search_key_name
1501
 
        self.root_id = None
1502
 
 
1503
 
    def __eq__(self, other):
1504
 
        """Compare two sets by comparing their contents."""
1505
 
        if not isinstance(other, CHKInventory):
1506
 
            return NotImplemented
1507
 
 
1508
 
        this_key = self.id_to_entry.key()
1509
 
        other_key = other.id_to_entry.key()
1510
 
        this_pid_key = self.parent_id_basename_to_file_id.key()
1511
 
        other_pid_key = other.parent_id_basename_to_file_id.key()
1512
 
        if None in (this_key, this_pid_key, other_key, other_pid_key):
1513
 
            return False
1514
 
        return this_key == other_key and this_pid_key == other_pid_key
1515
 
 
1516
 
    def _entry_to_bytes(self, entry):
1517
 
        """Serialise entry as a single bytestring.
1518
 
 
1519
 
        :param Entry: An inventory entry.
1520
 
        :return: A bytestring for the entry.
1521
 
 
1522
 
        The BNF:
1523
 
        ENTRY ::= FILE | DIR | SYMLINK | TREE
1524
 
        FILE ::= "file: " COMMON SEP SHA SEP SIZE SEP EXECUTABLE
1525
 
        DIR ::= "dir: " COMMON
1526
 
        SYMLINK ::= "symlink: " COMMON SEP TARGET_UTF8
1527
 
        TREE ::= "tree: " COMMON REFERENCE_REVISION
1528
 
        COMMON ::= FILE_ID SEP PARENT_ID SEP NAME_UTF8 SEP REVISION
1529
 
        SEP ::= "\n"
1530
 
        """
1531
 
        if entry.parent_id is not None:
1532
 
            parent_str = entry.parent_id
1533
 
        else:
1534
 
            parent_str = ''
1535
 
        name_str = entry.name.encode("utf8")
1536
 
        if entry.kind == 'file':
1537
 
            if entry.executable:
1538
 
                exec_str = "Y"
1539
 
            else:
1540
 
                exec_str = "N"
1541
 
            return "file: %s\n%s\n%s\n%s\n%s\n%d\n%s" % (
1542
 
                entry.file_id, parent_str, name_str, entry.revision,
1543
 
                entry.text_sha1, entry.text_size, exec_str)
1544
 
        elif entry.kind == 'directory':
1545
 
            return "dir: %s\n%s\n%s\n%s" % (
1546
 
                entry.file_id, parent_str, name_str, entry.revision)
1547
 
        elif entry.kind == 'symlink':
1548
 
            return "symlink: %s\n%s\n%s\n%s\n%s" % (
1549
 
                entry.file_id, parent_str, name_str, entry.revision,
1550
 
                entry.symlink_target.encode("utf8"))
1551
 
        elif entry.kind == 'tree-reference':
1552
 
            return "tree: %s\n%s\n%s\n%s\n%s" % (
1553
 
                entry.file_id, parent_str, name_str, entry.revision,
1554
 
                entry.reference_revision)
1555
 
        else:
1556
 
            raise ValueError("unknown kind %r" % entry.kind)
1557
 
 
1558
 
    def _expand_fileids_to_parents_and_children(self, file_ids):
1559
 
        """Give a more wholistic view starting with the given file_ids.
1560
 
 
1561
 
        For any file_id which maps to a directory, we will include all children
1562
 
        of that directory. We will also include all directories which are
1563
 
        parents of the given file_ids, but we will not include their children.
1564
 
 
1565
 
        eg:
1566
 
          /     # TREE_ROOT
1567
 
          foo/  # foo-id
1568
 
            baz # baz-id
1569
 
            frob/ # frob-id
1570
 
              fringle # fringle-id
1571
 
          bar/  # bar-id
1572
 
            bing # bing-id
1573
 
 
1574
 
        if given [foo-id] we will include
1575
 
            TREE_ROOT as interesting parents
1576
 
        and 
1577
 
            foo-id, baz-id, frob-id, fringle-id
1578
 
        As interesting ids.
1579
 
        """
1580
 
        interesting = set()
1581
 
        # TODO: Pre-pass over the list of fileids to see if anything is already
1582
 
        #       deserialized in self._fileid_to_entry_cache
1583
 
 
1584
 
        directories_to_expand = set()
1585
 
        children_of_parent_id = {}
1586
 
        # It is okay if some of the fileids are missing
1587
 
        for entry in self._getitems(file_ids):
1588
 
            if entry.kind == 'directory':
1589
 
                directories_to_expand.add(entry.file_id)
1590
 
            interesting.add(entry.parent_id)
1591
 
            children_of_parent_id.setdefault(entry.parent_id, []
1592
 
                                             ).append(entry.file_id)
1593
 
 
1594
 
        # Now, interesting has all of the direct parents, but not the
1595
 
        # parents of those parents. It also may have some duplicates with
1596
 
        # specific_fileids
1597
 
        remaining_parents = interesting.difference(file_ids)
1598
 
        # When we hit the TREE_ROOT, we'll get an interesting parent of None,
1599
 
        # but we don't actually want to recurse into that
1600
 
        interesting.add(None) # this will auto-filter it in the loop
1601
 
        remaining_parents.discard(None) 
1602
 
        while remaining_parents:
1603
 
            next_parents = set()
1604
 
            for entry in self._getitems(remaining_parents):
1605
 
                next_parents.add(entry.parent_id)
1606
 
                children_of_parent_id.setdefault(entry.parent_id, []
1607
 
                                                 ).append(entry.file_id)
1608
 
            # Remove any search tips we've already processed
1609
 
            remaining_parents = next_parents.difference(interesting)
1610
 
            interesting.update(remaining_parents)
1611
 
            # We should probably also .difference(directories_to_expand)
1612
 
        interesting.update(file_ids)
1613
 
        interesting.discard(None)
1614
 
        while directories_to_expand:
1615
 
            # Expand directories by looking in the
1616
 
            # parent_id_basename_to_file_id map
1617
 
            keys = [StaticTuple(f,).intern() for f in directories_to_expand]
1618
 
            directories_to_expand = set()
1619
 
            items = self.parent_id_basename_to_file_id.iteritems(keys)
1620
 
            next_file_ids = set([item[1] for item in items])
1621
 
            next_file_ids = next_file_ids.difference(interesting)
1622
 
            interesting.update(next_file_ids)
1623
 
            for entry in self._getitems(next_file_ids):
1624
 
                if entry.kind == 'directory':
1625
 
                    directories_to_expand.add(entry.file_id)
1626
 
                children_of_parent_id.setdefault(entry.parent_id, []
1627
 
                                                 ).append(entry.file_id)
1628
 
        return interesting, children_of_parent_id
1629
 
 
1630
 
    def filter(self, specific_fileids):
1631
 
        """Get an inventory view filtered against a set of file-ids.
1632
 
 
1633
 
        Children of directories and parents are included.
1634
 
 
1635
 
        The result may or may not reference the underlying inventory
1636
 
        so it should be treated as immutable.
1637
 
        """
1638
 
        (interesting,
1639
 
         parent_to_children) = self._expand_fileids_to_parents_and_children(
1640
 
                                specific_fileids)
1641
 
        # There is some overlap here, but we assume that all interesting items
1642
 
        # are in the _fileid_to_entry_cache because we had to read them to
1643
 
        # determine if they were a dir we wanted to recurse, or just a file
1644
 
        # This should give us all the entries we'll want to add, so start
1645
 
        # adding
1646
 
        other = Inventory(self.root_id)
1647
 
        other.root.revision = self.root.revision
1648
 
        other.revision_id = self.revision_id
1649
 
        if not interesting or not parent_to_children:
1650
 
            # empty filter, or filtering entrys that don't exist
1651
 
            # (if even 1 existed, then we would have populated
1652
 
            # parent_to_children with at least the tree root.)
1653
 
            return other
1654
 
        cache = self._fileid_to_entry_cache
1655
 
        try:
1656
 
            remaining_children = collections.deque(parent_to_children[self.root_id])
1657
 
        except:
1658
 
            import pdb; pdb.set_trace()
1659
 
            raise
1660
 
        while remaining_children:
1661
 
            file_id = remaining_children.popleft()
1662
 
            ie = cache[file_id]
1663
 
            if ie.kind == 'directory':
1664
 
                ie = ie.copy() # We create a copy to depopulate the .children attribute
1665
 
            # TODO: depending on the uses of 'other' we should probably alwyas
1666
 
            #       '.copy()' to prevent someone from mutating other and
1667
 
            #       invaliding our internal cache
1668
 
            other.add(ie)
1669
 
            if file_id in parent_to_children:
1670
 
                remaining_children.extend(parent_to_children[file_id])
1671
 
        return other
1672
 
 
1673
 
    @staticmethod
1674
 
    def _bytes_to_utf8name_key(bytes):
1675
 
        """Get the file_id, revision_id key out of bytes."""
1676
 
        # We don't normally care about name, except for times when we want
1677
 
        # to filter out empty names because of non rich-root...
1678
 
        sections = bytes.split('\n')
1679
 
        kind, file_id = sections[0].split(': ')
1680
 
        return (sections[2], intern(file_id), intern(sections[3]))
1681
 
 
1682
 
    def _bytes_to_entry(self, bytes):
1683
 
        """Deserialise a serialised entry."""
1684
 
        sections = bytes.split('\n')
1685
 
        if sections[0].startswith("file: "):
1686
 
            result = InventoryFile(sections[0][6:],
1687
 
                sections[2].decode('utf8'),
1688
 
                sections[1])
1689
 
            result.text_sha1 = sections[4]
1690
 
            result.text_size = int(sections[5])
1691
 
            result.executable = sections[6] == "Y"
1692
 
        elif sections[0].startswith("dir: "):
1693
 
            result = CHKInventoryDirectory(sections[0][5:],
1694
 
                sections[2].decode('utf8'),
1695
 
                sections[1], self)
1696
 
        elif sections[0].startswith("symlink: "):
1697
 
            result = InventoryLink(sections[0][9:],
1698
 
                sections[2].decode('utf8'),
1699
 
                sections[1])
1700
 
            result.symlink_target = sections[4].decode('utf8')
1701
 
        elif sections[0].startswith("tree: "):
1702
 
            result = TreeReference(sections[0][6:],
1703
 
                sections[2].decode('utf8'),
1704
 
                sections[1])
1705
 
            result.reference_revision = sections[4]
1706
 
        else:
1707
 
            raise ValueError("Not a serialised entry %r" % bytes)
1708
 
        result.file_id = intern(result.file_id)
1709
 
        result.revision = intern(sections[3])
1710
 
        if result.parent_id == '':
1711
 
            result.parent_id = None
1712
 
        self._fileid_to_entry_cache[result.file_id] = result
1713
 
        return result
1714
 
 
1715
 
    def _get_mutable_inventory(self):
1716
 
        """See CommonInventory._get_mutable_inventory."""
1717
 
        entries = self.iter_entries()
1718
 
        inv = Inventory(None, self.revision_id)
1719
 
        for path, inv_entry in entries:
1720
 
            inv.add(inv_entry.copy())
1721
 
        return inv
1722
 
 
1723
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1724
 
        propagate_caches=False):
1725
 
        """Create a new CHKInventory by applying inventory_delta to this one.
1726
 
 
1727
 
        See the inventory developers documentation for the theory behind
1728
 
        inventory deltas.
1729
 
 
1730
 
        :param inventory_delta: The inventory delta to apply. See
1731
 
            Inventory.apply_delta for details.
1732
 
        :param new_revision_id: The revision id of the resulting CHKInventory.
1733
 
        :param propagate_caches: If True, the caches for this inventory are
1734
 
          copied to and updated for the result.
1735
 
        :return: The new CHKInventory.
1736
 
        """
1737
 
        split = osutils.split
1738
 
        result = CHKInventory(self._search_key_name)
1739
 
        if propagate_caches:
1740
 
            # Just propagate the path-to-fileid cache for now
1741
 
            result._path_to_fileid_cache = dict(self._path_to_fileid_cache.iteritems())
1742
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1743
 
        self.id_to_entry._ensure_root()
1744
 
        maximum_size = self.id_to_entry._root_node.maximum_size
1745
 
        result.revision_id = new_revision_id
1746
 
        result.id_to_entry = chk_map.CHKMap(
1747
 
            self.id_to_entry._store,
1748
 
            self.id_to_entry.key(),
1749
 
            search_key_func=search_key_func)
1750
 
        result.id_to_entry._ensure_root()
1751
 
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
1752
 
        # Change to apply to the parent_id_basename delta. The dict maps
1753
 
        # (parent_id, basename) -> (old_key, new_value). We use a dict because
1754
 
        # when a path has its id replaced (e.g. the root is changed, or someone
1755
 
        # does bzr mv a b, bzr mv c a, we should output a single change to this
1756
 
        # map rather than two.
1757
 
        parent_id_basename_delta = {}
1758
 
        if self.parent_id_basename_to_file_id is not None:
1759
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1760
 
                self.parent_id_basename_to_file_id._store,
1761
 
                self.parent_id_basename_to_file_id.key(),
1762
 
                search_key_func=search_key_func)
1763
 
            result.parent_id_basename_to_file_id._ensure_root()
1764
 
            self.parent_id_basename_to_file_id._ensure_root()
1765
 
            result_p_id_root = result.parent_id_basename_to_file_id._root_node
1766
 
            p_id_root = self.parent_id_basename_to_file_id._root_node
1767
 
            result_p_id_root.set_maximum_size(p_id_root.maximum_size)
1768
 
            result_p_id_root._key_width = p_id_root._key_width
1769
 
        else:
1770
 
            result.parent_id_basename_to_file_id = None
1771
 
        result.root_id = self.root_id
1772
 
        id_to_entry_delta = []
1773
 
        # inventory_delta is only traversed once, so we just update the
1774
 
        # variable.
1775
 
        # Check for repeated file ids
1776
 
        inventory_delta = _check_delta_unique_ids(inventory_delta)
1777
 
        # Repeated old paths
1778
 
        inventory_delta = _check_delta_unique_old_paths(inventory_delta)
1779
 
        # Check for repeated new paths
1780
 
        inventory_delta = _check_delta_unique_new_paths(inventory_delta)
1781
 
        # Check for entries that don't match the fileid
1782
 
        inventory_delta = _check_delta_ids_match_entry(inventory_delta)
1783
 
        # Check for nonsense fileids
1784
 
        inventory_delta = _check_delta_ids_are_valid(inventory_delta)
1785
 
        # Check for new_path <-> entry consistency
1786
 
        inventory_delta = _check_delta_new_path_entry_both_or_None(
1787
 
            inventory_delta)
1788
 
        # All changed entries need to have their parents be directories and be
1789
 
        # at the right path. This set contains (path, id) tuples.
1790
 
        parents = set()
1791
 
        # When we delete an item, all the children of it must be either deleted
1792
 
        # or altered in their own right. As we batch process the change via
1793
 
        # CHKMap.apply_delta, we build a set of things to use to validate the
1794
 
        # delta.
1795
 
        deletes = set()
1796
 
        altered = set()
1797
 
        for old_path, new_path, file_id, entry in inventory_delta:
1798
 
            # file id changes
1799
 
            if new_path == '':
1800
 
                result.root_id = file_id
1801
 
            if new_path is None:
1802
 
                # Make a delete:
1803
 
                new_key = None
1804
 
                new_value = None
1805
 
                # Update caches
1806
 
                if propagate_caches:
1807
 
                    try:
1808
 
                        del result._path_to_fileid_cache[old_path]
1809
 
                    except KeyError:
1810
 
                        pass
1811
 
                deletes.add(file_id)
1812
 
            else:
1813
 
                new_key = StaticTuple(file_id,)
1814
 
                new_value = result._entry_to_bytes(entry)
1815
 
                # Update caches. It's worth doing this whether
1816
 
                # we're propagating the old caches or not.
1817
 
                result._path_to_fileid_cache[new_path] = file_id
1818
 
                parents.add((split(new_path)[0], entry.parent_id))
1819
 
            if old_path is None:
1820
 
                old_key = None
1821
 
            else:
1822
 
                old_key = StaticTuple(file_id,)
1823
 
                if self.id2path(file_id) != old_path:
1824
 
                    raise errors.InconsistentDelta(old_path, file_id,
1825
 
                        "Entry was at wrong other path %r." %
1826
 
                        self.id2path(file_id))
1827
 
                altered.add(file_id)
1828
 
            id_to_entry_delta.append(StaticTuple(old_key, new_key, new_value))
1829
 
            if result.parent_id_basename_to_file_id is not None:
1830
 
                # parent_id, basename changes
1831
 
                if old_path is None:
1832
 
                    old_key = None
1833
 
                else:
1834
 
                    old_entry = self[file_id]
1835
 
                    old_key = self._parent_id_basename_key(old_entry)
1836
 
                if new_path is None:
1837
 
                    new_key = None
1838
 
                    new_value = None
1839
 
                else:
1840
 
                    new_key = self._parent_id_basename_key(entry)
1841
 
                    new_value = file_id
1842
 
                # If the two keys are the same, the value will be unchanged
1843
 
                # as its always the file id for this entry.
1844
 
                if old_key != new_key:
1845
 
                    # Transform a change into explicit delete/add preserving
1846
 
                    # a possible match on the key from a different file id.
1847
 
                    if old_key is not None:
1848
 
                        parent_id_basename_delta.setdefault(
1849
 
                            old_key, [None, None])[0] = old_key
1850
 
                    if new_key is not None:
1851
 
                        parent_id_basename_delta.setdefault(
1852
 
                            new_key, [None, None])[1] = new_value
1853
 
        # validate that deletes are complete.
1854
 
        for file_id in deletes:
1855
 
            entry = self[file_id]
1856
 
            if entry.kind != 'directory':
1857
 
                continue
1858
 
            # This loop could potentially be better by using the id_basename
1859
 
            # map to just get the child file ids.
1860
 
            for child in entry.children.values():
1861
 
                if child.file_id not in altered:
1862
 
                    raise errors.InconsistentDelta(self.id2path(child.file_id),
1863
 
                        child.file_id, "Child not deleted or reparented when "
1864
 
                        "parent deleted.")
1865
 
        result.id_to_entry.apply_delta(id_to_entry_delta)
1866
 
        if parent_id_basename_delta:
1867
 
            # Transform the parent_id_basename delta data into a linear delta
1868
 
            # with only one record for a given key. Optimally this would allow
1869
 
            # re-keying, but its simpler to just output that as a delete+add
1870
 
            # to spend less time calculating the delta.
1871
 
            delta_list = []
1872
 
            for key, (old_key, value) in parent_id_basename_delta.iteritems():
1873
 
                if value is not None:
1874
 
                    delta_list.append((old_key, key, value))
1875
 
                else:
1876
 
                    delta_list.append((old_key, None, None))
1877
 
            result.parent_id_basename_to_file_id.apply_delta(delta_list)
1878
 
        parents.discard(('', None))
1879
 
        for parent_path, parent in parents:
1880
 
            try:
1881
 
                if result[parent].kind != 'directory':
1882
 
                    raise errors.InconsistentDelta(result.id2path(parent), parent,
1883
 
                        'Not a directory, but given children')
1884
 
            except errors.NoSuchId:
1885
 
                raise errors.InconsistentDelta("<unknown>", parent,
1886
 
                    "Parent is not present in resulting inventory.")
1887
 
            if result.path2id(parent_path) != parent:
1888
 
                raise errors.InconsistentDelta(parent_path, parent,
1889
 
                    "Parent has wrong path %r." % result.path2id(parent_path))
1890
 
        return result
1891
 
 
1892
 
    @classmethod
1893
 
    def deserialise(klass, chk_store, bytes, expected_revision_id):
1894
 
        """Deserialise a CHKInventory.
1895
 
 
1896
 
        :param chk_store: A CHK capable VersionedFiles instance.
1897
 
        :param bytes: The serialised bytes.
1898
 
        :param expected_revision_id: The revision ID we think this inventory is
1899
 
            for.
1900
 
        :return: A CHKInventory
1901
 
        """
1902
 
        lines = bytes.split('\n')
1903
 
        if lines[-1] != '':
1904
 
            raise AssertionError('bytes to deserialize must end with an eol')
1905
 
        lines.pop()
1906
 
        if lines[0] != 'chkinventory:':
1907
 
            raise ValueError("not a serialised CHKInventory: %r" % bytes)
1908
 
        info = {}
1909
 
        allowed_keys = frozenset(['root_id', 'revision_id', 'search_key_name',
1910
 
                                  'parent_id_basename_to_file_id',
1911
 
                                  'id_to_entry'])
1912
 
        for line in lines[1:]:
1913
 
            key, value = line.split(': ', 1)
1914
 
            if key not in allowed_keys:
1915
 
                raise errors.BzrError('Unknown key in inventory: %r\n%r'
1916
 
                                      % (key, bytes))
1917
 
            if key in info:
1918
 
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
1919
 
                                      % (key, bytes))
1920
 
            info[key] = value
1921
 
        revision_id = intern(info['revision_id'])
1922
 
        root_id = intern(info['root_id'])
1923
 
        search_key_name = intern(info.get('search_key_name', 'plain'))
1924
 
        parent_id_basename_to_file_id = intern(info.get(
1925
 
            'parent_id_basename_to_file_id', None))
1926
 
        if not parent_id_basename_to_file_id.startswith('sha1:'):
1927
 
            raise ValueError('parent_id_basename_to_file_id should be a sha1'
1928
 
                             ' key not %r' % (parent_id_basename_to_file_id,))
1929
 
        id_to_entry = info['id_to_entry']
1930
 
        if not id_to_entry.startswith('sha1:'):
1931
 
            raise ValueError('id_to_entry should be a sha1'
1932
 
                             ' key not %r' % (id_to_entry,))
1933
 
 
1934
 
        result = CHKInventory(search_key_name)
1935
 
        result.revision_id = revision_id
1936
 
        result.root_id = root_id
1937
 
        search_key_func = chk_map.search_key_registry.get(
1938
 
                            result._search_key_name)
1939
 
        if parent_id_basename_to_file_id is not None:
1940
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1941
 
                chk_store, StaticTuple(parent_id_basename_to_file_id,),
1942
 
                search_key_func=search_key_func)
1943
 
        else:
1944
 
            result.parent_id_basename_to_file_id = None
1945
 
 
1946
 
        result.id_to_entry = chk_map.CHKMap(chk_store,
1947
 
                                            StaticTuple(id_to_entry,),
1948
 
                                            search_key_func=search_key_func)
1949
 
        if (result.revision_id,) != expected_revision_id:
1950
 
            raise ValueError("Mismatched revision id and expected: %r, %r" %
1951
 
                (result.revision_id, expected_revision_id))
1952
 
        return result
1953
 
 
1954
 
    @classmethod
1955
 
    def from_inventory(klass, chk_store, inventory, maximum_size=0, search_key_name='plain'):
1956
 
        """Create a CHKInventory from an existing inventory.
1957
 
 
1958
 
        The content of inventory is copied into the chk_store, and a
1959
 
        CHKInventory referencing that is returned.
1960
 
 
1961
 
        :param chk_store: A CHK capable VersionedFiles instance.
1962
 
        :param inventory: The inventory to copy.
1963
 
        :param maximum_size: The CHKMap node size limit.
1964
 
        :param search_key_name: The identifier for the search key function
1965
 
        """
1966
 
        result = klass(search_key_name)
1967
 
        result.revision_id = inventory.revision_id
1968
 
        result.root_id = inventory.root.file_id
1969
 
 
1970
 
        entry_to_bytes = result._entry_to_bytes
1971
 
        parent_id_basename_key = result._parent_id_basename_key
1972
 
        id_to_entry_dict = {}
1973
 
        parent_id_basename_dict = {}
1974
 
        for path, entry in inventory.iter_entries():
1975
 
            key = StaticTuple(entry.file_id,).intern()
1976
 
            id_to_entry_dict[key] = entry_to_bytes(entry)
1977
 
            p_id_key = parent_id_basename_key(entry)
1978
 
            parent_id_basename_dict[p_id_key] = entry.file_id
1979
 
 
1980
 
        result._populate_from_dicts(chk_store, id_to_entry_dict,
1981
 
            parent_id_basename_dict, maximum_size=maximum_size)
1982
 
        return result
1983
 
 
1984
 
    def _populate_from_dicts(self, chk_store, id_to_entry_dict,
1985
 
                             parent_id_basename_dict, maximum_size):
1986
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1987
 
        root_key = chk_map.CHKMap.from_dict(chk_store, id_to_entry_dict,
1988
 
                   maximum_size=maximum_size, key_width=1,
1989
 
                   search_key_func=search_key_func)
1990
 
        self.id_to_entry = chk_map.CHKMap(chk_store, root_key,
1991
 
                                          search_key_func)
1992
 
        root_key = chk_map.CHKMap.from_dict(chk_store,
1993
 
                   parent_id_basename_dict,
1994
 
                   maximum_size=maximum_size, key_width=2,
1995
 
                   search_key_func=search_key_func)
1996
 
        self.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
1997
 
                                                    root_key, search_key_func)
1998
 
 
1999
 
    def _parent_id_basename_key(self, entry):
2000
 
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
2001
 
        if entry.parent_id is not None:
2002
 
            parent_id = entry.parent_id
2003
 
        else:
2004
 
            parent_id = ''
2005
 
        return StaticTuple(parent_id, entry.name.encode('utf8')).intern()
2006
 
 
2007
 
    def __getitem__(self, file_id):
2008
 
        """map a single file_id -> InventoryEntry."""
2009
 
        if file_id is None:
2010
 
            raise errors.NoSuchId(self, file_id)
2011
 
        result = self._fileid_to_entry_cache.get(file_id, None)
2012
 
        if result is not None:
2013
 
            return result
2014
 
        try:
2015
 
            return self._bytes_to_entry(
2016
 
                self.id_to_entry.iteritems([StaticTuple(file_id,)]).next()[1])
2017
 
        except StopIteration:
2018
 
            # really we're passing an inventory, not a tree...
2019
 
            raise errors.NoSuchId(self, file_id)
2020
 
 
2021
 
    def _getitems(self, file_ids):
2022
 
        """Similar to __getitem__, but lets you query for multiple.
2023
 
        
2024
 
        The returned order is undefined. And currently if an item doesn't
2025
 
        exist, it isn't included in the output.
2026
 
        """
2027
 
        result = []
2028
 
        remaining = []
2029
 
        for file_id in file_ids:
2030
 
            entry = self._fileid_to_entry_cache.get(file_id, None)
2031
 
            if entry is None:
2032
 
                remaining.append(file_id)
2033
 
            else:
2034
 
                result.append(entry)
2035
 
        file_keys = [StaticTuple(f,).intern() for f in remaining]
2036
 
        for file_key, value in self.id_to_entry.iteritems(file_keys):
2037
 
            entry = self._bytes_to_entry(value)
2038
 
            result.append(entry)
2039
 
            self._fileid_to_entry_cache[entry.file_id] = entry
2040
 
        return result
2041
 
 
2042
 
    def has_id(self, file_id):
2043
 
        # Perhaps have an explicit 'contains' method on CHKMap ?
2044
 
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
2045
 
            return True
2046
 
        return len(list(
2047
 
            self.id_to_entry.iteritems([StaticTuple(file_id,)]))) == 1
2048
 
 
2049
 
    def is_root(self, file_id):
2050
 
        return file_id == self.root_id
2051
 
 
2052
 
    def _iter_file_id_parents(self, file_id):
2053
 
        """Yield the parents of file_id up to the root."""
2054
 
        while file_id is not None:
2055
 
            try:
2056
 
                ie = self[file_id]
2057
 
            except KeyError:
2058
 
                raise errors.NoSuchId(tree=self, file_id=file_id)
2059
 
            yield ie
2060
 
            file_id = ie.parent_id
2061
 
 
2062
 
    def __iter__(self):
2063
 
        """Iterate over all file-ids."""
2064
 
        for key, _ in self.id_to_entry.iteritems():
2065
 
            yield key[-1]
2066
 
 
2067
 
    def iter_just_entries(self):
2068
 
        """Iterate over all entries.
2069
 
        
2070
 
        Unlike iter_entries(), just the entries are returned (not (path, ie))
2071
 
        and the order of entries is undefined.
2072
 
 
2073
 
        XXX: We may not want to merge this into bzr.dev.
2074
 
        """
2075
 
        for key, entry in self.id_to_entry.iteritems():
2076
 
            file_id = key[0]
2077
 
            ie = self._fileid_to_entry_cache.get(file_id, None)
2078
 
            if ie is None:
2079
 
                ie = self._bytes_to_entry(entry)
2080
 
                self._fileid_to_entry_cache[file_id] = ie
2081
 
            yield ie
2082
 
 
2083
 
    def iter_changes(self, basis):
2084
 
        """Generate a Tree.iter_changes change list between this and basis.
2085
 
 
2086
 
        :param basis: Another CHKInventory.
2087
 
        :return: An iterator over the changes between self and basis, as per
2088
 
            tree.iter_changes().
2089
 
        """
2090
 
        # We want: (file_id, (path_in_source, path_in_target),
2091
 
        # changed_content, versioned, parent, name, kind,
2092
 
        # executable)
2093
 
        for key, basis_value, self_value in \
2094
 
            self.id_to_entry.iter_changes(basis.id_to_entry):
2095
 
            file_id = key[0]
2096
 
            if basis_value is not None:
2097
 
                basis_entry = basis._bytes_to_entry(basis_value)
2098
 
                path_in_source = basis.id2path(file_id)
2099
 
                basis_parent = basis_entry.parent_id
2100
 
                basis_name = basis_entry.name
2101
 
                basis_executable = basis_entry.executable
2102
 
            else:
2103
 
                path_in_source = None
2104
 
                basis_parent = None
2105
 
                basis_name = None
2106
 
                basis_executable = None
2107
 
            if self_value is not None:
2108
 
                self_entry = self._bytes_to_entry(self_value)
2109
 
                path_in_target = self.id2path(file_id)
2110
 
                self_parent = self_entry.parent_id
2111
 
                self_name = self_entry.name
2112
 
                self_executable = self_entry.executable
2113
 
            else:
2114
 
                path_in_target = None
2115
 
                self_parent = None
2116
 
                self_name = None
2117
 
                self_executable = None
2118
 
            if basis_value is None:
2119
 
                # add
2120
 
                kind = (None, self_entry.kind)
2121
 
                versioned = (False, True)
2122
 
            elif self_value is None:
2123
 
                # delete
2124
 
                kind = (basis_entry.kind, None)
2125
 
                versioned = (True, False)
2126
 
            else:
2127
 
                kind = (basis_entry.kind, self_entry.kind)
2128
 
                versioned = (True, True)
2129
 
            changed_content = False
2130
 
            if kind[0] != kind[1]:
2131
 
                changed_content = True
2132
 
            elif kind[0] == 'file':
2133
 
                if (self_entry.text_size != basis_entry.text_size or
2134
 
                    self_entry.text_sha1 != basis_entry.text_sha1):
2135
 
                    changed_content = True
2136
 
            elif kind[0] == 'symlink':
2137
 
                if self_entry.symlink_target != basis_entry.symlink_target:
2138
 
                    changed_content = True
2139
 
            elif kind[0] == 'tree-reference':
2140
 
                if (self_entry.reference_revision !=
2141
 
                    basis_entry.reference_revision):
2142
 
                    changed_content = True
2143
 
            parent = (basis_parent, self_parent)
2144
 
            name = (basis_name, self_name)
2145
 
            executable = (basis_executable, self_executable)
2146
 
            if (not changed_content
2147
 
                and parent[0] == parent[1]
2148
 
                and name[0] == name[1]
2149
 
                and executable[0] == executable[1]):
2150
 
                # Could happen when only the revision changed for a directory
2151
 
                # for instance.
2152
 
                continue
2153
 
            yield (file_id, (path_in_source, path_in_target), changed_content,
2154
 
                versioned, parent, name, kind, executable)
2155
 
 
2156
 
    def __len__(self):
2157
 
        """Return the number of entries in the inventory."""
2158
 
        return len(self.id_to_entry)
2159
 
 
2160
 
    def _make_delta(self, old):
2161
 
        """Make an inventory delta from two inventories."""
2162
 
        if type(old) != CHKInventory:
2163
 
            return CommonInventory._make_delta(self, old)
2164
 
        delta = []
2165
 
        for key, old_value, self_value in \
2166
 
            self.id_to_entry.iter_changes(old.id_to_entry):
2167
 
            file_id = key[0]
2168
 
            if old_value is not None:
2169
 
                old_path = old.id2path(file_id)
2170
 
            else:
2171
 
                old_path = None
2172
 
            if self_value is not None:
2173
 
                entry = self._bytes_to_entry(self_value)
2174
 
                self._fileid_to_entry_cache[file_id] = entry
2175
 
                new_path = self.id2path(file_id)
2176
 
            else:
2177
 
                entry = None
2178
 
                new_path = None
2179
 
            delta.append((old_path, new_path, file_id, entry))
2180
 
        return delta
2181
 
 
2182
 
    def path2id(self, relpath):
2183
 
        """See CommonInventory.path2id()."""
2184
 
        # TODO: perhaps support negative hits?
2185
 
        result = self._path_to_fileid_cache.get(relpath, None)
2186
 
        if result is not None:
2187
 
            return result
2188
 
        if isinstance(relpath, basestring):
2189
 
            names = osutils.splitpath(relpath)
2190
 
        else:
2191
 
            names = relpath
2192
 
        current_id = self.root_id
2193
 
        if current_id is None:
2194
 
            return None
2195
 
        parent_id_index = self.parent_id_basename_to_file_id
2196
 
        cur_path = None
2197
 
        for basename in names:
2198
 
            if cur_path is None:
2199
 
                cur_path = basename
2200
 
            else:
2201
 
                cur_path = cur_path + '/' + basename
2202
 
            basename_utf8 = basename.encode('utf8')
2203
 
            file_id = self._path_to_fileid_cache.get(cur_path, None)
2204
 
            if file_id is None:
2205
 
                key_filter = [StaticTuple(current_id, basename_utf8)]
2206
 
                items = parent_id_index.iteritems(key_filter)
2207
 
                for (parent_id, name_utf8), file_id in items:
2208
 
                    if parent_id != current_id or name_utf8 != basename_utf8:
2209
 
                        raise errors.BzrError("corrupt inventory lookup! "
2210
 
                            "%r %r %r %r" % (parent_id, current_id, name_utf8,
2211
 
                            basename_utf8))
2212
 
                if file_id is None:
2213
 
                    return None
2214
 
                else:
2215
 
                    self._path_to_fileid_cache[cur_path] = file_id
2216
 
            current_id = file_id
2217
 
        return current_id
2218
 
 
2219
 
    def to_lines(self):
2220
 
        """Serialise the inventory to lines."""
2221
 
        lines = ["chkinventory:\n"]
2222
 
        if self._search_key_name != 'plain':
2223
 
            # custom ordering grouping things that don't change together
2224
 
            lines.append('search_key_name: %s\n' % (self._search_key_name,))
2225
 
            lines.append("root_id: %s\n" % self.root_id)
2226
 
            lines.append('parent_id_basename_to_file_id: %s\n' %
2227
 
                (self.parent_id_basename_to_file_id.key()[0],))
2228
 
            lines.append("revision_id: %s\n" % self.revision_id)
2229
 
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
2230
 
        else:
2231
 
            lines.append("revision_id: %s\n" % self.revision_id)
2232
 
            lines.append("root_id: %s\n" % self.root_id)
2233
 
            if self.parent_id_basename_to_file_id is not None:
2234
 
                lines.append('parent_id_basename_to_file_id: %s\n' %
2235
 
                    (self.parent_id_basename_to_file_id.key()[0],))
2236
 
            lines.append("id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
2237
 
        return lines
2238
 
 
2239
 
    @property
2240
 
    def root(self):
2241
 
        """Get the root entry."""
2242
 
        return self[self.root_id]
2243
 
 
2244
 
 
2245
 
class CHKInventoryDirectory(InventoryDirectory):
2246
 
    """A directory in an inventory."""
2247
 
 
2248
 
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
2249
 
                 'text_id', 'parent_id', '_children', 'executable',
2250
 
                 'revision', 'symlink_target', 'reference_revision',
2251
 
                 '_chk_inventory']
2252
 
 
2253
 
    def __init__(self, file_id, name, parent_id, chk_inventory):
2254
 
        # Don't call InventoryDirectory.__init__ - it isn't right for this
2255
 
        # class.
2256
 
        InventoryEntry.__init__(self, file_id, name, parent_id)
2257
 
        self._children = None
2258
 
        self.kind = 'directory'
2259
 
        self._chk_inventory = chk_inventory
2260
 
 
2261
 
    @property
2262
 
    def children(self):
2263
 
        """Access the list of children of this directory.
2264
 
 
2265
 
        With a parent_id_basename_to_file_id index, loads all the children,
2266
 
        without loads the entire index. Without is bad. A more sophisticated
2267
 
        proxy object might be nice, to allow partial loading of children as
2268
 
        well when specific names are accessed. (So path traversal can be
2269
 
        written in the obvious way but not examine siblings.).
2270
 
        """
2271
 
        if self._children is not None:
2272
 
            return self._children
2273
 
        # No longer supported
2274
 
        if self._chk_inventory.parent_id_basename_to_file_id is None:
2275
 
            raise AssertionError("Inventories without"
2276
 
                " parent_id_basename_to_file_id are no longer supported")
2277
 
        result = {}
2278
 
        # XXX: Todo - use proxy objects for the children rather than loading
2279
 
        # all when the attribute is referenced.
2280
 
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
2281
 
        child_keys = set()
2282
 
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
2283
 
            key_filter=[StaticTuple(self.file_id,)]):
2284
 
            child_keys.add(StaticTuple(file_id,))
2285
 
        cached = set()
2286
 
        for file_id_key in child_keys:
2287
 
            entry = self._chk_inventory._fileid_to_entry_cache.get(
2288
 
                file_id_key[0], None)
2289
 
            if entry is not None:
2290
 
                result[entry.name] = entry
2291
 
                cached.add(file_id_key)
2292
 
        child_keys.difference_update(cached)
2293
 
        # populate; todo: do by name
2294
 
        id_to_entry = self._chk_inventory.id_to_entry
2295
 
        for file_id_key, bytes in id_to_entry.iteritems(child_keys):
2296
 
            entry = self._chk_inventory._bytes_to_entry(bytes)
2297
 
            result[entry.name] = entry
2298
 
            self._chk_inventory._fileid_to_entry_cache[file_id_key[0]] = entry
2299
 
        self._children = result
2300
 
        return result
2301
 
 
2302
1366
entry_factory = {
2303
1367
    'directory': InventoryDirectory,
2304
1368
    'file': InventoryFile,
2316
1380
    """
2317
1381
    if file_id is None:
2318
1382
        file_id = generate_ids.gen_file_id(name)
2319
 
    name = ensure_normalized_name(name)
2320
 
    try:
2321
 
        factory = entry_factory[kind]
2322
 
    except KeyError:
2323
 
        raise errors.BadFileKindError(name, kind)
2324
 
    return factory(file_id, name, parent_id)
2325
 
 
2326
 
 
2327
 
def ensure_normalized_name(name):
2328
 
    """Normalize name.
2329
 
 
2330
 
    :raises InvalidNormalization: When name is not normalized, and cannot be
2331
 
        accessed on this platform by the normalized path.
2332
 
    :return: The NFC normalised version of name.
2333
 
    """
 
1383
    else:
 
1384
        file_id = osutils.safe_file_id(file_id)
 
1385
 
2334
1386
    #------- This has been copied to bzrlib.dirstate.DirState.add, please
2335
1387
    # keep them synchronised.
2336
1388
    # we dont import normalized_filename directly because we want to be
2338
1390
    norm_name, can_access = osutils.normalized_filename(name)
2339
1391
    if norm_name != name:
2340
1392
        if can_access:
2341
 
            return norm_name
 
1393
            name = norm_name
2342
1394
        else:
2343
1395
            # TODO: jam 20060701 This would probably be more useful
2344
1396
            #       if the error was raised with the full path
2345
1397
            raise errors.InvalidNormalization(name)
2346
 
    return name
 
1398
 
 
1399
    try:
 
1400
        factory = entry_factory[kind]
 
1401
    except KeyError:
 
1402
        raise BzrError("unknown kind %r" % kind)
 
1403
    return factory(file_id, name, parent_id)
2347
1404
 
2348
1405
 
2349
1406
_NAME_RE = None
2352
1409
    global _NAME_RE
2353
1410
    if _NAME_RE is None:
2354
1411
        _NAME_RE = re.compile(r'^[^/\\]+$')
2355
 
 
 
1412
        
2356
1413
    return bool(_NAME_RE.match(name))
2357
 
 
2358
 
 
2359
 
def _check_delta_unique_ids(delta):
2360
 
    """Decorate a delta and check that the file ids in it are unique.
2361
 
 
2362
 
    :return: A generator over delta.
2363
 
    """
2364
 
    ids = set()
2365
 
    for item in delta:
2366
 
        length = len(ids) + 1
2367
 
        ids.add(item[2])
2368
 
        if len(ids) != length:
2369
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2370
 
                "repeated file_id")
2371
 
        yield item
2372
 
 
2373
 
 
2374
 
def _check_delta_unique_new_paths(delta):
2375
 
    """Decorate a delta and check that the new paths in it are unique.
2376
 
 
2377
 
    :return: A generator over delta.
2378
 
    """
2379
 
    paths = set()
2380
 
    for item in delta:
2381
 
        length = len(paths) + 1
2382
 
        path = item[1]
2383
 
        if path is not None:
2384
 
            paths.add(path)
2385
 
            if len(paths) != length:
2386
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2387
 
        yield item
2388
 
 
2389
 
 
2390
 
def _check_delta_unique_old_paths(delta):
2391
 
    """Decorate a delta and check that the old paths in it are unique.
2392
 
 
2393
 
    :return: A generator over delta.
2394
 
    """
2395
 
    paths = set()
2396
 
    for item in delta:
2397
 
        length = len(paths) + 1
2398
 
        path = item[0]
2399
 
        if path is not None:
2400
 
            paths.add(path)
2401
 
            if len(paths) != length:
2402
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2403
 
        yield item
2404
 
 
2405
 
 
2406
 
def _check_delta_ids_are_valid(delta):
2407
 
    """Decorate a delta and check that the ids in it are valid.
2408
 
 
2409
 
    :return: A generator over delta.
2410
 
    """
2411
 
    for item in delta:
2412
 
        entry = item[3]
2413
 
        if item[2] is None:
2414
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2415
 
                "entry with file_id None %r" % entry)
2416
 
        if type(item[2]) != str:
2417
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2418
 
                "entry with non bytes file_id %r" % entry)
2419
 
        yield item
2420
 
 
2421
 
 
2422
 
def _check_delta_ids_match_entry(delta):
2423
 
    """Decorate a delta and check that the ids in it match the entry.file_id.
2424
 
 
2425
 
    :return: A generator over delta.
2426
 
    """
2427
 
    for item in delta:
2428
 
        entry = item[3]
2429
 
        if entry is not None:
2430
 
            if entry.file_id != item[2]:
2431
 
                raise errors.InconsistentDelta(item[0] or item[1], item[2],
2432
 
                    "mismatched id with %r" % entry)
2433
 
        yield item
2434
 
 
2435
 
 
2436
 
def _check_delta_new_path_entry_both_or_None(delta):
2437
 
    """Decorate a delta and check that the new_path and entry are paired.
2438
 
 
2439
 
    :return: A generator over delta.
2440
 
    """
2441
 
    for item in delta:
2442
 
        new_path = item[1]
2443
 
        entry = item[3]
2444
 
        if new_path is None and entry is not None:
2445
 
            raise errors.InconsistentDelta(item[0], item[1],
2446
 
                "Entry with no new_path")
2447
 
        if new_path is not None and entry is None:
2448
 
            raise errors.InconsistentDelta(new_path, item[1],
2449
 
                "new_path with no entry")
2450
 
        yield item