~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/tree.py

  • Committer: Martin Pool
  • Date: 2007-06-21 04:27:47 UTC
  • mto: This revision was merged to the branch mainline in revision 2551.
  • Revision ID: mbp@sourcefrog.net-20070621042747-e3g0tdn8if750mv5
More commit specs

Show diffs side-by-side

added added

removed removed

Lines of Context:
23
23
 
24
24
import bzrlib
25
25
from bzrlib import (
26
 
    conflicts as _mod_conflicts,
27
26
    delta,
28
27
    osutils,
29
 
    revision as _mod_revision,
30
 
    rules,
31
28
    symbol_versioning,
32
29
    )
33
30
from bzrlib.decorators import needs_read_lock
94
91
            want_unversioned=want_unversioned,
95
92
            )
96
93
 
97
 
    @symbol_versioning.deprecated_method(symbol_versioning.one_three)
98
 
    def _iter_changes(self, *args, **kwargs):
99
 
        return self.iter_changes(*args, **kwargs)
100
 
 
101
 
    def iter_changes(self, from_tree, include_unchanged=False,
 
94
    def _iter_changes(self, from_tree, include_unchanged=False,
102
95
                     specific_files=None, pb=None, extra_trees=None,
103
96
                     require_versioned=True, want_unversioned=False):
104
97
        intertree = InterTree.get(from_tree, self)
105
 
        return intertree.iter_changes(include_unchanged, specific_files, pb,
 
98
        return intertree._iter_changes(include_unchanged, specific_files, pb,
106
99
            extra_trees, require_versioned, want_unversioned=want_unversioned)
107
100
    
108
101
    def conflicts(self):
110
103
 
111
104
        Each conflict is an instance of bzrlib.conflicts.Conflict.
112
105
        """
113
 
        return _mod_conflicts.ConflictList()
 
106
        return []
114
107
 
115
108
    def extras(self):
116
109
        """For trees that can have unversioned files, return all such paths."""
127
120
    
128
121
    def has_filename(self, filename):
129
122
        """True if the tree has given filename."""
130
 
        raise NotImplementedError(self.has_filename)
 
123
        raise NotImplementedError()
131
124
 
132
125
    def has_id(self, file_id):
 
126
        file_id = osutils.safe_file_id(file_id)
133
127
        return self.inventory.has_id(file_id)
134
128
 
135
129
    __contains__ = has_id
136
130
 
137
131
    def has_or_had_id(self, file_id):
 
132
        file_id = osutils.safe_file_id(file_id)
138
133
        if file_id == self.inventory.root.file_id:
139
134
            return True
140
135
        return self.inventory.has_id(file_id)
150
145
    def __iter__(self):
151
146
        return iter(self.inventory)
152
147
 
153
 
    def all_file_ids(self):
154
 
        """Iterate through all file ids, including ids for missing files."""
155
 
        return set(self.inventory)
156
 
 
157
148
    def id2path(self, file_id):
158
149
        """Return the path for a file id.
159
150
 
160
151
        :raises NoSuchId:
161
152
        """
 
153
        file_id = osutils.safe_file_id(file_id)
162
154
        return self.inventory.id2path(file_id)
163
155
 
164
156
    def is_control_filename(self, filename):
177
169
    def iter_entries_by_dir(self, specific_file_ids=None):
178
170
        """Walk the tree in 'by_dir' order.
179
171
 
180
 
        This will yield each entry in the tree as a (path, entry) tuple.
181
 
        The order that they are yielded is:
182
 
 
183
 
        Directories are walked in a depth-first lexicographical order,
184
 
        however, whenever a directory is reached, all of its direct child
185
 
        nodes are yielded in  lexicographical order before yielding the
186
 
        grandchildren.
187
 
 
188
 
        For example, in the tree::
189
 
 
190
 
           a/
191
 
             b/
192
 
               c
193
 
             d/
194
 
               e
195
 
           f/
196
 
             g
197
 
 
198
 
        The yield order (ignoring root) would be::
199
 
          a, f, a/b, a/d, a/b/c, a/d/e, f/g
 
172
        This will yield each entry in the tree as a (path, entry) tuple. The
 
173
        order that they are yielded is: the contents of a directory are 
 
174
        preceeded by the parent of a directory, and all the contents of a 
 
175
        directory are grouped together.
200
176
        """
201
177
        return self.inventory.iter_entries_by_dir(
202
178
            specific_file_ids=specific_file_ids)
210
186
        raise NotImplementedError("Tree subclass %s must implement kind"
211
187
            % self.__class__.__name__)
212
188
 
213
 
    def stored_kind(self, file_id):
214
 
        """File kind stored for this file_id.
215
 
 
216
 
        May not match kind on disk for working trees.  Always available
217
 
        for versioned files, even when the file itself is missing.
218
 
        """
219
 
        return self.kind(file_id)
220
 
 
221
 
    def path_content_summary(self, path):
222
 
        """Get a summary of the information about path.
223
 
        
224
 
        :param path: A relative path within the tree.
225
 
        :return: A tuple containing kind, size, exec, sha1-or-link.
226
 
            Kind is always present (see tree.kind()).
227
 
            size is present if kind is file, None otherwise.
228
 
            exec is None unless kind is file and the platform supports the 'x'
229
 
                bit.
230
 
            sha1-or-link is the link target if kind is symlink, or the sha1 if
231
 
                it can be obtained without reading the file.
232
 
        """
233
 
        raise NotImplementedError(self.path_content_summary)
234
 
 
235
189
    def get_reference_revision(self, file_id, path=None):
236
190
        raise NotImplementedError("Tree subclass %s must implement "
237
191
                                  "get_reference_revision"
254
208
    def _get_inventory(self):
255
209
        return self._inventory
256
210
    
257
 
    def get_file(self, file_id, path=None):
258
 
        """Return a file object for the file file_id in the tree.
259
 
        
260
 
        If both file_id and path are defined, it is implementation defined as
261
 
        to which one is used.
262
 
        """
 
211
    def get_file(self, file_id):
 
212
        """Return a file object for the file file_id in the tree."""
263
213
        raise NotImplementedError(self.get_file)
264
214
 
265
215
    def get_file_mtime(self, file_id, path=None):
271
221
        """
272
222
        raise NotImplementedError(self.get_file_mtime)
273
223
 
274
 
    def get_file_size(self, file_id):
275
 
        """Return the size of a file in bytes.
276
 
 
277
 
        This applies only to regular files.  If invoked on directories or
278
 
        symlinks, it will return None.
279
 
        :param file_id: The file-id of the file
280
 
        """
281
 
        raise NotImplementedError(self.get_file_size)
282
 
 
283
224
    def get_file_by_path(self, path):
284
 
        return self.get_file(self._inventory.path2id(path), path)
285
 
 
286
 
    def iter_files_bytes(self, desired_files):
287
 
        """Iterate through file contents.
288
 
 
289
 
        Files will not necessarily be returned in the order they occur in
290
 
        desired_files.  No specific order is guaranteed.
291
 
 
292
 
        Yields pairs of identifier, bytes_iterator.  identifier is an opaque
293
 
        value supplied by the caller as part of desired_files.  It should
294
 
        uniquely identify the file version in the caller's context.  (Examples:
295
 
        an index number or a TreeTransform trans_id.)
296
 
 
297
 
        bytes_iterator is an iterable of bytestrings for the file.  The
298
 
        kind of iterable and length of the bytestrings are unspecified, but for
299
 
        this implementation, it is a tuple containing a single bytestring with
300
 
        the complete text of the file.
301
 
 
302
 
        :param desired_files: a list of (file_id, identifier) pairs
303
 
        """
304
 
        for file_id, identifier in desired_files:
305
 
            # We wrap the string in a tuple so that we can return an iterable
306
 
            # of bytestrings.  (Technically, a bytestring is also an iterable
307
 
            # of bytestrings, but iterating through each character is not
308
 
            # performant.)
309
 
            cur_file = (self.get_file_text(file_id),)
310
 
            yield identifier, cur_file
 
225
        return self.get_file(self._inventory.path2id(path))
311
226
 
312
227
    def get_symlink_target(self, file_id):
313
228
        """Get the target for a given file_id.
319
234
        """
320
235
        raise NotImplementedError(self.get_symlink_target)
321
236
 
322
 
    def get_root_id(self):
323
 
        """Return the file_id for the root of this tree."""
324
 
        raise NotImplementedError(self.get_root_id)
325
 
 
326
 
    def annotate_iter(self, file_id,
327
 
                      default_revision=_mod_revision.CURRENT_REVISION):
328
 
        """Return an iterator of revision_id, line tuples.
 
237
    def annotate_iter(self, file_id):
 
238
        """Return an iterator of revision_id, line tuples
329
239
 
330
240
        For working trees (and mutable trees in general), the special
331
241
        revision_id 'current:' will be used for lines that are new in this
332
242
        tree, e.g. uncommitted changes.
333
243
        :param file_id: The file to produce an annotated version from
334
 
        :param default_revision: For lines that don't match a basis, mark them
335
 
            with this revision id. Not all implementations will make use of
336
 
            this value.
337
244
        """
338
245
        raise NotImplementedError(self.annotate_iter)
339
246
 
340
 
    def _get_plan_merge_data(self, file_id, other, base):
341
 
        from bzrlib import merge, versionedfile
342
 
        vf = versionedfile._PlanMergeVersionedFile(file_id)
343
 
        last_revision_a = self._get_file_revision(file_id, vf, 'this:')
344
 
        last_revision_b = other._get_file_revision(file_id, vf, 'other:')
345
 
        if base is None:
346
 
            last_revision_base = None
347
 
        else:
348
 
            last_revision_base = base._get_file_revision(file_id, vf, 'base:')
349
 
        return vf, last_revision_a, last_revision_b, last_revision_base
350
 
 
351
 
    def plan_file_merge(self, file_id, other, base=None):
352
 
        """Generate a merge plan based on annotations.
353
 
 
354
 
        If the file contains uncommitted changes in this tree, they will be
355
 
        attributed to the 'current:' pseudo-revision.  If the file contains
356
 
        uncommitted changes in the other tree, they will be assigned to the
357
 
        'other:' pseudo-revision.
358
 
        """
359
 
        data = self._get_plan_merge_data(file_id, other, base)
360
 
        vf, last_revision_a, last_revision_b, last_revision_base = data
361
 
        return vf.plan_merge(last_revision_a, last_revision_b,
362
 
                             last_revision_base)
363
 
 
364
 
    def plan_file_lca_merge(self, file_id, other, base=None):
365
 
        """Generate a merge plan based lca-newness.
366
 
 
367
 
        If the file contains uncommitted changes in this tree, they will be
368
 
        attributed to the 'current:' pseudo-revision.  If the file contains
369
 
        uncommitted changes in the other tree, they will be assigned to the
370
 
        'other:' pseudo-revision.
371
 
        """
372
 
        data = self._get_plan_merge_data(file_id, other, base)
373
 
        vf, last_revision_a, last_revision_b, last_revision_base = data
374
 
        return vf.plan_lca_merge(last_revision_a, last_revision_b,
375
 
                                 last_revision_base)
376
 
 
377
 
    def _iter_parent_trees(self):
378
 
        """Iterate through parent trees, defaulting to Tree.revision_tree."""
379
 
        for revision_id in self.get_parent_ids():
380
 
            try:
381
 
                yield self.revision_tree(revision_id)
382
 
            except errors.NoSuchRevisionInTree:
383
 
                yield self.repository.revision_tree(revision_id)
384
 
 
385
 
    @staticmethod
386
 
    def _file_revision(revision_tree, file_id):
387
 
        """Determine the revision associated with a file in a given tree."""
388
 
        revision_tree.lock_read()
389
 
        try:
390
 
            return revision_tree.inventory[file_id].revision
391
 
        finally:
392
 
            revision_tree.unlock()
393
 
 
394
 
    def _get_file_revision(self, file_id, vf, tree_revision):
395
 
        """Ensure that file_id, tree_revision is in vf to plan the merge."""
396
 
 
397
 
        if getattr(self, '_repository', None) is None:
398
 
            last_revision = tree_revision
399
 
            parent_keys = [(file_id, self._file_revision(t, file_id)) for t in
400
 
                self._iter_parent_trees()]
401
 
            vf.add_lines((file_id, last_revision), parent_keys,
402
 
                         self.get_file(file_id).readlines())
403
 
            repo = self.branch.repository
404
 
            base_vf = repo.texts
405
 
        else:
406
 
            last_revision = self._file_revision(self, file_id)
407
 
            base_vf = self._repository.texts
408
 
        if base_vf not in vf.fallback_versionedfiles:
409
 
            vf.fallback_versionedfiles.append(base_vf)
410
 
        return last_revision
411
 
 
412
247
    inventory = property(_get_inventory,
413
248
                         doc="Inventory of this Tree")
414
249
 
439
274
    def paths2ids(self, paths, trees=[], require_versioned=True):
440
275
        """Return all the ids that can be reached by walking from paths.
441
276
        
442
 
        Each path is looked up in this tree and any extras provided in
 
277
        Each path is looked up in each this tree and any extras provided in
443
278
        trees, and this is repeated recursively: the children in an extra tree
444
279
        of a directory that has been renamed under a provided path in this tree
445
 
        are all returned, even if none exist under a provided path in this
 
280
        are all returned, even if none exist until a provided path in this
446
281
        tree, and vice versa.
447
282
 
448
283
        :param paths: An iterable of paths to start converting to ids from.
455
290
        """
456
291
        return find_ids_across_trees(paths, [self] + list(trees), require_versioned)
457
292
 
458
 
    @symbol_versioning.deprecated_method(symbol_versioning.one_six)
459
293
    def print_file(self, file_id):
460
294
        """Print file with id `file_id` to stdout."""
 
295
        file_id = osutils.safe_file_id(file_id)
461
296
        import sys
462
297
        sys.stdout.write(self.get_file_text(file_id))
463
298
 
521
356
           versioned_kind.
522
357
         - lstat is the stat data *if* the file was statted.
523
358
         - path_from_tree_root is the path from the root of the tree.
524
 
         - file_id is the file_id if the entry is versioned.
 
359
         - file_id is the file_id is the entry is versioned.
525
360
         - versioned_kind is the kind of the file as last recorded in the 
526
361
           versioning system. If 'unknown' the file is not versioned.
527
362
        One of 'kind' and 'versioned_kind' must not be 'unknown'.
533
368
        """
534
369
        raise NotImplementedError(self.walkdirs)
535
370
 
536
 
    def iter_search_rules(self, path_names, pref_names=None,
537
 
        _default_searcher=rules._per_user_searcher):
538
 
        """Find the preferences for filenames in a tree.
539
 
 
540
 
        :param path_names: an iterable of paths to find attributes for.
541
 
          Paths are given relative to the root of the tree.
542
 
        :param pref_names: the list of preferences to lookup - None for all
543
 
        :param _default_searcher: private parameter to assist testing - don't use
544
 
        :return: an iterator of tuple sequences, one per path-name.
545
 
          See _RulesSearcher.get_items for details on the tuple sequence.
546
 
        """
547
 
        searcher = self._get_rules_searcher(_default_searcher)
548
 
        if searcher is not None:
549
 
            if pref_names is not None:
550
 
                for path in path_names:
551
 
                    yield searcher.get_selected_items(path, pref_names)
552
 
            else:
553
 
                for path in path_names:
554
 
                    yield searcher.get_items(path)
555
 
 
556
 
    @needs_read_lock
557
 
    def _get_rules_searcher(self, default_searcher):
558
 
        """Get the RulesSearcher for this tree given the default one."""
559
 
        searcher = default_searcher
560
 
        return searcher
561
 
 
562
371
 
563
372
class EmptyTree(Tree):
564
373
 
578
387
        return False
579
388
 
580
389
    def kind(self, file_id):
 
390
        file_id = osutils.safe_file_id(file_id)
 
391
        assert self._inventory[file_id].kind == "directory"
581
392
        return "directory"
582
393
 
583
394
    def list_files(self, include_root=False):
584
395
        return iter([])
585
396
    
586
397
    def __contains__(self, file_id):
 
398
        file_id = osutils.safe_file_id(file_id)
587
399
        return (file_id in self._inventory)
588
400
 
589
401
    def get_file_sha1(self, file_id, path=None, stat_value=None):
626
438
        # what happened to the file that used to have
627
439
        # this name.  There are two possibilities: either it was
628
440
        # deleted entirely, or renamed.
 
441
        assert old_id
629
442
        if new_inv.has_id(old_id):
630
443
            return 'X', old_inv.id2path(old_id), new_inv.id2path(old_id)
631
444
        else:
683
496
    :param trees: The trees to find file_ids within
684
497
    :param require_versioned: if true, all specified filenames must occur in
685
498
        at least one tree.
686
 
    :return: a set of file ids for the specified filenames
 
499
    :return: a set of (path, file ids) for the specified filenames
687
500
    """
688
501
    not_versioned = []
689
502
    interesting_ids = set()
702
515
 
703
516
 
704
517
def _find_children_across_trees(specified_ids, trees):
705
 
    """Return a set including specified ids and their children.
 
518
    """Return a set including specified ids and their children
706
519
    
707
520
    All matches in all trees will be used.
708
521
 
734
547
    Its instances have methods like 'compare' and contain references to the
735
548
    source and target trees these operations are to be carried out on.
736
549
 
737
 
    Clients of bzrlib should not need to use InterTree directly, rather they
 
550
    clients of bzrlib should not need to use InterTree directly, rather they
738
551
    should use the convenience methods on Tree such as 'Tree.compare()' which
739
552
    will pass through to InterTree as appropriate.
740
553
    """
780
593
            return result
781
594
        return delta._compare_trees(self.source, self.target, want_unchanged,
782
595
            specific_files, include_root, extra_trees=extra_trees,
783
 
            require_versioned=require_versioned,
784
596
            want_unversioned=want_unversioned)
785
597
 
786
 
    def iter_changes(self, include_unchanged=False,
 
598
    def _iter_changes(self, include_unchanged=False,
787
599
                      specific_files=None, pb=None, extra_trees=[],
788
600
                      require_versioned=True, want_unversioned=False):
789
601
        """Generate an iterator of changes between trees.
817
629
        lookup_trees = [self.source]
818
630
        if extra_trees:
819
631
             lookup_trees.extend(extra_trees)
820
 
        if specific_files == []:
821
 
            specific_file_ids = []
822
 
        else:
823
 
            specific_file_ids = self.target.paths2ids(specific_files,
824
 
                lookup_trees, require_versioned=require_versioned)
 
632
        specific_file_ids = self.target.paths2ids(specific_files,
 
633
            lookup_trees, require_versioned=require_versioned)
825
634
        if want_unversioned:
826
 
            all_unversioned = sorted([(p.split('/'), p) for p in
827
 
                                     self.target.extras()
828
 
                if specific_files is None or
 
635
            all_unversioned = sorted([(p.split('/'), p) for p in self.target.extras()
 
636
                if not specific_files or
829
637
                    osutils.is_inside_any(specific_files, p)])
830
638
            all_unversioned = deque(all_unversioned)
831
639
        else:
948
756
                self.source._comparison_data(from_entry, path)
949
757
            kind = (from_kind, None)
950
758
            executable = (from_executable, None)
951
 
            changed_content = from_kind is not None
 
759
            changed_content = True
952
760
            # the parent's path is necessarily known at this point.
953
761
            yield(file_id, (path, to_path), changed_content, versioned, parent,
954
762
                  name, kind, executable)
955
763
 
956
764
 
957
 
class MultiWalker(object):
958
 
    """Walk multiple trees simultaneously, getting combined results."""
959
 
 
960
 
    # Note: This could be written to not assume you can do out-of-order
961
 
    #       lookups. Instead any nodes that don't match in all trees could be
962
 
    #       marked as 'deferred', and then returned in the final cleanup loop.
963
 
    #       For now, I think it is "nicer" to return things as close to the
964
 
    #       "master_tree" order as we can.
965
 
 
966
 
    def __init__(self, master_tree, other_trees):
967
 
        """Create a new MultiWalker.
968
 
 
969
 
        All trees being walked must implement "iter_entries_by_dir()", such
970
 
        that they yield (path, object) tuples, where that object will have a
971
 
        '.file_id' member, that can be used to check equality.
972
 
 
973
 
        :param master_tree: All trees will be 'slaved' to the master_tree such
974
 
            that nodes in master_tree will be used as 'first-pass' sync points.
975
 
            Any nodes that aren't in master_tree will be merged in a second
976
 
            pass.
977
 
        :param other_trees: A list of other trees to walk simultaneously.
978
 
        """
979
 
        self._master_tree = master_tree
980
 
        self._other_trees = other_trees
981
 
 
982
 
        # Keep track of any nodes that were properly processed just out of
983
 
        # order, that way we don't return them at the end, we don't have to
984
 
        # track *all* processed file_ids, just the out-of-order ones
985
 
        self._out_of_order_processed = set()
986
 
 
987
 
    @staticmethod
988
 
    def _step_one(iterator):
989
 
        """Step an iter_entries_by_dir iterator.
990
 
 
991
 
        :return: (has_more, path, ie)
992
 
            If has_more is False, path and ie will be None.
993
 
        """
994
 
        try:
995
 
            path, ie = iterator.next()
996
 
        except StopIteration:
997
 
            return False, None, None
998
 
        else:
999
 
            return True, path, ie
1000
 
 
1001
 
    @staticmethod
1002
 
    def _cmp_path_by_dirblock(path1, path2):
1003
 
        """Compare two paths based on what directory they are in.
1004
 
 
1005
 
        This generates a sort order, such that all children of a directory are
1006
 
        sorted together, and grandchildren are in the same order as the
1007
 
        children appear. But all grandchildren come after all children.
1008
 
 
1009
 
        :param path1: first path
1010
 
        :param path2: the second path
1011
 
        :return: negative number if ``path1`` comes first,
1012
 
            0 if paths are equal
1013
 
            and a positive number if ``path2`` sorts first
1014
 
        """
1015
 
        # Shortcut this special case
1016
 
        if path1 == path2:
1017
 
            return 0
1018
 
        # This is stolen from _dirstate_helpers_py.py, only switching it to
1019
 
        # Unicode objects. Consider using encode_utf8() and then using the
1020
 
        # optimized versions, or maybe writing optimized unicode versions.
1021
 
        if not isinstance(path1, unicode):
1022
 
            raise TypeError("'path1' must be a unicode string, not %s: %r"
1023
 
                            % (type(path1), path1))
1024
 
        if not isinstance(path2, unicode):
1025
 
            raise TypeError("'path2' must be a unicode string, not %s: %r"
1026
 
                            % (type(path2), path2))
1027
 
        return cmp(MultiWalker._path_to_key(path1),
1028
 
                   MultiWalker._path_to_key(path2))
1029
 
 
1030
 
    @staticmethod
1031
 
    def _path_to_key(path):
1032
 
        dirname, basename = osutils.split(path)
1033
 
        return (dirname.split(u'/'), basename)
1034
 
 
1035
 
    def _lookup_by_file_id(self, extra_entries, other_tree, file_id):
1036
 
        """Lookup an inventory entry by file_id.
1037
 
 
1038
 
        This is called when an entry is missing in the normal order.
1039
 
        Generally this is because a file was either renamed, or it was
1040
 
        deleted/added. If the entry was found in the inventory and not in
1041
 
        extra_entries, it will be added to self._out_of_order_processed
1042
 
 
1043
 
        :param extra_entries: A dictionary of {file_id: (path, ie)}.  This
1044
 
            should be filled with entries that were found before they were
1045
 
            used. If file_id is present, it will be removed from the
1046
 
            dictionary.
1047
 
        :param other_tree: The Tree to search, in case we didn't find the entry
1048
 
            yet.
1049
 
        :param file_id: The file_id to look for
1050
 
        :return: (path, ie) if found or (None, None) if not present.
1051
 
        """
1052
 
        if file_id in extra_entries:
1053
 
            return extra_entries.pop(file_id)
1054
 
        # TODO: Is id2path better as the first call, or is
1055
 
        #       inventory[file_id] better as a first check?
1056
 
        try:
1057
 
            cur_path = other_tree.id2path(file_id)
1058
 
        except errors.NoSuchId:
1059
 
            cur_path = None
1060
 
        if cur_path is None:
1061
 
            return (None, None)
1062
 
        else:
1063
 
            self._out_of_order_processed.add(file_id)
1064
 
            cur_ie = other_tree.inventory[file_id]
1065
 
            return (cur_path, cur_ie)
1066
 
 
1067
 
    def iter_all(self):
1068
 
        """Match up the values in the different trees."""
1069
 
        for result in self._walk_master_tree():
1070
 
            yield result
1071
 
        self._finish_others()
1072
 
        for result in self._walk_others():
1073
 
            yield result
1074
 
 
1075
 
    def _walk_master_tree(self):
1076
 
        """First pass, walk all trees in lock-step.
1077
 
        
1078
 
        When we are done, all nodes in the master_tree will have been
1079
 
        processed. _other_walkers, _other_entries, and _others_extra will be
1080
 
        set on 'self' for future processing.
1081
 
        """
1082
 
        # This iterator has the most "inlining" done, because it tends to touch
1083
 
        # every file in the tree, while the others only hit nodes that don't
1084
 
        # match.
1085
 
        master_iterator = self._master_tree.iter_entries_by_dir()
1086
 
 
1087
 
        other_walkers = [other.iter_entries_by_dir()
1088
 
                         for other in self._other_trees]
1089
 
        other_entries = [self._step_one(walker) for walker in other_walkers]
1090
 
        # Track extra nodes in the other trees
1091
 
        others_extra = [{} for i in xrange(len(self._other_trees))]
1092
 
 
1093
 
        master_has_more = True
1094
 
        step_one = self._step_one
1095
 
        lookup_by_file_id = self._lookup_by_file_id
1096
 
        out_of_order_processed = self._out_of_order_processed
1097
 
 
1098
 
        while master_has_more:
1099
 
            (master_has_more, path, master_ie) = step_one(master_iterator)
1100
 
            if not master_has_more:
1101
 
                break
1102
 
 
1103
 
            file_id = master_ie.file_id
1104
 
            other_values = []
1105
 
            other_values_append = other_values.append
1106
 
            next_other_entries = []
1107
 
            next_other_entries_append = next_other_entries.append
1108
 
            for idx, (other_has_more, other_path, other_ie) in enumerate(other_entries):
1109
 
                if not other_has_more:
1110
 
                    other_values_append(lookup_by_file_id(
1111
 
                        others_extra[idx], self._other_trees[idx], file_id))
1112
 
                    next_other_entries_append((False, None, None))
1113
 
                elif file_id == other_ie.file_id:
1114
 
                    # This is the critical code path, as most of the entries
1115
 
                    # should match between most trees.
1116
 
                    other_values_append((other_path, other_ie))
1117
 
                    next_other_entries_append(step_one(other_walkers[idx]))
1118
 
                else:
1119
 
                    # This walker did not match, step it until it either
1120
 
                    # matches, or we know we are past the current walker.
1121
 
                    other_walker = other_walkers[idx]
1122
 
                    other_extra = others_extra[idx]
1123
 
                    while (other_has_more and
1124
 
                           self._cmp_path_by_dirblock(other_path, path) < 0):
1125
 
                        other_file_id = other_ie.file_id
1126
 
                        if other_file_id not in out_of_order_processed:
1127
 
                            other_extra[other_file_id] = (other_path, other_ie)
1128
 
                        other_has_more, other_path, other_ie = \
1129
 
                            step_one(other_walker)
1130
 
                    if other_has_more and other_ie.file_id == file_id:
1131
 
                        # We ended up walking to this point, match and step
1132
 
                        # again
1133
 
                        other_values_append((other_path, other_ie))
1134
 
                        other_has_more, other_path, other_ie = \
1135
 
                            step_one(other_walker)
1136
 
                    else:
1137
 
                        # This record isn't in the normal order, see if it
1138
 
                        # exists at all.
1139
 
                        other_values_append(lookup_by_file_id(
1140
 
                            other_extra, self._other_trees[idx], file_id))
1141
 
                    next_other_entries_append((other_has_more, other_path,
1142
 
                                               other_ie))
1143
 
            other_entries = next_other_entries
1144
 
 
1145
 
            # We've matched all the walkers, yield this datapoint
1146
 
            yield path, file_id, master_ie, other_values
1147
 
        self._other_walkers = other_walkers
1148
 
        self._other_entries = other_entries
1149
 
        self._others_extra = others_extra
1150
 
 
1151
 
    def _finish_others(self):
1152
 
        """Finish walking the other iterators, so we get all entries."""
1153
 
        for idx, info in enumerate(self._other_entries):
1154
 
            other_extra = self._others_extra[idx]
1155
 
            (other_has_more, other_path, other_ie) = info
1156
 
            while other_has_more:
1157
 
                other_file_id = other_ie.file_id
1158
 
                if other_file_id not in self._out_of_order_processed:
1159
 
                    other_extra[other_file_id] = (other_path, other_ie)
1160
 
                other_has_more, other_path, other_ie = \
1161
 
                    self._step_one(self._other_walkers[idx])
1162
 
        del self._other_entries
1163
 
 
1164
 
    def _walk_others(self):
1165
 
        """Finish up by walking all the 'deferred' nodes."""
1166
 
        # TODO: One alternative would be to grab all possible unprocessed
1167
 
        #       file_ids, and then sort by path, and then yield them. That
1168
 
        #       might ensure better ordering, in case a caller strictly
1169
 
        #       requires parents before children.
1170
 
        for idx, other_extra in enumerate(self._others_extra):
1171
 
            others = sorted(other_extra.itervalues(),
1172
 
                            key=lambda x: self._path_to_key(x[0]))
1173
 
            for other_path, other_ie in others:
1174
 
                file_id = other_ie.file_id
1175
 
                # We don't need to check out_of_order_processed here, because
1176
 
                # the lookup_by_file_id will be removing anything processed
1177
 
                # from the extras cache
1178
 
                other_extra.pop(file_id)
1179
 
                other_values = [(None, None) for i in xrange(idx)]
1180
 
                other_values.append((other_path, other_ie))
1181
 
                for alt_idx, alt_extra in enumerate(self._others_extra[idx+1:]):
1182
 
                    alt_idx = alt_idx + idx + 1
1183
 
                    alt_extra = self._others_extra[alt_idx]
1184
 
                    alt_tree = self._other_trees[alt_idx]
1185
 
                    other_values.append(self._lookup_by_file_id(
1186
 
                                            alt_extra, alt_tree, file_id))
1187
 
                yield other_path, file_id, None, other_values
 
765
# This was deprecated before 0.12, but did not have an official warning
 
766
@symbol_versioning.deprecated_function(symbol_versioning.zero_twelve)
 
767
def RevisionTree(*args, **kwargs):
 
768
    """RevisionTree has moved to bzrlib.revisiontree.RevisionTree()
 
769
 
 
770
    Accessing it as bzrlib.tree.RevisionTree has been deprecated as of
 
771
    bzr 0.12.
 
772
    """
 
773
    from bzrlib.revisiontree import RevisionTree as _RevisionTree
 
774
    return _RevisionTree(*args, **kwargs)
 
775
 
 
776