~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/tree.py

  • Committer: John Arbash Meinel
  • Date: 2008-07-11 21:41:24 UTC
  • mto: This revision was merged to the branch mainline in revision 3543.
  • Revision ID: john@arbash-meinel.com-20080711214124-qi09irlj7pd5cuzg
Shortcut the case when one revision is in the ancestry of the other.

At the cost of a heads() check, when one parent supersedes, we don't have to extract
the text for the other. Changes merge time from 3m37s => 3m21s. Using a
CachingParentsProvider would drop the time down to 3m11s.

Show diffs side-by-side

added added

removed removed

Lines of Context:
23
23
 
24
24
import bzrlib
25
25
from bzrlib import (
26
 
    conflicts as _mod_conflicts,
27
26
    delta,
28
27
    osutils,
29
28
    revision as _mod_revision,
30
 
    rules,
 
29
    conflicts as _mod_conflicts,
31
30
    symbol_versioning,
32
31
    )
33
32
from bzrlib.decorators import needs_read_lock
34
 
from bzrlib.errors import BzrError, BzrCheckError, NoSuchId
 
33
from bzrlib.errors import BzrError, BzrCheckError
35
34
from bzrlib import errors
36
35
from bzrlib.inventory import Inventory, InventoryFile
37
36
from bzrlib.inter import InterObject
38
37
from bzrlib.osutils import fingerprint_file
39
38
import bzrlib.revision
40
 
from bzrlib.symbol_versioning import deprecated_function, deprecated_in
41
39
from bzrlib.trace import mutter, note
42
40
 
43
41
 
133
131
    def has_id(self, file_id):
134
132
        return self.inventory.has_id(file_id)
135
133
 
136
 
    def __contains__(self, file_id):
137
 
        return self.has_id(file_id)
 
134
    __contains__ = has_id
138
135
 
139
136
    def has_or_had_id(self, file_id):
140
137
        if file_id == self.inventory.root.file_id:
179
176
    def iter_entries_by_dir(self, specific_file_ids=None):
180
177
        """Walk the tree in 'by_dir' order.
181
178
 
182
 
        This will yield each entry in the tree as a (path, entry) tuple.
183
 
        The order that they are yielded is:
184
 
 
185
 
        Directories are walked in a depth-first lexicographical order,
186
 
        however, whenever a directory is reached, all of its direct child
187
 
        nodes are yielded in  lexicographical order before yielding the
188
 
        grandchildren.
189
 
 
190
 
        For example, in the tree::
191
 
 
192
 
           a/
193
 
             b/
194
 
               c
195
 
             d/
196
 
               e
197
 
           f/
198
 
             g
199
 
 
200
 
        The yield order (ignoring root) would be::
201
 
          a, f, a/b, a/d, a/b/c, a/d/e, f/g
 
179
        This will yield each entry in the tree as a (path, entry) tuple. The
 
180
        order that they are yielded is: the contents of a directory are 
 
181
        preceeded by the parent of a directory, and all the contents of a 
 
182
        directory are grouped together.
202
183
        """
203
184
        return self.inventory.iter_entries_by_dir(
204
185
            specific_file_ids=specific_file_ids)
264
245
        """
265
246
        raise NotImplementedError(self.get_file)
266
247
 
267
 
    def get_file_text(self, file_id, path=None):
268
 
        """Return the byte content of a file.
269
 
 
270
 
        :param file_id: The file_id of the file.
271
 
        :param path: The path of the file.
272
 
        If both file_id and path are supplied, an implementation may use
273
 
        either one.
274
 
        """
275
 
        my_file = self.get_file(file_id, path)
276
 
        try:
277
 
            return my_file.read()
278
 
        finally:
279
 
            my_file.close()
280
 
 
281
 
    def get_file_lines(self, file_id, path=None):
282
 
        """Return the content of a file, as lines.
283
 
 
284
 
        :param file_id: The file_id of the file.
285
 
        :param path: The path of the file.
286
 
        If both file_id and path are supplied, an implementation may use
287
 
        either one.
288
 
        """
289
 
        return osutils.split_lines(self.get_file_text(file_id, path))
290
 
 
291
248
    def get_file_mtime(self, file_id, path=None):
292
249
        """Return the modification time for a file.
293
250
 
345
302
        """
346
303
        raise NotImplementedError(self.get_symlink_target)
347
304
 
348
 
    def get_canonical_inventory_paths(self, paths):
349
 
        """Like get_canonical_inventory_path() but works on multiple items.
350
 
 
351
 
        :param paths: A sequence of paths relative to the root of the tree.
352
 
        :return: A list of paths, with each item the corresponding input path
353
 
        adjusted to account for existing elements that match case
354
 
        insensitively.
355
 
        """
356
 
        return list(self._yield_canonical_inventory_paths(paths))
357
 
 
358
 
    def get_canonical_inventory_path(self, path):
359
 
        """Returns the first inventory item that case-insensitively matches path.
360
 
 
361
 
        If a path matches exactly, it is returned. If no path matches exactly
362
 
        but more than one path matches case-insensitively, it is implementation
363
 
        defined which is returned.
364
 
 
365
 
        If no path matches case-insensitively, the input path is returned, but
366
 
        with as many path entries that do exist changed to their canonical
367
 
        form.
368
 
 
369
 
        If you need to resolve many names from the same tree, you should
370
 
        use get_canonical_inventory_paths() to avoid O(N) behaviour.
371
 
 
372
 
        :param path: A paths relative to the root of the tree.
373
 
        :return: The input path adjusted to account for existing elements
374
 
        that match case insensitively.
375
 
        """
376
 
        return self._yield_canonical_inventory_paths([path]).next()
377
 
 
378
 
    def _yield_canonical_inventory_paths(self, paths):
379
 
        for path in paths:
380
 
            # First, if the path as specified exists exactly, just use it.
381
 
            if self.path2id(path) is not None:
382
 
                yield path
383
 
                continue
384
 
            # go walkin...
385
 
            cur_id = self.get_root_id()
386
 
            cur_path = ''
387
 
            bit_iter = iter(path.split("/"))
388
 
            for elt in bit_iter:
389
 
                lelt = elt.lower()
390
 
                for child in self.iter_children(cur_id):
391
 
                    try:
392
 
                        child_base = os.path.basename(self.id2path(child))
393
 
                        if child_base.lower() == lelt:
394
 
                            cur_id = child
395
 
                            cur_path = osutils.pathjoin(cur_path, child_base)
396
 
                            break
397
 
                    except NoSuchId:
398
 
                        # before a change is committed we can see this error...
399
 
                        continue
400
 
                else:
401
 
                    # got to the end of this directory and no entries matched.
402
 
                    # Return what matched so far, plus the rest as specified.
403
 
                    cur_path = osutils.pathjoin(cur_path, elt, *list(bit_iter))
404
 
                    break
405
 
            yield cur_path
406
 
        # all done.
407
 
 
408
305
    def get_root_id(self):
409
306
        """Return the file_id for the root of this tree."""
410
307
        raise NotImplementedError(self.get_root_id)
460
357
        return vf.plan_lca_merge(last_revision_a, last_revision_b,
461
358
                                 last_revision_base)
462
359
 
463
 
    def _iter_parent_trees(self):
464
 
        """Iterate through parent trees, defaulting to Tree.revision_tree."""
465
 
        for revision_id in self.get_parent_ids():
466
 
            try:
467
 
                yield self.revision_tree(revision_id)
468
 
            except errors.NoSuchRevisionInTree:
469
 
                yield self.repository.revision_tree(revision_id)
470
 
 
471
 
    @staticmethod
472
 
    def _file_revision(revision_tree, file_id):
473
 
        """Determine the revision associated with a file in a given tree."""
474
 
        revision_tree.lock_read()
475
 
        try:
476
 
            return revision_tree.inventory[file_id].revision
477
 
        finally:
478
 
            revision_tree.unlock()
479
 
 
480
360
    def _get_file_revision(self, file_id, vf, tree_revision):
481
361
        """Ensure that file_id, tree_revision is in vf to plan the merge."""
 
362
        def file_revision(revision_tree):
 
363
            revision_tree.lock_read()
 
364
            try:
 
365
                return revision_tree.inventory[file_id].revision
 
366
            finally:
 
367
                revision_tree.unlock()
 
368
 
 
369
        def iter_parent_trees():
 
370
            for revision_id in self.get_parent_ids():
 
371
                try:
 
372
                    yield self.revision_tree(revision_id)
 
373
                except:
 
374
                    yield self.repository.revision_tree(revision_id)
482
375
 
483
376
        if getattr(self, '_repository', None) is None:
484
377
            last_revision = tree_revision
485
 
            parent_keys = [(file_id, self._file_revision(t, file_id)) for t in
486
 
                self._iter_parent_trees()]
 
378
            parent_keys = [(file_id, file_revision(t)) for t in
 
379
                iter_parent_trees()]
487
380
            vf.add_lines((file_id, last_revision), parent_keys,
488
381
                         self.get_file(file_id).readlines())
489
382
            repo = self.branch.repository
490
383
            base_vf = repo.texts
491
384
        else:
492
 
            last_revision = self._file_revision(self, file_id)
 
385
            last_revision = file_revision(self)
493
386
            base_vf = self._repository.texts
494
387
        if base_vf not in vf.fallback_versionedfiles:
495
388
            vf.fallback_versionedfiles.append(base_vf)
541
434
        """
542
435
        return find_ids_across_trees(paths, [self] + list(trees), require_versioned)
543
436
 
544
 
    def iter_children(self, file_id):
545
 
        entry = self.iter_entries_by_dir([file_id]).next()[1]
546
 
        for child in getattr(entry, 'children', {}).itervalues():
547
 
            yield child.file_id
548
 
 
549
437
    @symbol_versioning.deprecated_method(symbol_versioning.one_six)
550
438
    def print_file(self, file_id):
551
439
        """Print file with id `file_id` to stdout."""
624
512
        """
625
513
        raise NotImplementedError(self.walkdirs)
626
514
 
627
 
    def supports_content_filtering(self):
628
 
        return False
629
 
 
630
 
    def iter_search_rules(self, path_names, pref_names=None,
631
 
        _default_searcher=rules._per_user_searcher):
632
 
        """Find the preferences for filenames in a tree.
633
 
 
634
 
        :param path_names: an iterable of paths to find attributes for.
635
 
          Paths are given relative to the root of the tree.
636
 
        :param pref_names: the list of preferences to lookup - None for all
637
 
        :param _default_searcher: private parameter to assist testing - don't use
638
 
        :return: an iterator of tuple sequences, one per path-name.
639
 
          See _RulesSearcher.get_items for details on the tuple sequence.
640
 
        """
641
 
        searcher = self._get_rules_searcher(_default_searcher)
642
 
        if searcher is not None:
643
 
            if pref_names is not None:
644
 
                for path in path_names:
645
 
                    yield searcher.get_selected_items(path, pref_names)
646
 
            else:
647
 
                for path in path_names:
648
 
                    yield searcher.get_items(path)
649
 
 
650
 
    @needs_read_lock
651
 
    def _get_rules_searcher(self, default_searcher):
652
 
        """Get the RulesSearcher for this tree given the default one."""
653
 
        searcher = default_searcher
654
 
        return searcher
655
 
 
656
515
 
657
516
class EmptyTree(Tree):
658
517
 
737
596
    return 'wtf?'
738
597
 
739
598
    
740
 
@deprecated_function(deprecated_in((1, 9, 0)))
 
599
 
741
600
def find_renames(old_inv, new_inv):
742
601
    for file_id in old_inv:
743
602
        if file_id not in new_inv:
746
605
        new_name = new_inv.id2path(file_id)
747
606
        if old_name != new_name:
748
607
            yield (old_name, new_name)
749
 
 
 
608
            
750
609
 
751
610
def find_ids_across_trees(filenames, trees, require_versioned=True):
752
611
    """Find the ids corresponding to specified filenames.
813
672
            for tree in trees:
814
673
                if not tree.has_id(file_id):
815
674
                    continue
816
 
                for child_id in tree.iter_children(file_id):
817
 
                    if child_id not in interesting_ids:
818
 
                        new_pending.add(child_id)
 
675
                entry = tree.inventory[file_id]
 
676
                for child in getattr(entry, 'children', {}).itervalues():
 
677
                    if child.file_id not in interesting_ids:
 
678
                        new_pending.add(child.file_id)
819
679
        interesting_ids.update(new_pending)
820
680
        pending = new_pending
821
681
    return interesting_ids
924
784
        else:
925
785
            all_unversioned = deque()
926
786
        to_paths = {}
927
 
        from_entries_by_dir = list(self.source.iter_entries_by_dir(
 
787
        from_entries_by_dir = list(self.source.inventory.iter_entries_by_dir(
928
788
            specific_file_ids=specific_file_ids))
929
789
        from_data = dict((e.file_id, (p, e)) for p, e in from_entries_by_dir)
930
 
        to_entries_by_dir = list(self.target.iter_entries_by_dir(
 
790
        to_entries_by_dir = list(self.target.inventory.iter_entries_by_dir(
931
791
            specific_file_ids=specific_file_ids))
932
792
        num_entries = len(from_entries_by_dir) + len(to_entries_by_dir)
933
793
        entry_count = 0
1025
885
            if file_id in to_paths:
1026
886
                # already returned
1027
887
                continue
1028
 
            if not file_id in self.target.all_file_ids():
 
888
            if not file_id in self.target.inventory:
1029
889
                # common case - paths we have not emitted are not present in
1030
890
                # target.
1031
891
                to_path = None
1041
901
                self.source._comparison_data(from_entry, path)
1042
902
            kind = (from_kind, None)
1043
903
            executable = (from_executable, None)
1044
 
            changed_content = from_kind is not None
 
904
            changed_content = True
1045
905
            # the parent's path is necessarily known at this point.
1046
906
            yield(file_id, (path, to_path), changed_content, versioned, parent,
1047
907
                  name, kind, executable)
1048
 
 
1049
 
 
1050
 
class MultiWalker(object):
1051
 
    """Walk multiple trees simultaneously, getting combined results."""
1052
 
 
1053
 
    # Note: This could be written to not assume you can do out-of-order
1054
 
    #       lookups. Instead any nodes that don't match in all trees could be
1055
 
    #       marked as 'deferred', and then returned in the final cleanup loop.
1056
 
    #       For now, I think it is "nicer" to return things as close to the
1057
 
    #       "master_tree" order as we can.
1058
 
 
1059
 
    def __init__(self, master_tree, other_trees):
1060
 
        """Create a new MultiWalker.
1061
 
 
1062
 
        All trees being walked must implement "iter_entries_by_dir()", such
1063
 
        that they yield (path, object) tuples, where that object will have a
1064
 
        '.file_id' member, that can be used to check equality.
1065
 
 
1066
 
        :param master_tree: All trees will be 'slaved' to the master_tree such
1067
 
            that nodes in master_tree will be used as 'first-pass' sync points.
1068
 
            Any nodes that aren't in master_tree will be merged in a second
1069
 
            pass.
1070
 
        :param other_trees: A list of other trees to walk simultaneously.
1071
 
        """
1072
 
        self._master_tree = master_tree
1073
 
        self._other_trees = other_trees
1074
 
 
1075
 
        # Keep track of any nodes that were properly processed just out of
1076
 
        # order, that way we don't return them at the end, we don't have to
1077
 
        # track *all* processed file_ids, just the out-of-order ones
1078
 
        self._out_of_order_processed = set()
1079
 
 
1080
 
    @staticmethod
1081
 
    def _step_one(iterator):
1082
 
        """Step an iter_entries_by_dir iterator.
1083
 
 
1084
 
        :return: (has_more, path, ie)
1085
 
            If has_more is False, path and ie will be None.
1086
 
        """
1087
 
        try:
1088
 
            path, ie = iterator.next()
1089
 
        except StopIteration:
1090
 
            return False, None, None
1091
 
        else:
1092
 
            return True, path, ie
1093
 
 
1094
 
    @staticmethod
1095
 
    def _cmp_path_by_dirblock(path1, path2):
1096
 
        """Compare two paths based on what directory they are in.
1097
 
 
1098
 
        This generates a sort order, such that all children of a directory are
1099
 
        sorted together, and grandchildren are in the same order as the
1100
 
        children appear. But all grandchildren come after all children.
1101
 
 
1102
 
        :param path1: first path
1103
 
        :param path2: the second path
1104
 
        :return: negative number if ``path1`` comes first,
1105
 
            0 if paths are equal
1106
 
            and a positive number if ``path2`` sorts first
1107
 
        """
1108
 
        # Shortcut this special case
1109
 
        if path1 == path2:
1110
 
            return 0
1111
 
        # This is stolen from _dirstate_helpers_py.py, only switching it to
1112
 
        # Unicode objects. Consider using encode_utf8() and then using the
1113
 
        # optimized versions, or maybe writing optimized unicode versions.
1114
 
        if not isinstance(path1, unicode):
1115
 
            raise TypeError("'path1' must be a unicode string, not %s: %r"
1116
 
                            % (type(path1), path1))
1117
 
        if not isinstance(path2, unicode):
1118
 
            raise TypeError("'path2' must be a unicode string, not %s: %r"
1119
 
                            % (type(path2), path2))
1120
 
        return cmp(MultiWalker._path_to_key(path1),
1121
 
                   MultiWalker._path_to_key(path2))
1122
 
 
1123
 
    @staticmethod
1124
 
    def _path_to_key(path):
1125
 
        dirname, basename = osutils.split(path)
1126
 
        return (dirname.split(u'/'), basename)
1127
 
 
1128
 
    def _lookup_by_file_id(self, extra_entries, other_tree, file_id):
1129
 
        """Lookup an inventory entry by file_id.
1130
 
 
1131
 
        This is called when an entry is missing in the normal order.
1132
 
        Generally this is because a file was either renamed, or it was
1133
 
        deleted/added. If the entry was found in the inventory and not in
1134
 
        extra_entries, it will be added to self._out_of_order_processed
1135
 
 
1136
 
        :param extra_entries: A dictionary of {file_id: (path, ie)}.  This
1137
 
            should be filled with entries that were found before they were
1138
 
            used. If file_id is present, it will be removed from the
1139
 
            dictionary.
1140
 
        :param other_tree: The Tree to search, in case we didn't find the entry
1141
 
            yet.
1142
 
        :param file_id: The file_id to look for
1143
 
        :return: (path, ie) if found or (None, None) if not present.
1144
 
        """
1145
 
        if file_id in extra_entries:
1146
 
            return extra_entries.pop(file_id)
1147
 
        # TODO: Is id2path better as the first call, or is
1148
 
        #       inventory[file_id] better as a first check?
1149
 
        try:
1150
 
            cur_path = other_tree.id2path(file_id)
1151
 
        except errors.NoSuchId:
1152
 
            cur_path = None
1153
 
        if cur_path is None:
1154
 
            return (None, None)
1155
 
        else:
1156
 
            self._out_of_order_processed.add(file_id)
1157
 
            cur_ie = other_tree.inventory[file_id]
1158
 
            return (cur_path, cur_ie)
1159
 
 
1160
 
    def iter_all(self):
1161
 
        """Match up the values in the different trees."""
1162
 
        for result in self._walk_master_tree():
1163
 
            yield result
1164
 
        self._finish_others()
1165
 
        for result in self._walk_others():
1166
 
            yield result
1167
 
 
1168
 
    def _walk_master_tree(self):
1169
 
        """First pass, walk all trees in lock-step.
1170
 
        
1171
 
        When we are done, all nodes in the master_tree will have been
1172
 
        processed. _other_walkers, _other_entries, and _others_extra will be
1173
 
        set on 'self' for future processing.
1174
 
        """
1175
 
        # This iterator has the most "inlining" done, because it tends to touch
1176
 
        # every file in the tree, while the others only hit nodes that don't
1177
 
        # match.
1178
 
        master_iterator = self._master_tree.iter_entries_by_dir()
1179
 
 
1180
 
        other_walkers = [other.iter_entries_by_dir()
1181
 
                         for other in self._other_trees]
1182
 
        other_entries = [self._step_one(walker) for walker in other_walkers]
1183
 
        # Track extra nodes in the other trees
1184
 
        others_extra = [{} for i in xrange(len(self._other_trees))]
1185
 
 
1186
 
        master_has_more = True
1187
 
        step_one = self._step_one
1188
 
        lookup_by_file_id = self._lookup_by_file_id
1189
 
        out_of_order_processed = self._out_of_order_processed
1190
 
 
1191
 
        while master_has_more:
1192
 
            (master_has_more, path, master_ie) = step_one(master_iterator)
1193
 
            if not master_has_more:
1194
 
                break
1195
 
 
1196
 
            file_id = master_ie.file_id
1197
 
            other_values = []
1198
 
            other_values_append = other_values.append
1199
 
            next_other_entries = []
1200
 
            next_other_entries_append = next_other_entries.append
1201
 
            for idx, (other_has_more, other_path, other_ie) in enumerate(other_entries):
1202
 
                if not other_has_more:
1203
 
                    other_values_append(lookup_by_file_id(
1204
 
                        others_extra[idx], self._other_trees[idx], file_id))
1205
 
                    next_other_entries_append((False, None, None))
1206
 
                elif file_id == other_ie.file_id:
1207
 
                    # This is the critical code path, as most of the entries
1208
 
                    # should match between most trees.
1209
 
                    other_values_append((other_path, other_ie))
1210
 
                    next_other_entries_append(step_one(other_walkers[idx]))
1211
 
                else:
1212
 
                    # This walker did not match, step it until it either
1213
 
                    # matches, or we know we are past the current walker.
1214
 
                    other_walker = other_walkers[idx]
1215
 
                    other_extra = others_extra[idx]
1216
 
                    while (other_has_more and
1217
 
                           self._cmp_path_by_dirblock(other_path, path) < 0):
1218
 
                        other_file_id = other_ie.file_id
1219
 
                        if other_file_id not in out_of_order_processed:
1220
 
                            other_extra[other_file_id] = (other_path, other_ie)
1221
 
                        other_has_more, other_path, other_ie = \
1222
 
                            step_one(other_walker)
1223
 
                    if other_has_more and other_ie.file_id == file_id:
1224
 
                        # We ended up walking to this point, match and step
1225
 
                        # again
1226
 
                        other_values_append((other_path, other_ie))
1227
 
                        other_has_more, other_path, other_ie = \
1228
 
                            step_one(other_walker)
1229
 
                    else:
1230
 
                        # This record isn't in the normal order, see if it
1231
 
                        # exists at all.
1232
 
                        other_values_append(lookup_by_file_id(
1233
 
                            other_extra, self._other_trees[idx], file_id))
1234
 
                    next_other_entries_append((other_has_more, other_path,
1235
 
                                               other_ie))
1236
 
            other_entries = next_other_entries
1237
 
 
1238
 
            # We've matched all the walkers, yield this datapoint
1239
 
            yield path, file_id, master_ie, other_values
1240
 
        self._other_walkers = other_walkers
1241
 
        self._other_entries = other_entries
1242
 
        self._others_extra = others_extra
1243
 
 
1244
 
    def _finish_others(self):
1245
 
        """Finish walking the other iterators, so we get all entries."""
1246
 
        for idx, info in enumerate(self._other_entries):
1247
 
            other_extra = self._others_extra[idx]
1248
 
            (other_has_more, other_path, other_ie) = info
1249
 
            while other_has_more:
1250
 
                other_file_id = other_ie.file_id
1251
 
                if other_file_id not in self._out_of_order_processed:
1252
 
                    other_extra[other_file_id] = (other_path, other_ie)
1253
 
                other_has_more, other_path, other_ie = \
1254
 
                    self._step_one(self._other_walkers[idx])
1255
 
        del self._other_entries
1256
 
 
1257
 
    def _walk_others(self):
1258
 
        """Finish up by walking all the 'deferred' nodes."""
1259
 
        # TODO: One alternative would be to grab all possible unprocessed
1260
 
        #       file_ids, and then sort by path, and then yield them. That
1261
 
        #       might ensure better ordering, in case a caller strictly
1262
 
        #       requires parents before children.
1263
 
        for idx, other_extra in enumerate(self._others_extra):
1264
 
            others = sorted(other_extra.itervalues(),
1265
 
                            key=lambda x: self._path_to_key(x[0]))
1266
 
            for other_path, other_ie in others:
1267
 
                file_id = other_ie.file_id
1268
 
                # We don't need to check out_of_order_processed here, because
1269
 
                # the lookup_by_file_id will be removing anything processed
1270
 
                # from the extras cache
1271
 
                other_extra.pop(file_id)
1272
 
                other_values = [(None, None) for i in xrange(idx)]
1273
 
                other_values.append((other_path, other_ie))
1274
 
                for alt_idx, alt_extra in enumerate(self._others_extra[idx+1:]):
1275
 
                    alt_idx = alt_idx + idx + 1
1276
 
                    alt_extra = self._others_extra[alt_idx]
1277
 
                    alt_tree = self._other_trees[alt_idx]
1278
 
                    other_values.append(self._lookup_by_file_id(
1279
 
                                            alt_extra, alt_tree, file_id))
1280
 
                yield other_path, file_id, None, other_values