~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/fetch.py

Merge bzr.dev into cleanup

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2008, 2009 Canonical Ltd
 
1
# Copyright (C) 2005-2010 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
25
25
 
26
26
import operator
27
27
 
 
28
from bzrlib.lazy_import import lazy_import
 
29
lazy_import(globals(), """
 
30
from bzrlib import (
 
31
    graph as _mod_graph,
 
32
    static_tuple,
 
33
    tsort,
 
34
    versionedfile,
 
35
    )
 
36
""")
28
37
import bzrlib
29
38
from bzrlib import (
30
39
    errors,
31
40
    symbol_versioning,
 
41
    ui,
32
42
    )
33
 
from bzrlib.errors import InstallFailed
34
 
from bzrlib.progress import ProgressPhase
35
43
from bzrlib.revision import NULL_REVISION
36
 
from bzrlib.tsort import topo_sort
37
44
from bzrlib.trace import mutter
38
 
import bzrlib.ui
39
 
from bzrlib.versionedfile import FulltextContentFactory
40
45
 
41
46
 
42
47
class RepoFetcher(object):
47
52
    """
48
53
 
49
54
    def __init__(self, to_repository, from_repository, last_revision=None,
50
 
        pb=None, find_ghosts=True, fetch_spec=None):
 
55
        find_ghosts=True, fetch_spec=None):
51
56
        """Create a repo fetcher.
52
57
 
53
58
        :param last_revision: If set, try to limit to the data this revision
54
59
            references.
55
60
        :param find_ghosts: If True search the entire history for ghosts.
56
 
        :param _write_group_acquired_callable: Don't use; this parameter only
57
 
            exists to facilitate a hack done in InterPackRepo.fetch.  We would
58
 
            like to remove this parameter.
59
 
        :param pb: ProgressBar object to use; deprecated and ignored.
60
 
            This method will just create one on top of the stack.
61
61
        """
62
 
        if pb is not None:
63
 
            symbol_versioning.warn(
64
 
                symbol_versioning.deprecated_in((1, 14, 0))
65
 
                % "pb parameter to RepoFetcher.__init__")
66
 
            # and for simplicity it is in fact ignored
67
 
        if to_repository.has_same_location(from_repository):
68
 
            # repository.fetch should be taking care of this case.
69
 
            raise errors.BzrError('RepoFetcher run '
70
 
                    'between two objects at the same location: '
71
 
                    '%r and %r' % (to_repository, from_repository))
 
62
        # repository.fetch has the responsibility for short-circuiting
 
63
        # attempts to copy between a repository and itself.
72
64
        self.to_repository = to_repository
73
65
        self.from_repository = from_repository
74
66
        self.sink = to_repository._get_sink()
99
91
        # assert not missing
100
92
        self.count_total = 0
101
93
        self.file_ids_names = {}
102
 
        pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
94
        pb = ui.ui_factory.nested_progress_bar()
103
95
        pb.show_pct = pb.show_count = False
104
96
        try:
105
97
            pb.update("Finding revisions", 0, 2)
126
118
            raise errors.IncompatibleRepositories(
127
119
                self.from_repository, self.to_repository,
128
120
                "different rich-root support")
129
 
        pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
121
        pb = ui.ui_factory.nested_progress_bar()
130
122
        try:
131
123
            pb.update("Get stream source")
132
124
            source = self.from_repository._get_source(
136
128
            pb.update("Inserting stream")
137
129
            resume_tokens, missing_keys = self.sink.insert_stream(
138
130
                stream, from_format, [])
 
131
            if self.to_repository._fallback_repositories:
 
132
                missing_keys.update(
 
133
                    self._parent_inventories(search.get_keys()))
139
134
            if missing_keys:
140
135
                pb.update("Missing keys")
141
136
                stream = source.get_stream_for_missing_keys(missing_keys)
167
162
        if self._last_revision is NULL_REVISION:
168
163
            # explicit limit of no revisions needed
169
164
            return None
170
 
        if (self._last_revision is not None and
171
 
            self.to_repository.has_revision(self._last_revision)):
172
 
            return None
173
 
        try:
174
 
            return self.to_repository.search_missing_revision_ids(
175
 
                self.from_repository, self._last_revision,
176
 
                find_ghosts=self.find_ghosts)
177
 
        except errors.NoSuchRevision, e:
178
 
            raise InstallFailed([self._last_revision])
 
165
        return self.to_repository.search_missing_revision_ids(
 
166
            self.from_repository, self._last_revision,
 
167
            find_ghosts=self.find_ghosts)
 
168
 
 
169
    def _parent_inventories(self, revision_ids):
 
170
        # Find all the parent revisions referenced by the stream, but
 
171
        # not present in the stream, and make sure we send their
 
172
        # inventories.
 
173
        parent_maps = self.to_repository.get_parent_map(revision_ids)
 
174
        parents = set()
 
175
        map(parents.update, parent_maps.itervalues())
 
176
        parents.discard(NULL_REVISION)
 
177
        parents.difference_update(revision_ids)
 
178
        missing_keys = set(('inventories', rev_id) for rev_id in parents)
 
179
        return missing_keys
179
180
 
180
181
 
181
182
class Inter1and2Helper(object):
212
213
 
213
214
    def _find_root_ids(self, revs, parent_map, graph):
214
215
        revision_root = {}
215
 
        planned_versions = {}
216
216
        for tree in self.iter_rev_trees(revs):
217
217
            revision_id = tree.inventory.root.revision
218
218
            root_id = tree.get_root_id()
219
 
            planned_versions.setdefault(root_id, []).append(revision_id)
220
219
            revision_root[revision_id] = root_id
221
220
        # Find out which parents we don't already know root ids for
222
221
        parents = set()
228
227
        for tree in self.iter_rev_trees(parents):
229
228
            root_id = tree.get_root_id()
230
229
            revision_root[tree.get_revision_id()] = root_id
231
 
        return revision_root, planned_versions
 
230
        return revision_root
232
231
 
233
232
    def generate_root_texts(self, revs):
234
233
        """Generate VersionedFiles for all root ids.
237
236
        """
238
237
        graph = self.source.get_graph()
239
238
        parent_map = graph.get_parent_map(revs)
240
 
        rev_order = topo_sort(parent_map)
241
 
        rev_id_to_root_id, root_id_to_rev_ids = self._find_root_ids(
242
 
            revs, parent_map, graph)
 
239
        rev_order = tsort.topo_sort(parent_map)
 
240
        rev_id_to_root_id = self._find_root_ids(revs, parent_map, graph)
243
241
        root_id_order = [(rev_id_to_root_id[rev_id], rev_id) for rev_id in
244
242
            rev_order]
245
243
        # Guaranteed stable, this groups all the file id operations together
248
246
        # yet, and are unlikely to in non-rich-root environments anyway.
249
247
        root_id_order.sort(key=operator.itemgetter(0))
250
248
        # Create a record stream containing the roots to create.
251
 
        def yield_roots():
252
 
            for key in root_id_order:
253
 
                root_id, rev_id = key
254
 
                rev_parents = parent_map[rev_id]
255
 
                # We drop revision parents with different file-ids, because
256
 
                # that represents a rename of the root to a different location
257
 
                # - its not actually a parent for us. (We could look for that
258
 
                # file id in the revision tree at considerably more expense,
259
 
                # but for now this is sufficient (and reconcile will catch and
260
 
                # correct this anyway).
261
 
                # When a parent revision is a ghost, we guess that its root id
262
 
                # was unchanged (rather than trimming it from the parent list).
263
 
                parent_keys = tuple((root_id, parent) for parent in rev_parents
264
 
                    if parent != NULL_REVISION and
265
 
                        rev_id_to_root_id.get(parent, root_id) == root_id)
266
 
                yield FulltextContentFactory(key, parent_keys, None, '')
267
 
        return [('texts', yield_roots())]
 
249
        if len(revs) > 100:
 
250
            # XXX: not covered by tests, should have a flag to always run
 
251
            # this. -- mbp 20100129
 
252
            graph = _get_rich_root_heads_graph(self.source, revs)
 
253
        new_roots_stream = _new_root_data_stream(
 
254
            root_id_order, rev_id_to_root_id, parent_map, self.source, graph)
 
255
        return [('texts', new_roots_stream)]
 
256
 
 
257
 
 
258
def _get_rich_root_heads_graph(source_repo, revision_ids):
 
259
    """Get a Graph object suitable for asking heads() for new rich roots."""
 
260
    st = static_tuple.StaticTuple
 
261
    revision_keys = [st(r_id).intern() for r_id in revision_ids]
 
262
    known_graph = source_repo.revisions.get_known_graph_ancestry(
 
263
                    revision_keys)
 
264
    return _mod_graph.GraphThunkIdsToKeys(known_graph)
 
265
 
 
266
 
 
267
def _new_root_data_stream(
 
268
    root_keys_to_create, rev_id_to_root_id_map, parent_map, repo, graph=None):
 
269
    """Generate a texts substream of synthesised root entries.
 
270
 
 
271
    Used in fetches that do rich-root upgrades.
 
272
    
 
273
    :param root_keys_to_create: iterable of (root_id, rev_id) pairs describing
 
274
        the root entries to create.
 
275
    :param rev_id_to_root_id_map: dict of known rev_id -> root_id mappings for
 
276
        calculating the parents.  If a parent rev_id is not found here then it
 
277
        will be recalculated.
 
278
    :param parent_map: a parent map for all the revisions in
 
279
        root_keys_to_create.
 
280
    :param graph: a graph to use instead of repo.get_graph().
 
281
    """
 
282
    for root_key in root_keys_to_create:
 
283
        root_id, rev_id = root_key
 
284
        parent_keys = _parent_keys_for_root_version(
 
285
            root_id, rev_id, rev_id_to_root_id_map, parent_map, repo, graph)
 
286
        yield versionedfile.FulltextContentFactory(
 
287
            root_key, parent_keys, None, '')
 
288
 
 
289
 
 
290
def _parent_keys_for_root_version(
 
291
    root_id, rev_id, rev_id_to_root_id_map, parent_map, repo, graph=None):
 
292
    """Get the parent keys for a given root id.
 
293
    
 
294
    A helper function for _new_root_data_stream.
 
295
    """
 
296
    # Include direct parents of the revision, but only if they used the same
 
297
    # root_id and are heads.
 
298
    rev_parents = parent_map[rev_id]
 
299
    parent_ids = []
 
300
    for parent_id in rev_parents:
 
301
        if parent_id == NULL_REVISION:
 
302
            continue
 
303
        if parent_id not in rev_id_to_root_id_map:
 
304
            # We probably didn't read this revision, go spend the extra effort
 
305
            # to actually check
 
306
            try:
 
307
                tree = repo.revision_tree(parent_id)
 
308
            except errors.NoSuchRevision:
 
309
                # Ghost, fill out rev_id_to_root_id in case we encounter this
 
310
                # again.
 
311
                # But set parent_root_id to None since we don't really know
 
312
                parent_root_id = None
 
313
            else:
 
314
                parent_root_id = tree.get_root_id()
 
315
            rev_id_to_root_id_map[parent_id] = None
 
316
            # XXX: why not:
 
317
            #   rev_id_to_root_id_map[parent_id] = parent_root_id
 
318
            # memory consumption maybe?
 
319
        else:
 
320
            parent_root_id = rev_id_to_root_id_map[parent_id]
 
321
        if root_id == parent_root_id:
 
322
            # With stacking we _might_ want to refer to a non-local revision,
 
323
            # but this code path only applies when we have the full content
 
324
            # available, so ghosts really are ghosts, not just the edge of
 
325
            # local data.
 
326
            parent_ids.append(parent_id)
 
327
        else:
 
328
            # root_id may be in the parent anyway.
 
329
            try:
 
330
                tree = repo.revision_tree(parent_id)
 
331
            except errors.NoSuchRevision:
 
332
                # ghost, can't refer to it.
 
333
                pass
 
334
            else:
 
335
                try:
 
336
                    parent_ids.append(tree.inventory[root_id].revision)
 
337
                except errors.NoSuchId:
 
338
                    # not in the tree
 
339
                    pass
 
340
    # Drop non-head parents
 
341
    if graph is None:
 
342
        graph = repo.get_graph()
 
343
    heads = graph.heads(parent_ids)
 
344
    selected_ids = []
 
345
    for parent_id in parent_ids:
 
346
        if parent_id in heads and parent_id not in selected_ids:
 
347
            selected_ids.append(parent_id)
 
348
    parent_keys = [(root_id, parent_id) for parent_id in selected_ids]
 
349
    return parent_keys