~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/fetch.py

  • Committer: Robert Collins
  • Date: 2005-10-06 05:13:21 UTC
  • mfrom: (1393.3.3)
  • Revision ID: robertc@robertcollins.net-20051006051321-88f1053c3bf1ca4a
merge in an adjusted version of Jelmer's empty-log detection patch.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006 by Canonical Ltd
 
1
# Copyright (C) 2005 by Canonical Ltd
2
2
 
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
 
17
import os
 
18
from cStringIO import StringIO
 
19
 
 
20
import bzrlib.errors
 
21
from bzrlib.trace import mutter, note, warning
 
22
from bzrlib.branch import Branch
 
23
from bzrlib.progress import ProgressBar
 
24
from bzrlib.xml5 import serializer_v5
 
25
from bzrlib.osutils import sha_string, split_lines
 
26
from bzrlib.errors import InstallFailed, NoSuchRevision, WeaveError
17
27
 
18
28
"""Copying of history from one branch to another.
19
29
 
26
36
add a revision to the store until everything it refers to is also
27
37
stored, so that if a revision is present we can totally recreate it.
28
38
However, we can't know what files are included in a revision until we
29
 
read its inventory.  So we query the inventory store of the source for
30
 
the ids we need, and then pull those ids and finally actually join
31
 
the inventories.
 
39
read its inventory.  Therefore, we first pull the XML and hold it in
 
40
memory until we've updated all of the files referenced.
32
41
"""
33
42
 
34
 
import bzrlib
35
 
import bzrlib.errors as errors
36
 
from bzrlib.errors import (InstallFailed,
37
 
                           )
38
 
from bzrlib.trace import mutter
39
 
from bzrlib.progress import ProgressPhase
40
 
from bzrlib.revision import NULL_REVISION
41
 
from bzrlib.symbol_versioning import (deprecated_function,
42
 
        deprecated_method,
43
 
        zero_eight,
44
 
        )
45
 
 
46
 
 
47
43
# TODO: Avoid repeatedly opening weaves so many times.
48
44
 
49
45
# XXX: This doesn't handle ghost (not present in branch) revisions at
62
58
#   and add in all file versions
63
59
 
64
60
 
65
 
@deprecated_function(zero_eight)
 
61
 
66
62
def greedy_fetch(to_branch, from_branch, revision=None, pb=None):
67
 
    """Legacy API, please see branch.fetch(from_branch, last_revision, pb)."""
68
63
    f = Fetcher(to_branch, from_branch, revision, pb)
69
64
    return f.count_copied, f.failed_revisions
70
65
 
71
 
fetch = greedy_fetch
72
 
 
73
 
 
74
 
class RepoFetcher(object):
75
 
    """Pull revisions and texts from one repository to another.
76
 
 
77
 
    last_revision
78
 
        if set, try to limit to the data this revision references.
79
 
 
80
 
    after running:
 
66
 
 
67
 
 
68
class Fetcher(object):
 
69
    """Pull revisions and texts from one branch to another.
 
70
 
 
71
    This doesn't update the destination's history; that can be done
 
72
    separately if desired.  
 
73
 
 
74
    revision_limit
 
75
        If set, pull only up to this revision_id.
 
76
 
 
77
    After running:
 
78
 
 
79
    last_revision -- if last_revision
 
80
        is given it will be that, otherwise the last revision of
 
81
        from_branch
 
82
 
81
83
    count_copied -- number of revisions copied
82
84
 
83
 
    This should not be used directory, its essential a object to encapsulate
84
 
    the logic in InterRepository.fetch().
 
85
    count_weaves -- number of file weaves copied
85
86
    """
86
 
    def __init__(self, to_repository, from_repository, last_revision=None, pb=None):
87
 
        # result variables.
 
87
    def __init__(self, to_branch, from_branch, last_revision=None, pb=None):
 
88
        if to_branch == from_branch:
 
89
            raise Exception("can't fetch from a branch to itself")
 
90
        self.to_branch = to_branch
 
91
        self.to_weaves = to_branch.weave_store
 
92
        self.to_control = to_branch.control_weaves
 
93
        self.from_branch = from_branch
 
94
        self.from_weaves = from_branch.weave_store
 
95
        self.from_control = from_branch.control_weaves
88
96
        self.failed_revisions = []
89
97
        self.count_copied = 0
90
 
        if to_repository.control_files._transport.base == from_repository.control_files._transport.base:
91
 
            # check that last_revision is in 'from' and then return a no-operation.
92
 
            if last_revision not in (None, NULL_REVISION):
93
 
                from_repository.get_revision(last_revision)
94
 
            return
95
 
        self.to_repository = to_repository
96
 
        self.from_repository = from_repository
97
 
        # must not mutate self._last_revision as its potentially a shared instance
98
 
        self._last_revision = last_revision
 
98
        self.count_total = 0
 
99
        self.count_weaves = 0
 
100
        self.copied_file_ids = set()
99
101
        if pb is None:
100
 
            self.pb = bzrlib.ui.ui_factory.nested_progress_bar()
101
 
            self.nested_pb = self.pb
 
102
            self.pb = bzrlib.ui.ui_factory.progress_bar()
102
103
        else:
103
104
            self.pb = pb
104
 
            self.nested_pb = None
105
 
        self.from_repository.lock_read()
106
 
        try:
107
 
            self.to_repository.lock_write()
108
 
            try:
109
 
                self.__fetch()
110
 
            finally:
111
 
                if self.nested_pb is not None:
112
 
                    self.nested_pb.finished()
113
 
                self.to_repository.unlock()
114
 
        finally:
115
 
            self.from_repository.unlock()
116
 
 
117
 
    def __fetch(self):
118
 
        """Primary worker function.
119
 
 
120
 
        This initialises all the needed variables, and then fetches the 
121
 
        requested revisions, finally clearing the progress bar.
122
 
        """
123
 
        self.to_weaves = self.to_repository.weave_store
124
 
        self.to_control = self.to_repository.control_weaves
125
 
        self.from_weaves = self.from_repository.weave_store
126
 
        self.from_control = self.from_repository.control_weaves
127
 
        self.count_total = 0
128
 
        self.file_ids_names = {}
129
 
        pp = ProgressPhase('Fetch phase', 4, self.pb)
130
 
        try:
131
 
            pp.next_phase()
132
 
            revs = self._revids_to_fetch()
133
 
            # something to do ?
134
 
            if revs:
135
 
                pp.next_phase()
136
 
                self._fetch_weave_texts(revs)
137
 
                pp.next_phase()
138
 
                self._fetch_inventory_weave(revs)
139
 
                pp.next_phase()
140
 
                self._fetch_revision_texts(revs)
141
 
                self.count_copied += len(revs)
142
 
        finally:
143
 
            self.pb.clear()
144
 
 
145
 
    def _revids_to_fetch(self):
146
 
        mutter('fetch up to rev {%s}', self._last_revision)
147
 
        if self._last_revision is NULL_REVISION:
148
 
            # explicit limit of no revisions needed
149
 
            return None
150
 
        if (self._last_revision != None and
151
 
            self.to_repository.has_revision(self._last_revision)):
152
 
            return None
 
105
        try:
 
106
            self.last_revision = self._find_last_revision(last_revision)
 
107
        except NoSuchRevision, e:
 
108
            mutter('failed getting last revision: %s', e)
 
109
            raise InstallFailed([last_revision])
 
110
        mutter('fetch up to rev {%s}', self.last_revision)
 
111
        try:
 
112
            revs_to_fetch = self._compare_ancestries()
 
113
        except WeaveError:
 
114
            raise InstallFailed([self.last_revision])
 
115
        self._copy_revisions(revs_to_fetch)
 
116
        self.new_ancestry = revs_to_fetch
 
117
 
 
118
 
 
119
    def _find_last_revision(self, last_revision):
 
120
        """Find the limiting source revision.
 
121
 
 
122
        Every ancestor of that revision will be merged across.
 
123
 
 
124
        Returns the revision_id, or returns None if there's no history
 
125
        in the source branch."""
 
126
        self.pb.update('get source history')
 
127
        from_history = self.from_branch.revision_history()
 
128
        self.pb.update('get destination history')
 
129
        if last_revision:
 
130
            self.from_branch.get_revision(last_revision)
 
131
            return last_revision
 
132
        elif from_history:
 
133
            return from_history[-1]
 
134
        else:
 
135
            return None                 # no history in the source branch
153
136
            
154
 
        try:
155
 
            return self.to_repository.missing_revision_ids(self.from_repository,
156
 
                                                           self._last_revision)
157
 
        except errors.NoSuchRevision:
158
 
            raise InstallFailed([self._last_revision])
159
 
 
160
 
    def _fetch_weave_texts(self, revs):
161
 
        texts_pb = bzrlib.ui.ui_factory.nested_progress_bar()
162
 
        try:
163
 
            file_ids = self.from_repository.fileids_altered_by_revision_ids(revs)
164
 
            count = 0
165
 
            num_file_ids = len(file_ids)
166
 
            for file_id, required_versions in file_ids.items():
167
 
                texts_pb.update("fetch texts", count, num_file_ids)
168
 
                count +=1
169
 
                to_weave = self.to_weaves.get_weave_or_empty(file_id,
170
 
                    self.to_repository.get_transaction())
171
 
                from_weave = self.from_weaves.get_weave(file_id,
172
 
                    self.from_repository.get_transaction())
173
 
                # we fetch all the texts, because texts do
174
 
                # not reference anything, and its cheap enough
175
 
                to_weave.join(from_weave, version_ids=required_versions) 
176
 
                # we don't need *all* of this data anymore, but we dont know
177
 
                # what we do. This cache clearing will result in a new read 
178
 
                # of the knit data when we do the checkout, but probably we
179
 
                # want to emit the needed data on the fly rather than at the
180
 
                # end anyhow.
181
 
                # the from weave should know not to cache data being joined,
182
 
                # but its ok to ask it to clear.
183
 
                from_weave.clear_cache()
184
 
                to_weave.clear_cache()
185
 
        finally:
186
 
            texts_pb.finished()
187
 
 
188
 
    def _fetch_inventory_weave(self, revs):
189
 
        pb = bzrlib.ui.ui_factory.nested_progress_bar()
190
 
        try:
191
 
            pb.update("fetch inventory", 0, 2)
192
 
            to_weave = self.to_control.get_weave('inventory',
193
 
                    self.to_repository.get_transaction())
194
 
    
195
 
            child_pb = bzrlib.ui.ui_factory.nested_progress_bar()
196
 
            try:
197
 
                # just merge, this is optimisable and its means we don't
198
 
                # copy unreferenced data such as not-needed inventories.
199
 
                pb.update("fetch inventory", 1, 3)
200
 
                from_weave = self.from_repository.get_inventory_weave()
201
 
                pb.update("fetch inventory", 2, 3)
202
 
                # we fetch only the referenced inventories because we do not
203
 
                # know for unselected inventories whether all their required
204
 
                # texts are present in the other repository - it could be
205
 
                # corrupt.
206
 
                to_weave.join(from_weave, pb=child_pb, msg='merge inventory',
207
 
                              version_ids=revs)
208
 
            finally:
209
 
                child_pb.finished()
210
 
        finally:
211
 
            pb.finished()
212
 
 
213
 
 
214
 
class GenericRepoFetcher(RepoFetcher):
215
 
    """This is a generic repo to repo fetcher.
216
 
 
217
 
    This makes minimal assumptions about repo layout and contents.
218
 
    It triggers a reconciliation after fetching to ensure integrity.
219
 
    """
220
 
 
221
 
    def _fetch_revision_texts(self, revs):
222
 
        """Fetch revision object texts"""
223
 
        rev_pb = bzrlib.ui.ui_factory.nested_progress_bar()
224
 
        try:
225
 
            to_txn = self.to_transaction = self.to_repository.get_transaction()
226
 
            count = 0
227
 
            total = len(revs)
228
 
            to_store = self.to_repository._revision_store
229
 
            for rev in revs:
230
 
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
231
 
                try:
232
 
                    pb.update('copying revisions', count, total)
233
 
                    try:
234
 
                        sig_text = self.from_repository.get_signature_text(rev)
235
 
                        to_store.add_revision_signature_text(rev, sig_text, to_txn)
236
 
                    except errors.NoSuchRevision:
237
 
                        # not signed.
238
 
                        pass
239
 
                    to_store.add_revision(self.from_repository.get_revision(rev),
240
 
                                          to_txn)
241
 
                    count += 1
242
 
                finally:
243
 
                    pb.finished()
244
 
            # fixup inventory if needed: 
245
 
            # this is expensive because we have no inverse index to current ghosts.
246
 
            # but on local disk its a few seconds and sftp push is already insane.
247
 
            # so we just-do-it.
248
 
            # FIXME: repository should inform if this is needed.
249
 
            self.to_repository.reconcile()
250
 
        finally:
251
 
            rev_pb.finished()
252
 
    
253
 
 
254
 
class KnitRepoFetcher(RepoFetcher):
255
 
    """This is a knit format repository specific fetcher.
256
 
 
257
 
    This differs from the GenericRepoFetcher by not doing a 
258
 
    reconciliation after copying, and using knit joining to
259
 
    copy revision texts.
260
 
    """
261
 
 
262
 
    def _fetch_revision_texts(self, revs):
263
 
        # may need to be a InterRevisionStore call here.
264
 
        from_transaction = self.from_repository.get_transaction()
265
 
        to_transaction = self.to_repository.get_transaction()
266
 
        to_sf = self.to_repository._revision_store.get_signature_file(
267
 
            to_transaction)
268
 
        from_sf = self.from_repository._revision_store.get_signature_file(
269
 
            from_transaction)
270
 
        to_sf.join(from_sf, version_ids=revs, ignore_missing=True)
271
 
        to_rf = self.to_repository._revision_store.get_revision_file(
272
 
            to_transaction)
273
 
        from_rf = self.from_repository._revision_store.get_revision_file(
274
 
            from_transaction)
275
 
        to_rf.join(from_rf, version_ids=revs)
276
 
 
277
 
 
278
 
class Fetcher(object):
279
 
    """Backwards compatibility glue for branch.fetch()."""
280
 
 
281
 
    @deprecated_method(zero_eight)
282
 
    def __init__(self, to_branch, from_branch, last_revision=None, pb=None):
283
 
        """Please see branch.fetch()."""
284
 
        to_branch.fetch(from_branch, last_revision, pb)
 
137
 
 
138
    def _compare_ancestries(self):
 
139
        """Get a list of revisions that must be copied.
 
140
 
 
141
        That is, every revision that's in the ancestry of the source
 
142
        branch and not in the destination branch."""
 
143
        self.pb.update('get source ancestry')
 
144
        self.from_ancestry = self.from_branch.get_ancestry(self.last_revision)
 
145
 
 
146
        dest_last_rev = self.to_branch.last_revision()
 
147
        self.pb.update('get destination ancestry')
 
148
        if dest_last_rev:
 
149
            dest_ancestry = self.to_branch.get_ancestry(dest_last_rev)
 
150
        else:
 
151
            dest_ancestry = []
 
152
        ss = set(dest_ancestry)
 
153
        to_fetch = []
 
154
        for rev_id in self.from_ancestry:
 
155
            if rev_id not in ss:
 
156
                to_fetch.append(rev_id)
 
157
                mutter('need to get revision {%s}', rev_id)
 
158
        mutter('need to get %d revisions in total', len(to_fetch))
 
159
        self.count_total = len(to_fetch)
 
160
        return to_fetch
 
161
 
 
162
    def _copy_revisions(self, revs_to_fetch):
 
163
        i = 0
 
164
        for rev_id in revs_to_fetch:
 
165
            i += 1
 
166
            if rev_id is None:
 
167
                continue
 
168
            if self.to_branch.has_revision(rev_id):
 
169
                continue
 
170
            self.pb.update('fetch revision', i, self.count_total)
 
171
            self._copy_one_revision(rev_id)
 
172
            self.count_copied += 1
 
173
 
 
174
 
 
175
    def _copy_one_revision(self, rev_id):
 
176
        """Copy revision and everything referenced by it."""
 
177
        mutter('copying revision {%s}', rev_id)
 
178
        rev_xml = self.from_branch.get_revision_xml(rev_id)
 
179
        inv_xml = self.from_branch.get_inventory_xml(rev_id)
 
180
        rev = serializer_v5.read_revision_from_string(rev_xml)
 
181
        inv = serializer_v5.read_inventory_from_string(inv_xml)
 
182
        assert rev.revision_id == rev_id
 
183
        assert rev.inventory_sha1 == sha_string(inv_xml)
 
184
        mutter('  commiter %s, %d parents',
 
185
               rev.committer,
 
186
               len(rev.parent_ids))
 
187
        self._copy_new_texts(rev_id, inv)
 
188
        parents = rev.parent_ids
 
189
        for parent in parents:
 
190
            if not self.to_branch.has_revision(parent):
 
191
                parents.pop(parents.index(parent))
 
192
        self._copy_inventory(rev_id, inv_xml, parents)
 
193
        self._copy_ancestry(rev_id, parents)
 
194
        self.to_branch.revision_store.add(StringIO(rev_xml), rev_id)
 
195
        mutter('copied revision %s', rev_id)
 
196
 
 
197
 
 
198
    def _copy_inventory(self, rev_id, inv_xml, parent_ids):
 
199
        self.to_control.add_text('inventory', rev_id,
 
200
                                split_lines(inv_xml), parent_ids)
 
201
 
 
202
 
 
203
    def _copy_ancestry(self, rev_id, parent_ids):
 
204
        ancestry_lines = self.from_control.get_lines('ancestry', rev_id)
 
205
        self.to_control.add_text('ancestry', rev_id, ancestry_lines,
 
206
                                 parent_ids)
 
207
 
 
208
        
 
209
    def _copy_new_texts(self, rev_id, inv):
 
210
        """Copy any new texts occuring in this revision."""
 
211
        # TODO: Rather than writing out weaves every time, hold them
 
212
        # in memory until everything's done?  But this way is nicer
 
213
        # if it's interrupted.
 
214
        for path, ie in inv.iter_entries():
 
215
            if ie.revision != rev_id:
 
216
                continue
 
217
            mutter('%s {%s} is changed in this revision',
 
218
                   path, ie.file_id)
 
219
            self._copy_one_weave(rev_id, ie.file_id)
 
220
 
 
221
 
 
222
    def _copy_one_weave(self, rev_id, file_id):
 
223
        """Copy one file weave."""
 
224
        mutter('copy file {%s} modified in {%s}', file_id, rev_id)
 
225
        if file_id in self.copied_file_ids:
 
226
            mutter('file {%s} already copied', file_id)
 
227
            return
 
228
        from_weave = self.from_weaves.get_weave(file_id)
 
229
        to_weave = self.to_weaves.get_weave_or_empty(file_id)
 
230
        to_weave.join(from_weave)
 
231
        self.to_weaves.put_weave(file_id, to_weave)
 
232
        self.count_weaves += 1
 
233
        self.copied_file_ids.add(file_id)
 
234
        mutter('copied file {%s}', file_id)
 
235
 
 
236
 
 
237
fetch = Fetcher