~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/upgrade.py

  • Committer: Robert Collins
  • Date: 2005-09-28 09:35:50 UTC
  • mfrom: (1185.1.47)
  • Revision ID: robertc@robertcollins.net-20050928093550-3ca194dfaffc79f1
merge from integration

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2008-2011 Canonical Ltd
 
1
#! /usr/bin/python
 
2
#
 
3
# Copyright (C) 2005 Canonical Ltd
2
4
#
3
5
# This program is free software; you can redistribute it and/or modify
4
6
# it under the terms of the GNU General Public License as published by
12
14
#
13
15
# You should have received a copy of the GNU General Public License
14
16
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
 
 
17
 
"""bzr upgrade logic."""
18
 
 
19
 
from __future__ import absolute_import
20
 
 
21
 
from bzrlib import (
22
 
    errors,
23
 
    trace,
24
 
    ui,
25
 
    urlutils,
26
 
    )
27
 
from bzrlib.controldir import (
28
 
    ControlDir,
29
 
    format_registry,
30
 
    )
31
 
from bzrlib.i18n import gettext
32
 
from bzrlib.remote import RemoteBzrDir
 
17
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
18
 
 
19
"""Experiment in converting existing bzr branches to weaves."""
 
20
 
 
21
# To make this properly useful
 
22
#
 
23
# 1. assign text version ids, and put those text versions into
 
24
#    the inventory as they're converted.
 
25
#
 
26
# 2. keep track of the previous version of each file, rather than
 
27
#    just using the last one imported
 
28
#
 
29
# 3. assign entry versions when files are added, renamed or moved.
 
30
#
 
31
# 4. when merged-in versions are observed, walk down through them
 
32
#    to discover everything, then commit bottom-up
 
33
#
 
34
# 5. track ancestry as things are merged in, and commit that in each
 
35
#    revision
 
36
#
 
37
# Perhaps it's best to first walk the whole graph and make a plan for
 
38
# what should be imported in what order?  Need a kind of topological
 
39
# sort of all revisions.  (Or do we, can we just before doing a revision
 
40
# see that all its parents have either been converted or abandoned?)
 
41
 
 
42
 
 
43
# Cannot import a revision until all its parents have been
 
44
# imported.  in other words, we can only import revisions whose
 
45
# parents have all been imported.  the first step must be to
 
46
# import a revision with no parents, of which there must be at
 
47
# least one.  (So perhaps it's useful to store forward pointers
 
48
# from a list of parents to their children?)
 
49
#
 
50
# Another (equivalent?) approach is to build up the ordered
 
51
# ancestry list for the last revision, and walk through that.  We
 
52
# are going to need that.
 
53
#
 
54
# We don't want to have to recurse all the way back down the list.
 
55
#
 
56
# Suppose we keep a queue of the revisions able to be processed at
 
57
# any point.  This starts out with all the revisions having no
 
58
# parents.
 
59
#
 
60
# This seems like a generally useful algorithm...
 
61
#
 
62
# The current algorithm is dumb (O(n**2)?) but will do the job, and
 
63
# takes less than a second on the bzr.dev branch.
 
64
 
 
65
# This currently does a kind of lazy conversion of file texts, where a
 
66
# new text is written in every version.  That's unnecessary but for
 
67
# the moment saves us having to worry about when files need new
 
68
# versions.
 
69
 
 
70
 
 
71
if False:
 
72
    try:
 
73
        import psyco
 
74
        psyco.full()
 
75
    except ImportError:
 
76
        pass
 
77
 
 
78
 
 
79
import os
 
80
import tempfile
 
81
import sys
 
82
import logging
 
83
import shutil
 
84
 
 
85
from bzrlib.branch import Branch, find_branch, BZR_BRANCH_FORMAT_5
 
86
from bzrlib.revfile import Revfile
 
87
from bzrlib.weave import Weave
 
88
from bzrlib.weavefile import read_weave, write_weave
 
89
from bzrlib.progress import ProgressBar
 
90
from bzrlib.atomicfile import AtomicFile
 
91
from bzrlib.xml4 import serializer_v4
 
92
from bzrlib.xml5 import serializer_v5
 
93
from bzrlib.trace import mutter, note, warning, enable_default_logging
 
94
from bzrlib.osutils import sha_strings, sha_string
 
95
from bzrlib.commit import merge_ancestry_lines
33
96
 
34
97
 
35
98
class Convert(object):
36
 
 
37
 
    def __init__(self, url=None, format=None, control_dir=None):
38
 
        """Convert a Bazaar control directory to a given format.
39
 
 
40
 
        Either the url or control_dir parameter must be given.
41
 
 
42
 
        :param url: the URL of the control directory or None if the
43
 
          control_dir is explicitly given instead
44
 
        :param format: the format to convert to or None for the default
45
 
        :param control_dir: the control directory or None if it is
46
 
          specified via the URL parameter instead
47
 
        """
48
 
        self.format = format
49
 
        # XXX: Change to cleanup
50
 
        warning_id = 'cross_format_fetch'
51
 
        saved_warning = warning_id in ui.ui_factory.suppressed_warnings
52
 
        if url is None and control_dir is None:
53
 
            raise AssertionError(
54
 
                "either the url or control_dir parameter must be set.")
55
 
        if control_dir is not None:
56
 
            self.bzrdir = control_dir
57
 
        else:
58
 
            self.bzrdir = ControlDir.open_unsupported(url)
59
 
        if isinstance(self.bzrdir, RemoteBzrDir):
60
 
            self.bzrdir._ensure_real()
61
 
            self.bzrdir = self.bzrdir._real_bzrdir
62
 
        if self.bzrdir.root_transport.is_readonly():
63
 
            raise errors.UpgradeReadonly
64
 
        self.transport = self.bzrdir.root_transport
65
 
        ui.ui_factory.suppressed_warnings.add(warning_id)
66
 
        try:
67
 
            self.convert()
68
 
        finally:
69
 
            if not saved_warning:
70
 
                ui.ui_factory.suppressed_warnings.remove(warning_id)
 
99
    def __init__(self, base_dir):
 
100
        self.base = base_dir
 
101
        self.converted_revs = set()
 
102
        self.absent_revisions = set()
 
103
        self.text_count = 0
 
104
        self.revisions = {}
 
105
        self.convert()
 
106
 
71
107
 
72
108
    def convert(self):
73
 
        try:
74
 
            branch = self.bzrdir.open_branch()
75
 
            if branch.user_url != self.bzrdir.user_url:
76
 
                ui.ui_factory.note(gettext(
77
 
                    'This is a checkout. The branch (%s) needs to be upgraded'
78
 
                    ' separately.') % (urlutils.unescape_for_display(
79
 
                        branch.user_url, 'utf-8')))
80
 
            del branch
81
 
        except (errors.NotBranchError, errors.IncompatibleRepositories):
82
 
            # might not be a format we can open without upgrading; see e.g.
83
 
            # https://bugs.launchpad.net/bzr/+bug/253891
84
 
            pass
85
 
        if self.format is None:
86
 
            try:
87
 
                rich_root = self.bzrdir.find_repository()._format.rich_root_data
88
 
            except errors.NoRepositoryPresent:
89
 
                rich_root = False # assume no rich roots
90
 
            if rich_root:
91
 
                format_name = "default-rich-root"
 
109
        if not self._open_branch():
 
110
            return
 
111
        note('starting upgrade of %s', os.path.abspath(self.base))
 
112
        self._backup_control_dir()
 
113
        note('starting upgrade')
 
114
        note('note: upgrade may be faster if all store files are ungzipped first')
 
115
        self.pb = ProgressBar()
 
116
        if not os.path.isdir(self.base + '/.bzr/weaves'):
 
117
            os.mkdir(self.base + '/.bzr/weaves')
 
118
        self.inv_weave = Weave('inventory')
 
119
        self.anc_weave = Weave('ancestry')
 
120
        self.ancestries = {}
 
121
        # holds in-memory weaves for all files
 
122
        self.text_weaves = {}
 
123
        os.remove(self.branch.controlfilename('branch-format'))
 
124
        self._convert_working_inv()
 
125
        rev_history = self.branch.revision_history()
 
126
        # to_read is a stack holding the revisions we still need to process;
 
127
        # appending to it adds new highest-priority revisions
 
128
        self.known_revisions = set(rev_history)
 
129
        self.to_read = [rev_history[-1]]
 
130
        while self.to_read:
 
131
            rev_id = self.to_read.pop()
 
132
            if (rev_id not in self.revisions
 
133
                and rev_id not in self.absent_revisions):
 
134
                self._load_one_rev(rev_id)
 
135
        self.pb.clear()
 
136
        to_import = self._make_order()
 
137
        for i, rev_id in enumerate(to_import):
 
138
            self.pb.update('converting revision', i, len(to_import))
 
139
            self._convert_one_rev(rev_id)
 
140
        self.pb.clear()
 
141
        note('upgraded to weaves:')
 
142
        note('  %6d revisions and inventories' % len(self.revisions))
 
143
        note('  %6d absent revisions removed' % len(self.absent_revisions))
 
144
        note('  %6d texts' % self.text_count)
 
145
        self._write_all_weaves()
 
146
        self._write_all_revs()
 
147
        self._set_new_format()
 
148
        self._cleanup_spare_files()
 
149
 
 
150
 
 
151
    def _open_branch(self):
 
152
        self.branch = Branch(self.base, relax_version_check=True)
 
153
        if self.branch._branch_format == 5:
 
154
            note('this branch is already in the most current format')
 
155
            return False
 
156
        if self.branch._branch_format != 4:
 
157
            raise BzrError("cannot upgrade from branch format %r" %
 
158
                           self.branch._branch_format)
 
159
        return True
 
160
 
 
161
 
 
162
    def _set_new_format(self):
 
163
        f = self.branch.controlfile('branch-format', 'wb')
 
164
        try:
 
165
            f.write(BZR_BRANCH_FORMAT_5)
 
166
        finally:
 
167
            f.close()
 
168
 
 
169
 
 
170
    def _cleanup_spare_files(self):
 
171
        for n in 'merged-patches', 'pending-merged-patches':
 
172
            p = self.branch.controlfilename(n)
 
173
            if not os.path.exists(p):
 
174
                continue
 
175
            ## assert os.path.getsize(p) == 0
 
176
            os.remove(p)
 
177
        shutil.rmtree(self.base + '/.bzr/inventory-store')
 
178
        shutil.rmtree(self.base + '/.bzr/text-store')
 
179
 
 
180
 
 
181
    def _backup_control_dir(self):
 
182
        orig = self.base + '/.bzr'
 
183
        backup = orig + '.backup'
 
184
        note('making backup of tree history')
 
185
        shutil.copytree(orig, backup)
 
186
        note('%s has been backed up to %s', orig, backup)
 
187
        note('if conversion fails, you can move this directory back to .bzr')
 
188
        note('if it succeeds, you can remove this directory if you wish')
 
189
 
 
190
 
 
191
    def _convert_working_inv(self):
 
192
        branch = self.branch
 
193
        inv = serializer_v4.read_inventory(branch.controlfile('inventory', 'rb'))
 
194
        serializer_v5.write_inventory(inv, branch.controlfile('inventory', 'wb'))
 
195
 
 
196
 
 
197
 
 
198
    def _write_all_weaves(self):
 
199
        write_a_weave(self.inv_weave, self.base + '/.bzr/inventory.weave')
 
200
        write_a_weave(self.anc_weave, self.base + '/.bzr/ancestry.weave')
 
201
        i = 0
 
202
        try:
 
203
            for file_id, file_weave in self.text_weaves.items():
 
204
                self.pb.update('writing weave', i, len(self.text_weaves))
 
205
                write_a_weave(file_weave, self.base + '/.bzr/weaves/%s.weave' % file_id)
 
206
                i += 1
 
207
        finally:
 
208
            self.pb.clear()
 
209
 
 
210
 
 
211
    def _write_all_revs(self):
 
212
        """Write all revisions out in new form."""
 
213
        shutil.rmtree(self.base + '/.bzr/revision-store')
 
214
        os.mkdir(self.base + '/.bzr/revision-store')
 
215
        try:
 
216
            for i, rev_id in enumerate(self.converted_revs):
 
217
                self.pb.update('write revision', i, len(self.converted_revs))
 
218
                f = file(self.base + '/.bzr/revision-store/%s' % rev_id, 'wb')
 
219
                try:
 
220
                    serializer_v5.write_revision(self.revisions[rev_id], f)
 
221
                finally:
 
222
                    f.close()
 
223
        finally:
 
224
            self.pb.clear()
 
225
 
 
226
            
 
227
    def _load_one_rev(self, rev_id):
 
228
        """Load a revision object into memory.
 
229
 
 
230
        Any parents not either loaded or abandoned get queued to be
 
231
        loaded."""
 
232
        self.pb.update('loading revision',
 
233
                       len(self.revisions),
 
234
                       len(self.known_revisions))
 
235
        if rev_id not in self.branch.revision_store:
 
236
            self.pb.clear()
 
237
            note('revision {%s} not present in branch; '
 
238
                 'will not be converted',
 
239
                 rev_id)
 
240
            self.absent_revisions.add(rev_id)
 
241
        else:
 
242
            rev_xml = self.branch.revision_store[rev_id].read()
 
243
            rev = serializer_v4.read_revision_from_string(rev_xml)
 
244
            for parent_id in rev.parent_ids:
 
245
                self.known_revisions.add(parent_id)
 
246
                self.to_read.append(parent_id)
 
247
            self.revisions[rev_id] = rev
 
248
 
 
249
 
 
250
    def _load_old_inventory(self, rev_id):
 
251
        assert rev_id not in self.converted_revs
 
252
        old_inv_xml = self.branch.inventory_store[rev_id].read()
 
253
        inv = serializer_v4.read_inventory_from_string(old_inv_xml)
 
254
        rev = self.revisions[rev_id]
 
255
        if rev.inventory_sha1:
 
256
            assert rev.inventory_sha1 == sha_string(old_inv_xml), \
 
257
                'inventory sha mismatch for {%s}' % rev_id
 
258
        return inv
 
259
        
 
260
 
 
261
    def _load_updated_inventory(self, rev_id):
 
262
        assert rev_id in self.converted_revs
 
263
        inv_xml = self.inv_weave.get_text(rev_id)
 
264
        inv = serializer_v5.read_inventory_from_string(inv_xml)
 
265
        return inv
 
266
 
 
267
 
 
268
    def _convert_one_rev(self, rev_id):
 
269
        """Convert revision and all referenced objects to new format."""
 
270
        rev = self.revisions[rev_id]
 
271
        inv = self._load_old_inventory(rev_id)
 
272
        for parent_id in rev.parent_ids[:]:
 
273
            if parent_id in self.absent_revisions:
 
274
                rev.parent_ids.remove(parent_id)
 
275
                self.pb.clear()
 
276
                note('remove {%s} as parent of {%s}', parent_id, rev_id)
 
277
        self._convert_revision_contents(rev, inv)
 
278
        self._store_new_weave(rev, inv)
 
279
        self._make_rev_ancestry(rev)
 
280
        self.converted_revs.add(rev_id)
 
281
 
 
282
 
 
283
    def _store_new_weave(self, rev, inv):
 
284
        # the XML is now updated with text versions
 
285
        if __debug__:
 
286
            for file_id in inv:
 
287
                ie = inv[file_id]
 
288
                if ie.kind == 'root_directory':
 
289
                    continue
 
290
                assert hasattr(ie, 'name_version'), \
 
291
                    'no name_version on {%s} in {%s}' % \
 
292
                    (file_id, rev.revision_id)
 
293
                if ie.kind == 'file':
 
294
                    assert hasattr(ie, 'text_version')
 
295
 
 
296
        new_inv_xml = serializer_v5.write_inventory_to_string(inv)
 
297
        new_inv_sha1 = sha_string(new_inv_xml)
 
298
        self.inv_weave.add(rev.revision_id, rev.parent_ids,
 
299
                           new_inv_xml.splitlines(True),
 
300
                           new_inv_sha1)
 
301
        rev.inventory_sha1 = new_inv_sha1
 
302
 
 
303
 
 
304
    def _make_rev_ancestry(self, rev):
 
305
        rev_id = rev.revision_id
 
306
        for parent_id in rev.parent_ids:
 
307
            assert parent_id in self.converted_revs
 
308
        if rev.parent_ids:
 
309
            lines = list(self.anc_weave.mash_iter(rev.parent_ids))
 
310
        else:
 
311
            lines = []
 
312
        lines.append(rev_id + '\n')
 
313
        if __debug__:
 
314
            parent_ancestries = [self.ancestries[p] for p in rev.parent_ids]
 
315
            new_lines = merge_ancestry_lines(rev_id, parent_ancestries)
 
316
            assert set(lines) == set(new_lines)
 
317
            self.ancestries[rev_id] = new_lines
 
318
        self.anc_weave.add(rev_id, rev.parent_ids, lines)
 
319
 
 
320
 
 
321
    def _convert_revision_contents(self, rev, inv):
 
322
        """Convert all the files within a revision.
 
323
 
 
324
        Also upgrade the inventory to refer to the text revision ids."""
 
325
        rev_id = rev.revision_id
 
326
        mutter('converting texts of revision {%s}',
 
327
               rev_id)
 
328
        parent_invs = map(self._load_updated_inventory, rev.parent_ids)
 
329
        for file_id in inv:
 
330
            ie = inv[file_id]
 
331
            self._set_name_version(rev, ie, parent_invs)
 
332
            if ie.kind != 'file':
 
333
                continue
 
334
            self._convert_file_version(rev, ie, parent_invs)
 
335
 
 
336
 
 
337
    def _set_name_version(self, rev, ie, parent_invs):
 
338
        """Set name version for a file.
 
339
 
 
340
        Done in a slightly lazy way: if the file is renamed or in a merge revision
 
341
        it gets a new version, otherwise the same as before.
 
342
        """
 
343
        file_id = ie.file_id
 
344
        if ie.kind == 'root_directory':
 
345
            return
 
346
        if len(parent_invs) != 1:
 
347
            ie.name_version = rev.revision_id
 
348
        else:
 
349
            old_inv = parent_invs[0]
 
350
            if not old_inv.has_id(file_id):
 
351
                ie.name_version = rev.revision_id
92
352
            else:
93
 
                format_name = "default"
94
 
            format = format_registry.make_bzrdir(format_name)
 
353
                old_ie = old_inv[file_id]
 
354
                if (old_ie.parent_id != ie.parent_id
 
355
                    or old_ie.name != ie.name):
 
356
                    ie.name_version = rev.revision_id
 
357
                else:
 
358
                    ie.name_version = old_ie.name_version
 
359
 
 
360
 
 
361
 
 
362
    def _convert_file_version(self, rev, ie, parent_invs):
 
363
        """Convert one version of one file.
 
364
 
 
365
        The file needs to be added into the weave if it is a merge
 
366
        of >=2 parents or if it's changed from its parent.
 
367
        """
 
368
        file_id = ie.file_id
 
369
        rev_id = rev.revision_id
 
370
        w = self.text_weaves.get(file_id)
 
371
        if w is None:
 
372
            w = Weave(file_id)
 
373
            self.text_weaves[file_id] = w
 
374
        file_parents = []
 
375
        text_changed = False
 
376
        for parent_inv in parent_invs:
 
377
            if parent_inv.has_id(file_id):
 
378
                parent_ie = parent_inv[file_id]
 
379
                old_text_version = parent_ie.text_version
 
380
                assert old_text_version in self.converted_revs 
 
381
                if old_text_version not in file_parents:
 
382
                    file_parents.append(old_text_version)
 
383
                if parent_ie.text_sha1 != ie.text_sha1:
 
384
                    text_changed = True
 
385
        if len(file_parents) != 1 or text_changed:
 
386
            file_lines = self.branch.text_store[ie.text_id].readlines()
 
387
            assert sha_strings(file_lines) == ie.text_sha1
 
388
            assert sum(map(len, file_lines)) == ie.text_size
 
389
            w.add(rev_id, file_parents, file_lines, ie.text_sha1)
 
390
            ie.text_version = rev_id
 
391
            self.text_count += 1
 
392
            ##mutter('import text {%s} of {%s}',
 
393
            ##       ie.text_id, file_id)
95
394
        else:
96
 
            format = self.format
97
 
        if not self.bzrdir.needs_format_conversion(format):
98
 
            raise errors.UpToDateFormat(self.bzrdir._format)
99
 
        if not self.bzrdir.can_convert_format():
100
 
            raise errors.BzrError(gettext("cannot upgrade from bzrdir format %s") %
101
 
                           self.bzrdir._format)
102
 
        self.bzrdir.check_conversion_target(format)
103
 
        ui.ui_factory.note(gettext('starting upgrade of %s') % 
104
 
            urlutils.unescape_for_display(self.transport.base, 'utf-8'))
105
 
 
106
 
        self.backup_oldpath, self.backup_newpath = self.bzrdir.backup_bzrdir()
107
 
        while self.bzrdir.needs_format_conversion(format):
108
 
            converter = self.bzrdir._format.get_converter(format)
109
 
            self.bzrdir = converter.convert(self.bzrdir, None)
110
 
        ui.ui_factory.note(gettext('finished'))
111
 
 
112
 
    def clean_up(self):
113
 
        """Clean-up after a conversion.
114
 
 
115
 
        This removes the backup.bzr directory.
 
395
            ##mutter('text of {%s} unchanged from parent', file_id)
 
396
            ie.text_version = file_parents[0]
 
397
        del ie.text_id
 
398
 
 
399
 
 
400
 
 
401
    def _make_order(self):
 
402
        """Return a suitable order for importing revisions.
 
403
 
 
404
        The order must be such that an revision is imported after all
 
405
        its (present) parents.
116
406
        """
117
 
        transport = self.transport
118
 
        backup_relpath = transport.relpath(self.backup_newpath)
119
 
        child_pb = ui.ui_factory.nested_progress_bar()
120
 
        child_pb.update(gettext('Deleting backup.bzr'))
121
 
        try:
122
 
            transport.delete_tree(backup_relpath)
123
 
        finally:
124
 
            child_pb.finished()
125
 
 
126
 
 
127
 
def upgrade(url, format=None, clean_up=False, dry_run=False):
128
 
    """Upgrade locations to format.
129
 
 
130
 
    This routine wraps the smart_upgrade() routine with a nicer UI.
131
 
    In particular, it ensures all URLs can be opened before starting
132
 
    and reports a summary at the end if more than one upgrade was attempted.
133
 
    This routine is useful for command line tools. Other bzrlib clients
134
 
    probably ought to use smart_upgrade() instead.
135
 
 
136
 
    :param url: a URL of the locations to upgrade.
137
 
    :param format: the format to convert to or None for the best default
138
 
    :param clean-up: if True, the backup.bzr directory is removed if the
139
 
      upgrade succeeded for a given repo/branch/tree
140
 
    :param dry_run: show what would happen but don't actually do any upgrades
141
 
    :return: the list of exceptions encountered
142
 
    """
143
 
    control_dirs = [ControlDir.open_unsupported(url)]
144
 
    attempted, succeeded, exceptions = smart_upgrade(control_dirs,
145
 
        format, clean_up=clean_up, dry_run=dry_run)
146
 
    if len(attempted) > 1:
147
 
        attempted_count = len(attempted)
148
 
        succeeded_count = len(succeeded)
149
 
        failed_count = attempted_count - succeeded_count
150
 
        ui.ui_factory.note(
151
 
            gettext('\nSUMMARY: {0} upgrades attempted, {1} succeeded,'\
152
 
                    ' {2} failed').format(
153
 
                     attempted_count, succeeded_count, failed_count))
154
 
    return exceptions
155
 
 
156
 
 
157
 
def smart_upgrade(control_dirs, format, clean_up=False,
158
 
    dry_run=False):
159
 
    """Convert control directories to a new format intelligently.
160
 
 
161
 
    If the control directory is a shared repository, dependent branches
162
 
    are also converted provided the repository converted successfully.
163
 
    If the conversion of a branch fails, remaining branches are still tried.
164
 
 
165
 
    :param control_dirs: the BzrDirs to upgrade
166
 
    :param format: the format to convert to or None for the best default
167
 
    :param clean_up: if True, the backup.bzr directory is removed if the
168
 
      upgrade succeeded for a given repo/branch/tree
169
 
    :param dry_run: show what would happen but don't actually do any upgrades
170
 
    :return: attempted-control-dirs, succeeded-control-dirs, exceptions
171
 
    """
172
 
    all_attempted = []
173
 
    all_succeeded = []
174
 
    all_exceptions = []
175
 
    for control_dir in control_dirs:
176
 
        attempted, succeeded, exceptions = _smart_upgrade_one(control_dir,
177
 
            format, clean_up=clean_up, dry_run=dry_run)
178
 
        all_attempted.extend(attempted)
179
 
        all_succeeded.extend(succeeded)
180
 
        all_exceptions.extend(exceptions)
181
 
    return all_attempted, all_succeeded, all_exceptions
182
 
 
183
 
 
184
 
def _smart_upgrade_one(control_dir, format, clean_up=False,
185
 
    dry_run=False):
186
 
    """Convert a control directory to a new format intelligently.
187
 
 
188
 
    See smart_upgrade for parameter details.
189
 
    """
190
 
    # If the URL is a shared repository, find the dependent branches
191
 
    dependents = None
192
 
    try:
193
 
        repo = control_dir.open_repository()
194
 
    except errors.NoRepositoryPresent:
195
 
        # A branch or checkout using a shared repository higher up
196
 
        pass
197
 
    else:
198
 
        # The URL is a repository. If it successfully upgrades,
199
 
        # then upgrade the dependent branches as well.
200
 
        if repo.is_shared():
201
 
            dependents = repo.find_branches(using=True)
202
 
 
203
 
    # Do the conversions
204
 
    attempted = [control_dir]
205
 
    succeeded, exceptions = _convert_items([control_dir], format, clean_up,
206
 
                                           dry_run)
207
 
    if succeeded and dependents:
208
 
        ui.ui_factory.note(gettext('Found %d dependent branches - upgrading ...')
209
 
                           % (len(dependents),))
210
 
        # Convert dependent branches
211
 
        branch_cdirs = [b.bzrdir for b in dependents]
212
 
        successes, problems = _convert_items(branch_cdirs, format, clean_up,
213
 
            dry_run, label="branch")
214
 
        attempted.extend(branch_cdirs)
215
 
        succeeded.extend(successes)
216
 
        exceptions.extend(problems)
217
 
 
218
 
    # Return the result
219
 
    return attempted, succeeded, exceptions
220
 
 
221
 
# FIXME: There are several problems below:
222
 
# - RemoteRepository doesn't support _unsupported (really ?)
223
 
# - raising AssertionError is rude and may not be necessary
224
 
# - no tests
225
 
# - the only caller uses only the label
226
 
def _get_object_and_label(control_dir):
227
 
    """Return the primary object and type label for a control directory.
228
 
 
229
 
    :return: object, label where:
230
 
      * object is a Branch, Repository or WorkingTree and
231
 
      * label is one of:
232
 
        * branch            - a branch
233
 
        * repository        - a repository
234
 
        * tree              - a lightweight checkout
235
 
    """
236
 
    try:
237
 
        try:
238
 
            br = control_dir.open_branch(unsupported=True,
239
 
                                         ignore_fallbacks=True)
240
 
        except NotImplementedError:
241
 
            # RemoteRepository doesn't support the unsupported parameter
242
 
            br = control_dir.open_branch(ignore_fallbacks=True)
243
 
    except errors.NotBranchError:
244
 
        pass
245
 
    else:
246
 
        return br, "branch"
247
 
    try:
248
 
        repo = control_dir.open_repository()
249
 
    except errors.NoRepositoryPresent:
250
 
        pass
251
 
    else:
252
 
        return repo, "repository"
253
 
    try:
254
 
        wt = control_dir.open_workingtree()
255
 
    except (errors.NoWorkingTree, errors.NotLocalUrl):
256
 
        pass
257
 
    else:
258
 
        return wt, "tree"
259
 
    raise AssertionError("unknown type of control directory %s", control_dir)
260
 
 
261
 
 
262
 
def _convert_items(items, format, clean_up, dry_run, label=None):
263
 
    """Convert a sequence of control directories to the given format.
264
 
 
265
 
    :param items: the control directories to upgrade
266
 
    :param format: the format to convert to or None for the best default
267
 
    :param clean-up: if True, the backup.bzr directory is removed if the
268
 
      upgrade succeeded for a given repo/branch/tree
269
 
    :param dry_run: show what would happen but don't actually do any upgrades
270
 
    :param label: the label for these items or None to calculate one
271
 
    :return: items successfully upgraded, exceptions
272
 
    """
273
 
    succeeded = []
274
 
    exceptions = []
275
 
    child_pb = ui.ui_factory.nested_progress_bar()
276
 
    child_pb.update(gettext('Upgrading bzrdirs'), 0, len(items))
277
 
    for i, control_dir in enumerate(items):
278
 
        # Do the conversion
279
 
        location = control_dir.root_transport.base
280
 
        bzr_object, bzr_label = _get_object_and_label(control_dir)
281
 
        type_label = label or bzr_label
282
 
        child_pb.update(gettext("Upgrading %s") % (type_label), i+1, len(items))
283
 
        ui.ui_factory.note(gettext('Upgrading {0} {1} ...').format(type_label, 
284
 
            urlutils.unescape_for_display(location, 'utf-8'),))
285
 
        try:
286
 
            if not dry_run:
287
 
                cv = Convert(control_dir=control_dir, format=format)
288
 
        except errors.UpToDateFormat, ex:
289
 
            ui.ui_factory.note(str(ex))
290
 
            succeeded.append(control_dir)
291
 
            continue
292
 
        except Exception, ex:
293
 
            trace.warning('conversion error: %s' % ex)
294
 
            exceptions.append(ex)
295
 
            continue
296
 
 
297
 
        # Do any required post processing
298
 
        succeeded.append(control_dir)
299
 
        if clean_up:
300
 
            try:
301
 
                ui.ui_factory.note(gettext('Removing backup ...'))
302
 
                if not dry_run:
303
 
                    cv.clean_up()
304
 
            except Exception, ex:
305
 
                trace.warning(gettext('failed to clean-up {0}: {1}') % (location, ex))
306
 
                exceptions.append(ex)
307
 
 
308
 
    child_pb.finished()
309
 
 
310
 
    # Return the result
311
 
    return succeeded, exceptions
 
407
        todo = set(self.revisions.keys())
 
408
        done = self.absent_revisions.copy()
 
409
        o = []
 
410
        while todo:
 
411
            # scan through looking for a revision whose parents
 
412
            # are all done
 
413
            for rev_id in sorted(list(todo)):
 
414
                rev = self.revisions[rev_id]
 
415
                parent_ids = set(rev.parent_ids)
 
416
                if parent_ids.issubset(done):
 
417
                    # can take this one now
 
418
                    o.append(rev_id)
 
419
                    todo.remove(rev_id)
 
420
                    done.add(rev_id)
 
421
        return o
 
422
 
 
423
 
 
424
def write_a_weave(weave, filename):
 
425
    inv_wf = file(filename, 'wb')
 
426
    try:
 
427
        write_weave(weave, inv_wf)
 
428
    finally:
 
429
        inv_wf.close()
 
430
 
 
431
 
 
432
def upgrade(base_dir):
 
433
    Convert(base_dir)