~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/check.py

  • Committer: mbp at sourcefrog
  • Date: 2005-03-09 06:44:53 UTC
  • Revision ID: mbp@sourcefrog.net-20050309064453-60be0ae479d019b8
store committer's timezone in revision and show 
in changelog

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006 Canonical Ltd
2
 
#
 
1
#! /usr/bin/python
 
2
 
 
3
 
 
4
# Copyright (C) 2004, 2005 by Martin Pool
 
5
# Copyright (C) 2005 by Canonical Ltd
 
6
 
 
7
 
3
8
# This program is free software; you can redistribute it and/or modify
4
9
# it under the terms of the GNU General Public License as published by
5
10
# the Free Software Foundation; either version 2 of the License, or
6
11
# (at your option) any later version.
7
 
#
 
12
 
8
13
# This program is distributed in the hope that it will be useful,
9
14
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
15
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
16
# GNU General Public License for more details.
12
 
#
 
17
 
13
18
# You should have received a copy of the GNU General Public License
14
19
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
 
 
17
 
# TODO: Check ancestries are correct for every revision: includes
18
 
# every committed so far, and in a reasonable order.
19
 
 
20
 
# TODO: Also check non-mainline revisions mentioned as parents.
21
 
 
22
 
# TODO: Check for extra files in the control directory.
23
 
 
24
 
# TODO: Check revision, inventory and entry objects have all
25
 
# required fields.
26
 
 
27
 
# TODO: Get every revision in the revision-store even if they're not
28
 
# referenced by history and make sure they're all valid.
29
 
 
30
 
# TODO: Perhaps have a way to record errors other than by raising exceptions;
31
 
# would perhaps be enough to accumulate exception objects in a list without
32
 
# raising them.  If there's more than one exception it'd be good to see them
33
 
# all.
34
 
 
35
 
"""Checking of bzr objects.
36
 
 
37
 
check_refs is a concept used for optimising check. Objects that depend on other
38
 
objects (e.g. tree on repository) can list the objects they would be requesting
39
 
so that when the dependent object is checked, matches can be pulled out and
40
 
evaluated in-line rather than re-reading the same data many times.
41
 
check_refs are tuples (kind, value). Currently defined kinds are:
42
 
 
43
 
* 'trees', where value is a revid and the looked up objects are revision trees.
44
 
* 'lefthand-distance', where value is a revid and the looked up objects are the
45
 
  distance along the lefthand path to NULL for that revid.
46
 
* 'revision-existence', where value is a revid, and the result is True or False
47
 
  indicating that the revision was found/not found.
48
 
"""
49
 
 
50
 
from bzrlib import (
51
 
    errors,
52
 
    ui,
53
 
    )
54
 
from bzrlib.branch import Branch
55
 
from bzrlib.controldir import ControlDir
56
 
from bzrlib.revision import NULL_REVISION
57
 
from bzrlib.trace import note
58
 
from bzrlib.workingtree import WorkingTree
59
 
from bzrlib.i18n import gettext
60
 
 
61
 
class Check(object):
62
 
    """Check a repository"""
63
 
 
64
 
    def __init__(self, repository, check_repo=True):
65
 
        self.repository = repository
66
 
 
67
 
    def report_results(self, verbose):
68
 
        raise NotImplementedError(self.report_results)
69
 
 
70
 
 
71
 
class VersionedFileCheck(Check):
72
 
    """Check a versioned file repository"""
73
 
 
74
 
    # The Check object interacts with InventoryEntry.check, etc.
75
 
 
76
 
    def __init__(self, repository, check_repo=True):
77
 
        self.repository = repository
78
 
        self.checked_rev_cnt = 0
79
 
        self.ghosts = set()
80
 
        self.missing_parent_links = {}
81
 
        self.missing_inventory_sha_cnt = 0
82
 
        self.missing_revision_cnt = 0
83
 
        self.checked_weaves = set()
84
 
        self.unreferenced_versions = set()
85
 
        self.inconsistent_parents = []
86
 
        self.rich_roots = repository.supports_rich_root()
87
 
        self.text_key_references = {}
88
 
        self.check_repo = check_repo
89
 
        self.other_results = []
90
 
        # Plain text lines to include in the report
91
 
        self._report_items = []
92
 
        # Keys we are looking for; may be large and need spilling to disk.
93
 
        # key->(type(revision/inventory/text/signature/map), sha1, first-referer)
94
 
        self.pending_keys = {}
95
 
        # Ancestors map for all of revisions being checked; while large helper
96
 
        # functions we call would create it anyway, so better to have once and
97
 
        # keep.
98
 
        self.ancestors = {}
99
 
 
100
 
    def check(self, callback_refs=None, check_repo=True):
101
 
        if callback_refs is None:
102
 
            callback_refs = {}
103
 
        self.repository.lock_read()
104
 
        self.progress = ui.ui_factory.nested_progress_bar()
105
 
        try:
106
 
            self.progress.update(gettext('check'), 0, 4)
107
 
            if self.check_repo:
108
 
                self.progress.update(gettext('checking revisions'), 0)
109
 
                self.check_revisions()
110
 
                self.progress.update(gettext('checking commit contents'), 1)
111
 
                self.repository._check_inventories(self)
112
 
                self.progress.update(gettext('checking file graphs'), 2)
113
 
                # check_weaves is done after the revision scan so that
114
 
                # revision index is known to be valid.
115
 
                self.check_weaves()
116
 
            self.progress.update(gettext('checking branches and trees'), 3)
117
 
            if callback_refs:
118
 
                repo = self.repository
119
 
                # calculate all refs, and callback the objects requesting them.
120
 
                refs = {}
121
 
                wanting_items = set()
122
 
                # Current crude version calculates everything and calls
123
 
                # everything at once. Doing a queue and popping as things are
124
 
                # satisfied would be cheaper on memory [but few people have
125
 
                # huge numbers of working trees today. TODO: fix before
126
 
                # landing].
127
 
                distances = set()
128
 
                existences = set()
129
 
                for ref, wantlist in callback_refs.iteritems():
130
 
                    wanting_items.update(wantlist)
131
 
                    kind, value = ref
132
 
                    if kind == 'trees':
133
 
                        refs[ref] = repo.revision_tree(value)
134
 
                    elif kind == 'lefthand-distance':
135
 
                        distances.add(value)
136
 
                    elif kind == 'revision-existence':
137
 
                        existences.add(value)
138
 
                    else:
139
 
                        raise AssertionError(
140
 
                            'unknown ref kind for ref %s' % ref)
141
 
                node_distances = repo.get_graph().find_lefthand_distances(distances)
142
 
                for key, distance in node_distances.iteritems():
143
 
                    refs[('lefthand-distance', key)] = distance
144
 
                    if key in existences and distance > 0:
145
 
                        refs[('revision-existence', key)] = True
146
 
                        existences.remove(key)
147
 
                parent_map = repo.get_graph().get_parent_map(existences)
148
 
                for key in parent_map:
149
 
                    refs[('revision-existence', key)] = True
150
 
                    existences.remove(key)
151
 
                for key in existences:
152
 
                    refs[('revision-existence', key)] = False
153
 
                for item in wanting_items:
154
 
                    if isinstance(item, WorkingTree):
155
 
                        item._check(refs)
156
 
                    if isinstance(item, Branch):
157
 
                        self.other_results.append(item.check(refs))
158
 
        finally:
159
 
            self.progress.finished()
160
 
            self.repository.unlock()
161
 
 
162
 
    def _check_revisions(self, revisions_iterator):
163
 
        """Check revision objects by decorating a generator.
164
 
 
165
 
        :param revisions_iterator: An iterator of(revid, Revision-or-None).
166
 
        :return: A generator of the contents of revisions_iterator.
167
 
        """
168
 
        self.planned_revisions = set()
169
 
        for revid, revision in revisions_iterator:
170
 
            yield revid, revision
171
 
            self._check_one_rev(revid, revision)
172
 
        # Flatten the revisions we found to guarantee consistent later
173
 
        # iteration.
174
 
        self.planned_revisions = list(self.planned_revisions)
175
 
        # TODO: extract digital signatures as items to callback on too.
176
 
 
177
 
    def check_revisions(self):
178
 
        """Scan revisions, checking data directly available as we go."""
179
 
        revision_iterator = self.repository._iter_revisions(None)
180
 
        revision_iterator = self._check_revisions(revision_iterator)
181
 
        # We read the all revisions here:
182
 
        # - doing this allows later code to depend on the revision index.
183
 
        # - we can fill out existence flags at this point
184
 
        # - we can read the revision inventory sha at this point
185
 
        # - we can check properties and serialisers etc.
186
 
        if not self.repository._format.revision_graph_can_have_wrong_parents:
187
 
            # The check against the index isn't needed.
188
 
            self.revs_with_bad_parents_in_index = None
189
 
            for thing in revision_iterator:
190
 
                pass
191
 
        else:
192
 
            bad_revisions = self.repository._find_inconsistent_revision_parents(
193
 
                revision_iterator)
194
 
            self.revs_with_bad_parents_in_index = list(bad_revisions)
195
 
 
196
 
    def report_results(self, verbose):
197
 
        if self.check_repo:
198
 
            self._report_repo_results(verbose)
199
 
        for result in self.other_results:
200
 
            result.report_results(verbose)
201
 
 
202
 
    def _report_repo_results(self, verbose):
203
 
        note(gettext('checked repository {0} format {1}').format(
204
 
            self.repository.user_url,
205
 
            self.repository._format))
206
 
        note(gettext('%6d revisions'), self.checked_rev_cnt)
207
 
        note(gettext('%6d file-ids'), len(self.checked_weaves))
208
 
        if verbose:
209
 
            note(gettext('%6d unreferenced text versions'),
210
 
                len(self.unreferenced_versions))
211
 
        if verbose and len(self.unreferenced_versions):
212
 
                for file_id, revision_id in self.unreferenced_versions:
213
 
                    note(gettext('unreferenced version: {{{0}}} in {1}').format(revision_id,
214
 
                        file_id))
215
 
        if self.missing_inventory_sha_cnt:
216
 
            note(gettext('%6d revisions are missing inventory_sha1'),
217
 
                 self.missing_inventory_sha_cnt)
218
 
        if self.missing_revision_cnt:
219
 
            note(gettext('%6d revisions are mentioned but not present'),
220
 
                 self.missing_revision_cnt)
221
 
        if len(self.ghosts):
222
 
            note(gettext('%6d ghost revisions'), len(self.ghosts))
223
 
            if verbose:
224
 
                for ghost in self.ghosts:
225
 
                    note('      %s', ghost)
226
 
        if len(self.missing_parent_links):
227
 
            note(gettext('%6d revisions missing parents in ancestry'),
228
 
                 len(self.missing_parent_links))
229
 
            if verbose:
230
 
                for link, linkers in self.missing_parent_links.items():
231
 
                    note(gettext('      %s should be in the ancestry for:'), link)
232
 
                    for linker in linkers:
233
 
                        note('       * %s', linker)
234
 
        if len(self.inconsistent_parents):
235
 
            note(gettext('%6d inconsistent parents'), len(self.inconsistent_parents))
236
 
            if verbose:
237
 
                for info in self.inconsistent_parents:
238
 
                    revision_id, file_id, found_parents, correct_parents = info
239
 
                    note(gettext('      * {0} version {1} has parents {2!r} '
240
 
                         'but should have {3!r}').format(
241
 
                         file_id, revision_id, found_parents,
242
 
                             correct_parents))
243
 
        if self.revs_with_bad_parents_in_index:
244
 
            note(gettext(
245
 
                 '%6d revisions have incorrect parents in the revision index'),
246
 
                 len(self.revs_with_bad_parents_in_index))
247
 
            if verbose:
248
 
                for item in self.revs_with_bad_parents_in_index:
249
 
                    revision_id, index_parents, actual_parents = item
250
 
                    note(gettext(
251
 
                        '       {0} has wrong parents in index: '
252
 
                        '{1!r} should be {2!r}').format(
253
 
                        revision_id, index_parents, actual_parents))
254
 
        for item in self._report_items:
255
 
            note(item)
256
 
 
257
 
    def _check_one_rev(self, rev_id, rev):
258
 
        """Cross-check one revision.
259
 
 
260
 
        :param rev_id: A revision id to check.
261
 
        :param rev: A revision or None to indicate a missing revision.
262
 
        """
263
 
        if rev.revision_id != rev_id:
264
 
            self._report_items.append(gettext(
265
 
                'Mismatched internal revid {{{0}}} and index revid {{{1}}}').format(
266
 
                rev.revision_id, rev_id))
267
 
            rev_id = rev.revision_id
268
 
        # Check this revision tree etc, and count as seen when we encounter a
269
 
        # reference to it.
270
 
        self.planned_revisions.add(rev_id)
271
 
        # It is not a ghost
272
 
        self.ghosts.discard(rev_id)
273
 
        # Count all parents as ghosts if we haven't seen them yet.
274
 
        for parent in rev.parent_ids:
275
 
            if not parent in self.planned_revisions:
276
 
                self.ghosts.add(parent)
277
 
        
278
 
        self.ancestors[rev_id] = tuple(rev.parent_ids) or (NULL_REVISION,)
279
 
        self.add_pending_item(rev_id, ('inventories', rev_id), 'inventory',
280
 
            rev.inventory_sha1)
281
 
        self.checked_rev_cnt += 1
282
 
 
283
 
    def add_pending_item(self, referer, key, kind, sha1):
284
 
        """Add a reference to a sha1 to be cross checked against a key.
285
 
 
286
 
        :param referer: The referer that expects key to have sha1.
287
 
        :param key: A storage key e.g. ('texts', 'foo@bar-20040504-1234')
288
 
        :param kind: revision/inventory/text/map/signature
289
 
        :param sha1: A hex sha1 or None if no sha1 is known.
290
 
        """
291
 
        existing = self.pending_keys.get(key)
292
 
        if existing:
293
 
            if sha1 != existing[1]:
294
 
                self._report_items.append(gettext('Multiple expected sha1s for {0}. {{{1}}}'
295
 
                    ' expects {{{2}}}, {{{3}}} expects {{{4}}}').format(
296
 
                    key, referer, sha1, existing[1], existing[0]))
297
 
        else:
298
 
            self.pending_keys[key] = (kind, sha1, referer)
299
 
 
300
 
    def check_weaves(self):
301
 
        """Check all the weaves we can get our hands on.
302
 
        """
303
 
        weave_ids = []
304
 
        storebar = ui.ui_factory.nested_progress_bar()
305
 
        try:
306
 
            self._check_weaves(storebar)
307
 
        finally:
308
 
            storebar.finished()
309
 
 
310
 
    def _check_weaves(self, storebar):
311
 
        storebar.update('text-index', 0, 2)
312
 
        if self.repository._format.fast_deltas:
313
 
            # We haven't considered every fileid instance so far.
314
 
            weave_checker = self.repository._get_versioned_file_checker(
315
 
                ancestors=self.ancestors)
316
 
        else:
317
 
            weave_checker = self.repository._get_versioned_file_checker(
318
 
                text_key_references=self.text_key_references,
319
 
                ancestors=self.ancestors)
320
 
        storebar.update('file-graph', 1)
321
 
        result = weave_checker.check_file_version_parents(
322
 
            self.repository.texts)
323
 
        self.checked_weaves = weave_checker.file_ids
324
 
        bad_parents, unused_versions = result
325
 
        bad_parents = bad_parents.items()
326
 
        for text_key, (stored_parents, correct_parents) in bad_parents:
327
 
            # XXX not ready for id join/split operations.
328
 
            weave_id = text_key[0]
329
 
            revision_id = text_key[-1]
330
 
            weave_parents = tuple([parent[-1] for parent in stored_parents])
331
 
            correct_parents = tuple([parent[-1] for parent in correct_parents])
332
 
            self.inconsistent_parents.append(
333
 
                (revision_id, weave_id, weave_parents, correct_parents))
334
 
        self.unreferenced_versions.update(unused_versions)
335
 
 
336
 
    def _add_entry_to_text_key_references(self, inv, entry):
337
 
        if not self.rich_roots and entry.name == '':
338
 
            return
339
 
        key = (entry.file_id, entry.revision)
340
 
        self.text_key_references.setdefault(key, False)
341
 
        if entry.revision == inv.revision_id:
342
 
            self.text_key_references[key] = True
343
 
 
344
 
 
345
 
def scan_branch(branch, needed_refs, to_unlock):
346
 
    """Scan a branch for refs.
347
 
 
348
 
    :param branch:  The branch to schedule for checking.
349
 
    :param needed_refs: Refs we are accumulating.
350
 
    :param to_unlock: The unlock list accumulating.
351
 
    """
352
 
    note(gettext("Checking branch at '%s'.") % (branch.base,))
353
 
    branch.lock_read()
354
 
    to_unlock.append(branch)
355
 
    branch_refs = branch._get_check_refs()
356
 
    for ref in branch_refs:
357
 
        reflist = needed_refs.setdefault(ref, [])
358
 
        reflist.append(branch)
359
 
 
360
 
 
361
 
def scan_tree(base_tree, tree, needed_refs, to_unlock):
362
 
    """Scan a tree for refs.
363
 
 
364
 
    :param base_tree: The original tree check opened, used to detect duplicate
365
 
        tree checks.
366
 
    :param tree:  The tree to schedule for checking.
367
 
    :param needed_refs: Refs we are accumulating.
368
 
    :param to_unlock: The unlock list accumulating.
369
 
    """
370
 
    if base_tree is not None and tree.basedir == base_tree.basedir:
371
 
        return
372
 
    note(gettext("Checking working tree at '%s'.") % (tree.basedir,))
373
 
    tree.lock_read()
374
 
    to_unlock.append(tree)
375
 
    tree_refs = tree._get_check_refs()
376
 
    for ref in tree_refs:
377
 
        reflist = needed_refs.setdefault(ref, [])
378
 
        reflist.append(tree)
379
 
 
380
 
 
381
 
def check_dwim(path, verbose, do_branch=False, do_repo=False, do_tree=False):
382
 
    """Check multiple objects.
383
 
 
384
 
    If errors occur they are accumulated and reported as far as possible, and
385
 
    an exception raised at the end of the process.
386
 
    """
387
 
    try:
388
 
        base_tree, branch, repo, relpath = \
389
 
                        ControlDir.open_containing_tree_branch_or_repository(path)
390
 
    except errors.NotBranchError:
391
 
        base_tree = branch = repo = None
392
 
 
393
 
    to_unlock = []
394
 
    needed_refs= {}
395
 
    try:
396
 
        if base_tree is not None:
397
 
            # If the tree is a lightweight checkout we won't see it in
398
 
            # repo.find_branches - add now.
399
 
            if do_tree:
400
 
                scan_tree(None, base_tree, needed_refs, to_unlock)
401
 
            branch = base_tree.branch
402
 
        if branch is not None:
403
 
            # We have a branch
404
 
            if repo is None:
405
 
                # The branch is in a shared repository
406
 
                repo = branch.repository
407
 
        if repo is not None:
408
 
            repo.lock_read()
409
 
            to_unlock.append(repo)
410
 
            branches = repo.find_branches(using=True)
411
 
            saw_tree = False
412
 
            if do_branch or do_tree:
413
 
                for branch in branches:
414
 
                    if do_tree:
415
 
                        try:
416
 
                            tree = branch.bzrdir.open_workingtree()
417
 
                            saw_tree = True
418
 
                        except (errors.NotLocalUrl, errors.NoWorkingTree):
419
 
                            pass
420
 
                        else:
421
 
                            scan_tree(base_tree, tree, needed_refs, to_unlock)
422
 
                    if do_branch:
423
 
                        scan_branch(branch, needed_refs, to_unlock)
424
 
            if do_branch and not branches:
425
 
                note(gettext("No branch found at specified location."))
426
 
            if do_tree and base_tree is None and not saw_tree:
427
 
                note(gettext("No working tree found at specified location."))
428
 
            if do_repo or do_branch or do_tree:
429
 
                if do_repo:
430
 
                    note(gettext("Checking repository at '%s'.")
431
 
                         % (repo.user_url,))
432
 
                result = repo.check(None, callback_refs=needed_refs,
433
 
                    check_repo=do_repo)
434
 
                result.report_results(verbose)
435
 
        else:
436
 
            if do_tree:
437
 
                note(gettext("No working tree found at specified location."))
438
 
            if do_branch:
439
 
                note(gettext("No branch found at specified location."))
440
 
            if do_repo:
441
 
                note(gettext("No repository found at specified location."))
442
 
    finally:
443
 
        for thing in to_unlock:
444
 
            thing.unlock()
 
20
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
21
 
 
22
 
 
23
 
 
24
######################################################################
 
25
# consistency checks
 
26
 
 
27
def check():
 
28
    """Consistency check of tree."""
 
29
    assert_in_tree()
 
30
    mutter("checking tree")
 
31
    check_patches_exist()
 
32
    check_patch_chaining()
 
33
    check_patch_uniqueness()
 
34
    check_inventory()
 
35
    mutter("tree looks OK")
 
36
    ## TODO: Check that previous-inventory and previous-manifest
 
37
    ## are the same as those stored in the previous changeset.
 
38
 
 
39
    ## TODO: Check all patches present in patch directory are
 
40
    ## mentioned in patch history; having an orphaned patch only gives
 
41
    ## a warning.
 
42
 
 
43
    ## TODO: Check cached data is consistent with data reconstructed
 
44
    ## from scratch.
 
45
 
 
46
    ## TODO: Check no control files are versioned.
 
47
 
 
48
    ## TODO: Check that the before-hash of each file in a later
 
49
    ## revision matches the after-hash in the previous revision to
 
50
    ## touch it.
 
51
 
 
52
 
 
53
def check_inventory():
 
54
    mutter("checking inventory file and ids...")
 
55
    seen_ids = Set()
 
56
    seen_names = Set()
 
57
    
 
58
    for l in controlfile('inventory').readlines():
 
59
        parts = l.split()
 
60
        if len(parts) != 2:
 
61
            bailout("malformed inventory line: " + `l`)
 
62
        file_id, name = parts
 
63
        
 
64
        if file_id in seen_ids:
 
65
            bailout("duplicated file id " + file_id)
 
66
        seen_ids.add(file_id)
 
67
 
 
68
        if name in seen_names:
 
69
            bailout("duplicated file name in inventory: " + quotefn(name))
 
70
        seen_names.add(name)
 
71
        
 
72
        if is_control_file(name):
 
73
            raise BzrError("control file %s present in inventory" % quotefn(name))
 
74
 
 
75
 
 
76
def check_patches_exist():
 
77
    """Check constraint of current version: all patches exist"""
 
78
    mutter("checking all patches are present...")
 
79
    for pid in revision_history():
 
80
        read_patch_header(pid)
 
81
 
 
82
 
 
83
def check_patch_chaining():
 
84
    """Check ancestry of patches and history file is consistent"""
 
85
    mutter("checking patch chaining...")
 
86
    prev = None
 
87
    for pid in revision_history():
 
88
        log_prev = read_patch_header(pid).precursor
 
89
        if log_prev != prev:
 
90
            bailout("inconsistent precursor links on " + pid)
 
91
        prev = pid
 
92
 
 
93
 
 
94
def check_patch_uniqueness():
 
95
    """Make sure no patch is listed twice in the history.
 
96
 
 
97
    This should be implied by having correct ancestry but I'll check it
 
98
    anyhow."""
 
99
    mutter("checking history for duplicates...")
 
100
    seen = Set()
 
101
    for pid in revision_history():
 
102
        if pid in seen:
 
103
            bailout("patch " + pid + " appears twice in history")
 
104
        seen.add(pid)
 
105
        
 
106