~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2010-09-01 08:02:42 UTC
  • mfrom: (5390.3.3 faster-revert-593560)
  • Revision ID: pqm@pqm.ubuntu.com-20100901080242-esg62ody4frwmy66
(spiv) Avoid repeatedly calling self.target.all_file_ids() in
 InterTree.iter_changes. (Andrew Bennetts)

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
 
1
# Copyright (C) 2005-2010 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
17
 
18
18
 
65
65
lazy_import(globals(), """
66
66
 
67
67
from bzrlib import (
 
68
    bzrdir,
68
69
    config,
69
70
    diff,
70
71
    errors,
 
72
    foreign,
 
73
    osutils,
71
74
    repository as _mod_repository,
72
75
    revision as _mod_revision,
73
76
    revisionspec,
81
84
    )
82
85
from bzrlib.osutils import (
83
86
    format_date,
 
87
    format_date_with_offset_in_original_timezone,
84
88
    get_terminal_encoding,
85
89
    terminal_width,
86
90
    )
 
91
from bzrlib.symbol_versioning import (
 
92
    deprecated_function,
 
93
    deprecated_in,
 
94
    )
87
95
 
88
96
 
89
97
def find_touching_revisions(branch, file_id):
101
109
    last_path = None
102
110
    revno = 1
103
111
    for revision_id in branch.revision_history():
104
 
        this_inv = branch.repository.get_revision_inventory(revision_id)
 
112
        this_inv = branch.repository.get_inventory(revision_id)
105
113
        if file_id in this_inv:
106
114
            this_ie = this_inv[file_id]
107
115
            this_path = this_inv.id2path(file_id)
151
159
             show_diff=False):
152
160
    """Write out human-readable log of commits to this branch.
153
161
 
 
162
    This function is being retained for backwards compatibility but
 
163
    should not be extended with new parameters. Use the new Logger class
 
164
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
 
165
    make_log_request_dict function.
 
166
 
154
167
    :param lf: The LogFormatter object showing the output.
155
168
 
156
169
    :param specific_fileid: If not None, list only the commits affecting the
173
186
 
174
187
    :param show_diff: If True, output a diff after each revision.
175
188
    """
176
 
    branch.lock_read()
177
 
    try:
178
 
        if getattr(lf, 'begin_log', None):
179
 
            lf.begin_log()
180
 
 
181
 
        _show_log(branch, lf, specific_fileid, verbose, direction,
182
 
                  start_revision, end_revision, search, limit, show_diff)
183
 
 
184
 
        if getattr(lf, 'end_log', None):
185
 
            lf.end_log()
186
 
    finally:
187
 
        branch.unlock()
188
 
 
189
 
 
190
 
def _show_log(branch,
191
 
             lf,
192
 
             specific_fileid=None,
193
 
             verbose=False,
194
 
             direction='reverse',
195
 
             start_revision=None,
196
 
             end_revision=None,
197
 
             search=None,
198
 
             limit=None,
199
 
             show_diff=False):
200
 
    """Worker function for show_log - see show_log."""
201
 
    if not isinstance(lf, LogFormatter):
202
 
        warn("not a LogFormatter instance: %r" % lf)
203
 
    if specific_fileid:
204
 
        trace.mutter('get log for file_id %r', specific_fileid)
205
 
 
206
 
    # Consult the LogFormatter about what it needs and can handle
207
 
    levels_to_display = lf.get_levels()
208
 
    generate_merge_revisions = levels_to_display != 1
209
 
    allow_single_merge_revision = True
210
 
    if not getattr(lf, 'supports_merge_revisions', False):
211
 
        allow_single_merge_revision = getattr(lf,
212
 
            'supports_single_merge_revision', False)
213
 
    generate_tags = getattr(lf, 'supports_tags', False)
214
 
    if generate_tags and branch.supports_tags():
215
 
        rev_tag_dict = branch.tags.get_reverse_tag_dict()
216
 
    else:
217
 
        rev_tag_dict = {}
218
 
    generate_delta = verbose and getattr(lf, 'supports_delta', False)
219
 
    generate_diff = show_diff and getattr(lf, 'supports_diff', False)
220
 
 
221
 
    # Find and print the interesting revisions
222
 
    repo = branch.repository
223
 
    log_count = 0
224
 
    revision_iterator = _create_log_revision_iterator(branch,
225
 
        start_revision, end_revision, direction, specific_fileid, search,
226
 
        generate_merge_revisions, allow_single_merge_revision,
227
 
        generate_delta, limited_output=limit > 0)
228
 
    for revs in revision_iterator:
229
 
        for (rev_id, revno, merge_depth), rev, delta in revs:
230
 
            # Note: 0 levels means show everything; merge_depth counts from 0
231
 
            if levels_to_display != 0 and merge_depth >= levels_to_display:
232
 
                continue
233
 
            if generate_diff:
234
 
                diff = _format_diff(repo, rev, rev_id, specific_fileid)
235
 
            else:
236
 
                diff = None
237
 
            lr = LogRevision(rev, revno, merge_depth, delta,
238
 
                             rev_tag_dict.get(rev_id), diff)
 
189
    # Convert old-style parameters to new-style parameters
 
190
    if specific_fileid is not None:
 
191
        file_ids = [specific_fileid]
 
192
    else:
 
193
        file_ids = None
 
194
    if verbose:
 
195
        if file_ids:
 
196
            delta_type = 'partial'
 
197
        else:
 
198
            delta_type = 'full'
 
199
    else:
 
200
        delta_type = None
 
201
    if show_diff:
 
202
        if file_ids:
 
203
            diff_type = 'partial'
 
204
        else:
 
205
            diff_type = 'full'
 
206
    else:
 
207
        diff_type = None
 
208
 
 
209
    # Build the request and execute it
 
210
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
 
211
        start_revision=start_revision, end_revision=end_revision,
 
212
        limit=limit, message_search=search,
 
213
        delta_type=delta_type, diff_type=diff_type)
 
214
    Logger(branch, rqst).show(lf)
 
215
 
 
216
 
 
217
# Note: This needs to be kept this in sync with the defaults in
 
218
# make_log_request_dict() below
 
219
_DEFAULT_REQUEST_PARAMS = {
 
220
    'direction': 'reverse',
 
221
    'levels': 1,
 
222
    'generate_tags': True,
 
223
    'exclude_common_ancestry': False,
 
224
    '_match_using_deltas': True,
 
225
    }
 
226
 
 
227
 
 
228
def make_log_request_dict(direction='reverse', specific_fileids=None,
 
229
                          start_revision=None, end_revision=None, limit=None,
 
230
                          message_search=None, levels=1, generate_tags=True,
 
231
                          delta_type=None,
 
232
                          diff_type=None, _match_using_deltas=True,
 
233
                          exclude_common_ancestry=False,
 
234
                          ):
 
235
    """Convenience function for making a logging request dictionary.
 
236
 
 
237
    Using this function may make code slightly safer by ensuring
 
238
    parameters have the correct names. It also provides a reference
 
239
    point for documenting the supported parameters.
 
240
 
 
241
    :param direction: 'reverse' (default) is latest to earliest;
 
242
      'forward' is earliest to latest.
 
243
 
 
244
    :param specific_fileids: If not None, only include revisions
 
245
      affecting the specified files, rather than all revisions.
 
246
 
 
247
    :param start_revision: If not None, only generate
 
248
      revisions >= start_revision
 
249
 
 
250
    :param end_revision: If not None, only generate
 
251
      revisions <= end_revision
 
252
 
 
253
    :param limit: If set, generate only 'limit' revisions, all revisions
 
254
      are shown if None or 0.
 
255
 
 
256
    :param message_search: If not None, only include revisions with
 
257
      matching commit messages
 
258
 
 
259
    :param levels: the number of levels of revisions to
 
260
      generate; 1 for just the mainline; 0 for all levels.
 
261
 
 
262
    :param generate_tags: If True, include tags for matched revisions.
 
263
 
 
264
    :param delta_type: Either 'full', 'partial' or None.
 
265
      'full' means generate the complete delta - adds/deletes/modifies/etc;
 
266
      'partial' means filter the delta using specific_fileids;
 
267
      None means do not generate any delta.
 
268
 
 
269
    :param diff_type: Either 'full', 'partial' or None.
 
270
      'full' means generate the complete diff - adds/deletes/modifies/etc;
 
271
      'partial' means filter the diff using specific_fileids;
 
272
      None means do not generate any diff.
 
273
 
 
274
    :param _match_using_deltas: a private parameter controlling the
 
275
      algorithm used for matching specific_fileids. This parameter
 
276
      may be removed in the future so bzrlib client code should NOT
 
277
      use it.
 
278
 
 
279
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
 
280
      range operator or as a graph difference.
 
281
    """
 
282
    return {
 
283
        'direction': direction,
 
284
        'specific_fileids': specific_fileids,
 
285
        'start_revision': start_revision,
 
286
        'end_revision': end_revision,
 
287
        'limit': limit,
 
288
        'message_search': message_search,
 
289
        'levels': levels,
 
290
        'generate_tags': generate_tags,
 
291
        'delta_type': delta_type,
 
292
        'diff_type': diff_type,
 
293
        'exclude_common_ancestry': exclude_common_ancestry,
 
294
        # Add 'private' attributes for features that may be deprecated
 
295
        '_match_using_deltas': _match_using_deltas,
 
296
    }
 
297
 
 
298
 
 
299
def _apply_log_request_defaults(rqst):
 
300
    """Apply default values to a request dictionary."""
 
301
    result = _DEFAULT_REQUEST_PARAMS
 
302
    if rqst:
 
303
        result.update(rqst)
 
304
    return result
 
305
 
 
306
 
 
307
class LogGenerator(object):
 
308
    """A generator of log revisions."""
 
309
 
 
310
    def iter_log_revisions(self):
 
311
        """Iterate over LogRevision objects.
 
312
 
 
313
        :return: An iterator yielding LogRevision objects.
 
314
        """
 
315
        raise NotImplementedError(self.iter_log_revisions)
 
316
 
 
317
 
 
318
class Logger(object):
 
319
    """An object that generates, formats and displays a log."""
 
320
 
 
321
    def __init__(self, branch, rqst):
 
322
        """Create a Logger.
 
323
 
 
324
        :param branch: the branch to log
 
325
        :param rqst: A dictionary specifying the query parameters.
 
326
          See make_log_request_dict() for supported values.
 
327
        """
 
328
        self.branch = branch
 
329
        self.rqst = _apply_log_request_defaults(rqst)
 
330
 
 
331
    def show(self, lf):
 
332
        """Display the log.
 
333
 
 
334
        :param lf: The LogFormatter object to send the output to.
 
335
        """
 
336
        if not isinstance(lf, LogFormatter):
 
337
            warn("not a LogFormatter instance: %r" % lf)
 
338
 
 
339
        self.branch.lock_read()
 
340
        try:
 
341
            if getattr(lf, 'begin_log', None):
 
342
                lf.begin_log()
 
343
            self._show_body(lf)
 
344
            if getattr(lf, 'end_log', None):
 
345
                lf.end_log()
 
346
        finally:
 
347
            self.branch.unlock()
 
348
 
 
349
    def _show_body(self, lf):
 
350
        """Show the main log output.
 
351
 
 
352
        Subclasses may wish to override this.
 
353
        """
 
354
        # Tweak the LogRequest based on what the LogFormatter can handle.
 
355
        # (There's no point generating stuff if the formatter can't display it.)
 
356
        rqst = self.rqst
 
357
        rqst['levels'] = lf.get_levels()
 
358
        if not getattr(lf, 'supports_tags', False):
 
359
            rqst['generate_tags'] = False
 
360
        if not getattr(lf, 'supports_delta', False):
 
361
            rqst['delta_type'] = None
 
362
        if not getattr(lf, 'supports_diff', False):
 
363
            rqst['diff_type'] = None
 
364
 
 
365
        # Find and print the interesting revisions
 
366
        generator = self._generator_factory(self.branch, rqst)
 
367
        for lr in generator.iter_log_revisions():
239
368
            lf.log_revision(lr)
240
 
            if limit:
241
 
                log_count += 1
242
 
                if log_count >= limit:
243
 
                    return
244
 
 
245
 
 
246
 
def _format_diff(repo, rev, rev_id, specific_fileid):
247
 
    if len(rev.parent_ids) == 0:
248
 
        ancestor_id = _mod_revision.NULL_REVISION
249
 
    else:
250
 
        ancestor_id = rev.parent_ids[0]
251
 
    tree_1 = repo.revision_tree(ancestor_id)
252
 
    tree_2 = repo.revision_tree(rev_id)
253
 
    if specific_fileid:
254
 
        specific_files = [tree_2.id2path(specific_fileid)]
255
 
    else:
256
 
        specific_files = None
257
 
    s = StringIO()
258
 
    diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
259
 
        new_label='')
260
 
    return s.getvalue()
 
369
        lf.show_advice()
 
370
 
 
371
    def _generator_factory(self, branch, rqst):
 
372
        """Make the LogGenerator object to use.
 
373
        
 
374
        Subclasses may wish to override this.
 
375
        """
 
376
        return _DefaultLogGenerator(branch, rqst)
261
377
 
262
378
 
263
379
class _StartNotLinearAncestor(Exception):
264
380
    """Raised when a start revision is not found walking left-hand history."""
265
381
 
266
382
 
267
 
def _create_log_revision_iterator(branch, start_revision, end_revision,
268
 
    direction, specific_fileid, search, generate_merge_revisions,
269
 
    allow_single_merge_revision, generate_delta, limited_output=False):
270
 
    """Create a revision iterator for log.
271
 
 
272
 
    :param branch: The branch being logged.
273
 
    :param start_revision: If not None, only show revisions >= start_revision
274
 
    :param end_revision: If not None, only show revisions <= end_revision
275
 
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
276
 
        earliest to latest.
277
 
    :param specific_fileid: If not None, list only the commits affecting the
278
 
        specified file.
279
 
    :param search: If not None, only show revisions with matching commit
280
 
        messages.
281
 
    :param generate_merge_revisions: If False, show only mainline revisions.
282
 
    :param allow_single_merge_revision: If True, logging of a single
283
 
        revision off the mainline is to be allowed
284
 
    :param generate_delta: Whether to generate a delta for each revision.
285
 
    :param limited_output: if True, the user only wants a limited result
286
 
 
287
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
288
 
        delta).
289
 
    """
290
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
291
 
        end_revision)
292
 
 
293
 
    # Decide how file-ids are matched: delta-filtering vs per-file graph.
294
 
    # Delta filtering allows revisions to be displayed incrementally
295
 
    # though the total time is much slower for huge repositories: log -v
296
 
    # is the *lower* performance bound. At least until the split
297
 
    # inventory format arrives, per-file-graph needs to remain the
298
 
    # default except in verbose mode. Delta filtering should give more
299
 
    # accurate results (e.g. inclusion of FILE deletions) so arguably
300
 
    # it should always be used in the future.
301
 
    use_deltas_for_matching = specific_fileid and generate_delta
302
 
    delayed_graph_generation = not specific_fileid and (
303
 
            start_rev_id or end_rev_id or limited_output)
304
 
    generate_merges = generate_merge_revisions or (specific_fileid and
305
 
        not use_deltas_for_matching)
306
 
    view_revisions = _calc_view_revisions(branch, start_rev_id, end_rev_id,
307
 
        direction, generate_merges, allow_single_merge_revision,
308
 
        delayed_graph_generation=delayed_graph_generation)
309
 
    search_deltas_for_fileids = None
310
 
    if use_deltas_for_matching:
311
 
        search_deltas_for_fileids = set([specific_fileid])
312
 
    elif specific_fileid:
 
383
class _DefaultLogGenerator(LogGenerator):
 
384
    """The default generator of log revisions."""
 
385
 
 
386
    def __init__(self, branch, rqst):
 
387
        self.branch = branch
 
388
        self.rqst = rqst
 
389
        if rqst.get('generate_tags') and branch.supports_tags():
 
390
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
391
        else:
 
392
            self.rev_tag_dict = {}
 
393
 
 
394
    def iter_log_revisions(self):
 
395
        """Iterate over LogRevision objects.
 
396
 
 
397
        :return: An iterator yielding LogRevision objects.
 
398
        """
 
399
        rqst = self.rqst
 
400
        levels = rqst.get('levels')
 
401
        limit = rqst.get('limit')
 
402
        diff_type = rqst.get('diff_type')
 
403
        log_count = 0
 
404
        revision_iterator = self._create_log_revision_iterator()
 
405
        for revs in revision_iterator:
 
406
            for (rev_id, revno, merge_depth), rev, delta in revs:
 
407
                # 0 levels means show everything; merge_depth counts from 0
 
408
                if levels != 0 and merge_depth >= levels:
 
409
                    continue
 
410
                if diff_type is None:
 
411
                    diff = None
 
412
                else:
 
413
                    diff = self._format_diff(rev, rev_id, diff_type)
 
414
                yield LogRevision(rev, revno, merge_depth, delta,
 
415
                    self.rev_tag_dict.get(rev_id), diff)
 
416
                if limit:
 
417
                    log_count += 1
 
418
                    if log_count >= limit:
 
419
                        return
 
420
 
 
421
    def _format_diff(self, rev, rev_id, diff_type):
 
422
        repo = self.branch.repository
 
423
        if len(rev.parent_ids) == 0:
 
424
            ancestor_id = _mod_revision.NULL_REVISION
 
425
        else:
 
426
            ancestor_id = rev.parent_ids[0]
 
427
        tree_1 = repo.revision_tree(ancestor_id)
 
428
        tree_2 = repo.revision_tree(rev_id)
 
429
        file_ids = self.rqst.get('specific_fileids')
 
430
        if diff_type == 'partial' and file_ids is not None:
 
431
            specific_files = [tree_2.id2path(id) for id in file_ids]
 
432
        else:
 
433
            specific_files = None
 
434
        s = StringIO()
 
435
        path_encoding = osutils.get_diff_header_encoding()
 
436
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
437
            new_label='', path_encoding=path_encoding)
 
438
        return s.getvalue()
 
439
 
 
440
    def _create_log_revision_iterator(self):
 
441
        """Create a revision iterator for log.
 
442
 
 
443
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
444
            delta).
 
445
        """
 
446
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
 
447
            self.branch, self.rqst.get('start_revision'),
 
448
            self.rqst.get('end_revision'))
 
449
        if self.rqst.get('_match_using_deltas'):
 
450
            return self._log_revision_iterator_using_delta_matching()
 
451
        else:
 
452
            # We're using the per-file-graph algorithm. This scales really
 
453
            # well but only makes sense if there is a single file and it's
 
454
            # not a directory
 
455
            file_count = len(self.rqst.get('specific_fileids'))
 
456
            if file_count != 1:
 
457
                raise BzrError("illegal LogRequest: must match-using-deltas "
 
458
                    "when logging %d files" % file_count)
 
459
            return self._log_revision_iterator_using_per_file_graph()
 
460
 
 
461
    def _log_revision_iterator_using_delta_matching(self):
 
462
        # Get the base revisions, filtering by the revision range
 
463
        rqst = self.rqst
 
464
        generate_merge_revisions = rqst.get('levels') != 1
 
465
        delayed_graph_generation = not rqst.get('specific_fileids') and (
 
466
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
 
467
        view_revisions = _calc_view_revisions(
 
468
            self.branch, self.start_rev_id, self.end_rev_id,
 
469
            rqst.get('direction'),
 
470
            generate_merge_revisions=generate_merge_revisions,
 
471
            delayed_graph_generation=delayed_graph_generation,
 
472
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
 
473
 
 
474
        # Apply the other filters
 
475
        return make_log_rev_iterator(self.branch, view_revisions,
 
476
            rqst.get('delta_type'), rqst.get('message_search'),
 
477
            file_ids=rqst.get('specific_fileids'),
 
478
            direction=rqst.get('direction'))
 
479
 
 
480
    def _log_revision_iterator_using_per_file_graph(self):
 
481
        # Get the base revisions, filtering by the revision range.
 
482
        # Note that we always generate the merge revisions because
 
483
        # filter_revisions_touching_file_id() requires them ...
 
484
        rqst = self.rqst
 
485
        view_revisions = _calc_view_revisions(
 
486
            self.branch, self.start_rev_id, self.end_rev_id,
 
487
            rqst.get('direction'), generate_merge_revisions=True,
 
488
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
313
489
        if not isinstance(view_revisions, list):
314
490
            view_revisions = list(view_revisions)
315
 
        view_revisions = _filter_revisions_touching_file_id(branch,
316
 
            specific_fileid, view_revisions,
317
 
            include_merges=generate_merge_revisions)
318
 
    return make_log_rev_iterator(branch, view_revisions, generate_delta,
319
 
        search, file_ids=search_deltas_for_fileids, direction=direction)
 
491
        view_revisions = _filter_revisions_touching_file_id(self.branch,
 
492
            rqst.get('specific_fileids')[0], view_revisions,
 
493
            include_merges=rqst.get('levels') != 1)
 
494
        return make_log_rev_iterator(self.branch, view_revisions,
 
495
            rqst.get('delta_type'), rqst.get('message_search'))
320
496
 
321
497
 
322
498
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
323
 
    generate_merge_revisions, allow_single_merge_revision,
324
 
    delayed_graph_generation=False):
 
499
                         generate_merge_revisions,
 
500
                         delayed_graph_generation=False,
 
501
                         exclude_common_ancestry=False,
 
502
                         ):
325
503
    """Calculate the revisions to view.
326
504
 
327
505
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
328
506
             a list of the same tuples.
329
507
    """
 
508
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
 
509
        raise errors.BzrCommandError(
 
510
            '--exclude-common-ancestry requires two different revisions')
 
511
    if direction not in ('reverse', 'forward'):
 
512
        raise ValueError('invalid direction %r' % direction)
330
513
    br_revno, br_rev_id = branch.last_revision_info()
331
514
    if br_revno == 0:
332
515
        return []
333
516
 
334
 
    # If a single revision is requested, check we can handle it
335
 
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
336
 
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
337
 
    if generate_single_revision:
338
 
        if end_rev_id == br_rev_id:
339
 
            # It's the tip
340
 
            return [(br_rev_id, br_revno, 0)]
341
 
        else:
342
 
            revno = branch.revision_id_to_dotted_revno(end_rev_id)
343
 
            if len(revno) > 1 and not allow_single_merge_revision:
344
 
                # It's a merge revision and the log formatter is
345
 
                # completely brain dead. This "feature" of allowing
346
 
                # log formatters incapable of displaying dotted revnos
347
 
                # ought to be deprecated IMNSHO. IGC 20091022
348
 
                raise errors.BzrCommandError('Selected log formatter only'
349
 
                    ' supports mainline revisions.')
350
 
            revno_str = '.'.join(str(n) for n in revno)
351
 
            return [(end_rev_id, revno_str, 0)]
352
 
 
353
 
    # If we only want to see linear revisions, we can iterate ...
354
 
    if not generate_merge_revisions:
355
 
        result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
356
 
        # If a start limit was given and it's not obviously an
357
 
        # ancestor of the end limit, check it before outputting anything
358
 
        if direction == 'forward' or (start_rev_id
359
 
            and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
360
 
            try:
361
 
                result = list(result)
362
 
            except _StartNotLinearAncestor:
363
 
                raise errors.BzrCommandError('Start revision not found in'
364
 
                    ' left-hand history of end revision.')
365
 
        if direction == 'forward':
366
 
            result = reversed(list(result))
367
 
        return result
368
 
 
 
517
    if (end_rev_id and start_rev_id == end_rev_id
 
518
        and (not generate_merge_revisions
 
519
             or not _has_merges(branch, end_rev_id))):
 
520
        # If a single revision is requested, check we can handle it
 
521
        iter_revs = _generate_one_revision(branch, end_rev_id, br_rev_id,
 
522
                                           br_revno)
 
523
    elif not generate_merge_revisions:
 
524
        # If we only want to see linear revisions, we can iterate ...
 
525
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
 
526
                                             direction, exclude_common_ancestry)
 
527
        if direction == 'forward':
 
528
            iter_revs = reversed(iter_revs)
 
529
    else:
 
530
        iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
531
                                            direction, delayed_graph_generation,
 
532
                                            exclude_common_ancestry)
 
533
        if direction == 'forward':
 
534
            iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
 
535
    return iter_revs
 
536
 
 
537
 
 
538
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
 
539
    if rev_id == br_rev_id:
 
540
        # It's the tip
 
541
        return [(br_rev_id, br_revno, 0)]
 
542
    else:
 
543
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
544
        revno_str = '.'.join(str(n) for n in revno)
 
545
        return [(rev_id, revno_str, 0)]
 
546
 
 
547
 
 
548
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction,
 
549
                             exclude_common_ancestry=False):
 
550
    result = _linear_view_revisions(
 
551
        branch, start_rev_id, end_rev_id,
 
552
        exclude_common_ancestry=exclude_common_ancestry)
 
553
    # If a start limit was given and it's not obviously an
 
554
    # ancestor of the end limit, check it before outputting anything
 
555
    if direction == 'forward' or (start_rev_id
 
556
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
557
        try:
 
558
            result = list(result)
 
559
        except _StartNotLinearAncestor:
 
560
            raise errors.BzrCommandError('Start revision not found in'
 
561
                ' left-hand history of end revision.')
 
562
    return result
 
563
 
 
564
 
 
565
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
 
566
                            delayed_graph_generation,
 
567
                            exclude_common_ancestry=False):
369
568
    # On large trees, generating the merge graph can take 30-60 seconds
370
569
    # so we delay doing it until a merge is detected, incrementally
371
570
    # returning initial (non-merge) revisions while we can.
 
571
 
 
572
    # The above is only true for old formats (<= 0.92), for newer formats, a
 
573
    # couple of seconds only should be needed to load the whole graph and the
 
574
    # other graph operations needed are even faster than that -- vila 100201
372
575
    initial_revisions = []
373
576
    if delayed_graph_generation:
374
577
        try:
375
 
            for rev_id, revno, depth in \
376
 
                _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
578
            for rev_id, revno, depth in  _linear_view_revisions(
 
579
                branch, start_rev_id, end_rev_id, exclude_common_ancestry):
377
580
                if _has_merges(branch, rev_id):
 
581
                    # The end_rev_id can be nested down somewhere. We need an
 
582
                    # explicit ancestry check. There is an ambiguity here as we
 
583
                    # may not raise _StartNotLinearAncestor for a revision that
 
584
                    # is an ancestor but not a *linear* one. But since we have
 
585
                    # loaded the graph to do the check (or calculate a dotted
 
586
                    # revno), we may as well accept to show the log...  We need
 
587
                    # the check only if start_rev_id is not None as all
 
588
                    # revisions have _mod_revision.NULL_REVISION as an ancestor
 
589
                    # -- vila 20100319
 
590
                    graph = branch.repository.get_graph()
 
591
                    if (start_rev_id is not None
 
592
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
 
593
                        raise _StartNotLinearAncestor()
 
594
                    # Since we collected the revisions so far, we need to
 
595
                    # adjust end_rev_id.
378
596
                    end_rev_id = rev_id
379
597
                    break
380
598
                else:
381
599
                    initial_revisions.append((rev_id, revno, depth))
382
600
            else:
383
601
                # No merged revisions found
384
 
                if direction == 'reverse':
385
 
                    return initial_revisions
386
 
                elif direction == 'forward':
387
 
                    return reversed(initial_revisions)
388
 
                else:
389
 
                    raise ValueError('invalid direction %r' % direction)
 
602
                return initial_revisions
390
603
        except _StartNotLinearAncestor:
391
604
            # A merge was never detected so the lower revision limit can't
392
605
            # be nested down somewhere
393
606
            raise errors.BzrCommandError('Start revision not found in'
394
607
                ' history of end revision.')
395
608
 
 
609
    # We exit the loop above because we encounter a revision with merges, from
 
610
    # this revision, we need to switch to _graph_view_revisions.
 
611
 
396
612
    # A log including nested merges is required. If the direction is reverse,
397
613
    # we rebase the initial merge depths so that the development line is
398
614
    # shown naturally, i.e. just like it is for linear logging. We can easily
400
616
    # indented at the end seems slightly nicer in that case.
401
617
    view_revisions = chain(iter(initial_revisions),
402
618
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
403
 
        rebase_initial_depths=direction == 'reverse'))
404
 
    if direction == 'reverse':
405
 
        return view_revisions
406
 
    elif direction == 'forward':
407
 
        # Forward means oldest first, adjusting for depth.
408
 
        view_revisions = reverse_by_depth(list(view_revisions))
409
 
        return _rebase_merge_depth(view_revisions)
410
 
    else:
411
 
        raise ValueError('invalid direction %r' % direction)
 
619
                              rebase_initial_depths=(direction == 'reverse'),
 
620
                              exclude_common_ancestry=exclude_common_ancestry))
 
621
    return view_revisions
412
622
 
413
623
 
414
624
def _has_merges(branch, rev_id):
432
642
        else:
433
643
            # not obvious
434
644
            return False
 
645
    # if either start or end is not specified then we use either the first or
 
646
    # the last revision and *they* are obvious ancestors.
435
647
    return True
436
648
 
437
649
 
438
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
650
def _linear_view_revisions(branch, start_rev_id, end_rev_id,
 
651
                           exclude_common_ancestry=False):
439
652
    """Calculate a sequence of revisions to view, newest to oldest.
440
653
 
441
654
    :param start_rev_id: the lower revision-id
442
655
    :param end_rev_id: the upper revision-id
 
656
    :param exclude_common_ancestry: Whether the start_rev_id should be part of
 
657
        the iterated revisions.
443
658
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
444
659
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
445
 
      is not found walking the left-hand history
 
660
        is not found walking the left-hand history
446
661
    """
447
662
    br_revno, br_rev_id = branch.last_revision_info()
448
663
    repo = branch.repository
459
674
            revno = branch.revision_id_to_dotted_revno(revision_id)
460
675
            revno_str = '.'.join(str(n) for n in revno)
461
676
            if not found_start and revision_id == start_rev_id:
462
 
                yield revision_id, revno_str, 0
 
677
                if not exclude_common_ancestry:
 
678
                    yield revision_id, revno_str, 0
463
679
                found_start = True
464
680
                break
465
681
            else:
470
686
 
471
687
 
472
688
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
473
 
    rebase_initial_depths=True):
 
689
                          rebase_initial_depths=True,
 
690
                          exclude_common_ancestry=False):
474
691
    """Calculate revisions to view including merges, newest to oldest.
475
692
 
476
693
    :param branch: the branch
480
697
      revision is found?
481
698
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
482
699
    """
 
700
    if exclude_common_ancestry:
 
701
        stop_rule = 'with-merges-without-common-ancestry'
 
702
    else:
 
703
        stop_rule = 'with-merges'
483
704
    view_revisions = branch.iter_merge_sorted_revisions(
484
705
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
485
 
        stop_rule="with-merges")
 
706
        stop_rule=stop_rule)
486
707
    if not rebase_initial_depths:
487
708
        for (rev_id, merge_depth, revno, end_of_merge
488
709
             ) in view_revisions:
499
720
                depth_adjustment = merge_depth
500
721
            if depth_adjustment:
501
722
                if merge_depth < depth_adjustment:
 
723
                    # From now on we reduce the depth adjustement, this can be
 
724
                    # surprising for users. The alternative requires two passes
 
725
                    # which breaks the fast display of the first revision
 
726
                    # though.
502
727
                    depth_adjustment = merge_depth
503
728
                merge_depth -= depth_adjustment
504
729
            yield rev_id, '.'.join(map(str, revno)), merge_depth
505
730
 
506
731
 
 
732
@deprecated_function(deprecated_in((2, 2, 0)))
507
733
def calculate_view_revisions(branch, start_revision, end_revision, direction,
508
 
        specific_fileid, generate_merge_revisions, allow_single_merge_revision):
 
734
        specific_fileid, generate_merge_revisions):
509
735
    """Calculate the revisions to view.
510
736
 
511
737
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
512
738
             a list of the same tuples.
513
739
    """
514
 
    # This method is no longer called by the main code path.
515
 
    # It is retained for API compatibility and may be deprecated
516
 
    # soon. IGC 20090116
517
740
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
518
741
        end_revision)
519
742
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
520
 
        direction, generate_merge_revisions or specific_fileid,
521
 
        allow_single_merge_revision))
 
743
        direction, generate_merge_revisions or specific_fileid))
522
744
    if specific_fileid:
523
745
        view_revisions = _filter_revisions_touching_file_id(branch,
524
746
            specific_fileid, view_revisions,
543
765
    :param branch: The branch being logged.
544
766
    :param view_revisions: The revisions being viewed.
545
767
    :param generate_delta: Whether to generate a delta for each revision.
 
768
      Permitted values are None, 'full' and 'partial'.
546
769
    :param search: A user text search string.
547
770
    :param file_ids: If non empty, only revisions matching one or more of
548
771
      the file-ids are to be kept.
587
810
    """
588
811
    if search is None:
589
812
        return log_rev_iterator
590
 
    # Compile the search now to get early errors.
591
813
    searchRE = re.compile(search, re.IGNORECASE)
592
814
    return _filter_message_re(searchRE, log_rev_iterator)
593
815
 
607
829
 
608
830
    :param branch: The branch being logged.
609
831
    :param generate_delta: Whether to generate a delta for each revision.
 
832
      Permitted values are None, 'full' and 'partial'.
610
833
    :param search: A user text search string.
611
834
    :param log_rev_iterator: An input iterator containing all revisions that
612
835
        could be displayed, in lists.
622
845
        generate_delta, fileids, direction)
623
846
 
624
847
 
625
 
def _generate_deltas(repository, log_rev_iterator, always_delta, fileids,
 
848
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
626
849
    direction):
627
850
    """Create deltas for each batch of revisions in log_rev_iterator.
628
 
    
 
851
 
629
852
    If we're only generating deltas for the sake of filtering against
630
853
    file-ids, we stop generating deltas once all file-ids reach the
631
854
    appropriate life-cycle point. If we're receiving data newest to
646
869
        if check_fileids and not fileid_set:
647
870
            return
648
871
        revisions = [rev[1] for rev in revs]
649
 
        deltas = repository.get_deltas_for_revisions(revisions)
650
872
        new_revs = []
651
 
        for rev, delta in izip(revs, deltas):
652
 
            if check_fileids:
653
 
                if not _delta_matches_fileids(delta, fileid_set, stop_on):
654
 
                    continue
655
 
                elif not always_delta:
656
 
                    # Delta was created just for matching - ditch it
657
 
                    # Note: It would probably be a better UI to return
658
 
                    # a delta filtered by the file-ids, rather than
659
 
                    # None at all. That functional enhancement can
660
 
                    # come later ...
661
 
                    delta = None
662
 
            new_revs.append((rev[0], rev[1], delta))
 
873
        if delta_type == 'full' and not check_fileids:
 
874
            deltas = repository.get_deltas_for_revisions(revisions)
 
875
            for rev, delta in izip(revs, deltas):
 
876
                new_revs.append((rev[0], rev[1], delta))
 
877
        else:
 
878
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
 
879
            for rev, delta in izip(revs, deltas):
 
880
                if check_fileids:
 
881
                    if delta is None or not delta.has_changed():
 
882
                        continue
 
883
                    else:
 
884
                        _update_fileids(delta, fileid_set, stop_on)
 
885
                        if delta_type is None:
 
886
                            delta = None
 
887
                        elif delta_type == 'full':
 
888
                            # If the file matches all the time, rebuilding
 
889
                            # a full delta like this in addition to a partial
 
890
                            # one could be slow. However, it's likely that
 
891
                            # most revisions won't get this far, making it
 
892
                            # faster to filter on the partial deltas and
 
893
                            # build the occasional full delta than always
 
894
                            # building full deltas and filtering those.
 
895
                            rev_id = rev[0][0]
 
896
                            delta = repository.get_revision_delta(rev_id)
 
897
                new_revs.append((rev[0], rev[1], delta))
663
898
        yield new_revs
664
899
 
665
900
 
666
 
def _delta_matches_fileids(delta, fileids, stop_on='add'):
667
 
    """Check is a delta matches one of more file-ids.
 
901
def _update_fileids(delta, fileids, stop_on):
 
902
    """Update the set of file-ids to search based on file lifecycle events.
668
903
    
669
 
    :param fileids: a set of fileids to match against.
 
904
    :param fileids: a set of fileids to update
670
905
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
671
906
      fileids set once their add or remove entry is detected respectively
672
907
    """
673
 
    if not fileids:
674
 
        return False
675
 
    result = False
676
 
    for item in delta.added:
677
 
        if item[1] in fileids:
678
 
            if stop_on == 'add':
679
 
                fileids.remove(item[1])
680
 
            result = True
681
 
    for item in delta.removed:
682
 
        if item[1] in fileids:
683
 
            if stop_on == 'delete':
684
 
                fileids.remove(item[1])
685
 
            result = True
686
 
    if result:
687
 
        return True
688
 
    for l in (delta.modified, delta.renamed, delta.kind_changed):
689
 
        for item in l:
690
 
            if item[1] in fileids:
691
 
                return True
692
 
    return False
 
908
    if stop_on == 'add':
 
909
        for item in delta.added:
 
910
            if item[1] in fileids:
 
911
                fileids.remove(item[1])
 
912
    elif stop_on == 'delete':
 
913
        for item in delta.removed:
 
914
            if item[1] in fileids:
 
915
                fileids.remove(item[1])
693
916
 
694
917
 
695
918
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
739
962
def _get_revision_limits(branch, start_revision, end_revision):
740
963
    """Get and check revision limits.
741
964
 
742
 
    :param  branch: The branch containing the revisions. 
 
965
    :param  branch: The branch containing the revisions.
743
966
 
744
967
    :param  start_revision: The first revision to be logged.
745
968
            For backwards compatibility this may be a mainline integer revno,
788
1011
 
789
1012
def _get_mainline_revs(branch, start_revision, end_revision):
790
1013
    """Get the mainline revisions from the branch.
791
 
    
 
1014
 
792
1015
    Generates the list of mainline revisions for the branch.
793
 
    
794
 
    :param  branch: The branch containing the revisions. 
 
1016
 
 
1017
    :param  branch: The branch containing the revisions.
795
1018
 
796
1019
    :param  start_revision: The first revision to be logged.
797
1020
            For backwards compatibility this may be a mainline integer revno,
807
1030
    if branch_revno == 0:
808
1031
        return None, None, None, None
809
1032
 
810
 
    # For mainline generation, map start_revision and end_revision to 
811
 
    # mainline revnos. If the revision is not on the mainline choose the 
812
 
    # appropriate extreme of the mainline instead - the extra will be 
 
1033
    # For mainline generation, map start_revision and end_revision to
 
1034
    # mainline revnos. If the revision is not on the mainline choose the
 
1035
    # appropriate extreme of the mainline instead - the extra will be
813
1036
    # filtered later.
814
1037
    # Also map the revisions to rev_ids, to be used in the later filtering
815
1038
    # stage.
868
1091
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
869
1092
 
870
1093
 
 
1094
@deprecated_function(deprecated_in((2, 2, 0)))
871
1095
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
872
1096
    """Filter view_revisions based on revision ranges.
873
1097
 
874
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth) 
 
1098
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
875
1099
            tuples to be filtered.
876
1100
 
877
1101
    :param start_rev_id: If not NONE specifies the first revision to be logged.
882
1106
 
883
1107
    :return: The filtered view_revisions.
884
1108
    """
885
 
    # This method is no longer called by the main code path.
886
 
    # It may be removed soon. IGC 20090127
887
1109
    if start_rev_id or end_rev_id:
888
1110
        revision_ids = [r for r, n, d in view_revisions]
889
1111
        if start_rev_id:
897
1119
                end_index = revision_ids.index(end_rev_id)
898
1120
            else:
899
1121
                end_index = len(view_revisions) - 1
900
 
        # To include the revisions merged into the last revision, 
 
1122
        # To include the revisions merged into the last revision,
901
1123
        # extend end_rev_id down to, but not including, the next rev
902
1124
        # with the same or lesser merge_depth
903
1125
        end_merge_depth = view_revisions[end_index][2]
954
1176
    # Lookup all possible text keys to determine which ones actually modified
955
1177
    # the file.
956
1178
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
 
1179
    next_keys = None
957
1180
    # Looking up keys in batches of 1000 can cut the time in half, as well as
958
1181
    # memory consumption. GraphIndex *does* like to look for a few keys in
959
1182
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
994
1217
    return result
995
1218
 
996
1219
 
 
1220
@deprecated_function(deprecated_in((2, 2, 0)))
997
1221
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
998
1222
                       include_merges=True):
999
1223
    """Produce an iterator of revisions to show
1000
1224
    :return: an iterator of (revision_id, revno, merge_depth)
1001
1225
    (if there is no revno for a revision, None is supplied)
1002
1226
    """
1003
 
    # This method is no longer called by the main code path.
1004
 
    # It is retained for API compatibility and may be deprecated
1005
 
    # soon. IGC 20090127
1006
1227
    if not include_merges:
1007
1228
        revision_ids = mainline_revs[1:]
1008
1229
        if direction == 'reverse':
1072
1293
    """A revision to be logged (by LogFormatter.log_revision).
1073
1294
 
1074
1295
    A simple wrapper for the attributes of a revision to be logged.
1075
 
    The attributes may or may not be populated, as determined by the 
 
1296
    The attributes may or may not be populated, as determined by the
1076
1297
    logging options and the log formatter capabilities.
1077
1298
    """
1078
1299
 
1094
1315
    If the LogFormatter needs to be informed of the beginning or end of
1095
1316
    a log it should implement the begin_log and/or end_log hook methods.
1096
1317
 
1097
 
    A LogFormatter should define the following supports_XXX flags 
 
1318
    A LogFormatter should define the following supports_XXX flags
1098
1319
    to indicate which LogRevision attributes it supports:
1099
1320
 
1100
1321
    - supports_delta must be True if this log formatter supports delta.
1101
1322
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1102
1323
        attribute describes whether the 'short_status' format (1) or the long
1103
1324
        one (2) should be used.
1104
 
 
1105
 
    - supports_merge_revisions must be True if this log formatter supports 
1106
 
        merge revisions.  If not, and if supports_single_merge_revision is
1107
 
        also not True, then only mainline revisions will be passed to the 
1108
 
        formatter.
 
1325
 
 
1326
    - supports_merge_revisions must be True if this log formatter supports
 
1327
        merge revisions.  If not, then only mainline revisions will be passed
 
1328
        to the formatter.
1109
1329
 
1110
1330
    - preferred_levels is the number of levels this formatter defaults to.
1111
1331
        The default value is zero meaning display all levels.
1112
1332
        This value is only relevant if supports_merge_revisions is True.
1113
1333
 
1114
 
    - supports_single_merge_revision must be True if this log formatter
1115
 
        supports logging only a single merge revision.  This flag is
1116
 
        only relevant if supports_merge_revisions is not True.
1117
 
 
1118
1334
    - supports_tags must be True if this log formatter supports tags.
1119
1335
        Otherwise the tags attribute may not be populated.
1120
1336
 
1125
1341
    the properties_handler_registry. The registered function
1126
1342
    must respect the following interface description:
1127
1343
        def my_show_properties(properties_dict):
1128
 
            # code that returns a dict {'name':'value'} of the properties 
 
1344
            # code that returns a dict {'name':'value'} of the properties
1129
1345
            # to be shown
1130
1346
    """
1131
1347
    preferred_levels = 0
1132
1348
 
1133
1349
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1134
 
                 delta_format=None, levels=None):
 
1350
                 delta_format=None, levels=None, show_advice=False,
 
1351
                 to_exact_file=None, author_list_handler=None):
1135
1352
        """Create a LogFormatter.
1136
1353
 
1137
1354
        :param to_file: the file to output to
 
1355
        :param to_exact_file: if set, gives an output stream to which 
 
1356
             non-Unicode diffs are written.
1138
1357
        :param show_ids: if True, revision-ids are to be displayed
1139
1358
        :param show_timezone: the timezone to use
1140
1359
        :param delta_format: the level of delta information to display
1141
 
          or None to leave it u to the formatter to decide
 
1360
          or None to leave it to the formatter to decide
1142
1361
        :param levels: the number of levels to display; None or -1 to
1143
1362
          let the log formatter decide.
 
1363
        :param show_advice: whether to show advice at the end of the
 
1364
          log or not
 
1365
        :param author_list_handler: callable generating a list of
 
1366
          authors to display for a given revision
1144
1367
        """
1145
1368
        self.to_file = to_file
 
1369
        # 'exact' stream used to show diff, it should print content 'as is'
 
1370
        # and should not try to decode/encode it to unicode to avoid bug #328007
 
1371
        if to_exact_file is not None:
 
1372
            self.to_exact_file = to_exact_file
 
1373
        else:
 
1374
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
 
1375
            # for code that expects to get diffs to pass in the exact file
 
1376
            # stream
 
1377
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1146
1378
        self.show_ids = show_ids
1147
1379
        self.show_timezone = show_timezone
1148
1380
        if delta_format is None:
1150
1382
            delta_format = 2 # long format
1151
1383
        self.delta_format = delta_format
1152
1384
        self.levels = levels
 
1385
        self._show_advice = show_advice
 
1386
        self._merge_count = 0
 
1387
        self._author_list_handler = author_list_handler
1153
1388
 
1154
1389
    def get_levels(self):
1155
1390
        """Get the number of levels to display or 0 for all."""
1156
1391
        if getattr(self, 'supports_merge_revisions', False):
1157
1392
            if self.levels is None or self.levels == -1:
1158
 
                return self.preferred_levels
1159
 
            else:
1160
 
                return self.levels
1161
 
        return 1
 
1393
                self.levels = self.preferred_levels
 
1394
        else:
 
1395
            self.levels = 1
 
1396
        return self.levels
1162
1397
 
1163
1398
    def log_revision(self, revision):
1164
1399
        """Log a revision.
1167
1402
        """
1168
1403
        raise NotImplementedError('not implemented in abstract base')
1169
1404
 
 
1405
    def show_advice(self):
 
1406
        """Output user advice, if any, when the log is completed."""
 
1407
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
 
1408
            advice_sep = self.get_advice_separator()
 
1409
            if advice_sep:
 
1410
                self.to_file.write(advice_sep)
 
1411
            self.to_file.write(
 
1412
                "Use --include-merges or -n0 to see merged revisions.\n")
 
1413
 
 
1414
    def get_advice_separator(self):
 
1415
        """Get the text separating the log from the closing advice."""
 
1416
        return ''
 
1417
 
1170
1418
    def short_committer(self, rev):
1171
1419
        name, address = config.parse_username(rev.committer)
1172
1420
        if name:
1174
1422
        return address
1175
1423
 
1176
1424
    def short_author(self, rev):
1177
 
        name, address = config.parse_username(rev.get_apparent_author())
1178
 
        if name:
1179
 
            return name
1180
 
        return address
 
1425
        return self.authors(rev, 'first', short=True, sep=', ')
 
1426
 
 
1427
    def authors(self, rev, who, short=False, sep=None):
 
1428
        """Generate list of authors, taking --authors option into account.
 
1429
 
 
1430
        The caller has to specify the name of a author list handler,
 
1431
        as provided by the author list registry, using the ``who``
 
1432
        argument.  That name only sets a default, though: when the
 
1433
        user selected a different author list generation using the
 
1434
        ``--authors`` command line switch, as represented by the
 
1435
        ``author_list_handler`` constructor argument, that value takes
 
1436
        precedence.
 
1437
 
 
1438
        :param rev: The revision for which to generate the list of authors.
 
1439
        :param who: Name of the default handler.
 
1440
        :param short: Whether to shorten names to either name or address.
 
1441
        :param sep: What separator to use for automatic concatenation.
 
1442
        """
 
1443
        if self._author_list_handler is not None:
 
1444
            # The user did specify --authors, which overrides the default
 
1445
            author_list_handler = self._author_list_handler
 
1446
        else:
 
1447
            # The user didn't specify --authors, so we use the caller's default
 
1448
            author_list_handler = author_list_registry.get(who)
 
1449
        names = author_list_handler(rev)
 
1450
        if short:
 
1451
            for i in range(len(names)):
 
1452
                name, address = config.parse_username(names[i])
 
1453
                if name:
 
1454
                    names[i] = name
 
1455
                else:
 
1456
                    names[i] = address
 
1457
        if sep is not None:
 
1458
            names = sep.join(names)
 
1459
        return names
 
1460
 
 
1461
    def merge_marker(self, revision):
 
1462
        """Get the merge marker to include in the output or '' if none."""
 
1463
        if len(revision.rev.parent_ids) > 1:
 
1464
            self._merge_count += 1
 
1465
            return ' [merge]'
 
1466
        else:
 
1467
            return ''
1181
1468
 
1182
1469
    def show_properties(self, revision, indent):
1183
1470
        """Displays the custom properties returned by each registered handler.
1184
 
        
1185
 
        If a registered handler raises an error it is propagated.
1186
 
        """
 
1471
 
 
1472
        If a registered handler raises an error it is propagated.
 
1473
        """
 
1474
        for line in self.custom_properties(revision):
 
1475
            self.to_file.write("%s%s\n" % (indent, line))
 
1476
 
 
1477
    def custom_properties(self, revision):
 
1478
        """Format the custom properties returned by each registered handler.
 
1479
 
 
1480
        If a registered handler raises an error it is propagated.
 
1481
 
 
1482
        :return: a list of formatted lines (excluding trailing newlines)
 
1483
        """
 
1484
        lines = self._foreign_info_properties(revision)
1187
1485
        for key, handler in properties_handler_registry.iteritems():
1188
 
            for key, value in handler(revision).items():
1189
 
                self.to_file.write(indent + key + ': ' + value + '\n')
 
1486
            lines.extend(self._format_properties(handler(revision)))
 
1487
        return lines
 
1488
 
 
1489
    def _foreign_info_properties(self, rev):
 
1490
        """Custom log displayer for foreign revision identifiers.
 
1491
 
 
1492
        :param rev: Revision object.
 
1493
        """
 
1494
        # Revision comes directly from a foreign repository
 
1495
        if isinstance(rev, foreign.ForeignRevision):
 
1496
            return self._format_properties(
 
1497
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
 
1498
 
 
1499
        # Imported foreign revision revision ids always contain :
 
1500
        if not ":" in rev.revision_id:
 
1501
            return []
 
1502
 
 
1503
        # Revision was once imported from a foreign repository
 
1504
        try:
 
1505
            foreign_revid, mapping = \
 
1506
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
 
1507
        except errors.InvalidRevisionId:
 
1508
            return []
 
1509
 
 
1510
        return self._format_properties(
 
1511
            mapping.vcs.show_foreign_revid(foreign_revid))
 
1512
 
 
1513
    def _format_properties(self, properties):
 
1514
        lines = []
 
1515
        for key, value in properties.items():
 
1516
            lines.append(key + ': ' + value)
 
1517
        return lines
1190
1518
 
1191
1519
    def show_diff(self, to_file, diff, indent):
1192
1520
        for l in diff.rstrip().split('\n'):
1193
1521
            to_file.write(indent + '%s\n' % (l,))
1194
1522
 
1195
1523
 
 
1524
# Separator between revisions in long format
 
1525
_LONG_SEP = '-' * 60
 
1526
 
 
1527
 
1196
1528
class LongLogFormatter(LogFormatter):
1197
1529
 
1198
1530
    supports_merge_revisions = True
 
1531
    preferred_levels = 1
1199
1532
    supports_delta = True
1200
1533
    supports_tags = True
1201
1534
    supports_diff = True
1202
1535
 
 
1536
    def __init__(self, *args, **kwargs):
 
1537
        super(LongLogFormatter, self).__init__(*args, **kwargs)
 
1538
        if self.show_timezone == 'original':
 
1539
            self.date_string = self._date_string_original_timezone
 
1540
        else:
 
1541
            self.date_string = self._date_string_with_timezone
 
1542
 
 
1543
    def _date_string_with_timezone(self, rev):
 
1544
        return format_date(rev.timestamp, rev.timezone or 0,
 
1545
                           self.show_timezone)
 
1546
 
 
1547
    def _date_string_original_timezone(self, rev):
 
1548
        return format_date_with_offset_in_original_timezone(rev.timestamp,
 
1549
            rev.timezone or 0)
 
1550
 
1203
1551
    def log_revision(self, revision):
1204
1552
        """Log a revision, either merged or not."""
1205
1553
        indent = '    ' * revision.merge_depth
1206
 
        to_file = self.to_file
1207
 
        to_file.write(indent + '-' * 60 + '\n')
 
1554
        lines = [_LONG_SEP]
1208
1555
        if revision.revno is not None:
1209
 
            to_file.write(indent + 'revno: %s\n' % (revision.revno,))
 
1556
            lines.append('revno: %s%s' % (revision.revno,
 
1557
                self.merge_marker(revision)))
1210
1558
        if revision.tags:
1211
 
            to_file.write(indent + 'tags: %s\n' % (', '.join(revision.tags)))
 
1559
            lines.append('tags: %s' % (', '.join(revision.tags)))
1212
1560
        if self.show_ids:
1213
 
            to_file.write(indent + 'revision-id: ' + revision.rev.revision_id)
1214
 
            to_file.write('\n')
 
1561
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
1215
1562
            for parent_id in revision.rev.parent_ids:
1216
 
                to_file.write(indent + 'parent: %s\n' % (parent_id,))
1217
 
        self.show_properties(revision.rev, indent)
 
1563
                lines.append('parent: %s' % (parent_id,))
 
1564
        lines.extend(self.custom_properties(revision.rev))
1218
1565
 
1219
 
        author = revision.rev.properties.get('author', None)
1220
 
        if author is not None:
1221
 
            to_file.write(indent + 'author: %s\n' % (author,))
1222
 
        to_file.write(indent + 'committer: %s\n' % (revision.rev.committer,))
 
1566
        committer = revision.rev.committer
 
1567
        authors = self.authors(revision.rev, 'all')
 
1568
        if authors != [committer]:
 
1569
            lines.append('author: %s' % (", ".join(authors),))
 
1570
        lines.append('committer: %s' % (committer,))
1223
1571
 
1224
1572
        branch_nick = revision.rev.properties.get('branch-nick', None)
1225
1573
        if branch_nick is not None:
1226
 
            to_file.write(indent + 'branch nick: %s\n' % (branch_nick,))
1227
 
 
1228
 
        date_str = format_date(revision.rev.timestamp,
1229
 
                               revision.rev.timezone or 0,
1230
 
                               self.show_timezone)
1231
 
        to_file.write(indent + 'timestamp: %s\n' % (date_str,))
1232
 
 
1233
 
        to_file.write(indent + 'message:\n')
 
1574
            lines.append('branch nick: %s' % (branch_nick,))
 
1575
 
 
1576
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
 
1577
 
 
1578
        lines.append('message:')
1234
1579
        if not revision.rev.message:
1235
 
            to_file.write(indent + '  (no message)\n')
 
1580
            lines.append('  (no message)')
1236
1581
        else:
1237
1582
            message = revision.rev.message.rstrip('\r\n')
1238
1583
            for l in message.split('\n'):
1239
 
                to_file.write(indent + '  %s\n' % (l,))
 
1584
                lines.append('  %s' % (l,))
 
1585
 
 
1586
        # Dump the output, appending the delta and diff if requested
 
1587
        to_file = self.to_file
 
1588
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
1240
1589
        if revision.delta is not None:
1241
 
            # We don't respect delta_format for compatibility
1242
 
            revision.delta.show(to_file, self.show_ids, indent=indent,
1243
 
                                short_status=False)
 
1590
            # Use the standard status output to display changes
 
1591
            from bzrlib.delta import report_delta
 
1592
            report_delta(to_file, revision.delta, short_status=False, 
 
1593
                         show_ids=self.show_ids, indent=indent)
1244
1594
        if revision.diff is not None:
1245
1595
            to_file.write(indent + 'diff:\n')
 
1596
            to_file.flush()
1246
1597
            # Note: we explicitly don't indent the diff (relative to the
1247
1598
            # revision information) so that the output can be fed to patch -p0
1248
 
            self.show_diff(to_file, revision.diff, indent)
 
1599
            self.show_diff(self.to_exact_file, revision.diff, indent)
 
1600
            self.to_exact_file.flush()
 
1601
 
 
1602
    def get_advice_separator(self):
 
1603
        """Get the text separating the log from the closing advice."""
 
1604
        return '-' * 60 + '\n'
1249
1605
 
1250
1606
 
1251
1607
class ShortLogFormatter(LogFormatter):
1281
1637
        offset = ' ' * (revno_width + 1)
1282
1638
 
1283
1639
        to_file = self.to_file
1284
 
        is_merge = ''
1285
 
        if len(revision.rev.parent_ids) > 1:
1286
 
            is_merge = ' [merge]'
1287
1640
        tags = ''
1288
1641
        if revision.tags:
1289
1642
            tags = ' {%s}' % (', '.join(revision.tags))
1293
1646
                            revision.rev.timezone or 0,
1294
1647
                            self.show_timezone, date_fmt="%Y-%m-%d",
1295
1648
                            show_offset=False),
1296
 
                tags, is_merge))
 
1649
                tags, self.merge_marker(revision)))
1297
1650
        self.show_properties(revision.rev, indent+offset)
1298
1651
        if self.show_ids:
1299
1652
            to_file.write(indent + offset + 'revision-id:%s\n'
1306
1659
                to_file.write(indent + offset + '%s\n' % (l,))
1307
1660
 
1308
1661
        if revision.delta is not None:
1309
 
            revision.delta.show(to_file, self.show_ids, indent=indent + offset,
1310
 
                                short_status=self.delta_format==1)
 
1662
            # Use the standard status output to display changes
 
1663
            from bzrlib.delta import report_delta
 
1664
            report_delta(to_file, revision.delta, 
 
1665
                         short_status=self.delta_format==1, 
 
1666
                         show_ids=self.show_ids, indent=indent + offset)
1311
1667
        if revision.diff is not None:
1312
 
            self.show_diff(to_file, revision.diff, '      ')
 
1668
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1313
1669
        to_file.write('\n')
1314
1670
 
1315
1671
 
1321
1677
 
1322
1678
    def __init__(self, *args, **kwargs):
1323
1679
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1324
 
        self._max_chars = terminal_width() - 1
 
1680
        width = terminal_width()
 
1681
        if width is not None:
 
1682
            # we need one extra space for terminals that wrap on last char
 
1683
            width = width - 1
 
1684
        self._max_chars = width
1325
1685
 
1326
1686
    def truncate(self, str, max_len):
1327
 
        if len(str) <= max_len:
 
1687
        if max_len is None or len(str) <= max_len:
1328
1688
            return str
1329
 
        return str[:max_len-3]+'...'
 
1689
        return str[:max_len-3] + '...'
1330
1690
 
1331
1691
    def date_string(self, rev):
1332
1692
        return format_date(rev.timestamp, rev.timezone or 0,
1370
1730
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1371
1731
 
1372
1732
 
 
1733
class GnuChangelogLogFormatter(LogFormatter):
 
1734
 
 
1735
    supports_merge_revisions = True
 
1736
    supports_delta = True
 
1737
 
 
1738
    def log_revision(self, revision):
 
1739
        """Log a revision, either merged or not."""
 
1740
        to_file = self.to_file
 
1741
 
 
1742
        date_str = format_date(revision.rev.timestamp,
 
1743
                               revision.rev.timezone or 0,
 
1744
                               self.show_timezone,
 
1745
                               date_fmt='%Y-%m-%d',
 
1746
                               show_offset=False)
 
1747
        committer_str = self.authors(revision.rev, 'first', sep=', ')
 
1748
        committer_str = committer_str.replace(' <', '  <')
 
1749
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
 
1750
 
 
1751
        if revision.delta is not None and revision.delta.has_changed():
 
1752
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
 
1753
                path, = c[:1]
 
1754
                to_file.write('\t* %s:\n' % (path,))
 
1755
            for c in revision.delta.renamed:
 
1756
                oldpath,newpath = c[:2]
 
1757
                # For renamed files, show both the old and the new path
 
1758
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
 
1759
            to_file.write('\n')
 
1760
 
 
1761
        if not revision.rev.message:
 
1762
            to_file.write('\tNo commit message\n')
 
1763
        else:
 
1764
            message = revision.rev.message.rstrip('\r\n')
 
1765
            for l in message.split('\n'):
 
1766
                to_file.write('\t%s\n' % (l.lstrip(),))
 
1767
            to_file.write('\n')
 
1768
 
 
1769
 
1373
1770
def line_log(rev, max_chars):
1374
1771
    lf = LineLogFormatter(None)
1375
1772
    return lf.log_string(None, rev, max_chars)
1399
1796
                                'Detailed log format')
1400
1797
log_formatter_registry.register('line', LineLogFormatter,
1401
1798
                                'Log format with one line per revision')
 
1799
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
 
1800
                                'Format used by GNU ChangeLog files')
1402
1801
 
1403
1802
 
1404
1803
def register_formatter(name, formatter):
1417
1816
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
1418
1817
 
1419
1818
 
 
1819
def author_list_all(rev):
 
1820
    return rev.get_apparent_authors()[:]
 
1821
 
 
1822
 
 
1823
def author_list_first(rev):
 
1824
    lst = rev.get_apparent_authors()
 
1825
    try:
 
1826
        return [lst[0]]
 
1827
    except IndexError:
 
1828
        return []
 
1829
 
 
1830
 
 
1831
def author_list_committer(rev):
 
1832
    return [rev.committer]
 
1833
 
 
1834
 
 
1835
author_list_registry = registry.Registry()
 
1836
 
 
1837
author_list_registry.register('all', author_list_all,
 
1838
                              'All authors')
 
1839
 
 
1840
author_list_registry.register('first', author_list_first,
 
1841
                              'The first author')
 
1842
 
 
1843
author_list_registry.register('committer', author_list_committer,
 
1844
                              'The committer')
 
1845
 
 
1846
 
1420
1847
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
1421
1848
    # deprecated; for compatibility
1422
1849
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
1573
2000
        lf.log_revision(lr)
1574
2001
 
1575
2002
 
1576
 
def _get_fileid_to_log(revision, tree, b, fp):
1577
 
    """Find the file-id to log for a file path in a revision range.
1578
 
 
1579
 
    :param revision: the revision range as parsed on the command line
1580
 
    :param tree: the working tree, if any
1581
 
    :param b: the branch
1582
 
    :param fp: file path
 
2003
def _get_info_for_log_files(revisionspec_list, file_list, add_cleanup):
 
2004
    """Find file-ids and kinds given a list of files and a revision range.
 
2005
 
 
2006
    We search for files at the end of the range. If not found there,
 
2007
    we try the start of the range.
 
2008
 
 
2009
    :param revisionspec_list: revision range as parsed on the command line
 
2010
    :param file_list: the list of paths given on the command line;
 
2011
      the first of these can be a branch location or a file path,
 
2012
      the remainder must be file paths
 
2013
    :param add_cleanup: When the branch returned is read locked,
 
2014
      an unlock call will be queued to the cleanup.
 
2015
    :return: (branch, info_list, start_rev_info, end_rev_info) where
 
2016
      info_list is a list of (relative_path, file_id, kind) tuples where
 
2017
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
 
2018
      branch will be read-locked.
1583
2019
    """
1584
 
    if revision is None:
 
2020
    from builtins import _get_revision_range
 
2021
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
 
2022
    add_cleanup(b.lock_read().unlock)
 
2023
    # XXX: It's damn messy converting a list of paths to relative paths when
 
2024
    # those paths might be deleted ones, they might be on a case-insensitive
 
2025
    # filesystem and/or they might be in silly locations (like another branch).
 
2026
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
 
2027
    # file2 implicitly in the same dir as file1 or should its directory be
 
2028
    # taken from the current tree somehow?) For now, this solves the common
 
2029
    # case of running log in a nested directory, assuming paths beyond the
 
2030
    # first one haven't been deleted ...
 
2031
    if tree:
 
2032
        relpaths = [path] + tree.safe_relpath_files(file_list[1:])
 
2033
    else:
 
2034
        relpaths = [path] + file_list[1:]
 
2035
    info_list = []
 
2036
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
 
2037
        "log")
 
2038
    if relpaths in ([], [u'']):
 
2039
        return b, [], start_rev_info, end_rev_info
 
2040
    if start_rev_info is None and end_rev_info is None:
1585
2041
        if tree is None:
1586
2042
            tree = b.basis_tree()
1587
 
        file_id = tree.path2id(fp)
1588
 
        if file_id is None:
1589
 
            # go back to when time began
1590
 
            try:
1591
 
                rev1 = b.get_rev_id(1)
1592
 
            except errors.NoSuchRevision:
1593
 
                # No history at all
1594
 
                file_id = None
1595
 
            else:
1596
 
                tree = b.repository.revision_tree(rev1)
1597
 
                file_id = tree.path2id(fp)
 
2043
        tree1 = None
 
2044
        for fp in relpaths:
 
2045
            file_id = tree.path2id(fp)
 
2046
            kind = _get_kind_for_file_id(tree, file_id)
 
2047
            if file_id is None:
 
2048
                # go back to when time began
 
2049
                if tree1 is None:
 
2050
                    try:
 
2051
                        rev1 = b.get_rev_id(1)
 
2052
                    except errors.NoSuchRevision:
 
2053
                        # No history at all
 
2054
                        file_id = None
 
2055
                        kind = None
 
2056
                    else:
 
2057
                        tree1 = b.repository.revision_tree(rev1)
 
2058
                if tree1:
 
2059
                    file_id = tree1.path2id(fp)
 
2060
                    kind = _get_kind_for_file_id(tree1, file_id)
 
2061
            info_list.append((fp, file_id, kind))
1598
2062
 
1599
 
    elif len(revision) == 1:
 
2063
    elif start_rev_info == end_rev_info:
1600
2064
        # One revision given - file must exist in it
1601
 
        tree = revision[0].as_tree(b)
1602
 
        file_id = tree.path2id(fp)
 
2065
        tree = b.repository.revision_tree(end_rev_info.rev_id)
 
2066
        for fp in relpaths:
 
2067
            file_id = tree.path2id(fp)
 
2068
            kind = _get_kind_for_file_id(tree, file_id)
 
2069
            info_list.append((fp, file_id, kind))
1603
2070
 
1604
 
    elif len(revision) == 2:
 
2071
    else:
1605
2072
        # Revision range given. Get the file-id from the end tree.
1606
2073
        # If that fails, try the start tree.
1607
 
        rev_id = revision[1].as_revision_id(b)
 
2074
        rev_id = end_rev_info.rev_id
1608
2075
        if rev_id is None:
1609
2076
            tree = b.basis_tree()
1610
2077
        else:
1611
 
            tree = revision[1].as_tree(b)
1612
 
        file_id = tree.path2id(fp)
1613
 
        if file_id is None:
1614
 
            rev_id = revision[0].as_revision_id(b)
1615
 
            if rev_id is None:
1616
 
                rev1 = b.get_rev_id(1)
1617
 
                tree = b.repository.revision_tree(rev1)
1618
 
            else:
1619
 
                tree = revision[0].as_tree(b)
 
2078
            tree = b.repository.revision_tree(rev_id)
 
2079
        tree1 = None
 
2080
        for fp in relpaths:
1620
2081
            file_id = tree.path2id(fp)
 
2082
            kind = _get_kind_for_file_id(tree, file_id)
 
2083
            if file_id is None:
 
2084
                if tree1 is None:
 
2085
                    rev_id = start_rev_info.rev_id
 
2086
                    if rev_id is None:
 
2087
                        rev1 = b.get_rev_id(1)
 
2088
                        tree1 = b.repository.revision_tree(rev1)
 
2089
                    else:
 
2090
                        tree1 = b.repository.revision_tree(rev_id)
 
2091
                file_id = tree1.path2id(fp)
 
2092
                kind = _get_kind_for_file_id(tree1, file_id)
 
2093
            info_list.append((fp, file_id, kind))
 
2094
    return b, info_list, start_rev_info, end_rev_info
 
2095
 
 
2096
 
 
2097
def _get_kind_for_file_id(tree, file_id):
 
2098
    """Return the kind of a file-id or None if it doesn't exist."""
 
2099
    if file_id is not None:
 
2100
        return tree.kind(file_id)
1621
2101
    else:
1622
 
        raise errors.BzrCommandError(
1623
 
            'bzr log --revision takes one or two values.')
1624
 
    return file_id
 
2102
        return None
1625
2103
 
1626
2104
 
1627
2105
properties_handler_registry = registry.Registry()
1628
 
properties_handler_registry.register_lazy("foreign",
1629
 
                                          "bzrlib.foreign",
1630
 
                                          "show_foreign_properties")
 
2106
 
 
2107
# Use the properties handlers to print out bug information if available
 
2108
def _bugs_properties_handler(revision):
 
2109
    if revision.properties.has_key('bugs'):
 
2110
        bug_lines = revision.properties['bugs'].split('\n')
 
2111
        bug_rows = [line.split(' ', 1) for line in bug_lines]
 
2112
        fixed_bug_urls = [row[0] for row in bug_rows if
 
2113
                          len(row) > 1 and row[1] == 'fixed']
 
2114
 
 
2115
        if fixed_bug_urls:
 
2116
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
 
2117
    return {}
 
2118
 
 
2119
properties_handler_registry.register('bugs_properties_handler',
 
2120
                                     _bugs_properties_handler)
1631
2121
 
1632
2122
 
1633
2123
# adapters which revision ids to log are filtered. When log is called, the