~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Daniel Watkins
  • Date: 2009-02-08 14:26:35 UTC
  • mto: (3989.1.1 bzr.ab.integration)
  • mto: This revision was merged to the branch mainline in revision 3990.
  • Revision ID: daniel@daniel-watkins.co.uk-20090208142635-zyzycxxz7i6p3dih
RevertedĀ someĀ irrelevantĀ changes.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007, 2009 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
 
18
18
 
65
65
lazy_import(globals(), """
66
66
 
67
67
from bzrlib import (
68
 
    bzrdir,
69
68
    config,
70
69
    diff,
71
70
    errors,
72
 
    foreign,
73
71
    repository as _mod_repository,
74
72
    revision as _mod_revision,
75
73
    revisionspec,
83
81
    )
84
82
from bzrlib.osutils import (
85
83
    format_date,
86
 
    format_date_with_offset_in_original_timezone,
87
84
    get_terminal_encoding,
88
 
    re_compile_checked,
89
85
    terminal_width,
90
86
    )
91
 
from bzrlib.symbol_versioning import (
92
 
    deprecated_function,
93
 
    deprecated_in,
94
 
    )
95
87
 
96
88
 
97
89
def find_touching_revisions(branch, file_id):
159
151
             show_diff=False):
160
152
    """Write out human-readable log of commits to this branch.
161
153
 
162
 
    This function is being retained for backwards compatibility but
163
 
    should not be extended with new parameters. Use the new Logger class
164
 
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
165
 
    make_log_request_dict function.
166
 
 
167
154
    :param lf: The LogFormatter object showing the output.
168
155
 
169
156
    :param specific_fileid: If not None, list only the commits affecting the
186
173
 
187
174
    :param show_diff: If True, output a diff after each revision.
188
175
    """
189
 
    # Convert old-style parameters to new-style parameters
190
 
    if specific_fileid is not None:
191
 
        file_ids = [specific_fileid]
192
 
    else:
193
 
        file_ids = None
194
 
    if verbose:
195
 
        if file_ids:
196
 
            delta_type = 'partial'
197
 
        else:
198
 
            delta_type = 'full'
199
 
    else:
200
 
        delta_type = None
201
 
    if show_diff:
202
 
        if file_ids:
203
 
            diff_type = 'partial'
204
 
        else:
205
 
            diff_type = 'full'
206
 
    else:
207
 
        diff_type = None
208
 
 
209
 
    # Build the request and execute it
210
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
211
 
        start_revision=start_revision, end_revision=end_revision,
212
 
        limit=limit, message_search=search,
213
 
        delta_type=delta_type, diff_type=diff_type)
214
 
    Logger(branch, rqst).show(lf)
215
 
 
216
 
 
217
 
# Note: This needs to be kept this in sync with the defaults in
218
 
# make_log_request_dict() below
219
 
_DEFAULT_REQUEST_PARAMS = {
220
 
    'direction': 'reverse',
221
 
    'levels': 1,
222
 
    'generate_tags': True,
223
 
    '_match_using_deltas': True,
224
 
    }
225
 
 
226
 
 
227
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
228
 
    start_revision=None, end_revision=None, limit=None,
229
 
    message_search=None, levels=1, generate_tags=True, delta_type=None,
230
 
    diff_type=None, _match_using_deltas=True):
231
 
    """Convenience function for making a logging request dictionary.
232
 
 
233
 
    Using this function may make code slightly safer by ensuring
234
 
    parameters have the correct names. It also provides a reference
235
 
    point for documenting the supported parameters.
236
 
 
237
 
    :param direction: 'reverse' (default) is latest to earliest;
238
 
      'forward' is earliest to latest.
239
 
 
240
 
    :param specific_fileids: If not None, only include revisions
241
 
      affecting the specified files, rather than all revisions.
242
 
 
243
 
    :param start_revision: If not None, only generate
244
 
      revisions >= start_revision
245
 
 
246
 
    :param end_revision: If not None, only generate
247
 
      revisions <= end_revision
248
 
 
249
 
    :param limit: If set, generate only 'limit' revisions, all revisions
250
 
      are shown if None or 0.
251
 
 
252
 
    :param message_search: If not None, only include revisions with
253
 
      matching commit messages
254
 
 
255
 
    :param levels: the number of levels of revisions to
256
 
      generate; 1 for just the mainline; 0 for all levels.
257
 
 
258
 
    :param generate_tags: If True, include tags for matched revisions.
259
 
 
260
 
    :param delta_type: Either 'full', 'partial' or None.
261
 
      'full' means generate the complete delta - adds/deletes/modifies/etc;
262
 
      'partial' means filter the delta using specific_fileids;
263
 
      None means do not generate any delta.
264
 
 
265
 
    :param diff_type: Either 'full', 'partial' or None.
266
 
      'full' means generate the complete diff - adds/deletes/modifies/etc;
267
 
      'partial' means filter the diff using specific_fileids;
268
 
      None means do not generate any diff.
269
 
 
270
 
    :param _match_using_deltas: a private parameter controlling the
271
 
      algorithm used for matching specific_fileids. This parameter
272
 
      may be removed in the future so bzrlib client code should NOT
273
 
      use it.
274
 
    """
275
 
    return {
276
 
        'direction': direction,
277
 
        'specific_fileids': specific_fileids,
278
 
        'start_revision': start_revision,
279
 
        'end_revision': end_revision,
280
 
        'limit': limit,
281
 
        'message_search': message_search,
282
 
        'levels': levels,
283
 
        'generate_tags': generate_tags,
284
 
        'delta_type': delta_type,
285
 
        'diff_type': diff_type,
286
 
        # Add 'private' attributes for features that may be deprecated
287
 
        '_match_using_deltas': _match_using_deltas,
288
 
    }
289
 
 
290
 
 
291
 
def _apply_log_request_defaults(rqst):
292
 
    """Apply default values to a request dictionary."""
293
 
    result = _DEFAULT_REQUEST_PARAMS
294
 
    if rqst:
295
 
        result.update(rqst)
296
 
    return result
297
 
 
298
 
 
299
 
class LogGenerator(object):
300
 
    """A generator of log revisions."""
301
 
 
302
 
    def iter_log_revisions(self):
303
 
        """Iterate over LogRevision objects.
304
 
 
305
 
        :return: An iterator yielding LogRevision objects.
306
 
        """
307
 
        raise NotImplementedError(self.iter_log_revisions)
308
 
 
309
 
 
310
 
class Logger(object):
311
 
    """An object that generates, formats and displays a log."""
312
 
 
313
 
    def __init__(self, branch, rqst):
314
 
        """Create a Logger.
315
 
 
316
 
        :param branch: the branch to log
317
 
        :param rqst: A dictionary specifying the query parameters.
318
 
          See make_log_request_dict() for supported values.
319
 
        """
320
 
        self.branch = branch
321
 
        self.rqst = _apply_log_request_defaults(rqst)
322
 
 
323
 
    def show(self, lf):
324
 
        """Display the log.
325
 
 
326
 
        :param lf: The LogFormatter object to send the output to.
327
 
        """
328
 
        if not isinstance(lf, LogFormatter):
329
 
            warn("not a LogFormatter instance: %r" % lf)
330
 
 
331
 
        self.branch.lock_read()
332
 
        try:
333
 
            if getattr(lf, 'begin_log', None):
334
 
                lf.begin_log()
335
 
            self._show_body(lf)
336
 
            if getattr(lf, 'end_log', None):
337
 
                lf.end_log()
338
 
        finally:
339
 
            self.branch.unlock()
340
 
 
341
 
    def _show_body(self, lf):
342
 
        """Show the main log output.
343
 
 
344
 
        Subclasses may wish to override this.
345
 
        """
346
 
        # Tweak the LogRequest based on what the LogFormatter can handle.
347
 
        # (There's no point generating stuff if the formatter can't display it.)
348
 
        rqst = self.rqst
349
 
        rqst['levels'] = lf.get_levels()
350
 
        if not getattr(lf, 'supports_tags', False):
351
 
            rqst['generate_tags'] = False
352
 
        if not getattr(lf, 'supports_delta', False):
353
 
            rqst['delta_type'] = None
354
 
        if not getattr(lf, 'supports_diff', False):
355
 
            rqst['diff_type'] = None
356
 
 
357
 
        # Find and print the interesting revisions
358
 
        generator = self._generator_factory(self.branch, rqst)
359
 
        for lr in generator.iter_log_revisions():
 
176
    branch.lock_read()
 
177
    try:
 
178
        if getattr(lf, 'begin_log', None):
 
179
            lf.begin_log()
 
180
 
 
181
        _show_log(branch, lf, specific_fileid, verbose, direction,
 
182
                  start_revision, end_revision, search, limit, show_diff)
 
183
 
 
184
        if getattr(lf, 'end_log', None):
 
185
            lf.end_log()
 
186
    finally:
 
187
        branch.unlock()
 
188
 
 
189
 
 
190
def _show_log(branch,
 
191
             lf,
 
192
             specific_fileid=None,
 
193
             verbose=False,
 
194
             direction='reverse',
 
195
             start_revision=None,
 
196
             end_revision=None,
 
197
             search=None,
 
198
             limit=None,
 
199
             show_diff=False):
 
200
    """Worker function for show_log - see show_log."""
 
201
    if not isinstance(lf, LogFormatter):
 
202
        warn("not a LogFormatter instance: %r" % lf)
 
203
    if specific_fileid:
 
204
        trace.mutter('get log for file_id %r', specific_fileid)
 
205
 
 
206
    # Consult the LogFormatter about what it needs and can handle
 
207
    levels_to_display = lf.get_levels()
 
208
    generate_merge_revisions = levels_to_display != 1
 
209
    allow_single_merge_revision = True
 
210
    if not getattr(lf, 'supports_merge_revisions', False):
 
211
        allow_single_merge_revision = getattr(lf,
 
212
            'supports_single_merge_revision', False)
 
213
    generate_tags = getattr(lf, 'supports_tags', False)
 
214
    if generate_tags and branch.supports_tags():
 
215
        rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
216
    else:
 
217
        rev_tag_dict = {}
 
218
    generate_delta = verbose and getattr(lf, 'supports_delta', False)
 
219
    generate_diff = show_diff and getattr(lf, 'supports_diff', False)
 
220
 
 
221
    # Find and print the interesting revisions
 
222
    repo = branch.repository
 
223
    log_count = 0
 
224
    revision_iterator = _create_log_revision_iterator(branch,
 
225
        start_revision, end_revision, direction, specific_fileid, search,
 
226
        generate_merge_revisions, allow_single_merge_revision,
 
227
        generate_delta, limited_output=limit > 0)
 
228
    for revs in revision_iterator:
 
229
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
230
            # Note: 0 levels means show everything; merge_depth counts from 0
 
231
            if levels_to_display != 0 and merge_depth >= levels_to_display:
 
232
                continue
 
233
            if generate_diff:
 
234
                diff = _format_diff(repo, rev, rev_id, specific_fileid)
 
235
            else:
 
236
                diff = None
 
237
            lr = LogRevision(rev, revno, merge_depth, delta,
 
238
                             rev_tag_dict.get(rev_id), diff)
360
239
            lf.log_revision(lr)
361
 
        lf.show_advice()
362
 
 
363
 
    def _generator_factory(self, branch, rqst):
364
 
        """Make the LogGenerator object to use.
365
 
        
366
 
        Subclasses may wish to override this.
367
 
        """
368
 
        return _DefaultLogGenerator(branch, rqst)
 
240
            if limit:
 
241
                log_count += 1
 
242
                if log_count >= limit:
 
243
                    return
 
244
 
 
245
 
 
246
def _format_diff(repo, rev, rev_id, specific_fileid):
 
247
    if len(rev.parent_ids) == 0:
 
248
        ancestor_id = _mod_revision.NULL_REVISION
 
249
    else:
 
250
        ancestor_id = rev.parent_ids[0]
 
251
    tree_1 = repo.revision_tree(ancestor_id)
 
252
    tree_2 = repo.revision_tree(rev_id)
 
253
    if specific_fileid:
 
254
        specific_files = [tree_2.id2path(specific_fileid)]
 
255
    else:
 
256
        specific_files = None
 
257
    s = StringIO()
 
258
    diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
259
        new_label='')
 
260
    return s.getvalue()
369
261
 
370
262
 
371
263
class _StartNotLinearAncestor(Exception):
372
264
    """Raised when a start revision is not found walking left-hand history."""
373
265
 
374
266
 
375
 
class _DefaultLogGenerator(LogGenerator):
376
 
    """The default generator of log revisions."""
377
 
 
378
 
    def __init__(self, branch, rqst):
379
 
        self.branch = branch
380
 
        self.rqst = rqst
381
 
        if rqst.get('generate_tags') and branch.supports_tags():
382
 
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
383
 
        else:
384
 
            self.rev_tag_dict = {}
385
 
 
386
 
    def iter_log_revisions(self):
387
 
        """Iterate over LogRevision objects.
388
 
 
389
 
        :return: An iterator yielding LogRevision objects.
390
 
        """
391
 
        rqst = self.rqst
392
 
        levels = rqst.get('levels')
393
 
        limit = rqst.get('limit')
394
 
        diff_type = rqst.get('diff_type')
395
 
        log_count = 0
396
 
        revision_iterator = self._create_log_revision_iterator()
397
 
        for revs in revision_iterator:
398
 
            for (rev_id, revno, merge_depth), rev, delta in revs:
399
 
                # 0 levels means show everything; merge_depth counts from 0
400
 
                if levels != 0 and merge_depth >= levels:
401
 
                    continue
402
 
                if diff_type is None:
403
 
                    diff = None
404
 
                else:
405
 
                    diff = self._format_diff(rev, rev_id, diff_type)
406
 
                yield LogRevision(rev, revno, merge_depth, delta,
407
 
                    self.rev_tag_dict.get(rev_id), diff)
408
 
                if limit:
409
 
                    log_count += 1
410
 
                    if log_count >= limit:
411
 
                        return
412
 
 
413
 
    def _format_diff(self, rev, rev_id, diff_type):
414
 
        repo = self.branch.repository
415
 
        if len(rev.parent_ids) == 0:
416
 
            ancestor_id = _mod_revision.NULL_REVISION
417
 
        else:
418
 
            ancestor_id = rev.parent_ids[0]
419
 
        tree_1 = repo.revision_tree(ancestor_id)
420
 
        tree_2 = repo.revision_tree(rev_id)
421
 
        file_ids = self.rqst.get('specific_fileids')
422
 
        if diff_type == 'partial' and file_ids is not None:
423
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
424
 
        else:
425
 
            specific_files = None
426
 
        s = StringIO()
427
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
428
 
            new_label='')
429
 
        return s.getvalue()
430
 
 
431
 
    def _create_log_revision_iterator(self):
432
 
        """Create a revision iterator for log.
433
 
 
434
 
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
435
 
            delta).
436
 
        """
437
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
438
 
            self.branch, self.rqst.get('start_revision'),
439
 
            self.rqst.get('end_revision'))
440
 
        if self.rqst.get('_match_using_deltas'):
441
 
            return self._log_revision_iterator_using_delta_matching()
442
 
        else:
443
 
            # We're using the per-file-graph algorithm. This scales really
444
 
            # well but only makes sense if there is a single file and it's
445
 
            # not a directory
446
 
            file_count = len(self.rqst.get('specific_fileids'))
447
 
            if file_count != 1:
448
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
449
 
                    "when logging %d files" % file_count)
450
 
            return self._log_revision_iterator_using_per_file_graph()
451
 
 
452
 
    def _log_revision_iterator_using_delta_matching(self):
453
 
        # Get the base revisions, filtering by the revision range
454
 
        rqst = self.rqst
455
 
        generate_merge_revisions = rqst.get('levels') != 1
456
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
457
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
458
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
459
 
            self.end_rev_id, rqst.get('direction'), generate_merge_revisions,
460
 
            delayed_graph_generation=delayed_graph_generation)
461
 
 
462
 
        # Apply the other filters
463
 
        return make_log_rev_iterator(self.branch, view_revisions,
464
 
            rqst.get('delta_type'), rqst.get('message_search'),
465
 
            file_ids=rqst.get('specific_fileids'),
466
 
            direction=rqst.get('direction'))
467
 
 
468
 
    def _log_revision_iterator_using_per_file_graph(self):
469
 
        # Get the base revisions, filtering by the revision range.
470
 
        # Note that we always generate the merge revisions because
471
 
        # filter_revisions_touching_file_id() requires them ...
472
 
        rqst = self.rqst
473
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
474
 
            self.end_rev_id, rqst.get('direction'), True)
 
267
def _create_log_revision_iterator(branch, start_revision, end_revision,
 
268
    direction, specific_fileid, search, generate_merge_revisions,
 
269
    allow_single_merge_revision, generate_delta, limited_output=False):
 
270
    """Create a revision iterator for log.
 
271
 
 
272
    :param branch: The branch being logged.
 
273
    :param start_revision: If not None, only show revisions >= start_revision
 
274
    :param end_revision: If not None, only show revisions <= end_revision
 
275
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
 
276
        earliest to latest.
 
277
    :param specific_fileid: If not None, list only the commits affecting the
 
278
        specified file.
 
279
    :param search: If not None, only show revisions with matching commit
 
280
        messages.
 
281
    :param generate_merge_revisions: If False, show only mainline revisions.
 
282
    :param allow_single_merge_revision: If True, logging of a single
 
283
        revision off the mainline is to be allowed
 
284
    :param generate_delta: Whether to generate a delta for each revision.
 
285
    :param limited_output: if True, the user only wants a limited result
 
286
 
 
287
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
288
        delta).
 
289
    """
 
290
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
 
291
        end_revision)
 
292
 
 
293
    # Decide how file-ids are matched: delta-filtering vs per-file graph.
 
294
    # Delta filtering allows revisions to be displayed incrementally
 
295
    # though the total time is much slower for huge repositories: log -v
 
296
    # is the *lower* performance bound. At least until the split
 
297
    # inventory format arrives, per-file-graph needs to remain the
 
298
    # default except in verbose mode. Delta filtering should give more
 
299
    # accurate results (e.g. inclusion of FILE deletions) so arguably
 
300
    # it should always be used in the future.
 
301
    use_deltas_for_matching = specific_fileid and generate_delta
 
302
    delayed_graph_generation = not specific_fileid and (
 
303
            start_rev_id or end_rev_id or limited_output)
 
304
    generate_merges = generate_merge_revisions or (specific_fileid and
 
305
        not use_deltas_for_matching)
 
306
    view_revisions = _calc_view_revisions(branch, start_rev_id, end_rev_id,
 
307
        direction, generate_merges, allow_single_merge_revision,
 
308
        delayed_graph_generation=delayed_graph_generation)
 
309
    search_deltas_for_fileids = None
 
310
    if use_deltas_for_matching:
 
311
        search_deltas_for_fileids = set([specific_fileid])
 
312
    elif specific_fileid:
475
313
        if not isinstance(view_revisions, list):
476
314
            view_revisions = list(view_revisions)
477
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
478
 
            rqst.get('specific_fileids')[0], view_revisions,
479
 
            include_merges=rqst.get('levels') != 1)
480
 
        return make_log_rev_iterator(self.branch, view_revisions,
481
 
            rqst.get('delta_type'), rqst.get('message_search'))
 
315
        view_revisions = _filter_revisions_touching_file_id(branch,
 
316
            specific_fileid, view_revisions,
 
317
            include_merges=generate_merge_revisions)
 
318
    return make_log_rev_iterator(branch, view_revisions, generate_delta,
 
319
        search, file_ids=search_deltas_for_fileids, direction=direction)
482
320
 
483
321
 
484
322
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
485
 
    generate_merge_revisions, delayed_graph_generation=False):
 
323
    generate_merge_revisions, allow_single_merge_revision,
 
324
    delayed_graph_generation=False):
486
325
    """Calculate the revisions to view.
487
326
 
488
327
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
496
335
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
497
336
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
498
337
    if generate_single_revision:
499
 
        return _generate_one_revision(branch, end_rev_id, br_rev_id, br_revno)
 
338
        if end_rev_id == br_rev_id:
 
339
            # It's the tip
 
340
            return [(br_rev_id, br_revno, 0)]
 
341
        else:
 
342
            revno = branch.revision_id_to_dotted_revno(end_rev_id)
 
343
            if len(revno) > 1 and not allow_single_merge_revision:
 
344
                # It's a merge revision and the log formatter is
 
345
                # completely brain dead. This "feature" of allowing
 
346
                # log formatters incapable of displaying dotted revnos
 
347
                # ought to be deprecated IMNSHO. IGC 20091022
 
348
                raise errors.BzrCommandError('Selected log formatter only'
 
349
                    ' supports mainline revisions.')
 
350
            revno_str = '.'.join(str(n) for n in revno)
 
351
            return [(end_rev_id, revno_str, 0)]
500
352
 
501
353
    # If we only want to see linear revisions, we can iterate ...
502
354
    if not generate_merge_revisions:
503
 
        return _generate_flat_revisions(branch, start_rev_id, end_rev_id,
504
 
            direction)
505
 
    else:
506
 
        return _generate_all_revisions(branch, start_rev_id, end_rev_id,
507
 
            direction, delayed_graph_generation)
508
 
 
509
 
 
510
 
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
511
 
    if rev_id == br_rev_id:
512
 
        # It's the tip
513
 
        return [(br_rev_id, br_revno, 0)]
514
 
    else:
515
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
516
 
        revno_str = '.'.join(str(n) for n in revno)
517
 
        return [(rev_id, revno_str, 0)]
518
 
 
519
 
 
520
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
521
 
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
522
 
    # If a start limit was given and it's not obviously an
523
 
    # ancestor of the end limit, check it before outputting anything
524
 
    if direction == 'forward' or (start_rev_id
525
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
526
 
        try:
527
 
            result = list(result)
528
 
        except _StartNotLinearAncestor:
529
 
            raise errors.BzrCommandError('Start revision not found in'
530
 
                ' left-hand history of end revision.')
531
 
    if direction == 'forward':
532
 
        result = reversed(result)
533
 
    return result
534
 
 
535
 
 
536
 
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
537
 
                            delayed_graph_generation):
 
355
        result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
 
356
        # If a start limit was given and it's not obviously an
 
357
        # ancestor of the end limit, check it before outputting anything
 
358
        if direction == 'forward' or (start_rev_id
 
359
            and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
360
            try:
 
361
                result = list(result)
 
362
            except _StartNotLinearAncestor:
 
363
                raise errors.BzrCommandError('Start revision not found in'
 
364
                    ' left-hand history of end revision.')
 
365
        if direction == 'forward':
 
366
            result = reversed(list(result))
 
367
        return result
 
368
 
538
369
    # On large trees, generating the merge graph can take 30-60 seconds
539
370
    # so we delay doing it until a merge is detected, incrementally
540
371
    # returning initial (non-merge) revisions while we can.
541
 
 
542
 
    # The above is only true for old formats (<= 0.92), for newer formats, a
543
 
    # couple of seconds only should be needed to load the whole graph and the
544
 
    # other graph operations needed are even faster than that -- vila 100201
545
372
    initial_revisions = []
546
373
    if delayed_graph_generation:
547
374
        try:
548
 
            for rev_id, revno, depth in  _linear_view_revisions(
549
 
                branch, start_rev_id, end_rev_id):
 
375
            for rev_id, revno, depth in \
 
376
                _linear_view_revisions(branch, start_rev_id, end_rev_id):
550
377
                if _has_merges(branch, rev_id):
551
 
                    # The end_rev_id can be nested down somewhere. We need an
552
 
                    # explicit ancestry check. There is an ambiguity here as we
553
 
                    # may not raise _StartNotLinearAncestor for a revision that
554
 
                    # is an ancestor but not a *linear* one. But since we have
555
 
                    # loaded the graph to do the check (or calculate a dotted
556
 
                    # revno), we may as well accept to show the log... 
557
 
                    # -- vila 100201
558
 
                    graph = branch.repository.get_graph()
559
 
                    if not graph.is_ancestor(start_rev_id, end_rev_id):
560
 
                        raise _StartNotLinearAncestor()
561
378
                    end_rev_id = rev_id
562
379
                    break
563
380
                else:
615
432
        else:
616
433
            # not obvious
617
434
            return False
618
 
    # if either start or end is not specified then we use either the first or
619
 
    # the last revision and *they* are obvious ancestors.
620
435
    return True
621
436
 
622
437
 
684
499
                depth_adjustment = merge_depth
685
500
            if depth_adjustment:
686
501
                if merge_depth < depth_adjustment:
687
 
                    # From now on we reduce the depth adjustement, this can be
688
 
                    # surprising for users. The alternative requires two passes
689
 
                    # which breaks the fast display of the first revision
690
 
                    # though.
691
502
                    depth_adjustment = merge_depth
692
503
                merge_depth -= depth_adjustment
693
504
            yield rev_id, '.'.join(map(str, revno)), merge_depth
694
505
 
695
506
 
696
 
@deprecated_function(deprecated_in((2, 2, 0)))
697
507
def calculate_view_revisions(branch, start_revision, end_revision, direction,
698
 
        specific_fileid, generate_merge_revisions):
 
508
        specific_fileid, generate_merge_revisions, allow_single_merge_revision):
699
509
    """Calculate the revisions to view.
700
510
 
701
511
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
702
512
             a list of the same tuples.
703
513
    """
 
514
    # This method is no longer called by the main code path.
 
515
    # It is retained for API compatibility and may be deprecated
 
516
    # soon. IGC 20090116
704
517
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
705
518
        end_revision)
706
519
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
707
 
        direction, generate_merge_revisions or specific_fileid))
 
520
        direction, generate_merge_revisions or specific_fileid,
 
521
        allow_single_merge_revision))
708
522
    if specific_fileid:
709
523
        view_revisions = _filter_revisions_touching_file_id(branch,
710
524
            specific_fileid, view_revisions,
729
543
    :param branch: The branch being logged.
730
544
    :param view_revisions: The revisions being viewed.
731
545
    :param generate_delta: Whether to generate a delta for each revision.
732
 
      Permitted values are None, 'full' and 'partial'.
733
546
    :param search: A user text search string.
734
547
    :param file_ids: If non empty, only revisions matching one or more of
735
548
      the file-ids are to be kept.
774
587
    """
775
588
    if search is None:
776
589
        return log_rev_iterator
777
 
    searchRE = re_compile_checked(search, re.IGNORECASE,
778
 
            'log message filter')
 
590
    # Compile the search now to get early errors.
 
591
    searchRE = re.compile(search, re.IGNORECASE)
779
592
    return _filter_message_re(searchRE, log_rev_iterator)
780
593
 
781
594
 
794
607
 
795
608
    :param branch: The branch being logged.
796
609
    :param generate_delta: Whether to generate a delta for each revision.
797
 
      Permitted values are None, 'full' and 'partial'.
798
610
    :param search: A user text search string.
799
611
    :param log_rev_iterator: An input iterator containing all revisions that
800
612
        could be displayed, in lists.
810
622
        generate_delta, fileids, direction)
811
623
 
812
624
 
813
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
 
625
def _generate_deltas(repository, log_rev_iterator, always_delta, fileids,
814
626
    direction):
815
627
    """Create deltas for each batch of revisions in log_rev_iterator.
816
 
 
 
628
    
817
629
    If we're only generating deltas for the sake of filtering against
818
630
    file-ids, we stop generating deltas once all file-ids reach the
819
631
    appropriate life-cycle point. If we're receiving data newest to
834
646
        if check_fileids and not fileid_set:
835
647
            return
836
648
        revisions = [rev[1] for rev in revs]
 
649
        deltas = repository.get_deltas_for_revisions(revisions)
837
650
        new_revs = []
838
 
        if delta_type == 'full' and not check_fileids:
839
 
            deltas = repository.get_deltas_for_revisions(revisions)
840
 
            for rev, delta in izip(revs, deltas):
841
 
                new_revs.append((rev[0], rev[1], delta))
842
 
        else:
843
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
844
 
            for rev, delta in izip(revs, deltas):
845
 
                if check_fileids:
846
 
                    if delta is None or not delta.has_changed():
847
 
                        continue
848
 
                    else:
849
 
                        _update_fileids(delta, fileid_set, stop_on)
850
 
                        if delta_type is None:
851
 
                            delta = None
852
 
                        elif delta_type == 'full':
853
 
                            # If the file matches all the time, rebuilding
854
 
                            # a full delta like this in addition to a partial
855
 
                            # one could be slow. However, it's likely that
856
 
                            # most revisions won't get this far, making it
857
 
                            # faster to filter on the partial deltas and
858
 
                            # build the occasional full delta than always
859
 
                            # building full deltas and filtering those.
860
 
                            rev_id = rev[0][0]
861
 
                            delta = repository.get_revision_delta(rev_id)
862
 
                new_revs.append((rev[0], rev[1], delta))
 
651
        for rev, delta in izip(revs, deltas):
 
652
            if check_fileids:
 
653
                if not _delta_matches_fileids(delta, fileid_set, stop_on):
 
654
                    continue
 
655
                elif not always_delta:
 
656
                    # Delta was created just for matching - ditch it
 
657
                    # Note: It would probably be a better UI to return
 
658
                    # a delta filtered by the file-ids, rather than
 
659
                    # None at all. That functional enhancement can
 
660
                    # come later ...
 
661
                    delta = None
 
662
            new_revs.append((rev[0], rev[1], delta))
863
663
        yield new_revs
864
664
 
865
665
 
866
 
def _update_fileids(delta, fileids, stop_on):
867
 
    """Update the set of file-ids to search based on file lifecycle events.
 
666
def _delta_matches_fileids(delta, fileids, stop_on='add'):
 
667
    """Check is a delta matches one of more file-ids.
868
668
    
869
 
    :param fileids: a set of fileids to update
 
669
    :param fileids: a set of fileids to match against.
870
670
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
871
671
      fileids set once their add or remove entry is detected respectively
872
672
    """
873
 
    if stop_on == 'add':
874
 
        for item in delta.added:
875
 
            if item[1] in fileids:
876
 
                fileids.remove(item[1])
877
 
    elif stop_on == 'delete':
878
 
        for item in delta.removed:
879
 
            if item[1] in fileids:
880
 
                fileids.remove(item[1])
 
673
    if not fileids:
 
674
        return False
 
675
    result = False
 
676
    for item in delta.added:
 
677
        if item[1] in fileids:
 
678
            if stop_on == 'add':
 
679
                fileids.remove(item[1])
 
680
            result = True
 
681
    for item in delta.removed:
 
682
        if item[1] in fileids:
 
683
            if stop_on == 'delete':
 
684
                fileids.remove(item[1])
 
685
            result = True
 
686
    if result:
 
687
        return True
 
688
    for l in (delta.modified, delta.renamed, delta.kind_changed):
 
689
        for item in l:
 
690
            if item[1] in fileids:
 
691
                return True
 
692
    return False
881
693
 
882
694
 
883
695
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
927
739
def _get_revision_limits(branch, start_revision, end_revision):
928
740
    """Get and check revision limits.
929
741
 
930
 
    :param  branch: The branch containing the revisions.
 
742
    :param  branch: The branch containing the revisions. 
931
743
 
932
744
    :param  start_revision: The first revision to be logged.
933
745
            For backwards compatibility this may be a mainline integer revno,
976
788
 
977
789
def _get_mainline_revs(branch, start_revision, end_revision):
978
790
    """Get the mainline revisions from the branch.
979
 
 
 
791
    
980
792
    Generates the list of mainline revisions for the branch.
981
 
 
982
 
    :param  branch: The branch containing the revisions.
 
793
    
 
794
    :param  branch: The branch containing the revisions. 
983
795
 
984
796
    :param  start_revision: The first revision to be logged.
985
797
            For backwards compatibility this may be a mainline integer revno,
995
807
    if branch_revno == 0:
996
808
        return None, None, None, None
997
809
 
998
 
    # For mainline generation, map start_revision and end_revision to
999
 
    # mainline revnos. If the revision is not on the mainline choose the
1000
 
    # appropriate extreme of the mainline instead - the extra will be
 
810
    # For mainline generation, map start_revision and end_revision to 
 
811
    # mainline revnos. If the revision is not on the mainline choose the 
 
812
    # appropriate extreme of the mainline instead - the extra will be 
1001
813
    # filtered later.
1002
814
    # Also map the revisions to rev_ids, to be used in the later filtering
1003
815
    # stage.
1056
868
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1057
869
 
1058
870
 
1059
 
@deprecated_function(deprecated_in((2, 2, 0)))
1060
871
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1061
872
    """Filter view_revisions based on revision ranges.
1062
873
 
1063
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
874
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth) 
1064
875
            tuples to be filtered.
1065
876
 
1066
877
    :param start_rev_id: If not NONE specifies the first revision to be logged.
1071
882
 
1072
883
    :return: The filtered view_revisions.
1073
884
    """
 
885
    # This method is no longer called by the main code path.
 
886
    # It may be removed soon. IGC 20090127
1074
887
    if start_rev_id or end_rev_id:
1075
888
        revision_ids = [r for r, n, d in view_revisions]
1076
889
        if start_rev_id:
1084
897
                end_index = revision_ids.index(end_rev_id)
1085
898
            else:
1086
899
                end_index = len(view_revisions) - 1
1087
 
        # To include the revisions merged into the last revision,
 
900
        # To include the revisions merged into the last revision, 
1088
901
        # extend end_rev_id down to, but not including, the next rev
1089
902
        # with the same or lesser merge_depth
1090
903
        end_merge_depth = view_revisions[end_index][2]
1141
954
    # Lookup all possible text keys to determine which ones actually modified
1142
955
    # the file.
1143
956
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1144
 
    next_keys = None
1145
957
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1146
958
    # memory consumption. GraphIndex *does* like to look for a few keys in
1147
959
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
1182
994
    return result
1183
995
 
1184
996
 
1185
 
@deprecated_function(deprecated_in((2, 2, 0)))
1186
997
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
1187
998
                       include_merges=True):
1188
999
    """Produce an iterator of revisions to show
1189
1000
    :return: an iterator of (revision_id, revno, merge_depth)
1190
1001
    (if there is no revno for a revision, None is supplied)
1191
1002
    """
 
1003
    # This method is no longer called by the main code path.
 
1004
    # It is retained for API compatibility and may be deprecated
 
1005
    # soon. IGC 20090127
1192
1006
    if not include_merges:
1193
1007
        revision_ids = mainline_revs[1:]
1194
1008
        if direction == 'reverse':
1258
1072
    """A revision to be logged (by LogFormatter.log_revision).
1259
1073
 
1260
1074
    A simple wrapper for the attributes of a revision to be logged.
1261
 
    The attributes may or may not be populated, as determined by the
 
1075
    The attributes may or may not be populated, as determined by the 
1262
1076
    logging options and the log formatter capabilities.
1263
1077
    """
1264
1078
 
1280
1094
    If the LogFormatter needs to be informed of the beginning or end of
1281
1095
    a log it should implement the begin_log and/or end_log hook methods.
1282
1096
 
1283
 
    A LogFormatter should define the following supports_XXX flags
 
1097
    A LogFormatter should define the following supports_XXX flags 
1284
1098
    to indicate which LogRevision attributes it supports:
1285
1099
 
1286
1100
    - supports_delta must be True if this log formatter supports delta.
1287
1101
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1288
1102
        attribute describes whether the 'short_status' format (1) or the long
1289
1103
        one (2) should be used.
1290
 
 
1291
 
    - supports_merge_revisions must be True if this log formatter supports
1292
 
        merge revisions.  If not, then only mainline revisions will be passed
1293
 
        to the formatter.
 
1104
 
 
1105
    - supports_merge_revisions must be True if this log formatter supports 
 
1106
        merge revisions.  If not, and if supports_single_merge_revision is
 
1107
        also not True, then only mainline revisions will be passed to the 
 
1108
        formatter.
1294
1109
 
1295
1110
    - preferred_levels is the number of levels this formatter defaults to.
1296
1111
        The default value is zero meaning display all levels.
1297
1112
        This value is only relevant if supports_merge_revisions is True.
1298
1113
 
 
1114
    - supports_single_merge_revision must be True if this log formatter
 
1115
        supports logging only a single merge revision.  This flag is
 
1116
        only relevant if supports_merge_revisions is not True.
 
1117
 
1299
1118
    - supports_tags must be True if this log formatter supports tags.
1300
1119
        Otherwise the tags attribute may not be populated.
1301
1120
 
1306
1125
    the properties_handler_registry. The registered function
1307
1126
    must respect the following interface description:
1308
1127
        def my_show_properties(properties_dict):
1309
 
            # code that returns a dict {'name':'value'} of the properties
 
1128
            # code that returns a dict {'name':'value'} of the properties 
1310
1129
            # to be shown
1311
1130
    """
1312
1131
    preferred_levels = 0
1313
1132
 
1314
1133
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1315
 
                 delta_format=None, levels=None, show_advice=False,
1316
 
                 to_exact_file=None):
 
1134
                 delta_format=None, levels=None):
1317
1135
        """Create a LogFormatter.
1318
1136
 
1319
1137
        :param to_file: the file to output to
1320
 
        :param to_exact_file: if set, gives an output stream to which 
1321
 
             non-Unicode diffs are written.
1322
1138
        :param show_ids: if True, revision-ids are to be displayed
1323
1139
        :param show_timezone: the timezone to use
1324
1140
        :param delta_format: the level of delta information to display
1325
 
          or None to leave it to the formatter to decide
 
1141
          or None to leave it u to the formatter to decide
1326
1142
        :param levels: the number of levels to display; None or -1 to
1327
1143
          let the log formatter decide.
1328
 
        :param show_advice: whether to show advice at the end of the
1329
 
          log or not
1330
1144
        """
1331
1145
        self.to_file = to_file
1332
 
        # 'exact' stream used to show diff, it should print content 'as is'
1333
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
1334
 
        if to_exact_file is not None:
1335
 
            self.to_exact_file = to_exact_file
1336
 
        else:
1337
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
1338
 
            # for code that expects to get diffs to pass in the exact file
1339
 
            # stream
1340
 
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1341
1146
        self.show_ids = show_ids
1342
1147
        self.show_timezone = show_timezone
1343
1148
        if delta_format is None:
1345
1150
            delta_format = 2 # long format
1346
1151
        self.delta_format = delta_format
1347
1152
        self.levels = levels
1348
 
        self._show_advice = show_advice
1349
 
        self._merge_count = 0
1350
1153
 
1351
1154
    def get_levels(self):
1352
1155
        """Get the number of levels to display or 0 for all."""
1353
1156
        if getattr(self, 'supports_merge_revisions', False):
1354
1157
            if self.levels is None or self.levels == -1:
1355
 
                self.levels = self.preferred_levels
1356
 
        else:
1357
 
            self.levels = 1
1358
 
        return self.levels
 
1158
                return self.preferred_levels
 
1159
            else:
 
1160
                return self.levels
 
1161
        return 1
1359
1162
 
1360
1163
    def log_revision(self, revision):
1361
1164
        """Log a revision.
1364
1167
        """
1365
1168
        raise NotImplementedError('not implemented in abstract base')
1366
1169
 
1367
 
    def show_advice(self):
1368
 
        """Output user advice, if any, when the log is completed."""
1369
 
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
1370
 
            advice_sep = self.get_advice_separator()
1371
 
            if advice_sep:
1372
 
                self.to_file.write(advice_sep)
1373
 
            self.to_file.write(
1374
 
                "Use --include-merges or -n0 to see merged revisions.\n")
1375
 
 
1376
 
    def get_advice_separator(self):
1377
 
        """Get the text separating the log from the closing advice."""
1378
 
        return ''
1379
 
 
1380
1170
    def short_committer(self, rev):
1381
1171
        name, address = config.parse_username(rev.committer)
1382
1172
        if name:
1384
1174
        return address
1385
1175
 
1386
1176
    def short_author(self, rev):
1387
 
        name, address = config.parse_username(rev.get_apparent_authors()[0])
 
1177
        name, address = config.parse_username(rev.get_apparent_author())
1388
1178
        if name:
1389
1179
            return name
1390
1180
        return address
1391
1181
 
1392
 
    def merge_marker(self, revision):
1393
 
        """Get the merge marker to include in the output or '' if none."""
1394
 
        if len(revision.rev.parent_ids) > 1:
1395
 
            self._merge_count += 1
1396
 
            return ' [merge]'
1397
 
        else:
1398
 
            return ''
1399
 
 
1400
1182
    def show_properties(self, revision, indent):
1401
1183
        """Displays the custom properties returned by each registered handler.
1402
 
 
1403
 
        If a registered handler raises an error it is propagated.
1404
 
        """
1405
 
        for line in self.custom_properties(revision):
1406
 
            self.to_file.write("%s%s\n" % (indent, line))
1407
 
 
1408
 
    def custom_properties(self, revision):
1409
 
        """Format the custom properties returned by each registered handler.
1410
 
 
1411
 
        If a registered handler raises an error it is propagated.
1412
 
 
1413
 
        :return: a list of formatted lines (excluding trailing newlines)
1414
 
        """
1415
 
        lines = self._foreign_info_properties(revision)
 
1184
        
 
1185
        If a registered handler raises an error it is propagated.
 
1186
        """
1416
1187
        for key, handler in properties_handler_registry.iteritems():
1417
 
            lines.extend(self._format_properties(handler(revision)))
1418
 
        return lines
1419
 
 
1420
 
    def _foreign_info_properties(self, rev):
1421
 
        """Custom log displayer for foreign revision identifiers.
1422
 
 
1423
 
        :param rev: Revision object.
1424
 
        """
1425
 
        # Revision comes directly from a foreign repository
1426
 
        if isinstance(rev, foreign.ForeignRevision):
1427
 
            return rev.mapping.vcs.show_foreign_revid(rev.foreign_revid)
1428
 
 
1429
 
        # Imported foreign revision revision ids always contain :
1430
 
        if not ":" in rev.revision_id:
1431
 
            return []
1432
 
 
1433
 
        # Revision was once imported from a foreign repository
1434
 
        try:
1435
 
            foreign_revid, mapping = \
1436
 
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
1437
 
        except errors.InvalidRevisionId:
1438
 
            return []
1439
 
 
1440
 
        return self._format_properties(
1441
 
            mapping.vcs.show_foreign_revid(foreign_revid))
1442
 
 
1443
 
    def _format_properties(self, properties):
1444
 
        lines = []
1445
 
        for key, value in properties.items():
1446
 
            lines.append(key + ': ' + value)
1447
 
        return lines
 
1188
            for key, value in handler(revision).items():
 
1189
                self.to_file.write(indent + key + ': ' + value + '\n')
1448
1190
 
1449
1191
    def show_diff(self, to_file, diff, indent):
1450
1192
        for l in diff.rstrip().split('\n'):
1451
1193
            to_file.write(indent + '%s\n' % (l,))
1452
1194
 
1453
1195
 
1454
 
# Separator between revisions in long format
1455
 
_LONG_SEP = '-' * 60
1456
 
 
1457
 
 
1458
1196
class LongLogFormatter(LogFormatter):
1459
1197
 
1460
1198
    supports_merge_revisions = True
1461
 
    preferred_levels = 1
1462
1199
    supports_delta = True
1463
1200
    supports_tags = True
1464
1201
    supports_diff = True
1465
1202
 
1466
 
    def __init__(self, *args, **kwargs):
1467
 
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1468
 
        if self.show_timezone == 'original':
1469
 
            self.date_string = self._date_string_original_timezone
1470
 
        else:
1471
 
            self.date_string = self._date_string_with_timezone
1472
 
 
1473
 
    def _date_string_with_timezone(self, rev):
1474
 
        return format_date(rev.timestamp, rev.timezone or 0,
1475
 
                           self.show_timezone)
1476
 
 
1477
 
    def _date_string_original_timezone(self, rev):
1478
 
        return format_date_with_offset_in_original_timezone(rev.timestamp,
1479
 
            rev.timezone or 0)
1480
 
 
1481
1203
    def log_revision(self, revision):
1482
1204
        """Log a revision, either merged or not."""
1483
1205
        indent = '    ' * revision.merge_depth
1484
 
        lines = [_LONG_SEP]
 
1206
        to_file = self.to_file
 
1207
        to_file.write(indent + '-' * 60 + '\n')
1485
1208
        if revision.revno is not None:
1486
 
            lines.append('revno: %s%s' % (revision.revno,
1487
 
                self.merge_marker(revision)))
 
1209
            to_file.write(indent + 'revno: %s\n' % (revision.revno,))
1488
1210
        if revision.tags:
1489
 
            lines.append('tags: %s' % (', '.join(revision.tags)))
 
1211
            to_file.write(indent + 'tags: %s\n' % (', '.join(revision.tags)))
1490
1212
        if self.show_ids:
1491
 
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
 
1213
            to_file.write(indent + 'revision-id: ' + revision.rev.revision_id)
 
1214
            to_file.write('\n')
1492
1215
            for parent_id in revision.rev.parent_ids:
1493
 
                lines.append('parent: %s' % (parent_id,))
1494
 
        lines.extend(self.custom_properties(revision.rev))
 
1216
                to_file.write(indent + 'parent: %s\n' % (parent_id,))
 
1217
        self.show_properties(revision.rev, indent)
1495
1218
 
1496
 
        committer = revision.rev.committer
1497
 
        authors = revision.rev.get_apparent_authors()
1498
 
        if authors != [committer]:
1499
 
            lines.append('author: %s' % (", ".join(authors),))
1500
 
        lines.append('committer: %s' % (committer,))
 
1219
        author = revision.rev.properties.get('author', None)
 
1220
        if author is not None:
 
1221
            to_file.write(indent + 'author: %s\n' % (author,))
 
1222
        to_file.write(indent + 'committer: %s\n' % (revision.rev.committer,))
1501
1223
 
1502
1224
        branch_nick = revision.rev.properties.get('branch-nick', None)
1503
1225
        if branch_nick is not None:
1504
 
            lines.append('branch nick: %s' % (branch_nick,))
1505
 
 
1506
 
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1507
 
 
1508
 
        lines.append('message:')
 
1226
            to_file.write(indent + 'branch nick: %s\n' % (branch_nick,))
 
1227
 
 
1228
        date_str = format_date(revision.rev.timestamp,
 
1229
                               revision.rev.timezone or 0,
 
1230
                               self.show_timezone)
 
1231
        to_file.write(indent + 'timestamp: %s\n' % (date_str,))
 
1232
 
 
1233
        to_file.write(indent + 'message:\n')
1509
1234
        if not revision.rev.message:
1510
 
            lines.append('  (no message)')
 
1235
            to_file.write(indent + '  (no message)\n')
1511
1236
        else:
1512
1237
            message = revision.rev.message.rstrip('\r\n')
1513
1238
            for l in message.split('\n'):
1514
 
                lines.append('  %s' % (l,))
1515
 
 
1516
 
        # Dump the output, appending the delta and diff if requested
1517
 
        to_file = self.to_file
1518
 
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
 
1239
                to_file.write(indent + '  %s\n' % (l,))
1519
1240
        if revision.delta is not None:
1520
1241
            # We don't respect delta_format for compatibility
1521
1242
            revision.delta.show(to_file, self.show_ids, indent=indent,
1522
1243
                                short_status=False)
1523
1244
        if revision.diff is not None:
1524
1245
            to_file.write(indent + 'diff:\n')
1525
 
            to_file.flush()
1526
1246
            # Note: we explicitly don't indent the diff (relative to the
1527
1247
            # revision information) so that the output can be fed to patch -p0
1528
 
            self.show_diff(self.to_exact_file, revision.diff, indent)
1529
 
            self.to_exact_file.flush()
1530
 
 
1531
 
    def get_advice_separator(self):
1532
 
        """Get the text separating the log from the closing advice."""
1533
 
        return '-' * 60 + '\n'
 
1248
            self.show_diff(to_file, revision.diff, indent)
1534
1249
 
1535
1250
 
1536
1251
class ShortLogFormatter(LogFormatter):
1566
1281
        offset = ' ' * (revno_width + 1)
1567
1282
 
1568
1283
        to_file = self.to_file
 
1284
        is_merge = ''
 
1285
        if len(revision.rev.parent_ids) > 1:
 
1286
            is_merge = ' [merge]'
1569
1287
        tags = ''
1570
1288
        if revision.tags:
1571
1289
            tags = ' {%s}' % (', '.join(revision.tags))
1575
1293
                            revision.rev.timezone or 0,
1576
1294
                            self.show_timezone, date_fmt="%Y-%m-%d",
1577
1295
                            show_offset=False),
1578
 
                tags, self.merge_marker(revision)))
 
1296
                tags, is_merge))
1579
1297
        self.show_properties(revision.rev, indent+offset)
1580
1298
        if self.show_ids:
1581
1299
            to_file.write(indent + offset + 'revision-id:%s\n'
1591
1309
            revision.delta.show(to_file, self.show_ids, indent=indent + offset,
1592
1310
                                short_status=self.delta_format==1)
1593
1311
        if revision.diff is not None:
1594
 
            self.show_diff(self.to_exact_file, revision.diff, '      ')
 
1312
            self.show_diff(to_file, revision.diff, '      ')
1595
1313
        to_file.write('\n')
1596
1314
 
1597
1315
 
1603
1321
 
1604
1322
    def __init__(self, *args, **kwargs):
1605
1323
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1606
 
        width = terminal_width()
1607
 
        if width is not None:
1608
 
            # we need one extra space for terminals that wrap on last char
1609
 
            width = width - 1
1610
 
        self._max_chars = width
 
1324
        self._max_chars = terminal_width() - 1
1611
1325
 
1612
1326
    def truncate(self, str, max_len):
1613
 
        if max_len is None or len(str) <= max_len:
 
1327
        if len(str) <= max_len:
1614
1328
            return str
1615
 
        return str[:max_len-3] + '...'
 
1329
        return str[:max_len-3]+'...'
1616
1330
 
1617
1331
    def date_string(self, rev):
1618
1332
        return format_date(rev.timestamp, rev.timezone or 0,
1647
1361
            out.append("%s:" % revno)
1648
1362
        out.append(self.truncate(self.short_author(rev), 20))
1649
1363
        out.append(self.date_string(rev))
1650
 
        if len(rev.parent_ids) > 1:
1651
 
            out.append('[merge]')
1652
1364
        if tags:
1653
1365
            tag_str = '{%s}' % (', '.join(tags))
1654
1366
            out.append(tag_str)
1656
1368
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1657
1369
 
1658
1370
 
1659
 
class GnuChangelogLogFormatter(LogFormatter):
1660
 
 
1661
 
    supports_merge_revisions = True
1662
 
    supports_delta = True
1663
 
 
1664
 
    def log_revision(self, revision):
1665
 
        """Log a revision, either merged or not."""
1666
 
        to_file = self.to_file
1667
 
 
1668
 
        date_str = format_date(revision.rev.timestamp,
1669
 
                               revision.rev.timezone or 0,
1670
 
                               self.show_timezone,
1671
 
                               date_fmt='%Y-%m-%d',
1672
 
                               show_offset=False)
1673
 
        committer_str = revision.rev.committer.replace (' <', '  <')
1674
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1675
 
 
1676
 
        if revision.delta is not None and revision.delta.has_changed():
1677
 
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1678
 
                path, = c[:1]
1679
 
                to_file.write('\t* %s:\n' % (path,))
1680
 
            for c in revision.delta.renamed:
1681
 
                oldpath,newpath = c[:2]
1682
 
                # For renamed files, show both the old and the new path
1683
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
1684
 
            to_file.write('\n')
1685
 
 
1686
 
        if not revision.rev.message:
1687
 
            to_file.write('\tNo commit message\n')
1688
 
        else:
1689
 
            message = revision.rev.message.rstrip('\r\n')
1690
 
            for l in message.split('\n'):
1691
 
                to_file.write('\t%s\n' % (l.lstrip(),))
1692
 
            to_file.write('\n')
1693
 
 
1694
 
 
1695
1371
def line_log(rev, max_chars):
1696
1372
    lf = LineLogFormatter(None)
1697
1373
    return lf.log_string(None, rev, max_chars)
1721
1397
                                'Detailed log format')
1722
1398
log_formatter_registry.register('line', LineLogFormatter,
1723
1399
                                'Log format with one line per revision')
1724
 
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1725
 
                                'Format used by GNU ChangeLog files')
1726
1400
 
1727
1401
 
1728
1402
def register_formatter(name, formatter):
1897
1571
        lf.log_revision(lr)
1898
1572
 
1899
1573
 
1900
 
def _get_info_for_log_files(revisionspec_list, file_list):
1901
 
    """Find file-ids and kinds given a list of files and a revision range.
1902
 
 
1903
 
    We search for files at the end of the range. If not found there,
1904
 
    we try the start of the range.
1905
 
 
1906
 
    :param revisionspec_list: revision range as parsed on the command line
1907
 
    :param file_list: the list of paths given on the command line;
1908
 
      the first of these can be a branch location or a file path,
1909
 
      the remainder must be file paths
1910
 
    :return: (branch, info_list, start_rev_info, end_rev_info) where
1911
 
      info_list is a list of (relative_path, file_id, kind) tuples where
1912
 
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
1913
 
      branch will be read-locked.
 
1574
def _get_fileid_to_log(revision, tree, b, fp):
 
1575
    """Find the file-id to log for a file path in a revision range.
 
1576
 
 
1577
    :param revision: the revision range as parsed on the command line
 
1578
    :param tree: the working tree, if any
 
1579
    :param b: the branch
 
1580
    :param fp: file path
1914
1581
    """
1915
 
    from builtins import _get_revision_range, safe_relpath_files
1916
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
1917
 
    b.lock_read()
1918
 
    # XXX: It's damn messy converting a list of paths to relative paths when
1919
 
    # those paths might be deleted ones, they might be on a case-insensitive
1920
 
    # filesystem and/or they might be in silly locations (like another branch).
1921
 
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
1922
 
    # file2 implicitly in the same dir as file1 or should its directory be
1923
 
    # taken from the current tree somehow?) For now, this solves the common
1924
 
    # case of running log in a nested directory, assuming paths beyond the
1925
 
    # first one haven't been deleted ...
1926
 
    if tree:
1927
 
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
1928
 
    else:
1929
 
        relpaths = [path] + file_list[1:]
1930
 
    info_list = []
1931
 
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
1932
 
        "log")
1933
 
    if relpaths in ([], [u'']):
1934
 
        return b, [], start_rev_info, end_rev_info
1935
 
    if start_rev_info is None and end_rev_info is None:
 
1582
    if revision is None:
1936
1583
        if tree is None:
1937
1584
            tree = b.basis_tree()
1938
 
        tree1 = None
1939
 
        for fp in relpaths:
1940
 
            file_id = tree.path2id(fp)
1941
 
            kind = _get_kind_for_file_id(tree, file_id)
1942
 
            if file_id is None:
1943
 
                # go back to when time began
1944
 
                if tree1 is None:
1945
 
                    try:
1946
 
                        rev1 = b.get_rev_id(1)
1947
 
                    except errors.NoSuchRevision:
1948
 
                        # No history at all
1949
 
                        file_id = None
1950
 
                        kind = None
1951
 
                    else:
1952
 
                        tree1 = b.repository.revision_tree(rev1)
1953
 
                if tree1:
1954
 
                    file_id = tree1.path2id(fp)
1955
 
                    kind = _get_kind_for_file_id(tree1, file_id)
1956
 
            info_list.append((fp, file_id, kind))
 
1585
        file_id = tree.path2id(fp)
 
1586
        if file_id is None:
 
1587
            # go back to when time began
 
1588
            try:
 
1589
                rev1 = b.get_rev_id(1)
 
1590
            except errors.NoSuchRevision:
 
1591
                # No history at all
 
1592
                file_id = None
 
1593
            else:
 
1594
                tree = b.repository.revision_tree(rev1)
 
1595
                file_id = tree.path2id(fp)
1957
1596
 
1958
 
    elif start_rev_info == end_rev_info:
 
1597
    elif len(revision) == 1:
1959
1598
        # One revision given - file must exist in it
1960
 
        tree = b.repository.revision_tree(end_rev_info.rev_id)
1961
 
        for fp in relpaths:
1962
 
            file_id = tree.path2id(fp)
1963
 
            kind = _get_kind_for_file_id(tree, file_id)
1964
 
            info_list.append((fp, file_id, kind))
 
1599
        tree = revision[0].as_tree(b)
 
1600
        file_id = tree.path2id(fp)
1965
1601
 
1966
 
    else:
 
1602
    elif len(revision) == 2:
1967
1603
        # Revision range given. Get the file-id from the end tree.
1968
1604
        # If that fails, try the start tree.
1969
 
        rev_id = end_rev_info.rev_id
 
1605
        rev_id = revision[1].as_revision_id(b)
1970
1606
        if rev_id is None:
1971
1607
            tree = b.basis_tree()
1972
1608
        else:
1973
 
            tree = b.repository.revision_tree(rev_id)
1974
 
        tree1 = None
1975
 
        for fp in relpaths:
 
1609
            tree = revision[1].as_tree(b)
 
1610
        file_id = tree.path2id(fp)
 
1611
        if file_id is None:
 
1612
            rev_id = revision[0].as_revision_id(b)
 
1613
            if rev_id is None:
 
1614
                rev1 = b.get_rev_id(1)
 
1615
                tree = b.repository.revision_tree(rev1)
 
1616
            else:
 
1617
                tree = revision[0].as_tree(b)
1976
1618
            file_id = tree.path2id(fp)
1977
 
            kind = _get_kind_for_file_id(tree, file_id)
1978
 
            if file_id is None:
1979
 
                if tree1 is None:
1980
 
                    rev_id = start_rev_info.rev_id
1981
 
                    if rev_id is None:
1982
 
                        rev1 = b.get_rev_id(1)
1983
 
                        tree1 = b.repository.revision_tree(rev1)
1984
 
                    else:
1985
 
                        tree1 = b.repository.revision_tree(rev_id)
1986
 
                file_id = tree1.path2id(fp)
1987
 
                kind = _get_kind_for_file_id(tree1, file_id)
1988
 
            info_list.append((fp, file_id, kind))
1989
 
    return b, info_list, start_rev_info, end_rev_info
1990
 
 
1991
 
 
1992
 
def _get_kind_for_file_id(tree, file_id):
1993
 
    """Return the kind of a file-id or None if it doesn't exist."""
1994
 
    if file_id is not None:
1995
 
        return tree.kind(file_id)
1996
1619
    else:
1997
 
        return None
 
1620
        raise errors.BzrCommandError(
 
1621
            'bzr log --revision takes one or two values.')
 
1622
    return file_id
1998
1623
 
1999
1624
 
2000
1625
properties_handler_registry = registry.Registry()
2001
 
 
2002
 
# Use the properties handlers to print out bug information if available
2003
 
def _bugs_properties_handler(revision):
2004
 
    if revision.properties.has_key('bugs'):
2005
 
        bug_lines = revision.properties['bugs'].split('\n')
2006
 
        bug_rows = [line.split(' ', 1) for line in bug_lines]
2007
 
        fixed_bug_urls = [row[0] for row in bug_rows if
2008
 
                          len(row) > 1 and row[1] == 'fixed']
2009
 
        
2010
 
        if fixed_bug_urls:
2011
 
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
2012
 
    return {}
2013
 
 
2014
 
properties_handler_registry.register('bugs_properties_handler',
2015
 
                                     _bugs_properties_handler)
 
1626
properties_handler_registry.register_lazy("foreign",
 
1627
                                          "bzrlib.foreign",
 
1628
                                          "show_foreign_properties")
2016
1629
 
2017
1630
 
2018
1631
# adapters which revision ids to log are filtered. When log is called, the