~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2009-03-17 07:05:37 UTC
  • mfrom: (4152.1.2 branch.stacked.streams)
  • Revision ID: pqm@pqm.ubuntu.com-20090317070537-zaud24vjs2szna87
(robertc) Add client-side streaming from stacked branches (over
        bzr:// protocols) when the sort order is compatible with doing
        that. (Robert Collins, Andrew Bennetts)

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007, 2009 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
 
18
18
 
65
65
lazy_import(globals(), """
66
66
 
67
67
from bzrlib import (
68
 
    bzrdir,
69
68
    config,
70
69
    diff,
71
70
    errors,
72
 
    foreign,
73
 
    osutils,
74
71
    repository as _mod_repository,
75
72
    revision as _mod_revision,
76
73
    revisionspec,
84
81
    )
85
82
from bzrlib.osutils import (
86
83
    format_date,
87
 
    format_date_with_offset_in_original_timezone,
88
84
    get_terminal_encoding,
89
85
    terminal_width,
90
86
    )
91
 
from bzrlib.symbol_versioning import (
92
 
    deprecated_function,
93
 
    deprecated_in,
94
 
    )
95
87
 
96
88
 
97
89
def find_touching_revisions(branch, file_id):
109
101
    last_path = None
110
102
    revno = 1
111
103
    for revision_id in branch.revision_history():
112
 
        this_inv = branch.repository.get_inventory(revision_id)
 
104
        this_inv = branch.repository.get_revision_inventory(revision_id)
113
105
        if file_id in this_inv:
114
106
            this_ie = this_inv[file_id]
115
107
            this_path = this_inv.id2path(file_id)
159
151
             show_diff=False):
160
152
    """Write out human-readable log of commits to this branch.
161
153
 
162
 
    This function is being retained for backwards compatibility but
163
 
    should not be extended with new parameters. Use the new Logger class
164
 
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
165
 
    make_log_request_dict function.
166
 
 
167
154
    :param lf: The LogFormatter object showing the output.
168
155
 
169
156
    :param specific_fileid: If not None, list only the commits affecting the
186
173
 
187
174
    :param show_diff: If True, output a diff after each revision.
188
175
    """
189
 
    # Convert old-style parameters to new-style parameters
190
 
    if specific_fileid is not None:
191
 
        file_ids = [specific_fileid]
192
 
    else:
193
 
        file_ids = None
194
 
    if verbose:
195
 
        if file_ids:
196
 
            delta_type = 'partial'
197
 
        else:
198
 
            delta_type = 'full'
199
 
    else:
200
 
        delta_type = None
201
 
    if show_diff:
202
 
        if file_ids:
203
 
            diff_type = 'partial'
204
 
        else:
205
 
            diff_type = 'full'
206
 
    else:
207
 
        diff_type = None
208
 
 
209
 
    # Build the request and execute it
210
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
211
 
        start_revision=start_revision, end_revision=end_revision,
212
 
        limit=limit, message_search=search,
213
 
        delta_type=delta_type, diff_type=diff_type)
214
 
    Logger(branch, rqst).show(lf)
215
 
 
216
 
 
217
 
# Note: This needs to be kept this in sync with the defaults in
218
 
# make_log_request_dict() below
219
 
_DEFAULT_REQUEST_PARAMS = {
220
 
    'direction': 'reverse',
221
 
    'levels': 1,
222
 
    'generate_tags': True,
223
 
    'exclude_common_ancestry': False,
224
 
    '_match_using_deltas': True,
225
 
    }
226
 
 
227
 
 
228
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
229
 
                          start_revision=None, end_revision=None, limit=None,
230
 
                          message_search=None, levels=1, generate_tags=True,
231
 
                          delta_type=None,
232
 
                          diff_type=None, _match_using_deltas=True,
233
 
                          exclude_common_ancestry=False,
234
 
                          ):
235
 
    """Convenience function for making a logging request dictionary.
236
 
 
237
 
    Using this function may make code slightly safer by ensuring
238
 
    parameters have the correct names. It also provides a reference
239
 
    point for documenting the supported parameters.
240
 
 
241
 
    :param direction: 'reverse' (default) is latest to earliest;
242
 
      'forward' is earliest to latest.
243
 
 
244
 
    :param specific_fileids: If not None, only include revisions
245
 
      affecting the specified files, rather than all revisions.
246
 
 
247
 
    :param start_revision: If not None, only generate
248
 
      revisions >= start_revision
249
 
 
250
 
    :param end_revision: If not None, only generate
251
 
      revisions <= end_revision
252
 
 
253
 
    :param limit: If set, generate only 'limit' revisions, all revisions
254
 
      are shown if None or 0.
255
 
 
256
 
    :param message_search: If not None, only include revisions with
257
 
      matching commit messages
258
 
 
259
 
    :param levels: the number of levels of revisions to
260
 
      generate; 1 for just the mainline; 0 for all levels.
261
 
 
262
 
    :param generate_tags: If True, include tags for matched revisions.
263
 
 
264
 
    :param delta_type: Either 'full', 'partial' or None.
265
 
      'full' means generate the complete delta - adds/deletes/modifies/etc;
266
 
      'partial' means filter the delta using specific_fileids;
267
 
      None means do not generate any delta.
268
 
 
269
 
    :param diff_type: Either 'full', 'partial' or None.
270
 
      'full' means generate the complete diff - adds/deletes/modifies/etc;
271
 
      'partial' means filter the diff using specific_fileids;
272
 
      None means do not generate any diff.
273
 
 
274
 
    :param _match_using_deltas: a private parameter controlling the
275
 
      algorithm used for matching specific_fileids. This parameter
276
 
      may be removed in the future so bzrlib client code should NOT
277
 
      use it.
278
 
 
279
 
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
280
 
      range operator or as a graph difference.
281
 
    """
282
 
    return {
283
 
        'direction': direction,
284
 
        'specific_fileids': specific_fileids,
285
 
        'start_revision': start_revision,
286
 
        'end_revision': end_revision,
287
 
        'limit': limit,
288
 
        'message_search': message_search,
289
 
        'levels': levels,
290
 
        'generate_tags': generate_tags,
291
 
        'delta_type': delta_type,
292
 
        'diff_type': diff_type,
293
 
        'exclude_common_ancestry': exclude_common_ancestry,
294
 
        # Add 'private' attributes for features that may be deprecated
295
 
        '_match_using_deltas': _match_using_deltas,
296
 
    }
297
 
 
298
 
 
299
 
def _apply_log_request_defaults(rqst):
300
 
    """Apply default values to a request dictionary."""
301
 
    result = _DEFAULT_REQUEST_PARAMS
302
 
    if rqst:
303
 
        result.update(rqst)
304
 
    return result
305
 
 
306
 
 
307
 
class LogGenerator(object):
308
 
    """A generator of log revisions."""
309
 
 
310
 
    def iter_log_revisions(self):
311
 
        """Iterate over LogRevision objects.
312
 
 
313
 
        :return: An iterator yielding LogRevision objects.
314
 
        """
315
 
        raise NotImplementedError(self.iter_log_revisions)
316
 
 
317
 
 
318
 
class Logger(object):
319
 
    """An object that generates, formats and displays a log."""
320
 
 
321
 
    def __init__(self, branch, rqst):
322
 
        """Create a Logger.
323
 
 
324
 
        :param branch: the branch to log
325
 
        :param rqst: A dictionary specifying the query parameters.
326
 
          See make_log_request_dict() for supported values.
327
 
        """
328
 
        self.branch = branch
329
 
        self.rqst = _apply_log_request_defaults(rqst)
330
 
 
331
 
    def show(self, lf):
332
 
        """Display the log.
333
 
 
334
 
        :param lf: The LogFormatter object to send the output to.
335
 
        """
336
 
        if not isinstance(lf, LogFormatter):
337
 
            warn("not a LogFormatter instance: %r" % lf)
338
 
 
339
 
        self.branch.lock_read()
340
 
        try:
341
 
            if getattr(lf, 'begin_log', None):
342
 
                lf.begin_log()
343
 
            self._show_body(lf)
344
 
            if getattr(lf, 'end_log', None):
345
 
                lf.end_log()
346
 
        finally:
347
 
            self.branch.unlock()
348
 
 
349
 
    def _show_body(self, lf):
350
 
        """Show the main log output.
351
 
 
352
 
        Subclasses may wish to override this.
353
 
        """
354
 
        # Tweak the LogRequest based on what the LogFormatter can handle.
355
 
        # (There's no point generating stuff if the formatter can't display it.)
356
 
        rqst = self.rqst
357
 
        rqst['levels'] = lf.get_levels()
358
 
        if not getattr(lf, 'supports_tags', False):
359
 
            rqst['generate_tags'] = False
360
 
        if not getattr(lf, 'supports_delta', False):
361
 
            rqst['delta_type'] = None
362
 
        if not getattr(lf, 'supports_diff', False):
363
 
            rqst['diff_type'] = None
364
 
 
365
 
        # Find and print the interesting revisions
366
 
        generator = self._generator_factory(self.branch, rqst)
367
 
        for lr in generator.iter_log_revisions():
 
176
    branch.lock_read()
 
177
    try:
 
178
        if getattr(lf, 'begin_log', None):
 
179
            lf.begin_log()
 
180
 
 
181
        _show_log(branch, lf, specific_fileid, verbose, direction,
 
182
                  start_revision, end_revision, search, limit, show_diff)
 
183
 
 
184
        if getattr(lf, 'end_log', None):
 
185
            lf.end_log()
 
186
    finally:
 
187
        branch.unlock()
 
188
 
 
189
 
 
190
def _show_log(branch,
 
191
             lf,
 
192
             specific_fileid=None,
 
193
             verbose=False,
 
194
             direction='reverse',
 
195
             start_revision=None,
 
196
             end_revision=None,
 
197
             search=None,
 
198
             limit=None,
 
199
             show_diff=False):
 
200
    """Worker function for show_log - see show_log."""
 
201
    if not isinstance(lf, LogFormatter):
 
202
        warn("not a LogFormatter instance: %r" % lf)
 
203
    if specific_fileid:
 
204
        trace.mutter('get log for file_id %r', specific_fileid)
 
205
 
 
206
    # Consult the LogFormatter about what it needs and can handle
 
207
    levels_to_display = lf.get_levels()
 
208
    generate_merge_revisions = levels_to_display != 1
 
209
    allow_single_merge_revision = True
 
210
    if not getattr(lf, 'supports_merge_revisions', False):
 
211
        allow_single_merge_revision = getattr(lf,
 
212
            'supports_single_merge_revision', False)
 
213
    generate_tags = getattr(lf, 'supports_tags', False)
 
214
    if generate_tags and branch.supports_tags():
 
215
        rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
216
    else:
 
217
        rev_tag_dict = {}
 
218
    generate_delta = verbose and getattr(lf, 'supports_delta', False)
 
219
    generate_diff = show_diff and getattr(lf, 'supports_diff', False)
 
220
 
 
221
    # Find and print the interesting revisions
 
222
    repo = branch.repository
 
223
    log_count = 0
 
224
    revision_iterator = _create_log_revision_iterator(branch,
 
225
        start_revision, end_revision, direction, specific_fileid, search,
 
226
        generate_merge_revisions, allow_single_merge_revision,
 
227
        generate_delta, limited_output=limit > 0)
 
228
    for revs in revision_iterator:
 
229
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
230
            # Note: 0 levels means show everything; merge_depth counts from 0
 
231
            if levels_to_display != 0 and merge_depth >= levels_to_display:
 
232
                continue
 
233
            if generate_diff:
 
234
                diff = _format_diff(repo, rev, rev_id, specific_fileid)
 
235
            else:
 
236
                diff = None
 
237
            lr = LogRevision(rev, revno, merge_depth, delta,
 
238
                             rev_tag_dict.get(rev_id), diff)
368
239
            lf.log_revision(lr)
369
 
        lf.show_advice()
370
 
 
371
 
    def _generator_factory(self, branch, rqst):
372
 
        """Make the LogGenerator object to use.
373
 
        
374
 
        Subclasses may wish to override this.
375
 
        """
376
 
        return _DefaultLogGenerator(branch, rqst)
 
240
            if limit:
 
241
                log_count += 1
 
242
                if log_count >= limit:
 
243
                    return
 
244
 
 
245
 
 
246
def _format_diff(repo, rev, rev_id, specific_fileid):
 
247
    if len(rev.parent_ids) == 0:
 
248
        ancestor_id = _mod_revision.NULL_REVISION
 
249
    else:
 
250
        ancestor_id = rev.parent_ids[0]
 
251
    tree_1 = repo.revision_tree(ancestor_id)
 
252
    tree_2 = repo.revision_tree(rev_id)
 
253
    if specific_fileid:
 
254
        specific_files = [tree_2.id2path(specific_fileid)]
 
255
    else:
 
256
        specific_files = None
 
257
    s = StringIO()
 
258
    diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
259
        new_label='')
 
260
    return s.getvalue()
377
261
 
378
262
 
379
263
class _StartNotLinearAncestor(Exception):
380
264
    """Raised when a start revision is not found walking left-hand history."""
381
265
 
382
266
 
383
 
class _DefaultLogGenerator(LogGenerator):
384
 
    """The default generator of log revisions."""
385
 
 
386
 
    def __init__(self, branch, rqst):
387
 
        self.branch = branch
388
 
        self.rqst = rqst
389
 
        if rqst.get('generate_tags') and branch.supports_tags():
390
 
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
391
 
        else:
392
 
            self.rev_tag_dict = {}
393
 
 
394
 
    def iter_log_revisions(self):
395
 
        """Iterate over LogRevision objects.
396
 
 
397
 
        :return: An iterator yielding LogRevision objects.
398
 
        """
399
 
        rqst = self.rqst
400
 
        levels = rqst.get('levels')
401
 
        limit = rqst.get('limit')
402
 
        diff_type = rqst.get('diff_type')
403
 
        log_count = 0
404
 
        revision_iterator = self._create_log_revision_iterator()
405
 
        for revs in revision_iterator:
406
 
            for (rev_id, revno, merge_depth), rev, delta in revs:
407
 
                # 0 levels means show everything; merge_depth counts from 0
408
 
                if levels != 0 and merge_depth >= levels:
409
 
                    continue
410
 
                if diff_type is None:
411
 
                    diff = None
412
 
                else:
413
 
                    diff = self._format_diff(rev, rev_id, diff_type)
414
 
                yield LogRevision(rev, revno, merge_depth, delta,
415
 
                    self.rev_tag_dict.get(rev_id), diff)
416
 
                if limit:
417
 
                    log_count += 1
418
 
                    if log_count >= limit:
419
 
                        return
420
 
 
421
 
    def _format_diff(self, rev, rev_id, diff_type):
422
 
        repo = self.branch.repository
423
 
        if len(rev.parent_ids) == 0:
424
 
            ancestor_id = _mod_revision.NULL_REVISION
425
 
        else:
426
 
            ancestor_id = rev.parent_ids[0]
427
 
        tree_1 = repo.revision_tree(ancestor_id)
428
 
        tree_2 = repo.revision_tree(rev_id)
429
 
        file_ids = self.rqst.get('specific_fileids')
430
 
        if diff_type == 'partial' and file_ids is not None:
431
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
432
 
        else:
433
 
            specific_files = None
434
 
        s = StringIO()
435
 
        path_encoding = osutils.get_diff_header_encoding()
436
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
437
 
            new_label='', path_encoding=path_encoding)
438
 
        return s.getvalue()
439
 
 
440
 
    def _create_log_revision_iterator(self):
441
 
        """Create a revision iterator for log.
442
 
 
443
 
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
444
 
            delta).
445
 
        """
446
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
447
 
            self.branch, self.rqst.get('start_revision'),
448
 
            self.rqst.get('end_revision'))
449
 
        if self.rqst.get('_match_using_deltas'):
450
 
            return self._log_revision_iterator_using_delta_matching()
451
 
        else:
452
 
            # We're using the per-file-graph algorithm. This scales really
453
 
            # well but only makes sense if there is a single file and it's
454
 
            # not a directory
455
 
            file_count = len(self.rqst.get('specific_fileids'))
456
 
            if file_count != 1:
457
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
458
 
                    "when logging %d files" % file_count)
459
 
            return self._log_revision_iterator_using_per_file_graph()
460
 
 
461
 
    def _log_revision_iterator_using_delta_matching(self):
462
 
        # Get the base revisions, filtering by the revision range
463
 
        rqst = self.rqst
464
 
        generate_merge_revisions = rqst.get('levels') != 1
465
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
466
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
467
 
        view_revisions = _calc_view_revisions(
468
 
            self.branch, self.start_rev_id, self.end_rev_id,
469
 
            rqst.get('direction'),
470
 
            generate_merge_revisions=generate_merge_revisions,
471
 
            delayed_graph_generation=delayed_graph_generation,
472
 
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
473
 
 
474
 
        # Apply the other filters
475
 
        return make_log_rev_iterator(self.branch, view_revisions,
476
 
            rqst.get('delta_type'), rqst.get('message_search'),
477
 
            file_ids=rqst.get('specific_fileids'),
478
 
            direction=rqst.get('direction'))
479
 
 
480
 
    def _log_revision_iterator_using_per_file_graph(self):
481
 
        # Get the base revisions, filtering by the revision range.
482
 
        # Note that we always generate the merge revisions because
483
 
        # filter_revisions_touching_file_id() requires them ...
484
 
        rqst = self.rqst
485
 
        view_revisions = _calc_view_revisions(
486
 
            self.branch, self.start_rev_id, self.end_rev_id,
487
 
            rqst.get('direction'), generate_merge_revisions=True,
488
 
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
 
267
def _create_log_revision_iterator(branch, start_revision, end_revision,
 
268
    direction, specific_fileid, search, generate_merge_revisions,
 
269
    allow_single_merge_revision, generate_delta, limited_output=False):
 
270
    """Create a revision iterator for log.
 
271
 
 
272
    :param branch: The branch being logged.
 
273
    :param start_revision: If not None, only show revisions >= start_revision
 
274
    :param end_revision: If not None, only show revisions <= end_revision
 
275
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
 
276
        earliest to latest.
 
277
    :param specific_fileid: If not None, list only the commits affecting the
 
278
        specified file.
 
279
    :param search: If not None, only show revisions with matching commit
 
280
        messages.
 
281
    :param generate_merge_revisions: If False, show only mainline revisions.
 
282
    :param allow_single_merge_revision: If True, logging of a single
 
283
        revision off the mainline is to be allowed
 
284
    :param generate_delta: Whether to generate a delta for each revision.
 
285
    :param limited_output: if True, the user only wants a limited result
 
286
 
 
287
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
288
        delta).
 
289
    """
 
290
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
 
291
        end_revision)
 
292
 
 
293
    # Decide how file-ids are matched: delta-filtering vs per-file graph.
 
294
    # Delta filtering allows revisions to be displayed incrementally
 
295
    # though the total time is much slower for huge repositories: log -v
 
296
    # is the *lower* performance bound. At least until the split
 
297
    # inventory format arrives, per-file-graph needs to remain the
 
298
    # default except in verbose mode. Delta filtering should give more
 
299
    # accurate results (e.g. inclusion of FILE deletions) so arguably
 
300
    # it should always be used in the future.
 
301
    use_deltas_for_matching = specific_fileid and generate_delta
 
302
    delayed_graph_generation = not specific_fileid and (
 
303
            start_rev_id or end_rev_id or limited_output)
 
304
    generate_merges = generate_merge_revisions or (specific_fileid and
 
305
        not use_deltas_for_matching)
 
306
    view_revisions = _calc_view_revisions(branch, start_rev_id, end_rev_id,
 
307
        direction, generate_merges, allow_single_merge_revision,
 
308
        delayed_graph_generation=delayed_graph_generation)
 
309
    search_deltas_for_fileids = None
 
310
    if use_deltas_for_matching:
 
311
        search_deltas_for_fileids = set([specific_fileid])
 
312
    elif specific_fileid:
489
313
        if not isinstance(view_revisions, list):
490
314
            view_revisions = list(view_revisions)
491
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
492
 
            rqst.get('specific_fileids')[0], view_revisions,
493
 
            include_merges=rqst.get('levels') != 1)
494
 
        return make_log_rev_iterator(self.branch, view_revisions,
495
 
            rqst.get('delta_type'), rqst.get('message_search'))
 
315
        view_revisions = _filter_revisions_touching_file_id(branch,
 
316
            specific_fileid, view_revisions,
 
317
            include_merges=generate_merge_revisions)
 
318
    return make_log_rev_iterator(branch, view_revisions, generate_delta,
 
319
        search, file_ids=search_deltas_for_fileids, direction=direction)
496
320
 
497
321
 
498
322
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
499
 
                         generate_merge_revisions,
500
 
                         delayed_graph_generation=False,
501
 
                         exclude_common_ancestry=False,
502
 
                         ):
 
323
    generate_merge_revisions, allow_single_merge_revision,
 
324
    delayed_graph_generation=False):
503
325
    """Calculate the revisions to view.
504
326
 
505
327
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
506
328
             a list of the same tuples.
507
329
    """
508
 
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
509
 
        raise errors.BzrCommandError(
510
 
            '--exclude-common-ancestry requires two different revisions')
511
 
    if direction not in ('reverse', 'forward'):
512
 
        raise ValueError('invalid direction %r' % direction)
513
330
    br_revno, br_rev_id = branch.last_revision_info()
514
331
    if br_revno == 0:
515
332
        return []
516
333
 
517
 
    if (end_rev_id and start_rev_id == end_rev_id
518
 
        and (not generate_merge_revisions
519
 
             or not _has_merges(branch, end_rev_id))):
520
 
        # If a single revision is requested, check we can handle it
521
 
        iter_revs = _generate_one_revision(branch, end_rev_id, br_rev_id,
522
 
                                           br_revno)
523
 
    elif not generate_merge_revisions:
524
 
        # If we only want to see linear revisions, we can iterate ...
525
 
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
526
 
                                             direction, exclude_common_ancestry)
527
 
        if direction == 'forward':
528
 
            iter_revs = reversed(iter_revs)
529
 
    else:
530
 
        iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
531
 
                                            direction, delayed_graph_generation,
532
 
                                            exclude_common_ancestry)
533
 
        if direction == 'forward':
534
 
            iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
535
 
    return iter_revs
536
 
 
537
 
 
538
 
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
539
 
    if rev_id == br_rev_id:
540
 
        # It's the tip
541
 
        return [(br_rev_id, br_revno, 0)]
542
 
    else:
543
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
544
 
        revno_str = '.'.join(str(n) for n in revno)
545
 
        return [(rev_id, revno_str, 0)]
546
 
 
547
 
 
548
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction,
549
 
                             exclude_common_ancestry=False):
550
 
    result = _linear_view_revisions(
551
 
        branch, start_rev_id, end_rev_id,
552
 
        exclude_common_ancestry=exclude_common_ancestry)
553
 
    # If a start limit was given and it's not obviously an
554
 
    # ancestor of the end limit, check it before outputting anything
555
 
    if direction == 'forward' or (start_rev_id
556
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
557
 
        try:
558
 
            result = list(result)
559
 
        except _StartNotLinearAncestor:
560
 
            raise errors.BzrCommandError('Start revision not found in'
561
 
                ' left-hand history of end revision.')
562
 
    return result
563
 
 
564
 
 
565
 
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
566
 
                            delayed_graph_generation,
567
 
                            exclude_common_ancestry=False):
 
334
    # If a single revision is requested, check we can handle it
 
335
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
 
336
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
 
337
    if generate_single_revision:
 
338
        if end_rev_id == br_rev_id:
 
339
            # It's the tip
 
340
            return [(br_rev_id, br_revno, 0)]
 
341
        else:
 
342
            revno = branch.revision_id_to_dotted_revno(end_rev_id)
 
343
            if len(revno) > 1 and not allow_single_merge_revision:
 
344
                # It's a merge revision and the log formatter is
 
345
                # completely brain dead. This "feature" of allowing
 
346
                # log formatters incapable of displaying dotted revnos
 
347
                # ought to be deprecated IMNSHO. IGC 20091022
 
348
                raise errors.BzrCommandError('Selected log formatter only'
 
349
                    ' supports mainline revisions.')
 
350
            revno_str = '.'.join(str(n) for n in revno)
 
351
            return [(end_rev_id, revno_str, 0)]
 
352
 
 
353
    # If we only want to see linear revisions, we can iterate ...
 
354
    if not generate_merge_revisions:
 
355
        result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
 
356
        # If a start limit was given and it's not obviously an
 
357
        # ancestor of the end limit, check it before outputting anything
 
358
        if direction == 'forward' or (start_rev_id
 
359
            and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
360
            try:
 
361
                result = list(result)
 
362
            except _StartNotLinearAncestor:
 
363
                raise errors.BzrCommandError('Start revision not found in'
 
364
                    ' left-hand history of end revision.')
 
365
        if direction == 'forward':
 
366
            result = reversed(list(result))
 
367
        return result
 
368
 
568
369
    # On large trees, generating the merge graph can take 30-60 seconds
569
370
    # so we delay doing it until a merge is detected, incrementally
570
371
    # returning initial (non-merge) revisions while we can.
571
 
 
572
 
    # The above is only true for old formats (<= 0.92), for newer formats, a
573
 
    # couple of seconds only should be needed to load the whole graph and the
574
 
    # other graph operations needed are even faster than that -- vila 100201
575
372
    initial_revisions = []
576
373
    if delayed_graph_generation:
577
374
        try:
578
 
            for rev_id, revno, depth in  _linear_view_revisions(
579
 
                branch, start_rev_id, end_rev_id, exclude_common_ancestry):
 
375
            for rev_id, revno, depth in \
 
376
                _linear_view_revisions(branch, start_rev_id, end_rev_id):
580
377
                if _has_merges(branch, rev_id):
581
 
                    # The end_rev_id can be nested down somewhere. We need an
582
 
                    # explicit ancestry check. There is an ambiguity here as we
583
 
                    # may not raise _StartNotLinearAncestor for a revision that
584
 
                    # is an ancestor but not a *linear* one. But since we have
585
 
                    # loaded the graph to do the check (or calculate a dotted
586
 
                    # revno), we may as well accept to show the log...  We need
587
 
                    # the check only if start_rev_id is not None as all
588
 
                    # revisions have _mod_revision.NULL_REVISION as an ancestor
589
 
                    # -- vila 20100319
590
 
                    graph = branch.repository.get_graph()
591
 
                    if (start_rev_id is not None
592
 
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
593
 
                        raise _StartNotLinearAncestor()
594
 
                    # Since we collected the revisions so far, we need to
595
 
                    # adjust end_rev_id.
596
378
                    end_rev_id = rev_id
597
379
                    break
598
380
                else:
599
381
                    initial_revisions.append((rev_id, revno, depth))
600
382
            else:
601
383
                # No merged revisions found
602
 
                return initial_revisions
 
384
                if direction == 'reverse':
 
385
                    return initial_revisions
 
386
                elif direction == 'forward':
 
387
                    return reversed(initial_revisions)
 
388
                else:
 
389
                    raise ValueError('invalid direction %r' % direction)
603
390
        except _StartNotLinearAncestor:
604
391
            # A merge was never detected so the lower revision limit can't
605
392
            # be nested down somewhere
606
393
            raise errors.BzrCommandError('Start revision not found in'
607
394
                ' history of end revision.')
608
395
 
609
 
    # We exit the loop above because we encounter a revision with merges, from
610
 
    # this revision, we need to switch to _graph_view_revisions.
611
 
 
612
396
    # A log including nested merges is required. If the direction is reverse,
613
397
    # we rebase the initial merge depths so that the development line is
614
398
    # shown naturally, i.e. just like it is for linear logging. We can easily
616
400
    # indented at the end seems slightly nicer in that case.
617
401
    view_revisions = chain(iter(initial_revisions),
618
402
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
619
 
                              rebase_initial_depths=(direction == 'reverse'),
620
 
                              exclude_common_ancestry=exclude_common_ancestry))
621
 
    return view_revisions
 
403
        rebase_initial_depths=direction == 'reverse'))
 
404
    if direction == 'reverse':
 
405
        return view_revisions
 
406
    elif direction == 'forward':
 
407
        # Forward means oldest first, adjusting for depth.
 
408
        view_revisions = reverse_by_depth(list(view_revisions))
 
409
        return _rebase_merge_depth(view_revisions)
 
410
    else:
 
411
        raise ValueError('invalid direction %r' % direction)
622
412
 
623
413
 
624
414
def _has_merges(branch, rev_id):
642
432
        else:
643
433
            # not obvious
644
434
            return False
645
 
    # if either start or end is not specified then we use either the first or
646
 
    # the last revision and *they* are obvious ancestors.
647
435
    return True
648
436
 
649
437
 
650
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id,
651
 
                           exclude_common_ancestry=False):
 
438
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
652
439
    """Calculate a sequence of revisions to view, newest to oldest.
653
440
 
654
441
    :param start_rev_id: the lower revision-id
655
442
    :param end_rev_id: the upper revision-id
656
 
    :param exclude_common_ancestry: Whether the start_rev_id should be part of
657
 
        the iterated revisions.
658
443
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
659
444
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
660
 
        is not found walking the left-hand history
 
445
      is not found walking the left-hand history
661
446
    """
662
447
    br_revno, br_rev_id = branch.last_revision_info()
663
448
    repo = branch.repository
674
459
            revno = branch.revision_id_to_dotted_revno(revision_id)
675
460
            revno_str = '.'.join(str(n) for n in revno)
676
461
            if not found_start and revision_id == start_rev_id:
677
 
                if not exclude_common_ancestry:
678
 
                    yield revision_id, revno_str, 0
 
462
                yield revision_id, revno_str, 0
679
463
                found_start = True
680
464
                break
681
465
            else:
686
470
 
687
471
 
688
472
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
689
 
                          rebase_initial_depths=True,
690
 
                          exclude_common_ancestry=False):
 
473
    rebase_initial_depths=True):
691
474
    """Calculate revisions to view including merges, newest to oldest.
692
475
 
693
476
    :param branch: the branch
697
480
      revision is found?
698
481
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
699
482
    """
700
 
    if exclude_common_ancestry:
701
 
        stop_rule = 'with-merges-without-common-ancestry'
702
 
    else:
703
 
        stop_rule = 'with-merges'
704
483
    view_revisions = branch.iter_merge_sorted_revisions(
705
484
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
706
 
        stop_rule=stop_rule)
 
485
        stop_rule="with-merges")
707
486
    if not rebase_initial_depths:
708
487
        for (rev_id, merge_depth, revno, end_of_merge
709
488
             ) in view_revisions:
720
499
                depth_adjustment = merge_depth
721
500
            if depth_adjustment:
722
501
                if merge_depth < depth_adjustment:
723
 
                    # From now on we reduce the depth adjustement, this can be
724
 
                    # surprising for users. The alternative requires two passes
725
 
                    # which breaks the fast display of the first revision
726
 
                    # though.
727
502
                    depth_adjustment = merge_depth
728
503
                merge_depth -= depth_adjustment
729
504
            yield rev_id, '.'.join(map(str, revno)), merge_depth
730
505
 
731
506
 
732
 
@deprecated_function(deprecated_in((2, 2, 0)))
733
507
def calculate_view_revisions(branch, start_revision, end_revision, direction,
734
 
        specific_fileid, generate_merge_revisions):
 
508
        specific_fileid, generate_merge_revisions, allow_single_merge_revision):
735
509
    """Calculate the revisions to view.
736
510
 
737
511
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
738
512
             a list of the same tuples.
739
513
    """
 
514
    # This method is no longer called by the main code path.
 
515
    # It is retained for API compatibility and may be deprecated
 
516
    # soon. IGC 20090116
740
517
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
741
518
        end_revision)
742
519
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
743
 
        direction, generate_merge_revisions or specific_fileid))
 
520
        direction, generate_merge_revisions or specific_fileid,
 
521
        allow_single_merge_revision))
744
522
    if specific_fileid:
745
523
        view_revisions = _filter_revisions_touching_file_id(branch,
746
524
            specific_fileid, view_revisions,
765
543
    :param branch: The branch being logged.
766
544
    :param view_revisions: The revisions being viewed.
767
545
    :param generate_delta: Whether to generate a delta for each revision.
768
 
      Permitted values are None, 'full' and 'partial'.
769
546
    :param search: A user text search string.
770
547
    :param file_ids: If non empty, only revisions matching one or more of
771
548
      the file-ids are to be kept.
810
587
    """
811
588
    if search is None:
812
589
        return log_rev_iterator
 
590
    # Compile the search now to get early errors.
813
591
    searchRE = re.compile(search, re.IGNORECASE)
814
592
    return _filter_message_re(searchRE, log_rev_iterator)
815
593
 
829
607
 
830
608
    :param branch: The branch being logged.
831
609
    :param generate_delta: Whether to generate a delta for each revision.
832
 
      Permitted values are None, 'full' and 'partial'.
833
610
    :param search: A user text search string.
834
611
    :param log_rev_iterator: An input iterator containing all revisions that
835
612
        could be displayed, in lists.
845
622
        generate_delta, fileids, direction)
846
623
 
847
624
 
848
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
 
625
def _generate_deltas(repository, log_rev_iterator, always_delta, fileids,
849
626
    direction):
850
627
    """Create deltas for each batch of revisions in log_rev_iterator.
851
628
 
869
646
        if check_fileids and not fileid_set:
870
647
            return
871
648
        revisions = [rev[1] for rev in revs]
 
649
        deltas = repository.get_deltas_for_revisions(revisions)
872
650
        new_revs = []
873
 
        if delta_type == 'full' and not check_fileids:
874
 
            deltas = repository.get_deltas_for_revisions(revisions)
875
 
            for rev, delta in izip(revs, deltas):
876
 
                new_revs.append((rev[0], rev[1], delta))
877
 
        else:
878
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
879
 
            for rev, delta in izip(revs, deltas):
880
 
                if check_fileids:
881
 
                    if delta is None or not delta.has_changed():
882
 
                        continue
883
 
                    else:
884
 
                        _update_fileids(delta, fileid_set, stop_on)
885
 
                        if delta_type is None:
886
 
                            delta = None
887
 
                        elif delta_type == 'full':
888
 
                            # If the file matches all the time, rebuilding
889
 
                            # a full delta like this in addition to a partial
890
 
                            # one could be slow. However, it's likely that
891
 
                            # most revisions won't get this far, making it
892
 
                            # faster to filter on the partial deltas and
893
 
                            # build the occasional full delta than always
894
 
                            # building full deltas and filtering those.
895
 
                            rev_id = rev[0][0]
896
 
                            delta = repository.get_revision_delta(rev_id)
897
 
                new_revs.append((rev[0], rev[1], delta))
 
651
        for rev, delta in izip(revs, deltas):
 
652
            if check_fileids:
 
653
                if not _delta_matches_fileids(delta, fileid_set, stop_on):
 
654
                    continue
 
655
                elif not always_delta:
 
656
                    # Delta was created just for matching - ditch it
 
657
                    # Note: It would probably be a better UI to return
 
658
                    # a delta filtered by the file-ids, rather than
 
659
                    # None at all. That functional enhancement can
 
660
                    # come later ...
 
661
                    delta = None
 
662
            new_revs.append((rev[0], rev[1], delta))
898
663
        yield new_revs
899
664
 
900
665
 
901
 
def _update_fileids(delta, fileids, stop_on):
902
 
    """Update the set of file-ids to search based on file lifecycle events.
903
 
    
904
 
    :param fileids: a set of fileids to update
 
666
def _delta_matches_fileids(delta, fileids, stop_on='add'):
 
667
    """Check is a delta matches one of more file-ids.
 
668
 
 
669
    :param fileids: a set of fileids to match against.
905
670
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
906
671
      fileids set once their add or remove entry is detected respectively
907
672
    """
908
 
    if stop_on == 'add':
909
 
        for item in delta.added:
910
 
            if item[1] in fileids:
911
 
                fileids.remove(item[1])
912
 
    elif stop_on == 'delete':
913
 
        for item in delta.removed:
914
 
            if item[1] in fileids:
915
 
                fileids.remove(item[1])
 
673
    if not fileids:
 
674
        return False
 
675
    result = False
 
676
    for item in delta.added:
 
677
        if item[1] in fileids:
 
678
            if stop_on == 'add':
 
679
                fileids.remove(item[1])
 
680
            result = True
 
681
    for item in delta.removed:
 
682
        if item[1] in fileids:
 
683
            if stop_on == 'delete':
 
684
                fileids.remove(item[1])
 
685
            result = True
 
686
    if result:
 
687
        return True
 
688
    for l in (delta.modified, delta.renamed, delta.kind_changed):
 
689
        for item in l:
 
690
            if item[1] in fileids:
 
691
                return True
 
692
    return False
916
693
 
917
694
 
918
695
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
1091
868
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1092
869
 
1093
870
 
1094
 
@deprecated_function(deprecated_in((2, 2, 0)))
1095
871
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1096
872
    """Filter view_revisions based on revision ranges.
1097
873
 
1106
882
 
1107
883
    :return: The filtered view_revisions.
1108
884
    """
 
885
    # This method is no longer called by the main code path.
 
886
    # It may be removed soon. IGC 20090127
1109
887
    if start_rev_id or end_rev_id:
1110
888
        revision_ids = [r for r, n, d in view_revisions]
1111
889
        if start_rev_id:
1176
954
    # Lookup all possible text keys to determine which ones actually modified
1177
955
    # the file.
1178
956
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1179
 
    next_keys = None
1180
957
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1181
958
    # memory consumption. GraphIndex *does* like to look for a few keys in
1182
959
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
1217
994
    return result
1218
995
 
1219
996
 
1220
 
@deprecated_function(deprecated_in((2, 2, 0)))
1221
997
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
1222
998
                       include_merges=True):
1223
999
    """Produce an iterator of revisions to show
1224
1000
    :return: an iterator of (revision_id, revno, merge_depth)
1225
1001
    (if there is no revno for a revision, None is supplied)
1226
1002
    """
 
1003
    # This method is no longer called by the main code path.
 
1004
    # It is retained for API compatibility and may be deprecated
 
1005
    # soon. IGC 20090127
1227
1006
    if not include_merges:
1228
1007
        revision_ids = mainline_revs[1:]
1229
1008
        if direction == 'reverse':
1324
1103
        one (2) should be used.
1325
1104
 
1326
1105
    - supports_merge_revisions must be True if this log formatter supports
1327
 
        merge revisions.  If not, then only mainline revisions will be passed
1328
 
        to the formatter.
 
1106
        merge revisions.  If not, and if supports_single_merge_revision is
 
1107
        also not True, then only mainline revisions will be passed to the
 
1108
        formatter.
1329
1109
 
1330
1110
    - preferred_levels is the number of levels this formatter defaults to.
1331
1111
        The default value is zero meaning display all levels.
1332
1112
        This value is only relevant if supports_merge_revisions is True.
1333
1113
 
 
1114
    - supports_single_merge_revision must be True if this log formatter
 
1115
        supports logging only a single merge revision.  This flag is
 
1116
        only relevant if supports_merge_revisions is not True.
 
1117
 
1334
1118
    - supports_tags must be True if this log formatter supports tags.
1335
1119
        Otherwise the tags attribute may not be populated.
1336
1120
 
1347
1131
    preferred_levels = 0
1348
1132
 
1349
1133
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1350
 
                 delta_format=None, levels=None, show_advice=False,
1351
 
                 to_exact_file=None, author_list_handler=None):
 
1134
                 delta_format=None, levels=None):
1352
1135
        """Create a LogFormatter.
1353
1136
 
1354
1137
        :param to_file: the file to output to
1355
 
        :param to_exact_file: if set, gives an output stream to which 
1356
 
             non-Unicode diffs are written.
1357
1138
        :param show_ids: if True, revision-ids are to be displayed
1358
1139
        :param show_timezone: the timezone to use
1359
1140
        :param delta_format: the level of delta information to display
1360
 
          or None to leave it to the formatter to decide
 
1141
          or None to leave it u to the formatter to decide
1361
1142
        :param levels: the number of levels to display; None or -1 to
1362
1143
          let the log formatter decide.
1363
 
        :param show_advice: whether to show advice at the end of the
1364
 
          log or not
1365
 
        :param author_list_handler: callable generating a list of
1366
 
          authors to display for a given revision
1367
1144
        """
1368
1145
        self.to_file = to_file
1369
1146
        # 'exact' stream used to show diff, it should print content 'as is'
1370
1147
        # and should not try to decode/encode it to unicode to avoid bug #328007
1371
 
        if to_exact_file is not None:
1372
 
            self.to_exact_file = to_exact_file
1373
 
        else:
1374
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
1375
 
            # for code that expects to get diffs to pass in the exact file
1376
 
            # stream
1377
 
            self.to_exact_file = getattr(to_file, 'stream', to_file)
 
1148
        self.to_exact_file = getattr(to_file, 'stream', to_file)
1378
1149
        self.show_ids = show_ids
1379
1150
        self.show_timezone = show_timezone
1380
1151
        if delta_format is None:
1382
1153
            delta_format = 2 # long format
1383
1154
        self.delta_format = delta_format
1384
1155
        self.levels = levels
1385
 
        self._show_advice = show_advice
1386
 
        self._merge_count = 0
1387
 
        self._author_list_handler = author_list_handler
1388
1156
 
1389
1157
    def get_levels(self):
1390
1158
        """Get the number of levels to display or 0 for all."""
1391
1159
        if getattr(self, 'supports_merge_revisions', False):
1392
1160
            if self.levels is None or self.levels == -1:
1393
 
                self.levels = self.preferred_levels
1394
 
        else:
1395
 
            self.levels = 1
1396
 
        return self.levels
 
1161
                return self.preferred_levels
 
1162
            else:
 
1163
                return self.levels
 
1164
        return 1
1397
1165
 
1398
1166
    def log_revision(self, revision):
1399
1167
        """Log a revision.
1402
1170
        """
1403
1171
        raise NotImplementedError('not implemented in abstract base')
1404
1172
 
1405
 
    def show_advice(self):
1406
 
        """Output user advice, if any, when the log is completed."""
1407
 
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
1408
 
            advice_sep = self.get_advice_separator()
1409
 
            if advice_sep:
1410
 
                self.to_file.write(advice_sep)
1411
 
            self.to_file.write(
1412
 
                "Use --include-merges or -n0 to see merged revisions.\n")
1413
 
 
1414
 
    def get_advice_separator(self):
1415
 
        """Get the text separating the log from the closing advice."""
1416
 
        return ''
1417
 
 
1418
1173
    def short_committer(self, rev):
1419
1174
        name, address = config.parse_username(rev.committer)
1420
1175
        if name:
1422
1177
        return address
1423
1178
 
1424
1179
    def short_author(self, rev):
1425
 
        return self.authors(rev, 'first', short=True, sep=', ')
1426
 
 
1427
 
    def authors(self, rev, who, short=False, sep=None):
1428
 
        """Generate list of authors, taking --authors option into account.
1429
 
 
1430
 
        The caller has to specify the name of a author list handler,
1431
 
        as provided by the author list registry, using the ``who``
1432
 
        argument.  That name only sets a default, though: when the
1433
 
        user selected a different author list generation using the
1434
 
        ``--authors`` command line switch, as represented by the
1435
 
        ``author_list_handler`` constructor argument, that value takes
1436
 
        precedence.
1437
 
 
1438
 
        :param rev: The revision for which to generate the list of authors.
1439
 
        :param who: Name of the default handler.
1440
 
        :param short: Whether to shorten names to either name or address.
1441
 
        :param sep: What separator to use for automatic concatenation.
1442
 
        """
1443
 
        if self._author_list_handler is not None:
1444
 
            # The user did specify --authors, which overrides the default
1445
 
            author_list_handler = self._author_list_handler
1446
 
        else:
1447
 
            # The user didn't specify --authors, so we use the caller's default
1448
 
            author_list_handler = author_list_registry.get(who)
1449
 
        names = author_list_handler(rev)
1450
 
        if short:
1451
 
            for i in range(len(names)):
1452
 
                name, address = config.parse_username(names[i])
1453
 
                if name:
1454
 
                    names[i] = name
1455
 
                else:
1456
 
                    names[i] = address
1457
 
        if sep is not None:
1458
 
            names = sep.join(names)
1459
 
        return names
1460
 
 
1461
 
    def merge_marker(self, revision):
1462
 
        """Get the merge marker to include in the output or '' if none."""
1463
 
        if len(revision.rev.parent_ids) > 1:
1464
 
            self._merge_count += 1
1465
 
            return ' [merge]'
1466
 
        else:
1467
 
            return ''
 
1180
        name, address = config.parse_username(rev.get_apparent_authors()[0])
 
1181
        if name:
 
1182
            return name
 
1183
        return address
1468
1184
 
1469
1185
    def show_properties(self, revision, indent):
1470
1186
        """Displays the custom properties returned by each registered handler.
1471
1187
 
1472
1188
        If a registered handler raises an error it is propagated.
1473
1189
        """
1474
 
        for line in self.custom_properties(revision):
1475
 
            self.to_file.write("%s%s\n" % (indent, line))
1476
 
 
1477
 
    def custom_properties(self, revision):
1478
 
        """Format the custom properties returned by each registered handler.
1479
 
 
1480
 
        If a registered handler raises an error it is propagated.
1481
 
 
1482
 
        :return: a list of formatted lines (excluding trailing newlines)
1483
 
        """
1484
 
        lines = self._foreign_info_properties(revision)
1485
1190
        for key, handler in properties_handler_registry.iteritems():
1486
 
            lines.extend(self._format_properties(handler(revision)))
1487
 
        return lines
1488
 
 
1489
 
    def _foreign_info_properties(self, rev):
1490
 
        """Custom log displayer for foreign revision identifiers.
1491
 
 
1492
 
        :param rev: Revision object.
1493
 
        """
1494
 
        # Revision comes directly from a foreign repository
1495
 
        if isinstance(rev, foreign.ForeignRevision):
1496
 
            return self._format_properties(
1497
 
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
1498
 
 
1499
 
        # Imported foreign revision revision ids always contain :
1500
 
        if not ":" in rev.revision_id:
1501
 
            return []
1502
 
 
1503
 
        # Revision was once imported from a foreign repository
1504
 
        try:
1505
 
            foreign_revid, mapping = \
1506
 
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
1507
 
        except errors.InvalidRevisionId:
1508
 
            return []
1509
 
 
1510
 
        return self._format_properties(
1511
 
            mapping.vcs.show_foreign_revid(foreign_revid))
1512
 
 
1513
 
    def _format_properties(self, properties):
1514
 
        lines = []
1515
 
        for key, value in properties.items():
1516
 
            lines.append(key + ': ' + value)
1517
 
        return lines
 
1191
            for key, value in handler(revision).items():
 
1192
                self.to_file.write(indent + key + ': ' + value + '\n')
1518
1193
 
1519
1194
    def show_diff(self, to_file, diff, indent):
1520
1195
        for l in diff.rstrip().split('\n'):
1521
1196
            to_file.write(indent + '%s\n' % (l,))
1522
1197
 
1523
1198
 
1524
 
# Separator between revisions in long format
1525
 
_LONG_SEP = '-' * 60
1526
 
 
1527
 
 
1528
1199
class LongLogFormatter(LogFormatter):
1529
1200
 
1530
1201
    supports_merge_revisions = True
1531
 
    preferred_levels = 1
1532
1202
    supports_delta = True
1533
1203
    supports_tags = True
1534
1204
    supports_diff = True
1535
1205
 
1536
 
    def __init__(self, *args, **kwargs):
1537
 
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1538
 
        if self.show_timezone == 'original':
1539
 
            self.date_string = self._date_string_original_timezone
1540
 
        else:
1541
 
            self.date_string = self._date_string_with_timezone
1542
 
 
1543
 
    def _date_string_with_timezone(self, rev):
1544
 
        return format_date(rev.timestamp, rev.timezone or 0,
1545
 
                           self.show_timezone)
1546
 
 
1547
 
    def _date_string_original_timezone(self, rev):
1548
 
        return format_date_with_offset_in_original_timezone(rev.timestamp,
1549
 
            rev.timezone or 0)
1550
 
 
1551
1206
    def log_revision(self, revision):
1552
1207
        """Log a revision, either merged or not."""
1553
1208
        indent = '    ' * revision.merge_depth
1554
 
        lines = [_LONG_SEP]
 
1209
        to_file = self.to_file
 
1210
        to_file.write(indent + '-' * 60 + '\n')
1555
1211
        if revision.revno is not None:
1556
 
            lines.append('revno: %s%s' % (revision.revno,
1557
 
                self.merge_marker(revision)))
 
1212
            to_file.write(indent + 'revno: %s\n' % (revision.revno,))
1558
1213
        if revision.tags:
1559
 
            lines.append('tags: %s' % (', '.join(revision.tags)))
 
1214
            to_file.write(indent + 'tags: %s\n' % (', '.join(revision.tags)))
1560
1215
        if self.show_ids:
1561
 
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
 
1216
            to_file.write(indent + 'revision-id: ' + revision.rev.revision_id)
 
1217
            to_file.write('\n')
1562
1218
            for parent_id in revision.rev.parent_ids:
1563
 
                lines.append('parent: %s' % (parent_id,))
1564
 
        lines.extend(self.custom_properties(revision.rev))
 
1219
                to_file.write(indent + 'parent: %s\n' % (parent_id,))
 
1220
        self.show_properties(revision.rev, indent)
1565
1221
 
1566
1222
        committer = revision.rev.committer
1567
 
        authors = self.authors(revision.rev, 'all')
 
1223
        authors = revision.rev.get_apparent_authors()
1568
1224
        if authors != [committer]:
1569
 
            lines.append('author: %s' % (", ".join(authors),))
1570
 
        lines.append('committer: %s' % (committer,))
 
1225
            to_file.write(indent + 'author: %s\n' % (", ".join(authors),))
 
1226
        to_file.write(indent + 'committer: %s\n' % (committer,))
1571
1227
 
1572
1228
        branch_nick = revision.rev.properties.get('branch-nick', None)
1573
1229
        if branch_nick is not None:
1574
 
            lines.append('branch nick: %s' % (branch_nick,))
1575
 
 
1576
 
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1577
 
 
1578
 
        lines.append('message:')
 
1230
            to_file.write(indent + 'branch nick: %s\n' % (branch_nick,))
 
1231
 
 
1232
        date_str = format_date(revision.rev.timestamp,
 
1233
                               revision.rev.timezone or 0,
 
1234
                               self.show_timezone)
 
1235
        to_file.write(indent + 'timestamp: %s\n' % (date_str,))
 
1236
 
 
1237
        to_file.write(indent + 'message:\n')
1579
1238
        if not revision.rev.message:
1580
 
            lines.append('  (no message)')
 
1239
            to_file.write(indent + '  (no message)\n')
1581
1240
        else:
1582
1241
            message = revision.rev.message.rstrip('\r\n')
1583
1242
            for l in message.split('\n'):
1584
 
                lines.append('  %s' % (l,))
1585
 
 
1586
 
        # Dump the output, appending the delta and diff if requested
1587
 
        to_file = self.to_file
1588
 
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
 
1243
                to_file.write(indent + '  %s\n' % (l,))
1589
1244
        if revision.delta is not None:
1590
 
            # Use the standard status output to display changes
1591
 
            from bzrlib.delta import report_delta
1592
 
            report_delta(to_file, revision.delta, short_status=False, 
1593
 
                         show_ids=self.show_ids, indent=indent)
 
1245
            # We don't respect delta_format for compatibility
 
1246
            revision.delta.show(to_file, self.show_ids, indent=indent,
 
1247
                                short_status=False)
1594
1248
        if revision.diff is not None:
1595
1249
            to_file.write(indent + 'diff:\n')
1596
 
            to_file.flush()
1597
1250
            # Note: we explicitly don't indent the diff (relative to the
1598
1251
            # revision information) so that the output can be fed to patch -p0
1599
1252
            self.show_diff(self.to_exact_file, revision.diff, indent)
1600
 
            self.to_exact_file.flush()
1601
 
 
1602
 
    def get_advice_separator(self):
1603
 
        """Get the text separating the log from the closing advice."""
1604
 
        return '-' * 60 + '\n'
1605
1253
 
1606
1254
 
1607
1255
class ShortLogFormatter(LogFormatter):
1637
1285
        offset = ' ' * (revno_width + 1)
1638
1286
 
1639
1287
        to_file = self.to_file
 
1288
        is_merge = ''
 
1289
        if len(revision.rev.parent_ids) > 1:
 
1290
            is_merge = ' [merge]'
1640
1291
        tags = ''
1641
1292
        if revision.tags:
1642
1293
            tags = ' {%s}' % (', '.join(revision.tags))
1646
1297
                            revision.rev.timezone or 0,
1647
1298
                            self.show_timezone, date_fmt="%Y-%m-%d",
1648
1299
                            show_offset=False),
1649
 
                tags, self.merge_marker(revision)))
 
1300
                tags, is_merge))
1650
1301
        self.show_properties(revision.rev, indent+offset)
1651
1302
        if self.show_ids:
1652
1303
            to_file.write(indent + offset + 'revision-id:%s\n'
1659
1310
                to_file.write(indent + offset + '%s\n' % (l,))
1660
1311
 
1661
1312
        if revision.delta is not None:
1662
 
            # Use the standard status output to display changes
1663
 
            from bzrlib.delta import report_delta
1664
 
            report_delta(to_file, revision.delta, 
1665
 
                         short_status=self.delta_format==1, 
1666
 
                         show_ids=self.show_ids, indent=indent + offset)
 
1313
            revision.delta.show(to_file, self.show_ids, indent=indent + offset,
 
1314
                                short_status=self.delta_format==1)
1667
1315
        if revision.diff is not None:
1668
1316
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1669
1317
        to_file.write('\n')
1677
1325
 
1678
1326
    def __init__(self, *args, **kwargs):
1679
1327
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1680
 
        width = terminal_width()
1681
 
        if width is not None:
1682
 
            # we need one extra space for terminals that wrap on last char
1683
 
            width = width - 1
1684
 
        self._max_chars = width
 
1328
        self._max_chars = terminal_width() - 1
1685
1329
 
1686
1330
    def truncate(self, str, max_len):
1687
 
        if max_len is None or len(str) <= max_len:
 
1331
        if len(str) <= max_len:
1688
1332
            return str
1689
 
        return str[:max_len-3] + '...'
 
1333
        return str[:max_len-3]+'...'
1690
1334
 
1691
1335
    def date_string(self, rev):
1692
1336
        return format_date(rev.timestamp, rev.timezone or 0,
1744
1388
                               self.show_timezone,
1745
1389
                               date_fmt='%Y-%m-%d',
1746
1390
                               show_offset=False)
1747
 
        committer_str = self.authors(revision.rev, 'first', sep=', ')
1748
 
        committer_str = committer_str.replace(' <', '  <')
 
1391
        committer_str = revision.rev.committer.replace (' <', '  <')
1749
1392
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1750
1393
 
1751
1394
        if revision.delta is not None and revision.delta.has_changed():
1816
1459
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
1817
1460
 
1818
1461
 
1819
 
def author_list_all(rev):
1820
 
    return rev.get_apparent_authors()[:]
1821
 
 
1822
 
 
1823
 
def author_list_first(rev):
1824
 
    lst = rev.get_apparent_authors()
1825
 
    try:
1826
 
        return [lst[0]]
1827
 
    except IndexError:
1828
 
        return []
1829
 
 
1830
 
 
1831
 
def author_list_committer(rev):
1832
 
    return [rev.committer]
1833
 
 
1834
 
 
1835
 
author_list_registry = registry.Registry()
1836
 
 
1837
 
author_list_registry.register('all', author_list_all,
1838
 
                              'All authors')
1839
 
 
1840
 
author_list_registry.register('first', author_list_first,
1841
 
                              'The first author')
1842
 
 
1843
 
author_list_registry.register('committer', author_list_committer,
1844
 
                              'The committer')
1845
 
 
1846
 
 
1847
1462
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
1848
1463
    # deprecated; for compatibility
1849
1464
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
2000
1615
        lf.log_revision(lr)
2001
1616
 
2002
1617
 
2003
 
def _get_info_for_log_files(revisionspec_list, file_list, add_cleanup):
2004
 
    """Find file-ids and kinds given a list of files and a revision range.
2005
 
 
2006
 
    We search for files at the end of the range. If not found there,
2007
 
    we try the start of the range.
2008
 
 
2009
 
    :param revisionspec_list: revision range as parsed on the command line
2010
 
    :param file_list: the list of paths given on the command line;
2011
 
      the first of these can be a branch location or a file path,
2012
 
      the remainder must be file paths
2013
 
    :param add_cleanup: When the branch returned is read locked,
2014
 
      an unlock call will be queued to the cleanup.
2015
 
    :return: (branch, info_list, start_rev_info, end_rev_info) where
2016
 
      info_list is a list of (relative_path, file_id, kind) tuples where
2017
 
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
2018
 
      branch will be read-locked.
 
1618
def _get_fileid_to_log(revision, tree, b, fp):
 
1619
    """Find the file-id to log for a file path in a revision range.
 
1620
 
 
1621
    :param revision: the revision range as parsed on the command line
 
1622
    :param tree: the working tree, if any
 
1623
    :param b: the branch
 
1624
    :param fp: file path
2019
1625
    """
2020
 
    from builtins import _get_revision_range
2021
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
2022
 
    add_cleanup(b.lock_read().unlock)
2023
 
    # XXX: It's damn messy converting a list of paths to relative paths when
2024
 
    # those paths might be deleted ones, they might be on a case-insensitive
2025
 
    # filesystem and/or they might be in silly locations (like another branch).
2026
 
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
2027
 
    # file2 implicitly in the same dir as file1 or should its directory be
2028
 
    # taken from the current tree somehow?) For now, this solves the common
2029
 
    # case of running log in a nested directory, assuming paths beyond the
2030
 
    # first one haven't been deleted ...
2031
 
    if tree:
2032
 
        relpaths = [path] + tree.safe_relpath_files(file_list[1:])
2033
 
    else:
2034
 
        relpaths = [path] + file_list[1:]
2035
 
    info_list = []
2036
 
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
2037
 
        "log")
2038
 
    if relpaths in ([], [u'']):
2039
 
        return b, [], start_rev_info, end_rev_info
2040
 
    if start_rev_info is None and end_rev_info is None:
 
1626
    if revision is None:
2041
1627
        if tree is None:
2042
1628
            tree = b.basis_tree()
2043
 
        tree1 = None
2044
 
        for fp in relpaths:
2045
 
            file_id = tree.path2id(fp)
2046
 
            kind = _get_kind_for_file_id(tree, file_id)
2047
 
            if file_id is None:
2048
 
                # go back to when time began
2049
 
                if tree1 is None:
2050
 
                    try:
2051
 
                        rev1 = b.get_rev_id(1)
2052
 
                    except errors.NoSuchRevision:
2053
 
                        # No history at all
2054
 
                        file_id = None
2055
 
                        kind = None
2056
 
                    else:
2057
 
                        tree1 = b.repository.revision_tree(rev1)
2058
 
                if tree1:
2059
 
                    file_id = tree1.path2id(fp)
2060
 
                    kind = _get_kind_for_file_id(tree1, file_id)
2061
 
            info_list.append((fp, file_id, kind))
 
1629
        file_id = tree.path2id(fp)
 
1630
        if file_id is None:
 
1631
            # go back to when time began
 
1632
            try:
 
1633
                rev1 = b.get_rev_id(1)
 
1634
            except errors.NoSuchRevision:
 
1635
                # No history at all
 
1636
                file_id = None
 
1637
            else:
 
1638
                tree = b.repository.revision_tree(rev1)
 
1639
                file_id = tree.path2id(fp)
2062
1640
 
2063
 
    elif start_rev_info == end_rev_info:
 
1641
    elif len(revision) == 1:
2064
1642
        # One revision given - file must exist in it
2065
 
        tree = b.repository.revision_tree(end_rev_info.rev_id)
2066
 
        for fp in relpaths:
2067
 
            file_id = tree.path2id(fp)
2068
 
            kind = _get_kind_for_file_id(tree, file_id)
2069
 
            info_list.append((fp, file_id, kind))
 
1643
        tree = revision[0].as_tree(b)
 
1644
        file_id = tree.path2id(fp)
2070
1645
 
2071
 
    else:
 
1646
    elif len(revision) == 2:
2072
1647
        # Revision range given. Get the file-id from the end tree.
2073
1648
        # If that fails, try the start tree.
2074
 
        rev_id = end_rev_info.rev_id
 
1649
        rev_id = revision[1].as_revision_id(b)
2075
1650
        if rev_id is None:
2076
1651
            tree = b.basis_tree()
2077
1652
        else:
2078
 
            tree = b.repository.revision_tree(rev_id)
2079
 
        tree1 = None
2080
 
        for fp in relpaths:
 
1653
            tree = revision[1].as_tree(b)
 
1654
        file_id = tree.path2id(fp)
 
1655
        if file_id is None:
 
1656
            rev_id = revision[0].as_revision_id(b)
 
1657
            if rev_id is None:
 
1658
                rev1 = b.get_rev_id(1)
 
1659
                tree = b.repository.revision_tree(rev1)
 
1660
            else:
 
1661
                tree = revision[0].as_tree(b)
2081
1662
            file_id = tree.path2id(fp)
2082
 
            kind = _get_kind_for_file_id(tree, file_id)
2083
 
            if file_id is None:
2084
 
                if tree1 is None:
2085
 
                    rev_id = start_rev_info.rev_id
2086
 
                    if rev_id is None:
2087
 
                        rev1 = b.get_rev_id(1)
2088
 
                        tree1 = b.repository.revision_tree(rev1)
2089
 
                    else:
2090
 
                        tree1 = b.repository.revision_tree(rev_id)
2091
 
                file_id = tree1.path2id(fp)
2092
 
                kind = _get_kind_for_file_id(tree1, file_id)
2093
 
            info_list.append((fp, file_id, kind))
2094
 
    return b, info_list, start_rev_info, end_rev_info
2095
 
 
2096
 
 
2097
 
def _get_kind_for_file_id(tree, file_id):
2098
 
    """Return the kind of a file-id or None if it doesn't exist."""
2099
 
    if file_id is not None:
2100
 
        return tree.kind(file_id)
2101
1663
    else:
2102
 
        return None
 
1664
        raise errors.BzrCommandError(
 
1665
            'bzr log --revision takes one or two values.')
 
1666
    return file_id
2103
1667
 
2104
1668
 
2105
1669
properties_handler_registry = registry.Registry()
2106
 
 
2107
 
# Use the properties handlers to print out bug information if available
2108
 
def _bugs_properties_handler(revision):
2109
 
    if revision.properties.has_key('bugs'):
2110
 
        bug_lines = revision.properties['bugs'].split('\n')
2111
 
        bug_rows = [line.split(' ', 1) for line in bug_lines]
2112
 
        fixed_bug_urls = [row[0] for row in bug_rows if
2113
 
                          len(row) > 1 and row[1] == 'fixed']
2114
 
 
2115
 
        if fixed_bug_urls:
2116
 
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
2117
 
    return {}
2118
 
 
2119
 
properties_handler_registry.register('bugs_properties_handler',
2120
 
                                     _bugs_properties_handler)
 
1670
properties_handler_registry.register_lazy("foreign",
 
1671
                                          "bzrlib.foreign",
 
1672
                                          "show_foreign_properties")
2121
1673
 
2122
1674
 
2123
1675
# adapters which revision ids to log are filtered. When log is called, the