~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Mark Hammond
  • Date: 2009-01-12 01:55:34 UTC
  • mto: (3995.8.2 prepare-1.12)
  • mto: This revision was merged to the branch mainline in revision 4007.
  • Revision ID: mhammond@skippinet.com.au-20090112015534-yfxg50p7mpds9j4v
Include all .html files from the tortoise doc directory.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007, 2009 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
 
18
18
 
50
50
"""
51
51
 
52
52
import codecs
53
 
from cStringIO import StringIO
54
53
from itertools import (
55
 
    chain,
56
54
    izip,
57
55
    )
58
56
import re
65
63
lazy_import(globals(), """
66
64
 
67
65
from bzrlib import (
68
 
    bzrdir,
69
66
    config,
70
 
    diff,
71
67
    errors,
72
 
    foreign,
73
68
    repository as _mod_repository,
74
69
    revision as _mod_revision,
75
70
    revisionspec,
83
78
    )
84
79
from bzrlib.osutils import (
85
80
    format_date,
86
 
    format_date_with_offset_in_original_timezone,
87
81
    get_terminal_encoding,
88
 
    re_compile_checked,
89
82
    terminal_width,
90
83
    )
91
84
 
151
144
             start_revision=None,
152
145
             end_revision=None,
153
146
             search=None,
154
 
             limit=None,
155
 
             show_diff=False):
 
147
             limit=None):
156
148
    """Write out human-readable log of commits to this branch.
157
149
 
158
 
    This function is being retained for backwards compatibility but
159
 
    should not be extended with new parameters. Use the new Logger class
160
 
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
161
 
    make_log_request_dict function.
162
 
 
163
150
    :param lf: The LogFormatter object showing the output.
164
151
 
165
152
    :param specific_fileid: If not None, list only the commits affecting the
179
166
 
180
167
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
181
168
        if None or 0.
182
 
 
183
 
    :param show_diff: If True, output a diff after each revision.
184
 
    """
185
 
    # Convert old-style parameters to new-style parameters
186
 
    if specific_fileid is not None:
187
 
        file_ids = [specific_fileid]
188
 
    else:
189
 
        file_ids = None
190
 
    if verbose:
191
 
        if file_ids:
192
 
            delta_type = 'partial'
193
 
        else:
194
 
            delta_type = 'full'
195
 
    else:
196
 
        delta_type = None
197
 
    if show_diff:
198
 
        if file_ids:
199
 
            diff_type = 'partial'
200
 
        else:
201
 
            diff_type = 'full'
202
 
    else:
203
 
        diff_type = None
204
 
 
205
 
    # Build the request and execute it
206
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
207
 
        start_revision=start_revision, end_revision=end_revision,
208
 
        limit=limit, message_search=search,
209
 
        delta_type=delta_type, diff_type=diff_type)
210
 
    Logger(branch, rqst).show(lf)
211
 
 
212
 
 
213
 
# Note: This needs to be kept this in sync with the defaults in
214
 
# make_log_request_dict() below
215
 
_DEFAULT_REQUEST_PARAMS = {
216
 
    'direction': 'reverse',
217
 
    'levels': 1,
218
 
    'generate_tags': True,
219
 
    '_match_using_deltas': True,
220
 
    }
221
 
 
222
 
 
223
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
224
 
    start_revision=None, end_revision=None, limit=None,
225
 
    message_search=None, levels=1, generate_tags=True, delta_type=None,
226
 
    diff_type=None, _match_using_deltas=True):
227
 
    """Convenience function for making a logging request dictionary.
228
 
 
229
 
    Using this function may make code slightly safer by ensuring
230
 
    parameters have the correct names. It also provides a reference
231
 
    point for documenting the supported parameters.
232
 
 
233
 
    :param direction: 'reverse' (default) is latest to earliest;
234
 
      'forward' is earliest to latest.
235
 
 
236
 
    :param specific_fileids: If not None, only include revisions
237
 
      affecting the specified files, rather than all revisions.
238
 
 
239
 
    :param start_revision: If not None, only generate
240
 
      revisions >= start_revision
241
 
 
242
 
    :param end_revision: If not None, only generate
243
 
      revisions <= end_revision
244
 
 
245
 
    :param limit: If set, generate only 'limit' revisions, all revisions
246
 
      are shown if None or 0.
247
 
 
248
 
    :param message_search: If not None, only include revisions with
249
 
      matching commit messages
250
 
 
251
 
    :param levels: the number of levels of revisions to
252
 
      generate; 1 for just the mainline; 0 for all levels.
253
 
 
254
 
    :param generate_tags: If True, include tags for matched revisions.
255
 
 
256
 
    :param delta_type: Either 'full', 'partial' or None.
257
 
      'full' means generate the complete delta - adds/deletes/modifies/etc;
258
 
      'partial' means filter the delta using specific_fileids;
259
 
      None means do not generate any delta.
260
 
 
261
 
    :param diff_type: Either 'full', 'partial' or None.
262
 
      'full' means generate the complete diff - adds/deletes/modifies/etc;
263
 
      'partial' means filter the diff using specific_fileids;
264
 
      None means do not generate any diff.
265
 
 
266
 
    :param _match_using_deltas: a private parameter controlling the
267
 
      algorithm used for matching specific_fileids. This parameter
268
 
      may be removed in the future so bzrlib client code should NOT
269
 
      use it.
270
 
    """
271
 
    return {
272
 
        'direction': direction,
273
 
        'specific_fileids': specific_fileids,
274
 
        'start_revision': start_revision,
275
 
        'end_revision': end_revision,
276
 
        'limit': limit,
277
 
        'message_search': message_search,
278
 
        'levels': levels,
279
 
        'generate_tags': generate_tags,
280
 
        'delta_type': delta_type,
281
 
        'diff_type': diff_type,
282
 
        # Add 'private' attributes for features that may be deprecated
283
 
        '_match_using_deltas': _match_using_deltas,
284
 
    }
285
 
 
286
 
 
287
 
def _apply_log_request_defaults(rqst):
288
 
    """Apply default values to a request dictionary."""
289
 
    result = _DEFAULT_REQUEST_PARAMS
290
 
    if rqst:
291
 
        result.update(rqst)
292
 
    return result
293
 
 
294
 
 
295
 
class LogGenerator(object):
296
 
    """A generator of log revisions."""
297
 
 
298
 
    def iter_log_revisions(self):
299
 
        """Iterate over LogRevision objects.
300
 
 
301
 
        :return: An iterator yielding LogRevision objects.
302
 
        """
303
 
        raise NotImplementedError(self.iter_log_revisions)
304
 
 
305
 
 
306
 
class Logger(object):
307
 
    """An object the generates, formats and displays a log."""
308
 
 
309
 
    def __init__(self, branch, rqst):
310
 
        """Create a Logger.
311
 
 
312
 
        :param branch: the branch to log
313
 
        :param rqst: A dictionary specifying the query parameters.
314
 
          See make_log_request_dict() for supported values.
315
 
        """
316
 
        self.branch = branch
317
 
        self.rqst = _apply_log_request_defaults(rqst)
318
 
 
319
 
    def show(self, lf):
320
 
        """Display the log.
321
 
 
322
 
        :param lf: The LogFormatter object to send the output to.
323
 
        """
324
 
        if not isinstance(lf, LogFormatter):
325
 
            warn("not a LogFormatter instance: %r" % lf)
326
 
 
327
 
        self.branch.lock_read()
328
 
        try:
329
 
            if getattr(lf, 'begin_log', None):
330
 
                lf.begin_log()
331
 
            self._show_body(lf)
332
 
            if getattr(lf, 'end_log', None):
333
 
                lf.end_log()
334
 
        finally:
335
 
            self.branch.unlock()
336
 
 
337
 
    def _show_body(self, lf):
338
 
        """Show the main log output.
339
 
 
340
 
        Subclasses may wish to override this.
341
 
        """
342
 
        # Tweak the LogRequest based on what the LogFormatter can handle.
343
 
        # (There's no point generating stuff if the formatter can't display it.)
344
 
        rqst = self.rqst
345
 
        rqst['levels'] = lf.get_levels()
346
 
        if not getattr(lf, 'supports_tags', False):
347
 
            rqst['generate_tags'] = False
348
 
        if not getattr(lf, 'supports_delta', False):
349
 
            rqst['delta_type'] = None
350
 
        if not getattr(lf, 'supports_diff', False):
351
 
            rqst['diff_type'] = None
352
 
 
353
 
        # Find and print the interesting revisions
354
 
        generator = self._generator_factory(self.branch, rqst)
355
 
        for lr in generator.iter_log_revisions():
 
169
    """
 
170
    branch.lock_read()
 
171
    try:
 
172
        if getattr(lf, 'begin_log', None):
 
173
            lf.begin_log()
 
174
 
 
175
        _show_log(branch, lf, specific_fileid, verbose, direction,
 
176
                  start_revision, end_revision, search, limit)
 
177
 
 
178
        if getattr(lf, 'end_log', None):
 
179
            lf.end_log()
 
180
    finally:
 
181
        branch.unlock()
 
182
 
 
183
 
 
184
def _show_log(branch,
 
185
             lf,
 
186
             specific_fileid=None,
 
187
             verbose=False,
 
188
             direction='reverse',
 
189
             start_revision=None,
 
190
             end_revision=None,
 
191
             search=None,
 
192
             limit=None):
 
193
    """Worker function for show_log - see show_log."""
 
194
    if not isinstance(lf, LogFormatter):
 
195
        warn("not a LogFormatter instance: %r" % lf)
 
196
 
 
197
    if specific_fileid:
 
198
        trace.mutter('get log for file_id %r', specific_fileid)
 
199
    generate_merge_revisions = getattr(lf, 'supports_merge_revisions', False)
 
200
    allow_single_merge_revision = getattr(lf,
 
201
        'supports_single_merge_revision', False)
 
202
    view_revisions = calculate_view_revisions(branch, start_revision,
 
203
                                              end_revision, direction,
 
204
                                              specific_fileid,
 
205
                                              generate_merge_revisions,
 
206
                                              allow_single_merge_revision)
 
207
    rev_tag_dict = {}
 
208
    generate_tags = getattr(lf, 'supports_tags', False)
 
209
    if generate_tags:
 
210
        if branch.supports_tags():
 
211
            rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
212
 
 
213
    generate_delta = verbose and getattr(lf, 'supports_delta', False)
 
214
 
 
215
    # now we just print all the revisions
 
216
    log_count = 0
 
217
    revision_iterator = make_log_rev_iterator(branch, view_revisions,
 
218
        generate_delta, search)
 
219
    for revs in revision_iterator:
 
220
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
221
            lr = LogRevision(rev, revno, merge_depth, delta,
 
222
                             rev_tag_dict.get(rev_id))
356
223
            lf.log_revision(lr)
357
 
        lf.show_advice()
358
 
 
359
 
    def _generator_factory(self, branch, rqst):
360
 
        """Make the LogGenerator object to use.
361
 
        
362
 
        Subclasses may wish to override this.
363
 
        """
364
 
        return _DefaultLogGenerator(branch, rqst)
365
 
 
366
 
 
367
 
class _StartNotLinearAncestor(Exception):
368
 
    """Raised when a start revision is not found walking left-hand history."""
369
 
 
370
 
 
371
 
class _DefaultLogGenerator(LogGenerator):
372
 
    """The default generator of log revisions."""
373
 
 
374
 
    def __init__(self, branch, rqst):
375
 
        self.branch = branch
376
 
        self.rqst = rqst
377
 
        if rqst.get('generate_tags') and branch.supports_tags():
378
 
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
379
 
        else:
380
 
            self.rev_tag_dict = {}
381
 
 
382
 
    def iter_log_revisions(self):
383
 
        """Iterate over LogRevision objects.
384
 
 
385
 
        :return: An iterator yielding LogRevision objects.
386
 
        """
387
 
        rqst = self.rqst
388
 
        levels = rqst.get('levels')
389
 
        limit = rqst.get('limit')
390
 
        diff_type = rqst.get('diff_type')
391
 
        log_count = 0
392
 
        revision_iterator = self._create_log_revision_iterator()
393
 
        for revs in revision_iterator:
394
 
            for (rev_id, revno, merge_depth), rev, delta in revs:
395
 
                # 0 levels means show everything; merge_depth counts from 0
396
 
                if levels != 0 and merge_depth >= levels:
397
 
                    continue
398
 
                if diff_type is None:
399
 
                    diff = None
400
 
                else:
401
 
                    diff = self._format_diff(rev, rev_id, diff_type)
402
 
                yield LogRevision(rev, revno, merge_depth, delta,
403
 
                    self.rev_tag_dict.get(rev_id), diff)
404
 
                if limit:
405
 
                    log_count += 1
406
 
                    if log_count >= limit:
407
 
                        return
408
 
 
409
 
    def _format_diff(self, rev, rev_id, diff_type):
410
 
        repo = self.branch.repository
411
 
        if len(rev.parent_ids) == 0:
412
 
            ancestor_id = _mod_revision.NULL_REVISION
413
 
        else:
414
 
            ancestor_id = rev.parent_ids[0]
415
 
        tree_1 = repo.revision_tree(ancestor_id)
416
 
        tree_2 = repo.revision_tree(rev_id)
417
 
        file_ids = self.rqst.get('specific_fileids')
418
 
        if diff_type == 'partial' and file_ids is not None:
419
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
420
 
        else:
421
 
            specific_files = None
422
 
        s = StringIO()
423
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
424
 
            new_label='')
425
 
        return s.getvalue()
426
 
 
427
 
    def _create_log_revision_iterator(self):
428
 
        """Create a revision iterator for log.
429
 
 
430
 
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
431
 
            delta).
432
 
        """
433
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
434
 
            self.branch, self.rqst.get('start_revision'),
435
 
            self.rqst.get('end_revision'))
436
 
        if self.rqst.get('_match_using_deltas'):
437
 
            return self._log_revision_iterator_using_delta_matching()
438
 
        else:
439
 
            # We're using the per-file-graph algorithm. This scales really
440
 
            # well but only makes sense if there is a single file and it's
441
 
            # not a directory
442
 
            file_count = len(self.rqst.get('specific_fileids'))
443
 
            if file_count != 1:
444
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
445
 
                    "when logging %d files" % file_count)
446
 
            return self._log_revision_iterator_using_per_file_graph()
447
 
 
448
 
    def _log_revision_iterator_using_delta_matching(self):
449
 
        # Get the base revisions, filtering by the revision range
450
 
        rqst = self.rqst
451
 
        generate_merge_revisions = rqst.get('levels') != 1
452
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
453
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
454
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
455
 
            self.end_rev_id, rqst.get('direction'), generate_merge_revisions,
456
 
            delayed_graph_generation=delayed_graph_generation)
457
 
 
458
 
        # Apply the other filters
459
 
        return make_log_rev_iterator(self.branch, view_revisions,
460
 
            rqst.get('delta_type'), rqst.get('message_search'),
461
 
            file_ids=rqst.get('specific_fileids'),
462
 
            direction=rqst.get('direction'))
463
 
 
464
 
    def _log_revision_iterator_using_per_file_graph(self):
465
 
        # Get the base revisions, filtering by the revision range.
466
 
        # Note that we always generate the merge revisions because
467
 
        # filter_revisions_touching_file_id() requires them ...
468
 
        rqst = self.rqst
469
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
470
 
            self.end_rev_id, rqst.get('direction'), True)
471
 
        if not isinstance(view_revisions, list):
472
 
            view_revisions = list(view_revisions)
473
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
474
 
            rqst.get('specific_fileids')[0], view_revisions,
475
 
            include_merges=rqst.get('levels') != 1)
476
 
        return make_log_rev_iterator(self.branch, view_revisions,
477
 
            rqst.get('delta_type'), rqst.get('message_search'))
478
 
 
479
 
 
480
 
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
481
 
    generate_merge_revisions, delayed_graph_generation=False):
482
 
    """Calculate the revisions to view.
483
 
 
484
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
485
 
             a list of the same tuples.
486
 
    """
487
 
    br_revno, br_rev_id = branch.last_revision_info()
488
 
    if br_revno == 0:
 
224
            if limit:
 
225
                log_count += 1
 
226
                if log_count >= limit:
 
227
                    return
 
228
 
 
229
 
 
230
def calculate_view_revisions(branch, start_revision, end_revision, direction,
 
231
                             specific_fileid, generate_merge_revisions,
 
232
                             allow_single_merge_revision):
 
233
    if (    not generate_merge_revisions
 
234
        and start_revision is end_revision is None
 
235
        and direction == 'reverse'
 
236
        and specific_fileid is None):
 
237
        return _linear_view_revisions(branch)
 
238
 
 
239
    mainline_revs, rev_nos, start_rev_id, end_rev_id = _get_mainline_revs(
 
240
        branch, start_revision, end_revision)
 
241
    if not mainline_revs:
489
242
        return []
490
243
 
491
 
    # If a single revision is requested, check we can handle it
492
 
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
493
 
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
494
 
    if generate_single_revision:
495
 
        return _generate_one_revision(branch, end_rev_id, br_rev_id, br_revno)
496
 
 
497
 
    # If we only want to see linear revisions, we can iterate ...
498
 
    if not generate_merge_revisions:
499
 
        return _generate_flat_revisions(branch, start_rev_id, end_rev_id,
500
 
            direction)
501
 
    else:
502
 
        return _generate_all_revisions(branch, start_rev_id, end_rev_id,
503
 
            direction, delayed_graph_generation)
504
 
 
505
 
 
506
 
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
507
 
    if rev_id == br_rev_id:
508
 
        # It's the tip
509
 
        return [(br_rev_id, br_revno, 0)]
510
 
    else:
511
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
512
 
        revno_str = '.'.join(str(n) for n in revno)
513
 
        return [(rev_id, revno_str, 0)]
514
 
 
515
 
 
516
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
517
 
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
518
 
    # If a start limit was given and it's not obviously an
519
 
    # ancestor of the end limit, check it before outputting anything
520
 
    if direction == 'forward' or (start_rev_id
521
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
522
 
        try:
523
 
            result = list(result)
524
 
        except _StartNotLinearAncestor:
525
 
            raise errors.BzrCommandError('Start revision not found in'
526
 
                ' left-hand history of end revision.')
527
 
    if direction == 'forward':
528
 
        result = reversed(result)
529
 
    return result
530
 
 
531
 
 
532
 
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
533
 
    delayed_graph_generation):
534
 
    # On large trees, generating the merge graph can take 30-60 seconds
535
 
    # so we delay doing it until a merge is detected, incrementally
536
 
    # returning initial (non-merge) revisions while we can.
537
 
    initial_revisions = []
538
 
    if delayed_graph_generation:
539
 
        try:
540
 
            for rev_id, revno, depth in \
541
 
                _linear_view_revisions(branch, start_rev_id, end_rev_id):
542
 
                if _has_merges(branch, rev_id):
543
 
                    end_rev_id = rev_id
544
 
                    break
545
 
                else:
546
 
                    initial_revisions.append((rev_id, revno, depth))
547
 
            else:
548
 
                # No merged revisions found
549
 
                if direction == 'reverse':
550
 
                    return initial_revisions
551
 
                elif direction == 'forward':
552
 
                    return reversed(initial_revisions)
553
 
                else:
554
 
                    raise ValueError('invalid direction %r' % direction)
555
 
        except _StartNotLinearAncestor:
556
 
            # A merge was never detected so the lower revision limit can't
557
 
            # be nested down somewhere
558
 
            raise errors.BzrCommandError('Start revision not found in'
559
 
                ' history of end revision.')
560
 
 
561
 
    # A log including nested merges is required. If the direction is reverse,
562
 
    # we rebase the initial merge depths so that the development line is
563
 
    # shown naturally, i.e. just like it is for linear logging. We can easily
564
 
    # make forward the exact opposite display, but showing the merge revisions
565
 
    # indented at the end seems slightly nicer in that case.
566
 
    view_revisions = chain(iter(initial_revisions),
567
 
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
568
 
        rebase_initial_depths=direction == 'reverse'))
 
244
    generate_single_revision = False
 
245
    if ((not generate_merge_revisions)
 
246
        and ((start_rev_id and (start_rev_id not in rev_nos))
 
247
            or (end_rev_id and (end_rev_id not in rev_nos)))):
 
248
        generate_single_revision = ((start_rev_id == end_rev_id)
 
249
            and allow_single_merge_revision)
 
250
        if not generate_single_revision:
 
251
            raise errors.BzrCommandError('Selected log formatter only supports'
 
252
                ' mainline revisions.')
 
253
        generate_merge_revisions = generate_single_revision
 
254
    view_revs_iter = get_view_revisions(mainline_revs, rev_nos, branch,
 
255
                          direction, include_merges=generate_merge_revisions)
 
256
 
569
257
    if direction == 'reverse':
570
 
        return view_revisions
571
 
    elif direction == 'forward':
572
 
        # Forward means oldest first, adjusting for depth.
573
 
        view_revisions = reverse_by_depth(list(view_revisions))
574
 
        return _rebase_merge_depth(view_revisions)
575
 
    else:
576
 
        raise ValueError('invalid direction %r' % direction)
577
 
 
578
 
 
579
 
def _has_merges(branch, rev_id):
580
 
    """Does a revision have multiple parents or not?"""
581
 
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
582
 
    return len(parents) > 1
583
 
 
584
 
 
585
 
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
586
 
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
587
 
    if start_rev_id and end_rev_id:
588
 
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
589
 
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
590
 
        if len(start_dotted) == 1 and len(end_dotted) == 1:
591
 
            # both on mainline
592
 
            return start_dotted[0] <= end_dotted[0]
593
 
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
594
 
            start_dotted[0:1] == end_dotted[0:1]):
595
 
            # both on same development line
596
 
            return start_dotted[2] <= end_dotted[2]
597
 
        else:
598
 
            # not obvious
599
 
            return False
600
 
    return True
601
 
 
602
 
 
603
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
604
 
    """Calculate a sequence of revisions to view, newest to oldest.
605
 
 
606
 
    :param start_rev_id: the lower revision-id
607
 
    :param end_rev_id: the upper revision-id
608
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
609
 
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
610
 
      is not found walking the left-hand history
611
 
    """
612
 
    br_revno, br_rev_id = branch.last_revision_info()
613
 
    repo = branch.repository
614
 
    if start_rev_id is None and end_rev_id is None:
615
 
        cur_revno = br_revno
616
 
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
617
 
            yield revision_id, str(cur_revno), 0
618
 
            cur_revno -= 1
619
 
    else:
620
 
        if end_rev_id is None:
621
 
            end_rev_id = br_rev_id
622
 
        found_start = start_rev_id is None
623
 
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
624
 
            revno = branch.revision_id_to_dotted_revno(revision_id)
625
 
            revno_str = '.'.join(str(n) for n in revno)
626
 
            if not found_start and revision_id == start_rev_id:
627
 
                yield revision_id, revno_str, 0
628
 
                found_start = True
629
 
                break
630
 
            else:
631
 
                yield revision_id, revno_str, 0
632
 
        else:
633
 
            if not found_start:
634
 
                raise _StartNotLinearAncestor()
635
 
 
636
 
 
637
 
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
638
 
    rebase_initial_depths=True):
639
 
    """Calculate revisions to view including merges, newest to oldest.
640
 
 
641
 
    :param branch: the branch
642
 
    :param start_rev_id: the lower revision-id
643
 
    :param end_rev_id: the upper revision-id
644
 
    :param rebase_initial_depth: should depths be rebased until a mainline
645
 
      revision is found?
646
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
647
 
    """
648
 
    view_revisions = branch.iter_merge_sorted_revisions(
649
 
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
650
 
        stop_rule="with-merges")
651
 
    if not rebase_initial_depths:
652
 
        for (rev_id, merge_depth, revno, end_of_merge
653
 
             ) in view_revisions:
654
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
655
 
    else:
656
 
        # We're following a development line starting at a merged revision.
657
 
        # We need to adjust depths down by the initial depth until we find
658
 
        # a depth less than it. Then we use that depth as the adjustment.
659
 
        # If and when we reach the mainline, depth adjustment ends.
660
 
        depth_adjustment = None
661
 
        for (rev_id, merge_depth, revno, end_of_merge
662
 
             ) in view_revisions:
663
 
            if depth_adjustment is None:
664
 
                depth_adjustment = merge_depth
665
 
            if depth_adjustment:
666
 
                if merge_depth < depth_adjustment:
667
 
                    depth_adjustment = merge_depth
668
 
                merge_depth -= depth_adjustment
669
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
670
 
 
671
 
 
672
 
def calculate_view_revisions(branch, start_revision, end_revision, direction,
673
 
        specific_fileid, generate_merge_revisions):
674
 
    """Calculate the revisions to view.
675
 
 
676
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
677
 
             a list of the same tuples.
678
 
    """
679
 
    # This method is no longer called by the main code path.
680
 
    # It is retained for API compatibility and may be deprecated
681
 
    # soon. IGC 20090116
682
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
683
 
        end_revision)
684
 
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
685
 
        direction, generate_merge_revisions or specific_fileid))
 
258
        start_rev_id, end_rev_id = end_rev_id, start_rev_id
 
259
    view_revisions = _filter_revision_range(list(view_revs_iter),
 
260
                                            start_rev_id,
 
261
                                            end_rev_id)
 
262
    if view_revisions and generate_single_revision:
 
263
        view_revisions = view_revisions[0:1]
686
264
    if specific_fileid:
687
265
        view_revisions = _filter_revisions_touching_file_id(branch,
688
 
            specific_fileid, view_revisions,
689
 
            include_merges=generate_merge_revisions)
690
 
    return _rebase_merge_depth(view_revisions)
691
 
 
692
 
 
693
 
def _rebase_merge_depth(view_revisions):
694
 
    """Adjust depths upwards so the top level is 0."""
695
 
    # If either the first or last revision have a merge_depth of 0, we're done
 
266
                                                            specific_fileid,
 
267
                                                            view_revisions)
 
268
 
 
269
    # rebase merge_depth - unless there are no revisions or 
 
270
    # either the first or last revision have merge_depth = 0.
696
271
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
697
272
        min_depth = min([d for r,n,d in view_revisions])
698
273
        if min_depth != 0:
700
275
    return view_revisions
701
276
 
702
277
 
703
 
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
704
 
        file_ids=None, direction='reverse'):
 
278
def _linear_view_revisions(branch):
 
279
    start_revno, start_revision_id = branch.last_revision_info()
 
280
    repo = branch.repository
 
281
    revision_ids = repo.iter_reverse_revision_history(start_revision_id)
 
282
    for num, revision_id in enumerate(revision_ids):
 
283
        yield revision_id, str(start_revno - num), 0
 
284
 
 
285
 
 
286
def make_log_rev_iterator(branch, view_revisions, generate_delta, search):
705
287
    """Create a revision iterator for log.
706
288
 
707
289
    :param branch: The branch being logged.
708
290
    :param view_revisions: The revisions being viewed.
709
291
    :param generate_delta: Whether to generate a delta for each revision.
710
 
      Permitted values are None, 'full' and 'partial'.
711
292
    :param search: A user text search string.
712
 
    :param file_ids: If non empty, only revisions matching one or more of
713
 
      the file-ids are to be kept.
714
 
    :param direction: the direction in which view_revisions is sorted
715
293
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
716
294
        delta).
717
295
    """
728
306
                yield (view, None, None)
729
307
        log_rev_iterator = iter([_convert()])
730
308
    for adapter in log_adapters:
731
 
        # It would be nicer if log adapters were first class objects
732
 
        # with custom parameters. This will do for now. IGC 20090127
733
 
        if adapter == _make_delta_filter:
734
 
            log_rev_iterator = adapter(branch, generate_delta,
735
 
                search, log_rev_iterator, file_ids, direction)
736
 
        else:
737
 
            log_rev_iterator = adapter(branch, generate_delta,
738
 
                search, log_rev_iterator)
 
309
        log_rev_iterator = adapter(branch, generate_delta, search,
 
310
            log_rev_iterator)
739
311
    return log_rev_iterator
740
312
 
741
313
 
752
324
    """
753
325
    if search is None:
754
326
        return log_rev_iterator
755
 
    searchRE = re_compile_checked(search, re.IGNORECASE,
756
 
            'log message filter')
 
327
    # Compile the search now to get early errors.
 
328
    searchRE = re.compile(search, re.IGNORECASE)
757
329
    return _filter_message_re(searchRE, log_rev_iterator)
758
330
 
759
331
 
766
338
        yield new_revs
767
339
 
768
340
 
769
 
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
770
 
    fileids=None, direction='reverse'):
 
341
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator):
771
342
    """Add revision deltas to a log iterator if needed.
772
343
 
773
344
    :param branch: The branch being logged.
774
345
    :param generate_delta: Whether to generate a delta for each revision.
775
 
      Permitted values are None, 'full' and 'partial'.
776
346
    :param search: A user text search string.
777
347
    :param log_rev_iterator: An input iterator containing all revisions that
778
348
        could be displayed, in lists.
779
 
    :param fileids: If non empty, only revisions matching one or more of
780
 
      the file-ids are to be kept.
781
 
    :param direction: the direction in which view_revisions is sorted
782
349
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
783
350
        delta).
784
351
    """
785
 
    if not generate_delta and not fileids:
 
352
    if not generate_delta:
786
353
        return log_rev_iterator
787
 
    return _generate_deltas(branch.repository, log_rev_iterator,
788
 
        generate_delta, fileids, direction)
789
 
 
790
 
 
791
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
792
 
    direction):
793
 
    """Create deltas for each batch of revisions in log_rev_iterator.
794
 
 
795
 
    If we're only generating deltas for the sake of filtering against
796
 
    file-ids, we stop generating deltas once all file-ids reach the
797
 
    appropriate life-cycle point. If we're receiving data newest to
798
 
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
799
 
    """
800
 
    check_fileids = fileids is not None and len(fileids) > 0
801
 
    if check_fileids:
802
 
        fileid_set = set(fileids)
803
 
        if direction == 'reverse':
804
 
            stop_on = 'add'
805
 
        else:
806
 
            stop_on = 'remove'
807
 
    else:
808
 
        fileid_set = None
 
354
    return _generate_deltas(branch.repository, log_rev_iterator)
 
355
 
 
356
 
 
357
def _generate_deltas(repository, log_rev_iterator):
 
358
    """Create deltas for each batch of revisions in log_rev_iterator."""
809
359
    for revs in log_rev_iterator:
810
 
        # If we were matching against fileids and we've run out,
811
 
        # there's nothing left to do
812
 
        if check_fileids and not fileid_set:
813
 
            return
814
360
        revisions = [rev[1] for rev in revs]
815
 
        new_revs = []
816
 
        if delta_type == 'full' and not check_fileids:
817
 
            deltas = repository.get_deltas_for_revisions(revisions)
818
 
            for rev, delta in izip(revs, deltas):
819
 
                new_revs.append((rev[0], rev[1], delta))
820
 
        else:
821
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
822
 
            for rev, delta in izip(revs, deltas):
823
 
                if check_fileids:
824
 
                    if delta is None or not delta.has_changed():
825
 
                        continue
826
 
                    else:
827
 
                        _update_fileids(delta, fileid_set, stop_on)
828
 
                        if delta_type is None:
829
 
                            delta = None
830
 
                        elif delta_type == 'full':
831
 
                            # If the file matches all the time, rebuilding
832
 
                            # a full delta like this in addition to a partial
833
 
                            # one could be slow. However, it's likely that
834
 
                            # most revisions won't get this far, making it
835
 
                            # faster to filter on the partial deltas and
836
 
                            # build the occasional full delta than always
837
 
                            # building full deltas and filtering those.
838
 
                            rev_id = rev[0][0]
839
 
                            delta = repository.get_revision_delta(rev_id)
840
 
                new_revs.append((rev[0], rev[1], delta))
841
 
        yield new_revs
842
 
 
843
 
 
844
 
def _update_fileids(delta, fileids, stop_on):
845
 
    """Update the set of file-ids to search based on file lifecycle events.
846
 
    
847
 
    :param fileids: a set of fileids to update
848
 
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
849
 
      fileids set once their add or remove entry is detected respectively
850
 
    """
851
 
    if stop_on == 'add':
852
 
        for item in delta.added:
853
 
            if item[1] in fileids:
854
 
                fileids.remove(item[1])
855
 
    elif stop_on == 'delete':
856
 
        for item in delta.removed:
857
 
            if item[1] in fileids:
858
 
                fileids.remove(item[1])
 
361
        deltas = repository.get_deltas_for_revisions(revisions)
 
362
        revs = [(rev[0], rev[1], delta) for rev, delta in izip(revs, deltas)]
 
363
        yield revs
859
364
 
860
365
 
861
366
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
902
407
            num = min(int(num * 1.5), 200)
903
408
 
904
409
 
905
 
def _get_revision_limits(branch, start_revision, end_revision):
906
 
    """Get and check revision limits.
907
 
 
908
 
    :param  branch: The branch containing the revisions.
909
 
 
910
 
    :param  start_revision: The first revision to be logged.
911
 
            For backwards compatibility this may be a mainline integer revno,
912
 
            but for merge revision support a RevisionInfo is expected.
913
 
 
914
 
    :param  end_revision: The last revision to be logged.
915
 
            For backwards compatibility this may be a mainline integer revno,
916
 
            but for merge revision support a RevisionInfo is expected.
917
 
 
918
 
    :return: (start_rev_id, end_rev_id) tuple.
919
 
    """
920
 
    branch_revno, branch_rev_id = branch.last_revision_info()
921
 
    start_rev_id = None
922
 
    if start_revision is None:
923
 
        start_revno = 1
924
 
    else:
925
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
926
 
            start_rev_id = start_revision.rev_id
927
 
            start_revno = start_revision.revno or 1
928
 
        else:
929
 
            branch.check_real_revno(start_revision)
930
 
            start_revno = start_revision
931
 
            start_rev_id = branch.get_rev_id(start_revno)
932
 
 
933
 
    end_rev_id = None
934
 
    if end_revision is None:
935
 
        end_revno = branch_revno
936
 
    else:
937
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
938
 
            end_rev_id = end_revision.rev_id
939
 
            end_revno = end_revision.revno or branch_revno
940
 
        else:
941
 
            branch.check_real_revno(end_revision)
942
 
            end_revno = end_revision
943
 
            end_rev_id = branch.get_rev_id(end_revno)
944
 
 
945
 
    if branch_revno != 0:
946
 
        if (start_rev_id == _mod_revision.NULL_REVISION
947
 
            or end_rev_id == _mod_revision.NULL_REVISION):
948
 
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
949
 
        if start_revno > end_revno:
950
 
            raise errors.BzrCommandError("Start revision must be older than "
951
 
                                         "the end revision.")
952
 
    return (start_rev_id, end_rev_id)
953
 
 
954
 
 
955
410
def _get_mainline_revs(branch, start_revision, end_revision):
956
411
    """Get the mainline revisions from the branch.
957
 
 
 
412
    
958
413
    Generates the list of mainline revisions for the branch.
959
 
 
960
 
    :param  branch: The branch containing the revisions.
 
414
    
 
415
    :param  branch: The branch containing the revisions. 
961
416
 
962
417
    :param  start_revision: The first revision to be logged.
963
418
            For backwards compatibility this may be a mainline integer revno,
973
428
    if branch_revno == 0:
974
429
        return None, None, None, None
975
430
 
976
 
    # For mainline generation, map start_revision and end_revision to
977
 
    # mainline revnos. If the revision is not on the mainline choose the
978
 
    # appropriate extreme of the mainline instead - the extra will be
 
431
    # For mainline generation, map start_revision and end_revision to 
 
432
    # mainline revnos. If the revision is not on the mainline choose the 
 
433
    # appropriate extreme of the mainline instead - the extra will be 
979
434
    # filtered later.
980
435
    # Also map the revisions to rev_ids, to be used in the later filtering
981
436
    # stage.
1037
492
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1038
493
    """Filter view_revisions based on revision ranges.
1039
494
 
1040
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
495
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth) 
1041
496
            tuples to be filtered.
1042
497
 
1043
498
    :param start_rev_id: If not NONE specifies the first revision to be logged.
1048
503
 
1049
504
    :return: The filtered view_revisions.
1050
505
    """
1051
 
    # This method is no longer called by the main code path.
1052
 
    # It may be removed soon. IGC 20090127
1053
506
    if start_rev_id or end_rev_id:
1054
507
        revision_ids = [r for r, n, d in view_revisions]
1055
508
        if start_rev_id:
1063
516
                end_index = revision_ids.index(end_rev_id)
1064
517
            else:
1065
518
                end_index = len(view_revisions) - 1
1066
 
        # To include the revisions merged into the last revision,
 
519
        # To include the revisions merged into the last revision, 
1067
520
        # extend end_rev_id down to, but not including, the next rev
1068
521
        # with the same or lesser merge_depth
1069
522
        end_merge_depth = view_revisions[end_index][2]
1079
532
    return view_revisions
1080
533
 
1081
534
 
1082
 
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
1083
 
    include_merges=True):
 
535
def _filter_revisions_touching_file_id(branch, file_id, view_revisions):
1084
536
    r"""Return the list of revision ids which touch a given file id.
1085
537
 
1086
538
    The function filters view_revisions and returns a subset.
1113
565
        assumed that view_revisions is in merge_sort order (i.e. newest
1114
566
        revision first ).
1115
567
 
1116
 
    :param include_merges: include merge revisions in the result or not
1117
 
 
1118
568
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
1119
569
    """
1120
570
    # Lookup all possible text keys to determine which ones actually modified
1121
571
    # the file.
1122
572
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1123
 
    next_keys = None
1124
573
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1125
574
    # memory consumption. GraphIndex *does* like to look for a few keys in
1126
575
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
1155
604
            for idx in xrange(len(current_merge_stack)):
1156
605
                node = current_merge_stack[idx]
1157
606
                if node is not None:
1158
 
                    if include_merges or node[2] == 0:
1159
 
                        result.append(node)
1160
 
                        current_merge_stack[idx] = None
 
607
                    result.append(node)
 
608
                    current_merge_stack[idx] = None
1161
609
    return result
1162
610
 
1163
611
 
1167
615
    :return: an iterator of (revision_id, revno, merge_depth)
1168
616
    (if there is no revno for a revision, None is supplied)
1169
617
    """
1170
 
    # This method is no longer called by the main code path.
1171
 
    # It is retained for API compatibility and may be deprecated
1172
 
    # soon. IGC 20090127
1173
 
    if not include_merges:
 
618
    if include_merges is False:
1174
619
        revision_ids = mainline_revs[1:]
1175
620
        if direction == 'reverse':
1176
621
            revision_ids.reverse()
1239
684
    """A revision to be logged (by LogFormatter.log_revision).
1240
685
 
1241
686
    A simple wrapper for the attributes of a revision to be logged.
1242
 
    The attributes may or may not be populated, as determined by the
 
687
    The attributes may or may not be populated, as determined by the 
1243
688
    logging options and the log formatter capabilities.
1244
689
    """
1245
690
 
1246
691
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1247
 
                 tags=None, diff=None):
 
692
                 tags=None):
1248
693
        self.rev = rev
1249
 
        self.revno = str(revno)
 
694
        self.revno = revno
1250
695
        self.merge_depth = merge_depth
1251
696
        self.delta = delta
1252
697
        self.tags = tags
1253
 
        self.diff = diff
1254
698
 
1255
699
 
1256
700
class LogFormatter(object):
1261
705
    If the LogFormatter needs to be informed of the beginning or end of
1262
706
    a log it should implement the begin_log and/or end_log hook methods.
1263
707
 
1264
 
    A LogFormatter should define the following supports_XXX flags
 
708
    A LogFormatter should define the following supports_XXX flags 
1265
709
    to indicate which LogRevision attributes it supports:
1266
710
 
1267
711
    - supports_delta must be True if this log formatter supports delta.
1268
712
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1269
713
        attribute describes whether the 'short_status' format (1) or the long
1270
 
        one (2) should be used.
1271
 
 
1272
 
    - supports_merge_revisions must be True if this log formatter supports
1273
 
        merge revisions.  If not, then only mainline revisions will be passed
1274
 
        to the formatter.
1275
 
 
1276
 
    - preferred_levels is the number of levels this formatter defaults to.
1277
 
        The default value is zero meaning display all levels.
1278
 
        This value is only relevant if supports_merge_revisions is True.
1279
 
 
 
714
        one (2) sould be used.
 
715
 
 
716
    - supports_merge_revisions must be True if this log formatter supports 
 
717
        merge revisions.  If not, and if supports_single_merge_revisions is
 
718
        also not True, then only mainline revisions will be passed to the 
 
719
        formatter.
 
720
    - supports_single_merge_revision must be True if this log formatter
 
721
        supports logging only a single merge revision.  This flag is
 
722
        only relevant if supports_merge_revisions is not True.
1280
723
    - supports_tags must be True if this log formatter supports tags.
1281
724
        Otherwise the tags attribute may not be populated.
1282
725
 
1283
 
    - supports_diff must be True if this log formatter supports diffs.
1284
 
        Otherwise the diff attribute may not be populated.
1285
 
 
1286
726
    Plugins can register functions to show custom revision properties using
1287
727
    the properties_handler_registry. The registered function
1288
728
    must respect the following interface description:
1289
729
        def my_show_properties(properties_dict):
1290
 
            # code that returns a dict {'name':'value'} of the properties
 
730
            # code that returns a dict {'name':'value'} of the properties 
1291
731
            # to be shown
1292
732
    """
1293
 
    preferred_levels = 0
1294
733
 
1295
734
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1296
 
            delta_format=None, levels=None, show_advice=False,
1297
 
            to_exact_file=None):
1298
 
        """Create a LogFormatter.
1299
 
 
1300
 
        :param to_file: the file to output to
1301
 
        :param to_exact_file: if set, gives an output stream to which 
1302
 
             non-Unicode diffs are written.
1303
 
        :param show_ids: if True, revision-ids are to be displayed
1304
 
        :param show_timezone: the timezone to use
1305
 
        :param delta_format: the level of delta information to display
1306
 
          or None to leave it to the formatter to decide
1307
 
        :param levels: the number of levels to display; None or -1 to
1308
 
          let the log formatter decide.
1309
 
        :param show_advice: whether to show advice at the end of the
1310
 
          log or not
1311
 
        """
 
735
                 delta_format=None):
1312
736
        self.to_file = to_file
1313
 
        # 'exact' stream used to show diff, it should print content 'as is'
1314
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
1315
 
        if to_exact_file is not None:
1316
 
            self.to_exact_file = to_exact_file
1317
 
        else:
1318
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
1319
 
            # for code that expects to get diffs to pass in the exact file
1320
 
            # stream
1321
 
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1322
737
        self.show_ids = show_ids
1323
738
        self.show_timezone = show_timezone
1324
739
        if delta_format is None:
1325
740
            # Ensures backward compatibility
1326
741
            delta_format = 2 # long format
1327
742
        self.delta_format = delta_format
1328
 
        self.levels = levels
1329
 
        self._show_advice = show_advice
1330
 
        self._merge_count = 0
1331
 
 
1332
 
    def get_levels(self):
1333
 
        """Get the number of levels to display or 0 for all."""
1334
 
        if getattr(self, 'supports_merge_revisions', False):
1335
 
            if self.levels is None or self.levels == -1:
1336
 
                self.levels = self.preferred_levels
1337
 
        else:
1338
 
            self.levels = 1
1339
 
        return self.levels
1340
 
 
1341
 
    def log_revision(self, revision):
1342
 
        """Log a revision.
1343
 
 
1344
 
        :param  revision:   The LogRevision to be logged.
1345
 
        """
1346
 
        raise NotImplementedError('not implemented in abstract base')
1347
 
 
1348
 
    def show_advice(self):
1349
 
        """Output user advice, if any, when the log is completed."""
1350
 
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
1351
 
            advice_sep = self.get_advice_separator()
1352
 
            if advice_sep:
1353
 
                self.to_file.write(advice_sep)
1354
 
            self.to_file.write(
1355
 
                "Use --include-merges or -n0 to see merged revisions.\n")
1356
 
 
1357
 
    def get_advice_separator(self):
1358
 
        """Get the text separating the log from the closing advice."""
1359
 
        return ''
 
743
 
 
744
# TODO: uncomment this block after show() has been removed.
 
745
# Until then defining log_revision would prevent _show_log calling show() 
 
746
# in legacy formatters.
 
747
#    def log_revision(self, revision):
 
748
#        """Log a revision.
 
749
#
 
750
#        :param  revision:   The LogRevision to be logged.
 
751
#        """
 
752
#        raise NotImplementedError('not implemented in abstract base')
1360
753
 
1361
754
    def short_committer(self, rev):
1362
755
        name, address = config.parse_username(rev.committer)
1365
758
        return address
1366
759
 
1367
760
    def short_author(self, rev):
1368
 
        name, address = config.parse_username(rev.get_apparent_authors()[0])
 
761
        name, address = config.parse_username(rev.get_apparent_author())
1369
762
        if name:
1370
763
            return name
1371
764
        return address
1372
765
 
1373
 
    def merge_marker(self, revision):
1374
 
        """Get the merge marker to include in the output or '' if none."""
1375
 
        if len(revision.rev.parent_ids) > 1:
1376
 
            self._merge_count += 1
1377
 
            return ' [merge]'
1378
 
        else:
1379
 
            return ''
1380
 
 
1381
766
    def show_properties(self, revision, indent):
1382
767
        """Displays the custom properties returned by each registered handler.
1383
 
 
1384
 
        If a registered handler raises an error it is propagated.
1385
 
        """
1386
 
        for line in self.custom_properties(revision):
1387
 
            self.to_file.write("%s%s\n" % (indent, line))
1388
 
 
1389
 
    def custom_properties(self, revision):
1390
 
        """Format the custom properties returned by each registered handler.
1391
 
 
1392
 
        If a registered handler raises an error it is propagated.
1393
 
 
1394
 
        :return: a list of formatted lines (excluding trailing newlines)
1395
 
        """
1396
 
        lines = self._foreign_info_properties(revision)
 
768
        
 
769
        If a registered handler raises an error it is propagated.
 
770
        """
1397
771
        for key, handler in properties_handler_registry.iteritems():
1398
 
            lines.extend(self._format_properties(handler(revision)))
1399
 
        return lines
1400
 
 
1401
 
    def _foreign_info_properties(self, rev):
1402
 
        """Custom log displayer for foreign revision identifiers.
1403
 
 
1404
 
        :param rev: Revision object.
1405
 
        """
1406
 
        # Revision comes directly from a foreign repository
1407
 
        if isinstance(rev, foreign.ForeignRevision):
1408
 
            return rev.mapping.vcs.show_foreign_revid(rev.foreign_revid)
1409
 
 
1410
 
        # Imported foreign revision revision ids always contain :
1411
 
        if not ":" in rev.revision_id:
1412
 
            return []
1413
 
 
1414
 
        # Revision was once imported from a foreign repository
1415
 
        try:
1416
 
            foreign_revid, mapping = \
1417
 
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
1418
 
        except errors.InvalidRevisionId:
1419
 
            return []
1420
 
 
1421
 
        return self._format_properties(
1422
 
            mapping.vcs.show_foreign_revid(foreign_revid))
1423
 
 
1424
 
    def _format_properties(self, properties):
1425
 
        lines = []
1426
 
        for key, value in properties.items():
1427
 
            lines.append(key + ': ' + value)
1428
 
        return lines
1429
 
 
1430
 
    def show_diff(self, to_file, diff, indent):
1431
 
        for l in diff.rstrip().split('\n'):
1432
 
            to_file.write(indent + '%s\n' % (l,))
1433
 
 
1434
 
 
1435
 
# Separator between revisions in long format
1436
 
_LONG_SEP = '-' * 60
 
772
            for key, value in handler(revision).items():
 
773
                self.to_file.write(indent + key + ': ' + value + '\n')
1437
774
 
1438
775
 
1439
776
class LongLogFormatter(LogFormatter):
1440
777
 
1441
778
    supports_merge_revisions = True
1442
 
    preferred_levels = 1
1443
779
    supports_delta = True
1444
780
    supports_tags = True
1445
 
    supports_diff = True
1446
 
 
1447
 
    def __init__(self, *args, **kwargs):
1448
 
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1449
 
        if self.show_timezone == 'original':
1450
 
            self.date_string = self._date_string_original_timezone
1451
 
        else:
1452
 
            self.date_string = self._date_string_with_timezone
1453
 
 
1454
 
    def _date_string_with_timezone(self, rev):
1455
 
        return format_date(rev.timestamp, rev.timezone or 0,
1456
 
                           self.show_timezone)
1457
 
 
1458
 
    def _date_string_original_timezone(self, rev):
1459
 
        return format_date_with_offset_in_original_timezone(rev.timestamp,
1460
 
            rev.timezone or 0)
1461
781
 
1462
782
    def log_revision(self, revision):
1463
783
        """Log a revision, either merged or not."""
1464
784
        indent = '    ' * revision.merge_depth
1465
 
        lines = [_LONG_SEP]
 
785
        to_file = self.to_file
 
786
        to_file.write(indent + '-' * 60 + '\n')
1466
787
        if revision.revno is not None:
1467
 
            lines.append('revno: %s%s' % (revision.revno,
1468
 
                self.merge_marker(revision)))
 
788
            to_file.write(indent + 'revno: %s\n' % (revision.revno,))
1469
789
        if revision.tags:
1470
 
            lines.append('tags: %s' % (', '.join(revision.tags)))
 
790
            to_file.write(indent + 'tags: %s\n' % (', '.join(revision.tags)))
1471
791
        if self.show_ids:
1472
 
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
 
792
            to_file.write(indent + 'revision-id: ' + revision.rev.revision_id)
 
793
            to_file.write('\n')
1473
794
            for parent_id in revision.rev.parent_ids:
1474
 
                lines.append('parent: %s' % (parent_id,))
1475
 
        lines.extend(self.custom_properties(revision.rev))
 
795
                to_file.write(indent + 'parent: %s\n' % (parent_id,))
 
796
        self.show_properties(revision.rev, indent)
1476
797
 
1477
 
        committer = revision.rev.committer
1478
 
        authors = revision.rev.get_apparent_authors()
1479
 
        if authors != [committer]:
1480
 
            lines.append('author: %s' % (", ".join(authors),))
1481
 
        lines.append('committer: %s' % (committer,))
 
798
        author = revision.rev.properties.get('author', None)
 
799
        if author is not None:
 
800
            to_file.write(indent + 'author: %s\n' % (author,))
 
801
        to_file.write(indent + 'committer: %s\n' % (revision.rev.committer,))
1482
802
 
1483
803
        branch_nick = revision.rev.properties.get('branch-nick', None)
1484
804
        if branch_nick is not None:
1485
 
            lines.append('branch nick: %s' % (branch_nick,))
1486
 
 
1487
 
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1488
 
 
1489
 
        lines.append('message:')
 
805
            to_file.write(indent + 'branch nick: %s\n' % (branch_nick,))
 
806
 
 
807
        date_str = format_date(revision.rev.timestamp,
 
808
                               revision.rev.timezone or 0,
 
809
                               self.show_timezone)
 
810
        to_file.write(indent + 'timestamp: %s\n' % (date_str,))
 
811
 
 
812
        to_file.write(indent + 'message:\n')
1490
813
        if not revision.rev.message:
1491
 
            lines.append('  (no message)')
 
814
            to_file.write(indent + '  (no message)\n')
1492
815
        else:
1493
816
            message = revision.rev.message.rstrip('\r\n')
1494
817
            for l in message.split('\n'):
1495
 
                lines.append('  %s' % (l,))
1496
 
 
1497
 
        # Dump the output, appending the delta and diff if requested
1498
 
        to_file = self.to_file
1499
 
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
 
818
                to_file.write(indent + '  %s\n' % (l,))
1500
819
        if revision.delta is not None:
1501
820
            # We don't respect delta_format for compatibility
1502
821
            revision.delta.show(to_file, self.show_ids, indent=indent,
1503
822
                                short_status=False)
1504
 
        if revision.diff is not None:
1505
 
            to_file.write(indent + 'diff:\n')
1506
 
            to_file.flush()
1507
 
            # Note: we explicitly don't indent the diff (relative to the
1508
 
            # revision information) so that the output can be fed to patch -p0
1509
 
            self.show_diff(self.to_exact_file, revision.diff, indent)
1510
 
            self.to_exact_file.flush()
1511
 
 
1512
 
    def get_advice_separator(self):
1513
 
        """Get the text separating the log from the closing advice."""
1514
 
        return '-' * 60 + '\n'
1515
823
 
1516
824
 
1517
825
class ShortLogFormatter(LogFormatter):
1518
826
 
1519
 
    supports_merge_revisions = True
1520
 
    preferred_levels = 1
1521
827
    supports_delta = True
1522
 
    supports_tags = True
1523
 
    supports_diff = True
1524
 
 
1525
 
    def __init__(self, *args, **kwargs):
1526
 
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
1527
 
        self.revno_width_by_depth = {}
 
828
    supports_single_merge_revision = True
1528
829
 
1529
830
    def log_revision(self, revision):
1530
 
        # We need two indents: one per depth and one for the information
1531
 
        # relative to that indent. Most mainline revnos are 5 chars or
1532
 
        # less while dotted revnos are typically 11 chars or less. Once
1533
 
        # calculated, we need to remember the offset for a given depth
1534
 
        # as we might be starting from a dotted revno in the first column
1535
 
        # and we want subsequent mainline revisions to line up.
1536
 
        depth = revision.merge_depth
1537
 
        indent = '    ' * depth
1538
 
        revno_width = self.revno_width_by_depth.get(depth)
1539
 
        if revno_width is None:
1540
 
            if revision.revno.find('.') == -1:
1541
 
                # mainline revno, e.g. 12345
1542
 
                revno_width = 5
1543
 
            else:
1544
 
                # dotted revno, e.g. 12345.10.55
1545
 
                revno_width = 11
1546
 
            self.revno_width_by_depth[depth] = revno_width
1547
 
        offset = ' ' * (revno_width + 1)
1548
 
 
1549
831
        to_file = self.to_file
1550
 
        tags = ''
1551
 
        if revision.tags:
1552
 
            tags = ' {%s}' % (', '.join(revision.tags))
1553
 
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1554
 
                revision.revno, self.short_author(revision.rev),
 
832
        is_merge = ''
 
833
        if len(revision.rev.parent_ids) > 1:
 
834
            is_merge = ' [merge]'
 
835
        to_file.write("%5s %s\t%s%s\n" % (revision.revno,
 
836
                self.short_author(revision.rev),
1555
837
                format_date(revision.rev.timestamp,
1556
838
                            revision.rev.timezone or 0,
1557
839
                            self.show_timezone, date_fmt="%Y-%m-%d",
1558
840
                            show_offset=False),
1559
 
                tags, self.merge_marker(revision)))
1560
 
        self.show_properties(revision.rev, indent+offset)
 
841
                is_merge))
1561
842
        if self.show_ids:
1562
 
            to_file.write(indent + offset + 'revision-id:%s\n'
 
843
            to_file.write('      revision-id:%s\n'
1563
844
                          % (revision.rev.revision_id,))
1564
845
        if not revision.rev.message:
1565
 
            to_file.write(indent + offset + '(no message)\n')
 
846
            to_file.write('      (no message)\n')
1566
847
        else:
1567
848
            message = revision.rev.message.rstrip('\r\n')
1568
849
            for l in message.split('\n'):
1569
 
                to_file.write(indent + offset + '%s\n' % (l,))
 
850
                to_file.write('      %s\n' % (l,))
1570
851
 
1571
852
        if revision.delta is not None:
1572
 
            revision.delta.show(to_file, self.show_ids, indent=indent + offset,
 
853
            revision.delta.show(to_file, self.show_ids,
1573
854
                                short_status=self.delta_format==1)
1574
 
        if revision.diff is not None:
1575
 
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1576
855
        to_file.write('\n')
1577
856
 
1578
857
 
1579
858
class LineLogFormatter(LogFormatter):
1580
859
 
1581
 
    supports_merge_revisions = True
1582
 
    preferred_levels = 1
1583
 
    supports_tags = True
 
860
    supports_single_merge_revision = True
1584
861
 
1585
862
    def __init__(self, *args, **kwargs):
1586
863
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1587
 
        width = terminal_width()
1588
 
        if width is not None:
1589
 
            # we need one extra space for terminals that wrap on last char
1590
 
            width = width - 1
1591
 
        self._max_chars = width
 
864
        self._max_chars = terminal_width() - 1
1592
865
 
1593
866
    def truncate(self, str, max_len):
1594
 
        if max_len is None or len(str) <= max_len:
 
867
        if len(str) <= max_len:
1595
868
            return str
1596
 
        return str[:max_len-3] + '...'
 
869
        return str[:max_len-3]+'...'
1597
870
 
1598
871
    def date_string(self, rev):
1599
872
        return format_date(rev.timestamp, rev.timezone or 0,
1607
880
            return rev.message
1608
881
 
1609
882
    def log_revision(self, revision):
1610
 
        indent = '  ' * revision.merge_depth
1611
883
        self.to_file.write(self.log_string(revision.revno, revision.rev,
1612
 
            self._max_chars, revision.tags, indent))
 
884
                                              self._max_chars))
1613
885
        self.to_file.write('\n')
1614
886
 
1615
 
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
 
887
    def log_string(self, revno, rev, max_chars):
1616
888
        """Format log info into one string. Truncate tail of string
1617
889
        :param  revno:      revision number or None.
1618
890
                            Revision numbers counts from 1.
1619
 
        :param  rev:        revision object
 
891
        :param  rev:        revision info object
1620
892
        :param  max_chars:  maximum length of resulting string
1621
 
        :param  tags:       list of tags or None
1622
 
        :param  prefix:     string to prefix each line
1623
893
        :return:            formatted truncated string
1624
894
        """
1625
895
        out = []
1628
898
            out.append("%s:" % revno)
1629
899
        out.append(self.truncate(self.short_author(rev), 20))
1630
900
        out.append(self.date_string(rev))
1631
 
        if len(rev.parent_ids) > 1:
1632
 
            out.append('[merge]')
1633
 
        if tags:
1634
 
            tag_str = '{%s}' % (', '.join(tags))
1635
 
            out.append(tag_str)
1636
901
        out.append(rev.get_summary())
1637
 
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1638
 
 
1639
 
 
1640
 
class GnuChangelogLogFormatter(LogFormatter):
1641
 
 
1642
 
    supports_merge_revisions = True
1643
 
    supports_delta = True
1644
 
 
1645
 
    def log_revision(self, revision):
1646
 
        """Log a revision, either merged or not."""
1647
 
        to_file = self.to_file
1648
 
 
1649
 
        date_str = format_date(revision.rev.timestamp,
1650
 
                               revision.rev.timezone or 0,
1651
 
                               self.show_timezone,
1652
 
                               date_fmt='%Y-%m-%d',
1653
 
                               show_offset=False)
1654
 
        committer_str = revision.rev.committer.replace (' <', '  <')
1655
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1656
 
 
1657
 
        if revision.delta is not None and revision.delta.has_changed():
1658
 
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1659
 
                path, = c[:1]
1660
 
                to_file.write('\t* %s:\n' % (path,))
1661
 
            for c in revision.delta.renamed:
1662
 
                oldpath,newpath = c[:2]
1663
 
                # For renamed files, show both the old and the new path
1664
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
1665
 
            to_file.write('\n')
1666
 
 
1667
 
        if not revision.rev.message:
1668
 
            to_file.write('\tNo commit message\n')
1669
 
        else:
1670
 
            message = revision.rev.message.rstrip('\r\n')
1671
 
            for l in message.split('\n'):
1672
 
                to_file.write('\t%s\n' % (l.lstrip(),))
1673
 
            to_file.write('\n')
 
902
        return self.truncate(" ".join(out).rstrip('\n'), max_chars)
1674
903
 
1675
904
 
1676
905
def line_log(rev, max_chars):
1702
931
                                'Detailed log format')
1703
932
log_formatter_registry.register('line', LineLogFormatter,
1704
933
                                'Log format with one line per revision')
1705
 
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1706
 
                                'Format used by GNU ChangeLog files')
1707
934
 
1708
935
 
1709
936
def register_formatter(name, formatter):
1878
1105
        lf.log_revision(lr)
1879
1106
 
1880
1107
 
1881
 
def _get_info_for_log_files(revisionspec_list, file_list):
1882
 
    """Find file-ids and kinds given a list of files and a revision range.
1883
 
 
1884
 
    We search for files at the end of the range. If not found there,
1885
 
    we try the start of the range.
1886
 
 
1887
 
    :param revisionspec_list: revision range as parsed on the command line
1888
 
    :param file_list: the list of paths given on the command line;
1889
 
      the first of these can be a branch location or a file path,
1890
 
      the remainder must be file paths
1891
 
    :return: (branch, info_list, start_rev_info, end_rev_info) where
1892
 
      info_list is a list of (relative_path, file_id, kind) tuples where
1893
 
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
1894
 
      branch will be read-locked.
1895
 
    """
1896
 
    from builtins import _get_revision_range, safe_relpath_files
1897
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
1898
 
    b.lock_read()
1899
 
    # XXX: It's damn messy converting a list of paths to relative paths when
1900
 
    # those paths might be deleted ones, they might be on a case-insensitive
1901
 
    # filesystem and/or they might be in silly locations (like another branch).
1902
 
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
1903
 
    # file2 implicitly in the same dir as file1 or should its directory be
1904
 
    # taken from the current tree somehow?) For now, this solves the common
1905
 
    # case of running log in a nested directory, assuming paths beyond the
1906
 
    # first one haven't been deleted ...
1907
 
    if tree:
1908
 
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
1909
 
    else:
1910
 
        relpaths = [path] + file_list[1:]
1911
 
    info_list = []
1912
 
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
1913
 
        "log")
1914
 
    if relpaths in ([], [u'']):
1915
 
        return b, [], start_rev_info, end_rev_info
1916
 
    if start_rev_info is None and end_rev_info is None:
1917
 
        if tree is None:
1918
 
            tree = b.basis_tree()
1919
 
        tree1 = None
1920
 
        for fp in relpaths:
1921
 
            file_id = tree.path2id(fp)
1922
 
            kind = _get_kind_for_file_id(tree, file_id)
1923
 
            if file_id is None:
1924
 
                # go back to when time began
1925
 
                if tree1 is None:
1926
 
                    try:
1927
 
                        rev1 = b.get_rev_id(1)
1928
 
                    except errors.NoSuchRevision:
1929
 
                        # No history at all
1930
 
                        file_id = None
1931
 
                        kind = None
1932
 
                    else:
1933
 
                        tree1 = b.repository.revision_tree(rev1)
1934
 
                if tree1:
1935
 
                    file_id = tree1.path2id(fp)
1936
 
                    kind = _get_kind_for_file_id(tree1, file_id)
1937
 
            info_list.append((fp, file_id, kind))
1938
 
 
1939
 
    elif start_rev_info == end_rev_info:
1940
 
        # One revision given - file must exist in it
1941
 
        tree = b.repository.revision_tree(end_rev_info.rev_id)
1942
 
        for fp in relpaths:
1943
 
            file_id = tree.path2id(fp)
1944
 
            kind = _get_kind_for_file_id(tree, file_id)
1945
 
            info_list.append((fp, file_id, kind))
1946
 
 
1947
 
    else:
1948
 
        # Revision range given. Get the file-id from the end tree.
1949
 
        # If that fails, try the start tree.
1950
 
        rev_id = end_rev_info.rev_id
1951
 
        if rev_id is None:
1952
 
            tree = b.basis_tree()
1953
 
        else:
1954
 
            tree = b.repository.revision_tree(rev_id)
1955
 
        tree1 = None
1956
 
        for fp in relpaths:
1957
 
            file_id = tree.path2id(fp)
1958
 
            kind = _get_kind_for_file_id(tree, file_id)
1959
 
            if file_id is None:
1960
 
                if tree1 is None:
1961
 
                    rev_id = start_rev_info.rev_id
1962
 
                    if rev_id is None:
1963
 
                        rev1 = b.get_rev_id(1)
1964
 
                        tree1 = b.repository.revision_tree(rev1)
1965
 
                    else:
1966
 
                        tree1 = b.repository.revision_tree(rev_id)
1967
 
                file_id = tree1.path2id(fp)
1968
 
                kind = _get_kind_for_file_id(tree1, file_id)
1969
 
            info_list.append((fp, file_id, kind))
1970
 
    return b, info_list, start_rev_info, end_rev_info
1971
 
 
1972
 
 
1973
 
def _get_kind_for_file_id(tree, file_id):
1974
 
    """Return the kind of a file-id or None if it doesn't exist."""
1975
 
    if file_id is not None:
1976
 
        return tree.kind(file_id)
1977
 
    else:
1978
 
        return None
1979
 
 
1980
 
 
1981
1108
properties_handler_registry = registry.Registry()
1982
 
 
1983
 
# Use the properties handlers to print out bug information if available
1984
 
def _bugs_properties_handler(revision):
1985
 
    if revision.properties.has_key('bugs'):
1986
 
        bug_lines = revision.properties['bugs'].split('\n')
1987
 
        bug_rows = [line.split(' ', 1) for line in bug_lines]
1988
 
        fixed_bug_urls = [row[0] for row in bug_rows if
1989
 
                          len(row) > 1 and row[1] == 'fixed']
1990
 
        
1991
 
        if fixed_bug_urls:
1992
 
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
1993
 
    return {}
1994
 
 
1995
 
properties_handler_registry.register('bugs_properties_handler',
1996
 
                                     _bugs_properties_handler)
 
1109
properties_handler_registry.register_lazy("foreign",
 
1110
                                          "bzrlib.foreign",
 
1111
                                          "show_foreign_properties")
1997
1112
 
1998
1113
 
1999
1114
# adapters which revision ids to log are filtered. When log is called, the