~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Vincent Ladeuil
  • Date: 2007-06-20 14:25:06 UTC
  • mfrom: (2540 +trunk)
  • mto: This revision was merged to the branch mainline in revision 2646.
  • Revision ID: v.ladeuil+lp@free.fr-20070620142506-txsb1v8538kpsafw
merge bzr.dev @ 2540

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007, 2009 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
 
18
18
 
42
42
 
43
43
In verbose mode we show a summary of what changed in each particular
44
44
revision.  Note that this is the delta for changes in that revision
45
 
relative to its left-most parent, not the delta relative to the last
 
45
relative to its mainline parent, not the delta relative to the last
46
46
logged revision.  So for example if you ask for a verbose log of
47
47
changes touching hello.c you will get a list of those revisions also
48
48
listing other things that were changed in the same revision, but not
49
49
all the changes since the previous revision that touched hello.c.
50
50
"""
51
51
 
52
 
import codecs
53
 
from cStringIO import StringIO
54
 
from itertools import (
55
 
    chain,
56
 
    izip,
57
 
    )
 
52
# TODO: option to show delta summaries for merged-in revisions
 
53
 
 
54
from itertools import izip
58
55
import re
59
 
import sys
60
 
from warnings import (
61
 
    warn,
62
 
    )
63
 
 
64
 
from bzrlib.lazy_import import lazy_import
65
 
lazy_import(globals(), """
66
 
 
67
 
from bzrlib import (
68
 
    bzrdir,
69
 
    config,
70
 
    diff,
71
 
    errors,
72
 
    foreign,
73
 
    repository as _mod_repository,
74
 
    revision as _mod_revision,
75
 
    revisionspec,
76
 
    trace,
77
 
    tsort,
78
 
    )
79
 
""")
80
56
 
81
57
from bzrlib import (
82
58
    registry,
83
 
    )
84
 
from bzrlib.osutils import (
85
 
    format_date,
86
 
    format_date_with_offset_in_original_timezone,
87
 
    get_terminal_encoding,
88
 
    re_compile_checked,
89
 
    terminal_width,
90
 
    )
 
59
    symbol_versioning,
 
60
    )
 
61
import bzrlib.errors as errors
91
62
from bzrlib.symbol_versioning import (
92
 
    deprecated_function,
93
 
    deprecated_in,
 
63
    deprecated_method,
 
64
    zero_eleven,
 
65
    zero_seventeen,
 
66
    )
 
67
from bzrlib.trace import mutter
 
68
from bzrlib.tsort import (
 
69
    merge_sort,
 
70
    topo_sort,
94
71
    )
95
72
 
96
73
 
138
115
        revno += 1
139
116
 
140
117
 
 
118
 
141
119
def _enumerate_history(branch):
142
120
    rh = []
143
121
    revno = 1
155
133
             start_revision=None,
156
134
             end_revision=None,
157
135
             search=None,
158
 
             limit=None,
159
 
             show_diff=False):
 
136
             limit=None):
160
137
    """Write out human-readable log of commits to this branch.
161
138
 
162
 
    This function is being retained for backwards compatibility but
163
 
    should not be extended with new parameters. Use the new Logger class
164
 
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
165
 
    make_log_request_dict function.
166
 
 
167
 
    :param lf: The LogFormatter object showing the output.
168
 
 
169
 
    :param specific_fileid: If not None, list only the commits affecting the
170
 
        specified file, rather than all commits.
171
 
 
172
 
    :param verbose: If True show added/changed/deleted/renamed files.
173
 
 
174
 
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
175
 
        earliest to latest.
176
 
 
177
 
    :param start_revision: If not None, only show revisions >= start_revision
178
 
 
179
 
    :param end_revision: If not None, only show revisions <= end_revision
180
 
 
181
 
    :param search: If not None, only show revisions with matching commit
182
 
        messages
183
 
 
184
 
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
185
 
        if None or 0.
186
 
 
187
 
    :param show_diff: If True, output a diff after each revision.
188
 
    """
189
 
    # Convert old-style parameters to new-style parameters
190
 
    if specific_fileid is not None:
191
 
        file_ids = [specific_fileid]
192
 
    else:
193
 
        file_ids = None
194
 
    if verbose:
195
 
        if file_ids:
196
 
            delta_type = 'partial'
197
 
        else:
198
 
            delta_type = 'full'
199
 
    else:
200
 
        delta_type = None
201
 
    if show_diff:
202
 
        if file_ids:
203
 
            diff_type = 'partial'
204
 
        else:
205
 
            diff_type = 'full'
206
 
    else:
207
 
        diff_type = None
208
 
 
209
 
    # Build the request and execute it
210
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
211
 
        start_revision=start_revision, end_revision=end_revision,
212
 
        limit=limit, message_search=search,
213
 
        delta_type=delta_type, diff_type=diff_type)
214
 
    Logger(branch, rqst).show(lf)
215
 
 
216
 
 
217
 
# Note: This needs to be kept this in sync with the defaults in
218
 
# make_log_request_dict() below
219
 
_DEFAULT_REQUEST_PARAMS = {
220
 
    'direction': 'reverse',
221
 
    'levels': 1,
222
 
    'generate_tags': True,
223
 
    '_match_using_deltas': True,
224
 
    }
225
 
 
226
 
 
227
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
228
 
    start_revision=None, end_revision=None, limit=None,
229
 
    message_search=None, levels=1, generate_tags=True, delta_type=None,
230
 
    diff_type=None, _match_using_deltas=True):
231
 
    """Convenience function for making a logging request dictionary.
232
 
 
233
 
    Using this function may make code slightly safer by ensuring
234
 
    parameters have the correct names. It also provides a reference
235
 
    point for documenting the supported parameters.
236
 
 
237
 
    :param direction: 'reverse' (default) is latest to earliest;
238
 
      'forward' is earliest to latest.
239
 
 
240
 
    :param specific_fileids: If not None, only include revisions
241
 
      affecting the specified files, rather than all revisions.
242
 
 
243
 
    :param start_revision: If not None, only generate
244
 
      revisions >= start_revision
245
 
 
246
 
    :param end_revision: If not None, only generate
247
 
      revisions <= end_revision
248
 
 
249
 
    :param limit: If set, generate only 'limit' revisions, all revisions
250
 
      are shown if None or 0.
251
 
 
252
 
    :param message_search: If not None, only include revisions with
253
 
      matching commit messages
254
 
 
255
 
    :param levels: the number of levels of revisions to
256
 
      generate; 1 for just the mainline; 0 for all levels.
257
 
 
258
 
    :param generate_tags: If True, include tags for matched revisions.
259
 
 
260
 
    :param delta_type: Either 'full', 'partial' or None.
261
 
      'full' means generate the complete delta - adds/deletes/modifies/etc;
262
 
      'partial' means filter the delta using specific_fileids;
263
 
      None means do not generate any delta.
264
 
 
265
 
    :param diff_type: Either 'full', 'partial' or None.
266
 
      'full' means generate the complete diff - adds/deletes/modifies/etc;
267
 
      'partial' means filter the diff using specific_fileids;
268
 
      None means do not generate any diff.
269
 
 
270
 
    :param _match_using_deltas: a private parameter controlling the
271
 
      algorithm used for matching specific_fileids. This parameter
272
 
      may be removed in the future so bzrlib client code should NOT
273
 
      use it.
274
 
    """
275
 
    return {
276
 
        'direction': direction,
277
 
        'specific_fileids': specific_fileids,
278
 
        'start_revision': start_revision,
279
 
        'end_revision': end_revision,
280
 
        'limit': limit,
281
 
        'message_search': message_search,
282
 
        'levels': levels,
283
 
        'generate_tags': generate_tags,
284
 
        'delta_type': delta_type,
285
 
        'diff_type': diff_type,
286
 
        # Add 'private' attributes for features that may be deprecated
287
 
        '_match_using_deltas': _match_using_deltas,
288
 
    }
289
 
 
290
 
 
291
 
def _apply_log_request_defaults(rqst):
292
 
    """Apply default values to a request dictionary."""
293
 
    result = _DEFAULT_REQUEST_PARAMS
294
 
    if rqst:
295
 
        result.update(rqst)
296
 
    return result
297
 
 
298
 
 
299
 
class LogGenerator(object):
300
 
    """A generator of log revisions."""
301
 
 
302
 
    def iter_log_revisions(self):
303
 
        """Iterate over LogRevision objects.
304
 
 
305
 
        :return: An iterator yielding LogRevision objects.
306
 
        """
307
 
        raise NotImplementedError(self.iter_log_revisions)
308
 
 
309
 
 
310
 
class Logger(object):
311
 
    """An object that generates, formats and displays a log."""
312
 
 
313
 
    def __init__(self, branch, rqst):
314
 
        """Create a Logger.
315
 
 
316
 
        :param branch: the branch to log
317
 
        :param rqst: A dictionary specifying the query parameters.
318
 
          See make_log_request_dict() for supported values.
319
 
        """
320
 
        self.branch = branch
321
 
        self.rqst = _apply_log_request_defaults(rqst)
322
 
 
323
 
    def show(self, lf):
324
 
        """Display the log.
325
 
 
326
 
        :param lf: The LogFormatter object to send the output to.
327
 
        """
328
 
        if not isinstance(lf, LogFormatter):
329
 
            warn("not a LogFormatter instance: %r" % lf)
330
 
 
331
 
        self.branch.lock_read()
332
 
        try:
333
 
            if getattr(lf, 'begin_log', None):
334
 
                lf.begin_log()
335
 
            self._show_body(lf)
336
 
            if getattr(lf, 'end_log', None):
337
 
                lf.end_log()
338
 
        finally:
339
 
            self.branch.unlock()
340
 
 
341
 
    def _show_body(self, lf):
342
 
        """Show the main log output.
343
 
 
344
 
        Subclasses may wish to override this.
345
 
        """
346
 
        # Tweak the LogRequest based on what the LogFormatter can handle.
347
 
        # (There's no point generating stuff if the formatter can't display it.)
348
 
        rqst = self.rqst
349
 
        rqst['levels'] = lf.get_levels()
350
 
        if not getattr(lf, 'supports_tags', False):
351
 
            rqst['generate_tags'] = False
352
 
        if not getattr(lf, 'supports_delta', False):
353
 
            rqst['delta_type'] = None
354
 
        if not getattr(lf, 'supports_diff', False):
355
 
            rqst['diff_type'] = None
356
 
 
357
 
        # Find and print the interesting revisions
358
 
        generator = self._generator_factory(self.branch, rqst)
359
 
        for lr in generator.iter_log_revisions():
360
 
            lf.log_revision(lr)
361
 
        lf.show_advice()
362
 
 
363
 
    def _generator_factory(self, branch, rqst):
364
 
        """Make the LogGenerator object to use.
365
 
        
366
 
        Subclasses may wish to override this.
367
 
        """
368
 
        return _DefaultLogGenerator(branch, rqst)
369
 
 
370
 
 
371
 
class _StartNotLinearAncestor(Exception):
372
 
    """Raised when a start revision is not found walking left-hand history."""
373
 
 
374
 
 
375
 
class _DefaultLogGenerator(LogGenerator):
376
 
    """The default generator of log revisions."""
377
 
 
378
 
    def __init__(self, branch, rqst):
379
 
        self.branch = branch
380
 
        self.rqst = rqst
381
 
        if rqst.get('generate_tags') and branch.supports_tags():
382
 
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
383
 
        else:
384
 
            self.rev_tag_dict = {}
385
 
 
386
 
    def iter_log_revisions(self):
387
 
        """Iterate over LogRevision objects.
388
 
 
389
 
        :return: An iterator yielding LogRevision objects.
390
 
        """
391
 
        rqst = self.rqst
392
 
        levels = rqst.get('levels')
393
 
        limit = rqst.get('limit')
394
 
        diff_type = rqst.get('diff_type')
395
 
        log_count = 0
396
 
        revision_iterator = self._create_log_revision_iterator()
397
 
        for revs in revision_iterator:
398
 
            for (rev_id, revno, merge_depth), rev, delta in revs:
399
 
                # 0 levels means show everything; merge_depth counts from 0
400
 
                if levels != 0 and merge_depth >= levels:
401
 
                    continue
402
 
                if diff_type is None:
403
 
                    diff = None
404
 
                else:
405
 
                    diff = self._format_diff(rev, rev_id, diff_type)
406
 
                yield LogRevision(rev, revno, merge_depth, delta,
407
 
                    self.rev_tag_dict.get(rev_id), diff)
408
 
                if limit:
409
 
                    log_count += 1
410
 
                    if log_count >= limit:
411
 
                        return
412
 
 
413
 
    def _format_diff(self, rev, rev_id, diff_type):
414
 
        repo = self.branch.repository
415
 
        if len(rev.parent_ids) == 0:
416
 
            ancestor_id = _mod_revision.NULL_REVISION
417
 
        else:
418
 
            ancestor_id = rev.parent_ids[0]
419
 
        tree_1 = repo.revision_tree(ancestor_id)
420
 
        tree_2 = repo.revision_tree(rev_id)
421
 
        file_ids = self.rqst.get('specific_fileids')
422
 
        if diff_type == 'partial' and file_ids is not None:
423
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
424
 
        else:
425
 
            specific_files = None
426
 
        s = StringIO()
427
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
428
 
            new_label='')
429
 
        return s.getvalue()
430
 
 
431
 
    def _create_log_revision_iterator(self):
432
 
        """Create a revision iterator for log.
433
 
 
434
 
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
435
 
            delta).
436
 
        """
437
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
438
 
            self.branch, self.rqst.get('start_revision'),
439
 
            self.rqst.get('end_revision'))
440
 
        if self.rqst.get('_match_using_deltas'):
441
 
            return self._log_revision_iterator_using_delta_matching()
442
 
        else:
443
 
            # We're using the per-file-graph algorithm. This scales really
444
 
            # well but only makes sense if there is a single file and it's
445
 
            # not a directory
446
 
            file_count = len(self.rqst.get('specific_fileids'))
447
 
            if file_count != 1:
448
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
449
 
                    "when logging %d files" % file_count)
450
 
            return self._log_revision_iterator_using_per_file_graph()
451
 
 
452
 
    def _log_revision_iterator_using_delta_matching(self):
453
 
        # Get the base revisions, filtering by the revision range
454
 
        rqst = self.rqst
455
 
        generate_merge_revisions = rqst.get('levels') != 1
456
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
457
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
458
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
459
 
            self.end_rev_id, rqst.get('direction'), generate_merge_revisions,
460
 
            delayed_graph_generation=delayed_graph_generation)
461
 
 
462
 
        # Apply the other filters
463
 
        return make_log_rev_iterator(self.branch, view_revisions,
464
 
            rqst.get('delta_type'), rqst.get('message_search'),
465
 
            file_ids=rqst.get('specific_fileids'),
466
 
            direction=rqst.get('direction'))
467
 
 
468
 
    def _log_revision_iterator_using_per_file_graph(self):
469
 
        # Get the base revisions, filtering by the revision range.
470
 
        # Note that we always generate the merge revisions because
471
 
        # filter_revisions_touching_file_id() requires them ...
472
 
        rqst = self.rqst
473
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
474
 
            self.end_rev_id, rqst.get('direction'), True)
475
 
        if not isinstance(view_revisions, list):
476
 
            view_revisions = list(view_revisions)
477
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
478
 
            rqst.get('specific_fileids')[0], view_revisions,
479
 
            include_merges=rqst.get('levels') != 1)
480
 
        return make_log_rev_iterator(self.branch, view_revisions,
481
 
            rqst.get('delta_type'), rqst.get('message_search'))
482
 
 
483
 
 
484
 
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
485
 
    generate_merge_revisions, delayed_graph_generation=False):
486
 
    """Calculate the revisions to view.
487
 
 
488
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
489
 
             a list of the same tuples.
490
 
    """
491
 
    br_revno, br_rev_id = branch.last_revision_info()
492
 
    if br_revno == 0:
493
 
        return []
494
 
 
495
 
    # If a single revision is requested, check we can handle it
496
 
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
497
 
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
498
 
    if generate_single_revision:
499
 
        return _generate_one_revision(branch, end_rev_id, br_rev_id, br_revno)
500
 
 
501
 
    # If we only want to see linear revisions, we can iterate ...
502
 
    if not generate_merge_revisions:
503
 
        return _generate_flat_revisions(branch, start_rev_id, end_rev_id,
504
 
            direction)
505
 
    else:
506
 
        return _generate_all_revisions(branch, start_rev_id, end_rev_id,
507
 
            direction, delayed_graph_generation)
508
 
 
509
 
 
510
 
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
511
 
    if rev_id == br_rev_id:
512
 
        # It's the tip
513
 
        return [(br_rev_id, br_revno, 0)]
514
 
    else:
515
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
516
 
        revno_str = '.'.join(str(n) for n in revno)
517
 
        return [(rev_id, revno_str, 0)]
518
 
 
519
 
 
520
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
521
 
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
522
 
    # If a start limit was given and it's not obviously an
523
 
    # ancestor of the end limit, check it before outputting anything
524
 
    if direction == 'forward' or (start_rev_id
525
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
526
 
        try:
527
 
            result = list(result)
528
 
        except _StartNotLinearAncestor:
529
 
            raise errors.BzrCommandError('Start revision not found in'
530
 
                ' left-hand history of end revision.')
531
 
    if direction == 'forward':
532
 
        result = reversed(result)
533
 
    return result
534
 
 
535
 
 
536
 
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
537
 
                            delayed_graph_generation):
538
 
    # On large trees, generating the merge graph can take 30-60 seconds
539
 
    # so we delay doing it until a merge is detected, incrementally
540
 
    # returning initial (non-merge) revisions while we can.
541
 
 
542
 
    # The above is only true for old formats (<= 0.92), for newer formats, a
543
 
    # couple of seconds only should be needed to load the whole graph and the
544
 
    # other graph operations needed are even faster than that -- vila 100201
545
 
    initial_revisions = []
546
 
    if delayed_graph_generation:
547
 
        try:
548
 
            for rev_id, revno, depth in  _linear_view_revisions(
549
 
                branch, start_rev_id, end_rev_id):
550
 
                if _has_merges(branch, rev_id):
551
 
                    # The end_rev_id can be nested down somewhere. We need an
552
 
                    # explicit ancestry check. There is an ambiguity here as we
553
 
                    # may not raise _StartNotLinearAncestor for a revision that
554
 
                    # is an ancestor but not a *linear* one. But since we have
555
 
                    # loaded the graph to do the check (or calculate a dotted
556
 
                    # revno), we may as well accept to show the log... 
557
 
                    # -- vila 100201
558
 
                    graph = branch.repository.get_graph()
559
 
                    if not graph.is_ancestor(start_rev_id, end_rev_id):
560
 
                        raise _StartNotLinearAncestor()
561
 
                    end_rev_id = rev_id
562
 
                    break
563
 
                else:
564
 
                    initial_revisions.append((rev_id, revno, depth))
565
 
            else:
566
 
                # No merged revisions found
567
 
                if direction == 'reverse':
568
 
                    return initial_revisions
569
 
                elif direction == 'forward':
570
 
                    return reversed(initial_revisions)
571
 
                else:
572
 
                    raise ValueError('invalid direction %r' % direction)
573
 
        except _StartNotLinearAncestor:
574
 
            # A merge was never detected so the lower revision limit can't
575
 
            # be nested down somewhere
576
 
            raise errors.BzrCommandError('Start revision not found in'
577
 
                ' history of end revision.')
578
 
 
579
 
    # A log including nested merges is required. If the direction is reverse,
580
 
    # we rebase the initial merge depths so that the development line is
581
 
    # shown naturally, i.e. just like it is for linear logging. We can easily
582
 
    # make forward the exact opposite display, but showing the merge revisions
583
 
    # indented at the end seems slightly nicer in that case.
584
 
    view_revisions = chain(iter(initial_revisions),
585
 
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
586
 
        rebase_initial_depths=direction == 'reverse'))
587
 
    if direction == 'reverse':
588
 
        return view_revisions
589
 
    elif direction == 'forward':
590
 
        # Forward means oldest first, adjusting for depth.
591
 
        view_revisions = reverse_by_depth(list(view_revisions))
592
 
        return _rebase_merge_depth(view_revisions)
593
 
    else:
594
 
        raise ValueError('invalid direction %r' % direction)
595
 
 
596
 
 
597
 
def _has_merges(branch, rev_id):
598
 
    """Does a revision have multiple parents or not?"""
599
 
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
600
 
    return len(parents) > 1
601
 
 
602
 
 
603
 
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
604
 
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
605
 
    if start_rev_id and end_rev_id:
606
 
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
607
 
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
608
 
        if len(start_dotted) == 1 and len(end_dotted) == 1:
609
 
            # both on mainline
610
 
            return start_dotted[0] <= end_dotted[0]
611
 
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
612
 
            start_dotted[0:1] == end_dotted[0:1]):
613
 
            # both on same development line
614
 
            return start_dotted[2] <= end_dotted[2]
615
 
        else:
616
 
            # not obvious
617
 
            return False
618
 
    # if either start or end is not specified then we use either the first or
619
 
    # the last revision and *they* are obvious ancestors.
620
 
    return True
621
 
 
622
 
 
623
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
624
 
    """Calculate a sequence of revisions to view, newest to oldest.
625
 
 
626
 
    :param start_rev_id: the lower revision-id
627
 
    :param end_rev_id: the upper revision-id
628
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
629
 
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
630
 
      is not found walking the left-hand history
631
 
    """
632
 
    br_revno, br_rev_id = branch.last_revision_info()
633
 
    repo = branch.repository
634
 
    if start_rev_id is None and end_rev_id is None:
635
 
        cur_revno = br_revno
636
 
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
637
 
            yield revision_id, str(cur_revno), 0
638
 
            cur_revno -= 1
639
 
    else:
640
 
        if end_rev_id is None:
641
 
            end_rev_id = br_rev_id
642
 
        found_start = start_rev_id is None
643
 
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
644
 
            revno = branch.revision_id_to_dotted_revno(revision_id)
645
 
            revno_str = '.'.join(str(n) for n in revno)
646
 
            if not found_start and revision_id == start_rev_id:
647
 
                yield revision_id, revno_str, 0
648
 
                found_start = True
649
 
                break
650
 
            else:
651
 
                yield revision_id, revno_str, 0
652
 
        else:
653
 
            if not found_start:
654
 
                raise _StartNotLinearAncestor()
655
 
 
656
 
 
657
 
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
658
 
    rebase_initial_depths=True):
659
 
    """Calculate revisions to view including merges, newest to oldest.
660
 
 
661
 
    :param branch: the branch
662
 
    :param start_rev_id: the lower revision-id
663
 
    :param end_rev_id: the upper revision-id
664
 
    :param rebase_initial_depth: should depths be rebased until a mainline
665
 
      revision is found?
666
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
667
 
    """
668
 
    view_revisions = branch.iter_merge_sorted_revisions(
669
 
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
670
 
        stop_rule="with-merges")
671
 
    if not rebase_initial_depths:
672
 
        for (rev_id, merge_depth, revno, end_of_merge
673
 
             ) in view_revisions:
674
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
675
 
    else:
676
 
        # We're following a development line starting at a merged revision.
677
 
        # We need to adjust depths down by the initial depth until we find
678
 
        # a depth less than it. Then we use that depth as the adjustment.
679
 
        # If and when we reach the mainline, depth adjustment ends.
680
 
        depth_adjustment = None
681
 
        for (rev_id, merge_depth, revno, end_of_merge
682
 
             ) in view_revisions:
683
 
            if depth_adjustment is None:
684
 
                depth_adjustment = merge_depth
685
 
            if depth_adjustment:
686
 
                if merge_depth < depth_adjustment:
687
 
                    # From now on we reduce the depth adjustement, this can be
688
 
                    # surprising for users. The alternative requires two passes
689
 
                    # which breaks the fast display of the first revision
690
 
                    # though.
691
 
                    depth_adjustment = merge_depth
692
 
                merge_depth -= depth_adjustment
693
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
694
 
 
695
 
 
696
 
@deprecated_function(deprecated_in((2, 2, 0)))
697
 
def calculate_view_revisions(branch, start_revision, end_revision, direction,
698
 
        specific_fileid, generate_merge_revisions):
699
 
    """Calculate the revisions to view.
700
 
 
701
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
702
 
             a list of the same tuples.
703
 
    """
704
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
705
 
        end_revision)
706
 
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
707
 
        direction, generate_merge_revisions or specific_fileid))
 
139
    lf
 
140
        LogFormatter object to show the output.
 
141
 
 
142
    specific_fileid
 
143
        If true, list only the commits affecting the specified
 
144
        file, rather than all commits.
 
145
 
 
146
    verbose
 
147
        If true show added/changed/deleted/renamed files.
 
148
 
 
149
    direction
 
150
        'reverse' (default) is latest to earliest;
 
151
        'forward' is earliest to latest.
 
152
 
 
153
    start_revision
 
154
        If not None, only show revisions >= start_revision
 
155
 
 
156
    end_revision
 
157
        If not None, only show revisions <= end_revision
 
158
 
 
159
    search
 
160
        If not None, only show revisions with matching commit messages
 
161
 
 
162
    limit
 
163
        If not None or 0, only show limit revisions
 
164
    """
 
165
    branch.lock_read()
 
166
    try:
 
167
        if getattr(lf, 'begin_log', None):
 
168
            lf.begin_log()
 
169
 
 
170
        _show_log(branch, lf, specific_fileid, verbose, direction,
 
171
                  start_revision, end_revision, search, limit)
 
172
 
 
173
        if getattr(lf, 'end_log', None):
 
174
            lf.end_log()
 
175
    finally:
 
176
        branch.unlock()
 
177
 
 
178
def _show_log(branch,
 
179
             lf,
 
180
             specific_fileid=None,
 
181
             verbose=False,
 
182
             direction='reverse',
 
183
             start_revision=None,
 
184
             end_revision=None,
 
185
             search=None,
 
186
             limit=None):
 
187
    """Worker function for show_log - see show_log."""
 
188
    from bzrlib.osutils import format_date
 
189
    from bzrlib.errors import BzrCheckError
 
190
    
 
191
    from warnings import warn
 
192
 
 
193
    if not isinstance(lf, LogFormatter):
 
194
        warn("not a LogFormatter instance: %r" % lf)
 
195
 
708
196
    if specific_fileid:
709
 
        view_revisions = _filter_revisions_touching_file_id(branch,
710
 
            specific_fileid, view_revisions,
711
 
            include_merges=generate_merge_revisions)
712
 
    return _rebase_merge_depth(view_revisions)
713
 
 
714
 
 
715
 
def _rebase_merge_depth(view_revisions):
716
 
    """Adjust depths upwards so the top level is 0."""
717
 
    # If either the first or last revision have a merge_depth of 0, we're done
718
 
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
719
 
        min_depth = min([d for r,n,d in view_revisions])
720
 
        if min_depth != 0:
721
 
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
722
 
    return view_revisions
723
 
 
724
 
 
725
 
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
726
 
        file_ids=None, direction='reverse'):
727
 
    """Create a revision iterator for log.
728
 
 
729
 
    :param branch: The branch being logged.
730
 
    :param view_revisions: The revisions being viewed.
731
 
    :param generate_delta: Whether to generate a delta for each revision.
732
 
      Permitted values are None, 'full' and 'partial'.
733
 
    :param search: A user text search string.
734
 
    :param file_ids: If non empty, only revisions matching one or more of
735
 
      the file-ids are to be kept.
736
 
    :param direction: the direction in which view_revisions is sorted
737
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
738
 
        delta).
739
 
    """
740
 
    # Convert view_revisions into (view, None, None) groups to fit with
741
 
    # the standard interface here.
742
 
    if type(view_revisions) == list:
743
 
        # A single batch conversion is faster than many incremental ones.
744
 
        # As we have all the data, do a batch conversion.
745
 
        nones = [None] * len(view_revisions)
746
 
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
747
 
    else:
748
 
        def _convert():
749
 
            for view in view_revisions:
750
 
                yield (view, None, None)
751
 
        log_rev_iterator = iter([_convert()])
752
 
    for adapter in log_adapters:
753
 
        # It would be nicer if log adapters were first class objects
754
 
        # with custom parameters. This will do for now. IGC 20090127
755
 
        if adapter == _make_delta_filter:
756
 
            log_rev_iterator = adapter(branch, generate_delta,
757
 
                search, log_rev_iterator, file_ids, direction)
758
 
        else:
759
 
            log_rev_iterator = adapter(branch, generate_delta,
760
 
                search, log_rev_iterator)
761
 
    return log_rev_iterator
762
 
 
763
 
 
764
 
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
765
 
    """Create a filtered iterator of log_rev_iterator matching on a regex.
766
 
 
767
 
    :param branch: The branch being logged.
768
 
    :param generate_delta: Whether to generate a delta for each revision.
769
 
    :param search: A user text search string.
770
 
    :param log_rev_iterator: An input iterator containing all revisions that
771
 
        could be displayed, in lists.
772
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
773
 
        delta).
774
 
    """
775
 
    if search is None:
776
 
        return log_rev_iterator
777
 
    searchRE = re_compile_checked(search, re.IGNORECASE,
778
 
            'log message filter')
779
 
    return _filter_message_re(searchRE, log_rev_iterator)
780
 
 
781
 
 
782
 
def _filter_message_re(searchRE, log_rev_iterator):
783
 
    for revs in log_rev_iterator:
784
 
        new_revs = []
785
 
        for (rev_id, revno, merge_depth), rev, delta in revs:
786
 
            if searchRE.search(rev.message):
787
 
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
788
 
        yield new_revs
789
 
 
790
 
 
791
 
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
792
 
    fileids=None, direction='reverse'):
793
 
    """Add revision deltas to a log iterator if needed.
794
 
 
795
 
    :param branch: The branch being logged.
796
 
    :param generate_delta: Whether to generate a delta for each revision.
797
 
      Permitted values are None, 'full' and 'partial'.
798
 
    :param search: A user text search string.
799
 
    :param log_rev_iterator: An input iterator containing all revisions that
800
 
        could be displayed, in lists.
801
 
    :param fileids: If non empty, only revisions matching one or more of
802
 
      the file-ids are to be kept.
803
 
    :param direction: the direction in which view_revisions is sorted
804
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
805
 
        delta).
806
 
    """
807
 
    if not generate_delta and not fileids:
808
 
        return log_rev_iterator
809
 
    return _generate_deltas(branch.repository, log_rev_iterator,
810
 
        generate_delta, fileids, direction)
811
 
 
812
 
 
813
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
814
 
    direction):
815
 
    """Create deltas for each batch of revisions in log_rev_iterator.
816
 
 
817
 
    If we're only generating deltas for the sake of filtering against
818
 
    file-ids, we stop generating deltas once all file-ids reach the
819
 
    appropriate life-cycle point. If we're receiving data newest to
820
 
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
821
 
    """
822
 
    check_fileids = fileids is not None and len(fileids) > 0
823
 
    if check_fileids:
824
 
        fileid_set = set(fileids)
825
 
        if direction == 'reverse':
826
 
            stop_on = 'add'
827
 
        else:
828
 
            stop_on = 'remove'
829
 
    else:
830
 
        fileid_set = None
831
 
    for revs in log_rev_iterator:
832
 
        # If we were matching against fileids and we've run out,
833
 
        # there's nothing left to do
834
 
        if check_fileids and not fileid_set:
835
 
            return
836
 
        revisions = [rev[1] for rev in revs]
837
 
        new_revs = []
838
 
        if delta_type == 'full' and not check_fileids:
839
 
            deltas = repository.get_deltas_for_revisions(revisions)
840
 
            for rev, delta in izip(revs, deltas):
841
 
                new_revs.append((rev[0], rev[1], delta))
842
 
        else:
843
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
844
 
            for rev, delta in izip(revs, deltas):
845
 
                if check_fileids:
846
 
                    if delta is None or not delta.has_changed():
847
 
                        continue
848
 
                    else:
849
 
                        _update_fileids(delta, fileid_set, stop_on)
850
 
                        if delta_type is None:
851
 
                            delta = None
852
 
                        elif delta_type == 'full':
853
 
                            # If the file matches all the time, rebuilding
854
 
                            # a full delta like this in addition to a partial
855
 
                            # one could be slow. However, it's likely that
856
 
                            # most revisions won't get this far, making it
857
 
                            # faster to filter on the partial deltas and
858
 
                            # build the occasional full delta than always
859
 
                            # building full deltas and filtering those.
860
 
                            rev_id = rev[0][0]
861
 
                            delta = repository.get_revision_delta(rev_id)
862
 
                new_revs.append((rev[0], rev[1], delta))
863
 
        yield new_revs
864
 
 
865
 
 
866
 
def _update_fileids(delta, fileids, stop_on):
867
 
    """Update the set of file-ids to search based on file lifecycle events.
868
 
    
869
 
    :param fileids: a set of fileids to update
870
 
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
871
 
      fileids set once their add or remove entry is detected respectively
872
 
    """
873
 
    if stop_on == 'add':
874
 
        for item in delta.added:
875
 
            if item[1] in fileids:
876
 
                fileids.remove(item[1])
877
 
    elif stop_on == 'delete':
878
 
        for item in delta.removed:
879
 
            if item[1] in fileids:
880
 
                fileids.remove(item[1])
881
 
 
882
 
 
883
 
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
884
 
    """Extract revision objects from the repository
885
 
 
886
 
    :param branch: The branch being logged.
887
 
    :param generate_delta: Whether to generate a delta for each revision.
888
 
    :param search: A user text search string.
889
 
    :param log_rev_iterator: An input iterator containing all revisions that
890
 
        could be displayed, in lists.
891
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
892
 
        delta).
893
 
    """
894
 
    repository = branch.repository
895
 
    for revs in log_rev_iterator:
896
 
        # r = revision_id, n = revno, d = merge depth
897
 
        revision_ids = [view[0] for view, _, _ in revs]
898
 
        revisions = repository.get_revisions(revision_ids)
899
 
        revs = [(rev[0], revision, rev[2]) for rev, revision in
900
 
            izip(revs, revisions)]
901
 
        yield revs
902
 
 
903
 
 
904
 
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
905
 
    """Group up a single large batch into smaller ones.
906
 
 
907
 
    :param branch: The branch being logged.
908
 
    :param generate_delta: Whether to generate a delta for each revision.
909
 
    :param search: A user text search string.
910
 
    :param log_rev_iterator: An input iterator containing all revisions that
911
 
        could be displayed, in lists.
912
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
913
 
        delta).
914
 
    """
915
 
    repository = branch.repository
916
 
    num = 9
917
 
    for batch in log_rev_iterator:
918
 
        batch = iter(batch)
919
 
        while True:
920
 
            step = [detail for _, detail in zip(range(num), batch)]
921
 
            if len(step) == 0:
922
 
                break
923
 
            yield step
924
 
            num = min(int(num * 1.5), 200)
925
 
 
926
 
 
927
 
def _get_revision_limits(branch, start_revision, end_revision):
928
 
    """Get and check revision limits.
929
 
 
930
 
    :param  branch: The branch containing the revisions.
931
 
 
932
 
    :param  start_revision: The first revision to be logged.
933
 
            For backwards compatibility this may be a mainline integer revno,
934
 
            but for merge revision support a RevisionInfo is expected.
935
 
 
936
 
    :param  end_revision: The last revision to be logged.
937
 
            For backwards compatibility this may be a mainline integer revno,
938
 
            but for merge revision support a RevisionInfo is expected.
939
 
 
940
 
    :return: (start_rev_id, end_rev_id) tuple.
941
 
    """
942
 
    branch_revno, branch_rev_id = branch.last_revision_info()
943
 
    start_rev_id = None
944
 
    if start_revision is None:
945
 
        start_revno = 1
946
 
    else:
947
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
948
 
            start_rev_id = start_revision.rev_id
949
 
            start_revno = start_revision.revno or 1
950
 
        else:
951
 
            branch.check_real_revno(start_revision)
952
 
            start_revno = start_revision
953
 
            start_rev_id = branch.get_rev_id(start_revno)
954
 
 
955
 
    end_rev_id = None
956
 
    if end_revision is None:
957
 
        end_revno = branch_revno
958
 
    else:
959
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
960
 
            end_rev_id = end_revision.rev_id
961
 
            end_revno = end_revision.revno or branch_revno
962
 
        else:
963
 
            branch.check_real_revno(end_revision)
964
 
            end_revno = end_revision
965
 
            end_rev_id = branch.get_rev_id(end_revno)
966
 
 
967
 
    if branch_revno != 0:
968
 
        if (start_rev_id == _mod_revision.NULL_REVISION
969
 
            or end_rev_id == _mod_revision.NULL_REVISION):
970
 
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
971
 
        if start_revno > end_revno:
972
 
            raise errors.BzrCommandError("Start revision must be older than "
973
 
                                         "the end revision.")
974
 
    return (start_rev_id, end_rev_id)
975
 
 
976
 
 
977
 
def _get_mainline_revs(branch, start_revision, end_revision):
978
 
    """Get the mainline revisions from the branch.
979
 
 
980
 
    Generates the list of mainline revisions for the branch.
981
 
 
982
 
    :param  branch: The branch containing the revisions.
983
 
 
984
 
    :param  start_revision: The first revision to be logged.
985
 
            For backwards compatibility this may be a mainline integer revno,
986
 
            but for merge revision support a RevisionInfo is expected.
987
 
 
988
 
    :param  end_revision: The last revision to be logged.
989
 
            For backwards compatibility this may be a mainline integer revno,
990
 
            but for merge revision support a RevisionInfo is expected.
991
 
 
992
 
    :return: A (mainline_revs, rev_nos, start_rev_id, end_rev_id) tuple.
993
 
    """
994
 
    branch_revno, branch_last_revision = branch.last_revision_info()
995
 
    if branch_revno == 0:
996
 
        return None, None, None, None
997
 
 
998
 
    # For mainline generation, map start_revision and end_revision to
999
 
    # mainline revnos. If the revision is not on the mainline choose the
1000
 
    # appropriate extreme of the mainline instead - the extra will be
1001
 
    # filtered later.
1002
 
    # Also map the revisions to rev_ids, to be used in the later filtering
1003
 
    # stage.
1004
 
    start_rev_id = None
1005
 
    if start_revision is None:
1006
 
        start_revno = 1
1007
 
    else:
1008
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
1009
 
            start_rev_id = start_revision.rev_id
1010
 
            start_revno = start_revision.revno or 1
1011
 
        else:
1012
 
            branch.check_real_revno(start_revision)
1013
 
            start_revno = start_revision
1014
 
 
1015
 
    end_rev_id = None
1016
 
    if end_revision is None:
1017
 
        end_revno = branch_revno
1018
 
    else:
1019
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
1020
 
            end_rev_id = end_revision.rev_id
1021
 
            end_revno = end_revision.revno or branch_revno
1022
 
        else:
1023
 
            branch.check_real_revno(end_revision)
1024
 
            end_revno = end_revision
1025
 
 
1026
 
    if ((start_rev_id == _mod_revision.NULL_REVISION)
1027
 
        or (end_rev_id == _mod_revision.NULL_REVISION)):
1028
 
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
1029
 
    if start_revno > end_revno:
1030
 
        raise errors.BzrCommandError("Start revision must be older than "
1031
 
                                     "the end revision.")
1032
 
 
1033
 
    if end_revno < start_revno:
1034
 
        return None, None, None, None
1035
 
    cur_revno = branch_revno
1036
 
    rev_nos = {}
1037
 
    mainline_revs = []
1038
 
    for revision_id in branch.repository.iter_reverse_revision_history(
1039
 
                        branch_last_revision):
1040
 
        if cur_revno < start_revno:
1041
 
            # We have gone far enough, but we always add 1 more revision
1042
 
            rev_nos[revision_id] = cur_revno
1043
 
            mainline_revs.append(revision_id)
1044
 
            break
1045
 
        if cur_revno <= end_revno:
1046
 
            rev_nos[revision_id] = cur_revno
1047
 
            mainline_revs.append(revision_id)
1048
 
        cur_revno -= 1
1049
 
    else:
1050
 
        # We walked off the edge of all revisions, so we add a 'None' marker
1051
 
        mainline_revs.append(None)
1052
 
 
1053
 
    mainline_revs.reverse()
 
197
        mutter('get log for file_id %r', specific_fileid)
 
198
 
 
199
    if search is not None:
 
200
        import re
 
201
        searchRE = re.compile(search, re.IGNORECASE)
 
202
    else:
 
203
        searchRE = None
 
204
 
 
205
    which_revs = _enumerate_history(branch)
 
206
    
 
207
    if start_revision is None:
 
208
        start_revision = 1
 
209
    else:
 
210
        branch.check_real_revno(start_revision)
 
211
    
 
212
    if end_revision is None:
 
213
        end_revision = len(which_revs)
 
214
    else:
 
215
        branch.check_real_revno(end_revision)
 
216
 
 
217
    # list indexes are 0-based; revisions are 1-based
 
218
    cut_revs = which_revs[(start_revision-1):(end_revision)]
 
219
    if not cut_revs:
 
220
        return
 
221
 
 
222
    # convert the revision history to a dictionary:
 
223
    rev_nos = dict((k, v) for v, k in cut_revs)
1054
224
 
1055
225
    # override the mainline to look like the revision history.
1056
 
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1057
 
 
1058
 
 
1059
 
@deprecated_function(deprecated_in((2, 2, 0)))
1060
 
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1061
 
    """Filter view_revisions based on revision ranges.
1062
 
 
1063
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1064
 
            tuples to be filtered.
1065
 
 
1066
 
    :param start_rev_id: If not NONE specifies the first revision to be logged.
1067
 
            If NONE then all revisions up to the end_rev_id are logged.
1068
 
 
1069
 
    :param end_rev_id: If not NONE specifies the last revision to be logged.
1070
 
            If NONE then all revisions up to the end of the log are logged.
1071
 
 
1072
 
    :return: The filtered view_revisions.
1073
 
    """
1074
 
    if start_rev_id or end_rev_id:
 
226
    mainline_revs = [revision_id for index, revision_id in cut_revs]
 
227
    if cut_revs[0][0] == 1:
 
228
        mainline_revs.insert(0, None)
 
229
    else:
 
230
        mainline_revs.insert(0, which_revs[start_revision-2][1])
 
231
    legacy_lf = getattr(lf, 'log_revision', None) is None
 
232
    if legacy_lf:
 
233
        # pre-0.17 formatters use show for mainline revisions.
 
234
        # how should we show merged revisions ?
 
235
        #   pre-0.11 api: show_merge
 
236
        #   0.11-0.16 api: show_merge_revno
 
237
        show_merge_revno = getattr(lf, 'show_merge_revno', None)
 
238
        show_merge = getattr(lf, 'show_merge', None)
 
239
        if show_merge is None and show_merge_revno is None:
 
240
            # no merged-revno support
 
241
            generate_merge_revisions = False
 
242
        else:
 
243
            generate_merge_revisions = True
 
244
        # tell developers to update their code
 
245
        symbol_versioning.warn('LogFormatters should provide log_revision '
 
246
            'instead of show and show_merge_revno since bzr 0.17.',
 
247
            DeprecationWarning, stacklevel=3)
 
248
    else:
 
249
        generate_merge_revisions = getattr(lf, 'supports_merge_revisions', 
 
250
                                           False)
 
251
    view_revs_iter = get_view_revisions(mainline_revs, rev_nos, branch,
 
252
                          direction, include_merges=generate_merge_revisions)
 
253
    if specific_fileid:
 
254
        view_revisions = _get_revisions_touching_file_id(branch,
 
255
                                                         specific_fileid,
 
256
                                                         mainline_revs,
 
257
                                                         view_revs_iter)
 
258
    else:
 
259
        view_revisions = list(view_revs_iter)
 
260
 
 
261
    rev_tag_dict = {}
 
262
    generate_tags = getattr(lf, 'supports_tags', False)
 
263
    if generate_tags:
 
264
        if branch.supports_tags():
 
265
            rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
266
 
 
267
    generate_delta = verbose and getattr(lf, 'supports_delta', False)
 
268
 
 
269
    def iter_revisions():
 
270
        # r = revision, n = revno, d = merge depth
1075
271
        revision_ids = [r for r, n, d in view_revisions]
1076
 
        if start_rev_id:
1077
 
            start_index = revision_ids.index(start_rev_id)
1078
 
        else:
1079
 
            start_index = 0
1080
 
        if start_rev_id == end_rev_id:
1081
 
            end_index = start_index
1082
 
        else:
1083
 
            if end_rev_id:
1084
 
                end_index = revision_ids.index(end_rev_id)
 
272
        zeros = set(r for r, n, d in view_revisions if d == 0)
 
273
        num = 9
 
274
        repository = branch.repository
 
275
        while revision_ids:
 
276
            cur_deltas = {}
 
277
            revisions = repository.get_revisions(revision_ids[:num])
 
278
            if generate_delta:
 
279
                delta_revisions = [r for r in revisions if
 
280
                                   r.revision_id in zeros]
 
281
                deltas = repository.get_deltas_for_revisions(delta_revisions)
 
282
                cur_deltas = dict(izip((r.revision_id for r in 
 
283
                                        delta_revisions), deltas))
 
284
            for revision in revisions:
 
285
                # The delta value will be None unless
 
286
                # 1. verbose is specified, and
 
287
                # 2. the revision is a mainline revision
 
288
                yield revision, cur_deltas.get(revision.revision_id)
 
289
            revision_ids  = revision_ids[num:]
 
290
            num = min(int(num * 1.5), 200)
 
291
 
 
292
    # now we just print all the revisions
 
293
    log_count = 0
 
294
    for ((rev_id, revno, merge_depth), (rev, delta)) in \
 
295
         izip(view_revisions, iter_revisions()):
 
296
 
 
297
        if searchRE:
 
298
            if not searchRE.search(rev.message):
 
299
                continue
 
300
 
 
301
        if not legacy_lf:
 
302
            lr = LogRevision(rev, revno, merge_depth, delta,
 
303
                             rev_tag_dict.get(rev_id))
 
304
            lf.log_revision(lr)
 
305
        else:
 
306
            # support for legacy (pre-0.17) LogFormatters
 
307
            if merge_depth == 0:
 
308
                if generate_tags:
 
309
                    lf.show(revno, rev, delta, rev_tag_dict.get(rev_id))
 
310
                else:
 
311
                    lf.show(revno, rev, delta)
1085
312
            else:
1086
 
                end_index = len(view_revisions) - 1
1087
 
        # To include the revisions merged into the last revision,
1088
 
        # extend end_rev_id down to, but not including, the next rev
1089
 
        # with the same or lesser merge_depth
1090
 
        end_merge_depth = view_revisions[end_index][2]
1091
 
        try:
1092
 
            for index in xrange(end_index+1, len(view_revisions)+1):
1093
 
                if view_revisions[index][2] <= end_merge_depth:
1094
 
                    end_index = index - 1
1095
 
                    break
1096
 
        except IndexError:
1097
 
            # if the search falls off the end then log to the end as well
1098
 
            end_index = len(view_revisions) - 1
1099
 
        view_revisions = view_revisions[start_index:end_index+1]
1100
 
    return view_revisions
1101
 
 
1102
 
 
1103
 
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
1104
 
    include_merges=True):
1105
 
    r"""Return the list of revision ids which touch a given file id.
1106
 
 
1107
 
    The function filters view_revisions and returns a subset.
 
313
                if show_merge_revno is None:
 
314
                    lf.show_merge(rev, merge_depth)
 
315
                else:
 
316
                    if generate_tags:
 
317
                        lf.show_merge_revno(rev, merge_depth, revno,
 
318
                                            rev_tag_dict.get(rev_id))
 
319
                    else:
 
320
                        lf.show_merge_revno(rev, merge_depth, revno)
 
321
        if limit:
 
322
            log_count += 1
 
323
            if log_count >= limit:
 
324
                break
 
325
 
 
326
 
 
327
def _get_revisions_touching_file_id(branch, file_id, mainline_revisions,
 
328
                                    view_revs_iter):
 
329
    """Return the list of revision ids which touch a given file id.
 
330
 
1108
331
    This includes the revisions which directly change the file id,
1109
332
    and the revisions which merge these changes. So if the
1110
333
    revision graph is::
1111
 
        A-.
1112
 
        |\ \
1113
 
        B C E
1114
 
        |/ /
1115
 
        D |
1116
 
        |\|
1117
 
        | F
 
334
        A
 
335
        |\
 
336
        B C
1118
337
        |/
1119
 
        G
1120
 
 
1121
 
    And 'C' changes a file, then both C and D will be returned. F will not be
1122
 
    returned even though it brings the changes to C into the branch starting
1123
 
    with E. (Note that if we were using F as the tip instead of G, then we
1124
 
    would see C, D, F.)
1125
 
 
1126
 
    This will also be restricted based on a subset of the mainline.
1127
 
 
1128
 
    :param branch: The branch where we can get text revision information.
1129
 
 
1130
 
    :param file_id: Filter out revisions that do not touch file_id.
1131
 
 
1132
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1133
 
        tuples. This is the list of revisions which will be filtered. It is
1134
 
        assumed that view_revisions is in merge_sort order (i.e. newest
1135
 
        revision first ).
1136
 
 
1137
 
    :param include_merges: include merge revisions in the result or not
 
338
        D
 
339
 
 
340
    And 'C' changes a file, then both C and D will be returned.
 
341
 
 
342
    This will also can be restricted based on a subset of the mainline.
1138
343
 
1139
344
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
1140
345
    """
1141
 
    # Lookup all possible text keys to determine which ones actually modified
1142
 
    # the file.
1143
 
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1144
 
    next_keys = None
1145
 
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1146
 
    # memory consumption. GraphIndex *does* like to look for a few keys in
1147
 
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
1148
 
    # TODO: This code needs to be re-evaluated periodically as we tune the
1149
 
    #       indexing layer. We might consider passing in hints as to the known
1150
 
    #       access pattern (sparse/clustered, high success rate/low success
1151
 
    #       rate). This particular access is clustered with a low success rate.
1152
 
    get_parent_map = branch.repository.texts.get_parent_map
1153
 
    modified_text_revisions = set()
1154
 
    chunk_size = 1000
1155
 
    for start in xrange(0, len(text_keys), chunk_size):
1156
 
        next_keys = text_keys[start:start + chunk_size]
1157
 
        # Only keep the revision_id portion of the key
1158
 
        modified_text_revisions.update(
1159
 
            [k[1] for k in get_parent_map(next_keys)])
1160
 
    del text_keys, next_keys
1161
 
 
1162
 
    result = []
1163
 
    # Track what revisions will merge the current revision, replace entries
1164
 
    # with 'None' when they have been added to result
1165
 
    current_merge_stack = [None]
1166
 
    for info in view_revisions:
1167
 
        rev_id, revno, depth = info
1168
 
        if depth == len(current_merge_stack):
1169
 
            current_merge_stack.append(info)
 
346
    # find all the revisions that change the specific file
 
347
    file_weave = branch.repository.weave_store.get_weave(file_id,
 
348
                branch.repository.get_transaction())
 
349
    weave_modifed_revisions = set(file_weave.versions())
 
350
    # build the ancestry of each revision in the graph
 
351
    # - only listing the ancestors that change the specific file.
 
352
    rev_graph = branch.repository.get_revision_graph(mainline_revisions[-1])
 
353
    sorted_rev_list = topo_sort(rev_graph)
 
354
    ancestry = {}
 
355
    for rev in sorted_rev_list:
 
356
        parents = rev_graph[rev]
 
357
        if rev not in weave_modifed_revisions and len(parents) == 1:
 
358
            # We will not be adding anything new, so just use a reference to
 
359
            # the parent ancestry.
 
360
            rev_ancestry = ancestry[parents[0]]
1170
361
        else:
1171
 
            del current_merge_stack[depth + 1:]
1172
 
            current_merge_stack[-1] = info
1173
 
 
1174
 
        if rev_id in modified_text_revisions:
1175
 
            # This needs to be logged, along with the extra revisions
1176
 
            for idx in xrange(len(current_merge_stack)):
1177
 
                node = current_merge_stack[idx]
1178
 
                if node is not None:
1179
 
                    if include_merges or node[2] == 0:
1180
 
                        result.append(node)
1181
 
                        current_merge_stack[idx] = None
1182
 
    return result
1183
 
 
1184
 
 
1185
 
@deprecated_function(deprecated_in((2, 2, 0)))
 
362
            rev_ancestry = set()
 
363
            if rev in weave_modifed_revisions:
 
364
                rev_ancestry.add(rev)
 
365
            for parent in parents:
 
366
                rev_ancestry = rev_ancestry.union(ancestry[parent])
 
367
        ancestry[rev] = rev_ancestry
 
368
 
 
369
    def is_merging_rev(r):
 
370
        parents = rev_graph[r]
 
371
        if len(parents) > 1:
 
372
            leftparent = parents[0]
 
373
            for rightparent in parents[1:]:
 
374
                if not ancestry[leftparent].issuperset(
 
375
                        ancestry[rightparent]):
 
376
                    return True
 
377
        return False
 
378
 
 
379
    # filter from the view the revisions that did not change or merge 
 
380
    # the specific file
 
381
    return [(r, n, d) for r, n, d in view_revs_iter
 
382
            if r in weave_modifed_revisions or is_merging_rev(r)]
 
383
 
 
384
 
1186
385
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
1187
386
                       include_merges=True):
1188
387
    """Produce an iterator of revisions to show
1189
388
    :return: an iterator of (revision_id, revno, merge_depth)
1190
389
    (if there is no revno for a revision, None is supplied)
1191
390
    """
1192
 
    if not include_merges:
 
391
    if include_merges is False:
1193
392
        revision_ids = mainline_revs[1:]
1194
393
        if direction == 'reverse':
1195
394
            revision_ids.reverse()
1196
395
        for revision_id in revision_ids:
1197
396
            yield revision_id, str(rev_nos[revision_id]), 0
1198
397
        return
1199
 
    graph = branch.repository.get_graph()
1200
 
    # This asks for all mainline revisions, which means we only have to spider
1201
 
    # sideways, rather than depth history. That said, its still size-of-history
1202
 
    # and should be addressed.
1203
 
    # mainline_revisions always includes an extra revision at the beginning, so
1204
 
    # don't request it.
1205
 
    parent_map = dict(((key, value) for key, value in
1206
 
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
1207
 
    # filter out ghosts; merge_sort errors on ghosts.
1208
 
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
1209
 
    merge_sorted_revisions = tsort.merge_sort(
1210
 
        rev_graph,
 
398
    merge_sorted_revisions = merge_sort(
 
399
        branch.repository.get_revision_graph(mainline_revs[-1]),
1211
400
        mainline_revs[-1],
1212
401
        mainline_revs,
1213
402
        generate_revno=True)
1218
407
    elif direction != 'reverse':
1219
408
        raise ValueError('invalid direction %r' % direction)
1220
409
 
1221
 
    for (sequence, rev_id, merge_depth, revno, end_of_merge
1222
 
         ) in merge_sorted_revisions:
 
410
    for sequence, rev_id, merge_depth, revno, end_of_merge in merge_sorted_revisions:
1223
411
        yield rev_id, '.'.join(map(str, revno)), merge_depth
1224
412
 
1225
413
 
1230
418
    revision of that depth.  There may be no topological justification for this,
1231
419
    but it looks much nicer.
1232
420
    """
1233
 
    # Add a fake revision at start so that we can always attach sub revisions
1234
 
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
1235
421
    zd_revisions = []
1236
422
    for val in merge_sorted_revisions:
1237
423
        if val[2] == _depth:
1238
 
            # Each revision at the current depth becomes a chunk grouping all
1239
 
            # higher depth revisions.
1240
424
            zd_revisions.append([val])
1241
425
        else:
 
426
            assert val[2] > _depth
1242
427
            zd_revisions[-1].append(val)
1243
428
    for revisions in zd_revisions:
1244
429
        if len(revisions) > 1:
1245
 
            # We have higher depth revisions, let reverse them locally
1246
430
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
1247
431
    zd_revisions.reverse()
1248
432
    result = []
1249
433
    for chunk in zd_revisions:
1250
434
        result.extend(chunk)
1251
 
    if _depth == 0:
1252
 
        # Top level call, get rid of the fake revisions that have been added
1253
 
        result = [r for r in result if r[0] is not None and r[1] is not None]
1254
435
    return result
1255
436
 
1256
437
 
1258
439
    """A revision to be logged (by LogFormatter.log_revision).
1259
440
 
1260
441
    A simple wrapper for the attributes of a revision to be logged.
1261
 
    The attributes may or may not be populated, as determined by the
 
442
    The attributes may or may not be populated, as determined by the 
1262
443
    logging options and the log formatter capabilities.
1263
444
    """
1264
445
 
1265
446
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1266
 
                 tags=None, diff=None):
 
447
                 tags=None):
1267
448
        self.rev = rev
1268
 
        self.revno = str(revno)
 
449
        self.revno = revno
1269
450
        self.merge_depth = merge_depth
1270
451
        self.delta = delta
1271
452
        self.tags = tags
1272
 
        self.diff = diff
1273
453
 
1274
454
 
1275
455
class LogFormatter(object):
1280
460
    If the LogFormatter needs to be informed of the beginning or end of
1281
461
    a log it should implement the begin_log and/or end_log hook methods.
1282
462
 
1283
 
    A LogFormatter should define the following supports_XXX flags
 
463
    A LogFormatter should define the following supports_XXX flags 
1284
464
    to indicate which LogRevision attributes it supports:
1285
465
 
1286
466
    - supports_delta must be True if this log formatter supports delta.
1287
 
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1288
 
        attribute describes whether the 'short_status' format (1) or the long
1289
 
        one (2) should be used.
1290
 
 
1291
 
    - supports_merge_revisions must be True if this log formatter supports
1292
 
        merge revisions.  If not, then only mainline revisions will be passed
1293
 
        to the formatter.
1294
 
 
1295
 
    - preferred_levels is the number of levels this formatter defaults to.
1296
 
        The default value is zero meaning display all levels.
1297
 
        This value is only relevant if supports_merge_revisions is True.
1298
 
 
 
467
        Otherwise the delta attribute may not be populated.
 
468
    - supports_merge_revisions must be True if this log formatter supports 
 
469
        merge revisions.  If not, only revisions mainline revisions (those 
 
470
        with merge_depth == 0) will be passed to the formatter.
1299
471
    - supports_tags must be True if this log formatter supports tags.
1300
472
        Otherwise the tags attribute may not be populated.
1301
 
 
1302
 
    - supports_diff must be True if this log formatter supports diffs.
1303
 
        Otherwise the diff attribute may not be populated.
1304
 
 
1305
 
    Plugins can register functions to show custom revision properties using
1306
 
    the properties_handler_registry. The registered function
1307
 
    must respect the following interface description:
1308
 
        def my_show_properties(properties_dict):
1309
 
            # code that returns a dict {'name':'value'} of the properties
1310
 
            # to be shown
1311
473
    """
1312
 
    preferred_levels = 0
1313
 
 
1314
 
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1315
 
                 delta_format=None, levels=None, show_advice=False,
1316
 
                 to_exact_file=None):
1317
 
        """Create a LogFormatter.
1318
 
 
1319
 
        :param to_file: the file to output to
1320
 
        :param to_exact_file: if set, gives an output stream to which 
1321
 
             non-Unicode diffs are written.
1322
 
        :param show_ids: if True, revision-ids are to be displayed
1323
 
        :param show_timezone: the timezone to use
1324
 
        :param delta_format: the level of delta information to display
1325
 
          or None to leave it to the formatter to decide
1326
 
        :param levels: the number of levels to display; None or -1 to
1327
 
          let the log formatter decide.
1328
 
        :param show_advice: whether to show advice at the end of the
1329
 
          log or not
1330
 
        """
 
474
 
 
475
    def __init__(self, to_file, show_ids=False, show_timezone='original'):
1331
476
        self.to_file = to_file
1332
 
        # 'exact' stream used to show diff, it should print content 'as is'
1333
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
1334
 
        if to_exact_file is not None:
1335
 
            self.to_exact_file = to_exact_file
1336
 
        else:
1337
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
1338
 
            # for code that expects to get diffs to pass in the exact file
1339
 
            # stream
1340
 
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1341
477
        self.show_ids = show_ids
1342
478
        self.show_timezone = show_timezone
1343
 
        if delta_format is None:
1344
 
            # Ensures backward compatibility
1345
 
            delta_format = 2 # long format
1346
 
        self.delta_format = delta_format
1347
 
        self.levels = levels
1348
 
        self._show_advice = show_advice
1349
 
        self._merge_count = 0
1350
 
 
1351
 
    def get_levels(self):
1352
 
        """Get the number of levels to display or 0 for all."""
1353
 
        if getattr(self, 'supports_merge_revisions', False):
1354
 
            if self.levels is None or self.levels == -1:
1355
 
                self.levels = self.preferred_levels
1356
 
        else:
1357
 
            self.levels = 1
1358
 
        return self.levels
1359
 
 
1360
 
    def log_revision(self, revision):
1361
 
        """Log a revision.
1362
 
 
1363
 
        :param  revision:   The LogRevision to be logged.
1364
 
        """
 
479
 
 
480
# TODO: uncomment this block after show() has been removed.
 
481
# Until then defining log_revision would prevent _show_log calling show() 
 
482
# in legacy formatters.
 
483
#    def log_revision(self, revision):
 
484
#        """Log a revision.
 
485
#
 
486
#        :param  revision:   The LogRevision to be logged.
 
487
#        """
 
488
#        raise NotImplementedError('not implemented in abstract base')
 
489
 
 
490
    @deprecated_method(zero_seventeen)
 
491
    def show(self, revno, rev, delta):
1365
492
        raise NotImplementedError('not implemented in abstract base')
1366
493
 
1367
 
    def show_advice(self):
1368
 
        """Output user advice, if any, when the log is completed."""
1369
 
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
1370
 
            advice_sep = self.get_advice_separator()
1371
 
            if advice_sep:
1372
 
                self.to_file.write(advice_sep)
1373
 
            self.to_file.write(
1374
 
                "Use --include-merges or -n0 to see merged revisions.\n")
1375
 
 
1376
 
    def get_advice_separator(self):
1377
 
        """Get the text separating the log from the closing advice."""
1378
 
        return ''
1379
 
 
1380
494
    def short_committer(self, rev):
1381
 
        name, address = config.parse_username(rev.committer)
1382
 
        if name:
1383
 
            return name
1384
 
        return address
1385
 
 
1386
 
    def short_author(self, rev):
1387
 
        name, address = config.parse_username(rev.get_apparent_authors()[0])
1388
 
        if name:
1389
 
            return name
1390
 
        return address
1391
 
 
1392
 
    def merge_marker(self, revision):
1393
 
        """Get the merge marker to include in the output or '' if none."""
1394
 
        if len(revision.rev.parent_ids) > 1:
1395
 
            self._merge_count += 1
1396
 
            return ' [merge]'
1397
 
        else:
1398
 
            return ''
1399
 
 
1400
 
    def show_properties(self, revision, indent):
1401
 
        """Displays the custom properties returned by each registered handler.
1402
 
 
1403
 
        If a registered handler raises an error it is propagated.
1404
 
        """
1405
 
        for line in self.custom_properties(revision):
1406
 
            self.to_file.write("%s%s\n" % (indent, line))
1407
 
 
1408
 
    def custom_properties(self, revision):
1409
 
        """Format the custom properties returned by each registered handler.
1410
 
 
1411
 
        If a registered handler raises an error it is propagated.
1412
 
 
1413
 
        :return: a list of formatted lines (excluding trailing newlines)
1414
 
        """
1415
 
        lines = self._foreign_info_properties(revision)
1416
 
        for key, handler in properties_handler_registry.iteritems():
1417
 
            lines.extend(self._format_properties(handler(revision)))
1418
 
        return lines
1419
 
 
1420
 
    def _foreign_info_properties(self, rev):
1421
 
        """Custom log displayer for foreign revision identifiers.
1422
 
 
1423
 
        :param rev: Revision object.
1424
 
        """
1425
 
        # Revision comes directly from a foreign repository
1426
 
        if isinstance(rev, foreign.ForeignRevision):
1427
 
            return rev.mapping.vcs.show_foreign_revid(rev.foreign_revid)
1428
 
 
1429
 
        # Imported foreign revision revision ids always contain :
1430
 
        if not ":" in rev.revision_id:
1431
 
            return []
1432
 
 
1433
 
        # Revision was once imported from a foreign repository
1434
 
        try:
1435
 
            foreign_revid, mapping = \
1436
 
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
1437
 
        except errors.InvalidRevisionId:
1438
 
            return []
1439
 
 
1440
 
        return self._format_properties(
1441
 
            mapping.vcs.show_foreign_revid(foreign_revid))
1442
 
 
1443
 
    def _format_properties(self, properties):
1444
 
        lines = []
1445
 
        for key, value in properties.items():
1446
 
            lines.append(key + ': ' + value)
1447
 
        return lines
1448
 
 
1449
 
    def show_diff(self, to_file, diff, indent):
1450
 
        for l in diff.rstrip().split('\n'):
1451
 
            to_file.write(indent + '%s\n' % (l,))
1452
 
 
1453
 
 
1454
 
# Separator between revisions in long format
1455
 
_LONG_SEP = '-' * 60
 
495
        return re.sub('<.*@.*>', '', rev.committer).strip(' ')
1456
496
 
1457
497
 
1458
498
class LongLogFormatter(LogFormatter):
1459
499
 
1460
500
    supports_merge_revisions = True
1461
 
    preferred_levels = 1
1462
501
    supports_delta = True
1463
502
    supports_tags = True
1464
 
    supports_diff = True
1465
 
 
1466
 
    def __init__(self, *args, **kwargs):
1467
 
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1468
 
        if self.show_timezone == 'original':
1469
 
            self.date_string = self._date_string_original_timezone
1470
 
        else:
1471
 
            self.date_string = self._date_string_with_timezone
1472
 
 
1473
 
    def _date_string_with_timezone(self, rev):
1474
 
        return format_date(rev.timestamp, rev.timezone or 0,
1475
 
                           self.show_timezone)
1476
 
 
1477
 
    def _date_string_original_timezone(self, rev):
1478
 
        return format_date_with_offset_in_original_timezone(rev.timestamp,
1479
 
            rev.timezone or 0)
 
503
 
 
504
    @deprecated_method(zero_seventeen)
 
505
    def show(self, revno, rev, delta, tags=None):
 
506
        lr = LogRevision(rev, revno, 0, delta, tags)
 
507
        return self.log_revision(lr)
 
508
 
 
509
    @deprecated_method(zero_eleven)
 
510
    def show_merge(self, rev, merge_depth):
 
511
        lr = LogRevision(rev, merge_depth=merge_depth)
 
512
        return self.log_revision(lr)
 
513
 
 
514
    @deprecated_method(zero_seventeen)
 
515
    def show_merge_revno(self, rev, merge_depth, revno, tags=None):
 
516
        """Show a merged revision rev, with merge_depth and a revno."""
 
517
        lr = LogRevision(rev, revno, merge_depth, tags=tags)
 
518
        return self.log_revision(lr)
1480
519
 
1481
520
    def log_revision(self, revision):
1482
521
        """Log a revision, either merged or not."""
1483
 
        indent = '    ' * revision.merge_depth
1484
 
        lines = [_LONG_SEP]
 
522
        from bzrlib.osutils import format_date
 
523
        indent = '    '*revision.merge_depth
 
524
        to_file = self.to_file
 
525
        print >>to_file,  indent+'-' * 60
1485
526
        if revision.revno is not None:
1486
 
            lines.append('revno: %s%s' % (revision.revno,
1487
 
                self.merge_marker(revision)))
 
527
            print >>to_file,  indent+'revno:', revision.revno
1488
528
        if revision.tags:
1489
 
            lines.append('tags: %s' % (', '.join(revision.tags)))
 
529
            print >>to_file, indent+'tags: %s' % (', '.join(revision.tags))
1490
530
        if self.show_ids:
1491
 
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
 
531
            print >>to_file, indent+'revision-id:', revision.rev.revision_id
1492
532
            for parent_id in revision.rev.parent_ids:
1493
 
                lines.append('parent: %s' % (parent_id,))
1494
 
        lines.extend(self.custom_properties(revision.rev))
1495
 
 
1496
 
        committer = revision.rev.committer
1497
 
        authors = revision.rev.get_apparent_authors()
1498
 
        if authors != [committer]:
1499
 
            lines.append('author: %s' % (", ".join(authors),))
1500
 
        lines.append('committer: %s' % (committer,))
1501
 
 
1502
 
        branch_nick = revision.rev.properties.get('branch-nick', None)
1503
 
        if branch_nick is not None:
1504
 
            lines.append('branch nick: %s' % (branch_nick,))
1505
 
 
1506
 
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1507
 
 
1508
 
        lines.append('message:')
 
533
                print >>to_file, indent+'parent:', parent_id
 
534
        print >>to_file, indent+'committer:', revision.rev.committer
 
535
 
 
536
        try:
 
537
            print >>to_file, indent+'branch nick: %s' % \
 
538
                revision.rev.properties['branch-nick']
 
539
        except KeyError:
 
540
            pass
 
541
        date_str = format_date(revision.rev.timestamp,
 
542
                               revision.rev.timezone or 0,
 
543
                               self.show_timezone)
 
544
        print >>to_file,  indent+'timestamp: %s' % date_str
 
545
 
 
546
        print >>to_file,  indent+'message:'
1509
547
        if not revision.rev.message:
1510
 
            lines.append('  (no message)')
 
548
            print >>to_file,  indent+'  (no message)'
1511
549
        else:
1512
550
            message = revision.rev.message.rstrip('\r\n')
1513
551
            for l in message.split('\n'):
1514
 
                lines.append('  %s' % (l,))
1515
 
 
1516
 
        # Dump the output, appending the delta and diff if requested
1517
 
        to_file = self.to_file
1518
 
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
 
552
                print >>to_file,  indent+'  ' + l
1519
553
        if revision.delta is not None:
1520
 
            # We don't respect delta_format for compatibility
1521
 
            revision.delta.show(to_file, self.show_ids, indent=indent,
1522
 
                                short_status=False)
1523
 
        if revision.diff is not None:
1524
 
            to_file.write(indent + 'diff:\n')
1525
 
            to_file.flush()
1526
 
            # Note: we explicitly don't indent the diff (relative to the
1527
 
            # revision information) so that the output can be fed to patch -p0
1528
 
            self.show_diff(self.to_exact_file, revision.diff, indent)
1529
 
            self.to_exact_file.flush()
1530
 
 
1531
 
    def get_advice_separator(self):
1532
 
        """Get the text separating the log from the closing advice."""
1533
 
        return '-' * 60 + '\n'
 
554
            revision.delta.show(to_file, self.show_ids)
1534
555
 
1535
556
 
1536
557
class ShortLogFormatter(LogFormatter):
1537
558
 
1538
 
    supports_merge_revisions = True
1539
 
    preferred_levels = 1
1540
559
    supports_delta = True
1541
 
    supports_tags = True
1542
 
    supports_diff = True
1543
560
 
1544
 
    def __init__(self, *args, **kwargs):
1545
 
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
1546
 
        self.revno_width_by_depth = {}
 
561
    @deprecated_method(zero_seventeen)
 
562
    def show(self, revno, rev, delta):
 
563
        lr = LogRevision(rev, revno, 0, delta)
 
564
        return self.log_revision(lr)
1547
565
 
1548
566
    def log_revision(self, revision):
1549
 
        # We need two indents: one per depth and one for the information
1550
 
        # relative to that indent. Most mainline revnos are 5 chars or
1551
 
        # less while dotted revnos are typically 11 chars or less. Once
1552
 
        # calculated, we need to remember the offset for a given depth
1553
 
        # as we might be starting from a dotted revno in the first column
1554
 
        # and we want subsequent mainline revisions to line up.
1555
 
        depth = revision.merge_depth
1556
 
        indent = '    ' * depth
1557
 
        revno_width = self.revno_width_by_depth.get(depth)
1558
 
        if revno_width is None:
1559
 
            if revision.revno.find('.') == -1:
1560
 
                # mainline revno, e.g. 12345
1561
 
                revno_width = 5
1562
 
            else:
1563
 
                # dotted revno, e.g. 12345.10.55
1564
 
                revno_width = 11
1565
 
            self.revno_width_by_depth[depth] = revno_width
1566
 
        offset = ' ' * (revno_width + 1)
 
567
        from bzrlib.osutils import format_date
1567
568
 
1568
569
        to_file = self.to_file
1569
 
        tags = ''
1570
 
        if revision.tags:
1571
 
            tags = ' {%s}' % (', '.join(revision.tags))
1572
 
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1573
 
                revision.revno, self.short_author(revision.rev),
 
570
        date_str = format_date(revision.rev.timestamp,
 
571
                               revision.rev.timezone or 0,
 
572
                               self.show_timezone)
 
573
        is_merge = ''
 
574
        if len(revision.rev.parent_ids) > 1:
 
575
            is_merge = ' [merge]'
 
576
        print >>to_file, "%5s %s\t%s%s" % (revision.revno,
 
577
                self.short_committer(revision.rev),
1574
578
                format_date(revision.rev.timestamp,
1575
579
                            revision.rev.timezone or 0,
1576
580
                            self.show_timezone, date_fmt="%Y-%m-%d",
1577
581
                            show_offset=False),
1578
 
                tags, self.merge_marker(revision)))
1579
 
        self.show_properties(revision.rev, indent+offset)
 
582
                is_merge)
1580
583
        if self.show_ids:
1581
 
            to_file.write(indent + offset + 'revision-id:%s\n'
1582
 
                          % (revision.rev.revision_id,))
 
584
            print >>to_file,  '      revision-id:', revision.rev.revision_id
1583
585
        if not revision.rev.message:
1584
 
            to_file.write(indent + offset + '(no message)\n')
 
586
            print >>to_file,  '      (no message)'
1585
587
        else:
1586
588
            message = revision.rev.message.rstrip('\r\n')
1587
589
            for l in message.split('\n'):
1588
 
                to_file.write(indent + offset + '%s\n' % (l,))
 
590
                print >>to_file,  '      ' + l
1589
591
 
 
592
        # TODO: Why not show the modified files in a shorter form as
 
593
        # well? rewrap them single lines of appropriate length
1590
594
        if revision.delta is not None:
1591
 
            revision.delta.show(to_file, self.show_ids, indent=indent + offset,
1592
 
                                short_status=self.delta_format==1)
1593
 
        if revision.diff is not None:
1594
 
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1595
 
        to_file.write('\n')
 
595
            revision.delta.show(to_file, self.show_ids)
 
596
        print >>to_file, ''
1596
597
 
1597
598
 
1598
599
class LineLogFormatter(LogFormatter):
1599
600
 
1600
 
    supports_merge_revisions = True
1601
 
    preferred_levels = 1
1602
 
    supports_tags = True
1603
 
 
1604
601
    def __init__(self, *args, **kwargs):
 
602
        from bzrlib.osutils import terminal_width
1605
603
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1606
 
        width = terminal_width()
1607
 
        if width is not None:
1608
 
            # we need one extra space for terminals that wrap on last char
1609
 
            width = width - 1
1610
 
        self._max_chars = width
 
604
        self._max_chars = terminal_width() - 1
1611
605
 
1612
606
    def truncate(self, str, max_len):
1613
 
        if max_len is None or len(str) <= max_len:
 
607
        if len(str) <= max_len:
1614
608
            return str
1615
 
        return str[:max_len-3] + '...'
 
609
        return str[:max_len-3]+'...'
1616
610
 
1617
611
    def date_string(self, rev):
1618
 
        return format_date(rev.timestamp, rev.timezone or 0,
 
612
        from bzrlib.osutils import format_date
 
613
        return format_date(rev.timestamp, rev.timezone or 0, 
1619
614
                           self.show_timezone, date_fmt="%Y-%m-%d",
1620
615
                           show_offset=False)
1621
616
 
1625
620
        else:
1626
621
            return rev.message
1627
622
 
 
623
    @deprecated_method(zero_seventeen)
 
624
    def show(self, revno, rev, delta):
 
625
        from bzrlib.osutils import terminal_width
 
626
        print >> self.to_file, self.log_string(revno, rev, terminal_width()-1)
 
627
 
1628
628
    def log_revision(self, revision):
1629
 
        indent = '  ' * revision.merge_depth
1630
 
        self.to_file.write(self.log_string(revision.revno, revision.rev,
1631
 
            self._max_chars, revision.tags, indent))
1632
 
        self.to_file.write('\n')
 
629
        print >>self.to_file, self.log_string(revision.revno, revision.rev,
 
630
                                              self._max_chars)
1633
631
 
1634
 
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
 
632
    def log_string(self, revno, rev, max_chars):
1635
633
        """Format log info into one string. Truncate tail of string
1636
 
        :param  revno:      revision number or None.
 
634
        :param  revno:      revision number (int) or None.
1637
635
                            Revision numbers counts from 1.
1638
 
        :param  rev:        revision object
 
636
        :param  rev:        revision info object
1639
637
        :param  max_chars:  maximum length of resulting string
1640
 
        :param  tags:       list of tags or None
1641
 
        :param  prefix:     string to prefix each line
1642
638
        :return:            formatted truncated string
1643
639
        """
1644
640
        out = []
1645
641
        if revno:
1646
642
            # show revno only when is not None
1647
643
            out.append("%s:" % revno)
1648
 
        out.append(self.truncate(self.short_author(rev), 20))
 
644
        out.append(self.truncate(self.short_committer(rev), 20))
1649
645
        out.append(self.date_string(rev))
1650
 
        if len(rev.parent_ids) > 1:
1651
 
            out.append('[merge]')
1652
 
        if tags:
1653
 
            tag_str = '{%s}' % (', '.join(tags))
1654
 
            out.append(tag_str)
1655
646
        out.append(rev.get_summary())
1656
 
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1657
 
 
1658
 
 
1659
 
class GnuChangelogLogFormatter(LogFormatter):
1660
 
 
1661
 
    supports_merge_revisions = True
1662
 
    supports_delta = True
1663
 
 
1664
 
    def log_revision(self, revision):
1665
 
        """Log a revision, either merged or not."""
1666
 
        to_file = self.to_file
1667
 
 
1668
 
        date_str = format_date(revision.rev.timestamp,
1669
 
                               revision.rev.timezone or 0,
1670
 
                               self.show_timezone,
1671
 
                               date_fmt='%Y-%m-%d',
1672
 
                               show_offset=False)
1673
 
        committer_str = revision.rev.committer.replace (' <', '  <')
1674
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1675
 
 
1676
 
        if revision.delta is not None and revision.delta.has_changed():
1677
 
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1678
 
                path, = c[:1]
1679
 
                to_file.write('\t* %s:\n' % (path,))
1680
 
            for c in revision.delta.renamed:
1681
 
                oldpath,newpath = c[:2]
1682
 
                # For renamed files, show both the old and the new path
1683
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
1684
 
            to_file.write('\n')
1685
 
 
1686
 
        if not revision.rev.message:
1687
 
            to_file.write('\tNo commit message\n')
1688
 
        else:
1689
 
            message = revision.rev.message.rstrip('\r\n')
1690
 
            for l in message.split('\n'):
1691
 
                to_file.write('\t%s\n' % (l.lstrip(),))
1692
 
            to_file.write('\n')
 
647
        return self.truncate(" ".join(out).rstrip('\n'), max_chars)
1693
648
 
1694
649
 
1695
650
def line_log(rev, max_chars):
1721
676
                                'Detailed log format')
1722
677
log_formatter_registry.register('line', LineLogFormatter,
1723
678
                                'Log format with one line per revision')
1724
 
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1725
 
                                'Format used by GNU ChangeLog files')
1726
679
 
1727
680
 
1728
681
def register_formatter(name, formatter):
1735
688
    name -- Name of the formatter to construct; currently 'long', 'short' and
1736
689
        'line' are supported.
1737
690
    """
 
691
    from bzrlib.errors import BzrCommandError
1738
692
    try:
1739
693
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
1740
694
    except KeyError:
1741
 
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
 
695
        raise BzrCommandError("unknown log formatter: %r" % name)
1742
696
 
1743
697
 
1744
698
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
1747
701
    lf.show(revno, rev, delta)
1748
702
 
1749
703
 
1750
 
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
1751
 
                           log_format='long'):
 
704
def show_changed_revisions(branch, old_rh, new_rh, to_file=None, log_format='long'):
1752
705
    """Show the change in revision history comparing the old revision history to the new one.
1753
706
 
1754
707
    :param branch: The branch where the revisions exist
1757
710
    :param to_file: A file to write the results to. If None, stdout will be used
1758
711
    """
1759
712
    if to_file is None:
1760
 
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
1761
 
            errors='replace')
 
713
        import sys
 
714
        import codecs
 
715
        import bzrlib
 
716
        to_file = codecs.getwriter(bzrlib.user_encoding)(sys.stdout, errors='replace')
1762
717
    lf = log_formatter(log_format,
1763
718
                       show_ids=False,
1764
719
                       to_file=to_file,
1795
750
        show_log(branch,
1796
751
                 lf,
1797
752
                 None,
1798
 
                 verbose=False,
 
753
                 verbose=True,
1799
754
                 direction='forward',
1800
755
                 start_revision=base_idx+1,
1801
756
                 end_revision=len(new_rh),
1802
757
                 search=None)
1803
758
 
1804
 
 
1805
 
def get_history_change(old_revision_id, new_revision_id, repository):
1806
 
    """Calculate the uncommon lefthand history between two revisions.
1807
 
 
1808
 
    :param old_revision_id: The original revision id.
1809
 
    :param new_revision_id: The new revision id.
1810
 
    :param repository: The repository to use for the calculation.
1811
 
 
1812
 
    return old_history, new_history
1813
 
    """
1814
 
    old_history = []
1815
 
    old_revisions = set()
1816
 
    new_history = []
1817
 
    new_revisions = set()
1818
 
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
1819
 
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
1820
 
    stop_revision = None
1821
 
    do_old = True
1822
 
    do_new = True
1823
 
    while do_new or do_old:
1824
 
        if do_new:
1825
 
            try:
1826
 
                new_revision = new_iter.next()
1827
 
            except StopIteration:
1828
 
                do_new = False
1829
 
            else:
1830
 
                new_history.append(new_revision)
1831
 
                new_revisions.add(new_revision)
1832
 
                if new_revision in old_revisions:
1833
 
                    stop_revision = new_revision
1834
 
                    break
1835
 
        if do_old:
1836
 
            try:
1837
 
                old_revision = old_iter.next()
1838
 
            except StopIteration:
1839
 
                do_old = False
1840
 
            else:
1841
 
                old_history.append(old_revision)
1842
 
                old_revisions.add(old_revision)
1843
 
                if old_revision in new_revisions:
1844
 
                    stop_revision = old_revision
1845
 
                    break
1846
 
    new_history.reverse()
1847
 
    old_history.reverse()
1848
 
    if stop_revision is not None:
1849
 
        new_history = new_history[new_history.index(stop_revision) + 1:]
1850
 
        old_history = old_history[old_history.index(stop_revision) + 1:]
1851
 
    return old_history, new_history
1852
 
 
1853
 
 
1854
 
def show_branch_change(branch, output, old_revno, old_revision_id):
1855
 
    """Show the changes made to a branch.
1856
 
 
1857
 
    :param branch: The branch to show changes about.
1858
 
    :param output: A file-like object to write changes to.
1859
 
    :param old_revno: The revno of the old tip.
1860
 
    :param old_revision_id: The revision_id of the old tip.
1861
 
    """
1862
 
    new_revno, new_revision_id = branch.last_revision_info()
1863
 
    old_history, new_history = get_history_change(old_revision_id,
1864
 
                                                  new_revision_id,
1865
 
                                                  branch.repository)
1866
 
    if old_history == [] and new_history == []:
1867
 
        output.write('Nothing seems to have changed\n')
1868
 
        return
1869
 
 
1870
 
    log_format = log_formatter_registry.get_default(branch)
1871
 
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
1872
 
    if old_history != []:
1873
 
        output.write('*'*60)
1874
 
        output.write('\nRemoved Revisions:\n')
1875
 
        show_flat_log(branch.repository, old_history, old_revno, lf)
1876
 
        output.write('*'*60)
1877
 
        output.write('\n\n')
1878
 
    if new_history != []:
1879
 
        output.write('Added Revisions:\n')
1880
 
        start_revno = new_revno - len(new_history) + 1
1881
 
        show_log(branch, lf, None, verbose=False, direction='forward',
1882
 
                 start_revision=start_revno,)
1883
 
 
1884
 
 
1885
 
def show_flat_log(repository, history, last_revno, lf):
1886
 
    """Show a simple log of the specified history.
1887
 
 
1888
 
    :param repository: The repository to retrieve revisions from.
1889
 
    :param history: A list of revision_ids indicating the lefthand history.
1890
 
    :param last_revno: The revno of the last revision_id in the history.
1891
 
    :param lf: The log formatter to use.
1892
 
    """
1893
 
    start_revno = last_revno - len(history) + 1
1894
 
    revisions = repository.get_revisions(history)
1895
 
    for i, rev in enumerate(revisions):
1896
 
        lr = LogRevision(rev, i + last_revno, 0, None)
1897
 
        lf.log_revision(lr)
1898
 
 
1899
 
 
1900
 
def _get_info_for_log_files(revisionspec_list, file_list):
1901
 
    """Find file-ids and kinds given a list of files and a revision range.
1902
 
 
1903
 
    We search for files at the end of the range. If not found there,
1904
 
    we try the start of the range.
1905
 
 
1906
 
    :param revisionspec_list: revision range as parsed on the command line
1907
 
    :param file_list: the list of paths given on the command line;
1908
 
      the first of these can be a branch location or a file path,
1909
 
      the remainder must be file paths
1910
 
    :return: (branch, info_list, start_rev_info, end_rev_info) where
1911
 
      info_list is a list of (relative_path, file_id, kind) tuples where
1912
 
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
1913
 
      branch will be read-locked.
1914
 
    """
1915
 
    from builtins import _get_revision_range, safe_relpath_files
1916
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
1917
 
    b.lock_read()
1918
 
    # XXX: It's damn messy converting a list of paths to relative paths when
1919
 
    # those paths might be deleted ones, they might be on a case-insensitive
1920
 
    # filesystem and/or they might be in silly locations (like another branch).
1921
 
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
1922
 
    # file2 implicitly in the same dir as file1 or should its directory be
1923
 
    # taken from the current tree somehow?) For now, this solves the common
1924
 
    # case of running log in a nested directory, assuming paths beyond the
1925
 
    # first one haven't been deleted ...
1926
 
    if tree:
1927
 
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
1928
 
    else:
1929
 
        relpaths = [path] + file_list[1:]
1930
 
    info_list = []
1931
 
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
1932
 
        "log")
1933
 
    if relpaths in ([], [u'']):
1934
 
        return b, [], start_rev_info, end_rev_info
1935
 
    if start_rev_info is None and end_rev_info is None:
1936
 
        if tree is None:
1937
 
            tree = b.basis_tree()
1938
 
        tree1 = None
1939
 
        for fp in relpaths:
1940
 
            file_id = tree.path2id(fp)
1941
 
            kind = _get_kind_for_file_id(tree, file_id)
1942
 
            if file_id is None:
1943
 
                # go back to when time began
1944
 
                if tree1 is None:
1945
 
                    try:
1946
 
                        rev1 = b.get_rev_id(1)
1947
 
                    except errors.NoSuchRevision:
1948
 
                        # No history at all
1949
 
                        file_id = None
1950
 
                        kind = None
1951
 
                    else:
1952
 
                        tree1 = b.repository.revision_tree(rev1)
1953
 
                if tree1:
1954
 
                    file_id = tree1.path2id(fp)
1955
 
                    kind = _get_kind_for_file_id(tree1, file_id)
1956
 
            info_list.append((fp, file_id, kind))
1957
 
 
1958
 
    elif start_rev_info == end_rev_info:
1959
 
        # One revision given - file must exist in it
1960
 
        tree = b.repository.revision_tree(end_rev_info.rev_id)
1961
 
        for fp in relpaths:
1962
 
            file_id = tree.path2id(fp)
1963
 
            kind = _get_kind_for_file_id(tree, file_id)
1964
 
            info_list.append((fp, file_id, kind))
1965
 
 
1966
 
    else:
1967
 
        # Revision range given. Get the file-id from the end tree.
1968
 
        # If that fails, try the start tree.
1969
 
        rev_id = end_rev_info.rev_id
1970
 
        if rev_id is None:
1971
 
            tree = b.basis_tree()
1972
 
        else:
1973
 
            tree = b.repository.revision_tree(rev_id)
1974
 
        tree1 = None
1975
 
        for fp in relpaths:
1976
 
            file_id = tree.path2id(fp)
1977
 
            kind = _get_kind_for_file_id(tree, file_id)
1978
 
            if file_id is None:
1979
 
                if tree1 is None:
1980
 
                    rev_id = start_rev_info.rev_id
1981
 
                    if rev_id is None:
1982
 
                        rev1 = b.get_rev_id(1)
1983
 
                        tree1 = b.repository.revision_tree(rev1)
1984
 
                    else:
1985
 
                        tree1 = b.repository.revision_tree(rev_id)
1986
 
                file_id = tree1.path2id(fp)
1987
 
                kind = _get_kind_for_file_id(tree1, file_id)
1988
 
            info_list.append((fp, file_id, kind))
1989
 
    return b, info_list, start_rev_info, end_rev_info
1990
 
 
1991
 
 
1992
 
def _get_kind_for_file_id(tree, file_id):
1993
 
    """Return the kind of a file-id or None if it doesn't exist."""
1994
 
    if file_id is not None:
1995
 
        return tree.kind(file_id)
1996
 
    else:
1997
 
        return None
1998
 
 
1999
 
 
2000
 
properties_handler_registry = registry.Registry()
2001
 
 
2002
 
# Use the properties handlers to print out bug information if available
2003
 
def _bugs_properties_handler(revision):
2004
 
    if revision.properties.has_key('bugs'):
2005
 
        bug_lines = revision.properties['bugs'].split('\n')
2006
 
        bug_rows = [line.split(' ', 1) for line in bug_lines]
2007
 
        fixed_bug_urls = [row[0] for row in bug_rows if
2008
 
                          len(row) > 1 and row[1] == 'fixed']
2009
 
        
2010
 
        if fixed_bug_urls:
2011
 
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
2012
 
    return {}
2013
 
 
2014
 
properties_handler_registry.register('bugs_properties_handler',
2015
 
                                     _bugs_properties_handler)
2016
 
 
2017
 
 
2018
 
# adapters which revision ids to log are filtered. When log is called, the
2019
 
# log_rev_iterator is adapted through each of these factory methods.
2020
 
# Plugins are welcome to mutate this list in any way they like - as long
2021
 
# as the overall behaviour is preserved. At this point there is no extensible
2022
 
# mechanism for getting parameters to each factory method, and until there is
2023
 
# this won't be considered a stable api.
2024
 
log_adapters = [
2025
 
    # core log logic
2026
 
    _make_batch_filter,
2027
 
    # read revision objects
2028
 
    _make_revision_objects,
2029
 
    # filter on log messages
2030
 
    _make_search_filter,
2031
 
    # generate deltas for things we will show
2032
 
    _make_delta_filter
2033
 
    ]