~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Alexander Belchenko
  • Date: 2006-07-30 16:43:12 UTC
  • mto: (1711.2.111 jam-integration)
  • mto: This revision was merged to the branch mainline in revision 1906.
  • Revision ID: bialix@ukr.net-20060730164312-b025fd3ff0cee59e
rename  gpl.txt => COPYING.txt

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
 
18
18
 
42
42
 
43
43
In verbose mode we show a summary of what changed in each particular
44
44
revision.  Note that this is the delta for changes in that revision
45
 
relative to its left-most parent, not the delta relative to the last
 
45
relative to its mainline parent, not the delta relative to the last
46
46
logged revision.  So for example if you ask for a verbose log of
47
47
changes touching hello.c you will get a list of those revisions also
48
48
listing other things that were changed in the same revision, but not
49
49
all the changes since the previous revision that touched hello.c.
50
50
"""
51
51
 
52
 
import codecs
53
 
from cStringIO import StringIO
54
 
from itertools import (
55
 
    chain,
56
 
    izip,
57
 
    )
 
52
# TODO: option to show delta summaries for merged-in revisions
 
53
 
 
54
from itertools import izip
58
55
import re
59
 
import sys
60
 
from warnings import (
61
 
    warn,
62
 
    )
63
 
 
64
 
from bzrlib.lazy_import import lazy_import
65
 
lazy_import(globals(), """
66
 
 
67
 
from bzrlib import (
68
 
    bzrdir,
69
 
    config,
70
 
    diff,
71
 
    errors,
72
 
    foreign,
73
 
    repository as _mod_repository,
74
 
    revision as _mod_revision,
75
 
    revisionspec,
76
 
    trace,
77
 
    tsort,
78
 
    )
79
 
""")
80
 
 
81
 
from bzrlib import (
82
 
    registry,
83
 
    )
84
 
from bzrlib.osutils import (
85
 
    format_date,
86
 
    format_date_with_offset_in_original_timezone,
87
 
    get_terminal_encoding,
88
 
    re_compile_checked,
89
 
    terminal_width,
90
 
    )
91
 
from bzrlib.symbol_versioning import (
92
 
    deprecated_function,
93
 
    deprecated_in,
94
 
    )
 
56
 
 
57
import bzrlib.errors as errors
 
58
from bzrlib.trace import mutter
 
59
from bzrlib.tsort import merge_sort
95
60
 
96
61
 
97
62
def find_touching_revisions(branch, file_id):
109
74
    last_path = None
110
75
    revno = 1
111
76
    for revision_id in branch.revision_history():
112
 
        this_inv = branch.repository.get_inventory(revision_id)
 
77
        this_inv = branch.repository.get_revision_inventory(revision_id)
113
78
        if file_id in this_inv:
114
79
            this_ie = this_inv[file_id]
115
80
            this_path = this_inv.id2path(file_id)
138
103
        revno += 1
139
104
 
140
105
 
 
106
 
141
107
def _enumerate_history(branch):
142
108
    rh = []
143
109
    revno = 1
154
120
             direction='reverse',
155
121
             start_revision=None,
156
122
             end_revision=None,
157
 
             search=None,
158
 
             limit=None,
159
 
             show_diff=False):
 
123
             search=None):
160
124
    """Write out human-readable log of commits to this branch.
161
125
 
162
 
    This function is being retained for backwards compatibility but
163
 
    should not be extended with new parameters. Use the new Logger class
164
 
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
165
 
    make_log_request_dict function.
166
 
 
167
 
    :param lf: The LogFormatter object showing the output.
168
 
 
169
 
    :param specific_fileid: If not None, list only the commits affecting the
170
 
        specified file, rather than all commits.
171
 
 
172
 
    :param verbose: If True show added/changed/deleted/renamed files.
173
 
 
174
 
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
175
 
        earliest to latest.
176
 
 
177
 
    :param start_revision: If not None, only show revisions >= start_revision
178
 
 
179
 
    :param end_revision: If not None, only show revisions <= end_revision
180
 
 
181
 
    :param search: If not None, only show revisions with matching commit
182
 
        messages
183
 
 
184
 
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
185
 
        if None or 0.
186
 
 
187
 
    :param show_diff: If True, output a diff after each revision.
188
 
    """
189
 
    # Convert old-style parameters to new-style parameters
190
 
    if specific_fileid is not None:
191
 
        file_ids = [specific_fileid]
192
 
    else:
193
 
        file_ids = None
194
 
    if verbose:
195
 
        if file_ids:
196
 
            delta_type = 'partial'
197
 
        else:
198
 
            delta_type = 'full'
199
 
    else:
200
 
        delta_type = None
201
 
    if show_diff:
202
 
        if file_ids:
203
 
            diff_type = 'partial'
204
 
        else:
205
 
            diff_type = 'full'
206
 
    else:
207
 
        diff_type = None
208
 
 
209
 
    # Build the request and execute it
210
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
211
 
        start_revision=start_revision, end_revision=end_revision,
212
 
        limit=limit, message_search=search,
213
 
        delta_type=delta_type, diff_type=diff_type)
214
 
    Logger(branch, rqst).show(lf)
215
 
 
216
 
 
217
 
# Note: This needs to be kept this in sync with the defaults in
218
 
# make_log_request_dict() below
219
 
_DEFAULT_REQUEST_PARAMS = {
220
 
    'direction': 'reverse',
221
 
    'levels': 1,
222
 
    'generate_tags': True,
223
 
    'exclude_common_ancestry': False,
224
 
    '_match_using_deltas': True,
225
 
    }
226
 
 
227
 
 
228
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
229
 
                          start_revision=None, end_revision=None, limit=None,
230
 
                          message_search=None, levels=1, generate_tags=True,
231
 
                          delta_type=None,
232
 
                          diff_type=None, _match_using_deltas=True,
233
 
                          exclude_common_ancestry=False,
234
 
                          ):
235
 
    """Convenience function for making a logging request dictionary.
236
 
 
237
 
    Using this function may make code slightly safer by ensuring
238
 
    parameters have the correct names. It also provides a reference
239
 
    point for documenting the supported parameters.
240
 
 
241
 
    :param direction: 'reverse' (default) is latest to earliest;
242
 
      'forward' is earliest to latest.
243
 
 
244
 
    :param specific_fileids: If not None, only include revisions
245
 
      affecting the specified files, rather than all revisions.
246
 
 
247
 
    :param start_revision: If not None, only generate
248
 
      revisions >= start_revision
249
 
 
250
 
    :param end_revision: If not None, only generate
251
 
      revisions <= end_revision
252
 
 
253
 
    :param limit: If set, generate only 'limit' revisions, all revisions
254
 
      are shown if None or 0.
255
 
 
256
 
    :param message_search: If not None, only include revisions with
257
 
      matching commit messages
258
 
 
259
 
    :param levels: the number of levels of revisions to
260
 
      generate; 1 for just the mainline; 0 for all levels.
261
 
 
262
 
    :param generate_tags: If True, include tags for matched revisions.
263
 
 
264
 
    :param delta_type: Either 'full', 'partial' or None.
265
 
      'full' means generate the complete delta - adds/deletes/modifies/etc;
266
 
      'partial' means filter the delta using specific_fileids;
267
 
      None means do not generate any delta.
268
 
 
269
 
    :param diff_type: Either 'full', 'partial' or None.
270
 
      'full' means generate the complete diff - adds/deletes/modifies/etc;
271
 
      'partial' means filter the diff using specific_fileids;
272
 
      None means do not generate any diff.
273
 
 
274
 
    :param _match_using_deltas: a private parameter controlling the
275
 
      algorithm used for matching specific_fileids. This parameter
276
 
      may be removed in the future so bzrlib client code should NOT
277
 
      use it.
278
 
 
279
 
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
280
 
      range operator or as a graph difference.
281
 
    """
282
 
    return {
283
 
        'direction': direction,
284
 
        'specific_fileids': specific_fileids,
285
 
        'start_revision': start_revision,
286
 
        'end_revision': end_revision,
287
 
        'limit': limit,
288
 
        'message_search': message_search,
289
 
        'levels': levels,
290
 
        'generate_tags': generate_tags,
291
 
        'delta_type': delta_type,
292
 
        'diff_type': diff_type,
293
 
        'exclude_common_ancestry': exclude_common_ancestry,
294
 
        # Add 'private' attributes for features that may be deprecated
295
 
        '_match_using_deltas': _match_using_deltas,
296
 
    }
297
 
 
298
 
 
299
 
def _apply_log_request_defaults(rqst):
300
 
    """Apply default values to a request dictionary."""
301
 
    result = _DEFAULT_REQUEST_PARAMS
302
 
    if rqst:
303
 
        result.update(rqst)
304
 
    return result
305
 
 
306
 
 
307
 
class LogGenerator(object):
308
 
    """A generator of log revisions."""
309
 
 
310
 
    def iter_log_revisions(self):
311
 
        """Iterate over LogRevision objects.
312
 
 
313
 
        :return: An iterator yielding LogRevision objects.
314
 
        """
315
 
        raise NotImplementedError(self.iter_log_revisions)
316
 
 
317
 
 
318
 
class Logger(object):
319
 
    """An object that generates, formats and displays a log."""
320
 
 
321
 
    def __init__(self, branch, rqst):
322
 
        """Create a Logger.
323
 
 
324
 
        :param branch: the branch to log
325
 
        :param rqst: A dictionary specifying the query parameters.
326
 
          See make_log_request_dict() for supported values.
327
 
        """
328
 
        self.branch = branch
329
 
        self.rqst = _apply_log_request_defaults(rqst)
330
 
 
331
 
    def show(self, lf):
332
 
        """Display the log.
333
 
 
334
 
        :param lf: The LogFormatter object to send the output to.
335
 
        """
336
 
        if not isinstance(lf, LogFormatter):
337
 
            warn("not a LogFormatter instance: %r" % lf)
338
 
 
339
 
        self.branch.lock_read()
340
 
        try:
341
 
            if getattr(lf, 'begin_log', None):
342
 
                lf.begin_log()
343
 
            self._show_body(lf)
344
 
            if getattr(lf, 'end_log', None):
345
 
                lf.end_log()
346
 
        finally:
347
 
            self.branch.unlock()
348
 
 
349
 
    def _show_body(self, lf):
350
 
        """Show the main log output.
351
 
 
352
 
        Subclasses may wish to override this.
353
 
        """
354
 
        # Tweak the LogRequest based on what the LogFormatter can handle.
355
 
        # (There's no point generating stuff if the formatter can't display it.)
356
 
        rqst = self.rqst
357
 
        rqst['levels'] = lf.get_levels()
358
 
        if not getattr(lf, 'supports_tags', False):
359
 
            rqst['generate_tags'] = False
360
 
        if not getattr(lf, 'supports_delta', False):
361
 
            rqst['delta_type'] = None
362
 
        if not getattr(lf, 'supports_diff', False):
363
 
            rqst['diff_type'] = None
364
 
 
365
 
        # Find and print the interesting revisions
366
 
        generator = self._generator_factory(self.branch, rqst)
367
 
        for lr in generator.iter_log_revisions():
368
 
            lf.log_revision(lr)
369
 
        lf.show_advice()
370
 
 
371
 
    def _generator_factory(self, branch, rqst):
372
 
        """Make the LogGenerator object to use.
373
 
        
374
 
        Subclasses may wish to override this.
375
 
        """
376
 
        return _DefaultLogGenerator(branch, rqst)
377
 
 
378
 
 
379
 
class _StartNotLinearAncestor(Exception):
380
 
    """Raised when a start revision is not found walking left-hand history."""
381
 
 
382
 
 
383
 
class _DefaultLogGenerator(LogGenerator):
384
 
    """The default generator of log revisions."""
385
 
 
386
 
    def __init__(self, branch, rqst):
387
 
        self.branch = branch
388
 
        self.rqst = rqst
389
 
        if rqst.get('generate_tags') and branch.supports_tags():
390
 
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
391
 
        else:
392
 
            self.rev_tag_dict = {}
393
 
 
394
 
    def iter_log_revisions(self):
395
 
        """Iterate over LogRevision objects.
396
 
 
397
 
        :return: An iterator yielding LogRevision objects.
398
 
        """
399
 
        rqst = self.rqst
400
 
        levels = rqst.get('levels')
401
 
        limit = rqst.get('limit')
402
 
        diff_type = rqst.get('diff_type')
403
 
        log_count = 0
404
 
        revision_iterator = self._create_log_revision_iterator()
405
 
        for revs in revision_iterator:
406
 
            for (rev_id, revno, merge_depth), rev, delta in revs:
407
 
                # 0 levels means show everything; merge_depth counts from 0
408
 
                if levels != 0 and merge_depth >= levels:
409
 
                    continue
410
 
                if diff_type is None:
411
 
                    diff = None
412
 
                else:
413
 
                    diff = self._format_diff(rev, rev_id, diff_type)
414
 
                yield LogRevision(rev, revno, merge_depth, delta,
415
 
                    self.rev_tag_dict.get(rev_id), diff)
416
 
                if limit:
417
 
                    log_count += 1
418
 
                    if log_count >= limit:
419
 
                        return
420
 
 
421
 
    def _format_diff(self, rev, rev_id, diff_type):
422
 
        repo = self.branch.repository
423
 
        if len(rev.parent_ids) == 0:
424
 
            ancestor_id = _mod_revision.NULL_REVISION
425
 
        else:
426
 
            ancestor_id = rev.parent_ids[0]
427
 
        tree_1 = repo.revision_tree(ancestor_id)
428
 
        tree_2 = repo.revision_tree(rev_id)
429
 
        file_ids = self.rqst.get('specific_fileids')
430
 
        if diff_type == 'partial' and file_ids is not None:
431
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
432
 
        else:
433
 
            specific_files = None
434
 
        s = StringIO()
435
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
436
 
            new_label='')
437
 
        return s.getvalue()
438
 
 
439
 
    def _create_log_revision_iterator(self):
440
 
        """Create a revision iterator for log.
441
 
 
442
 
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
443
 
            delta).
444
 
        """
445
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
446
 
            self.branch, self.rqst.get('start_revision'),
447
 
            self.rqst.get('end_revision'))
448
 
        if self.rqst.get('_match_using_deltas'):
449
 
            return self._log_revision_iterator_using_delta_matching()
450
 
        else:
451
 
            # We're using the per-file-graph algorithm. This scales really
452
 
            # well but only makes sense if there is a single file and it's
453
 
            # not a directory
454
 
            file_count = len(self.rqst.get('specific_fileids'))
455
 
            if file_count != 1:
456
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
457
 
                    "when logging %d files" % file_count)
458
 
            return self._log_revision_iterator_using_per_file_graph()
459
 
 
460
 
    def _log_revision_iterator_using_delta_matching(self):
461
 
        # Get the base revisions, filtering by the revision range
462
 
        rqst = self.rqst
463
 
        generate_merge_revisions = rqst.get('levels') != 1
464
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
465
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
466
 
        view_revisions = _calc_view_revisions(
467
 
            self.branch, self.start_rev_id, self.end_rev_id,
468
 
            rqst.get('direction'),
469
 
            generate_merge_revisions=generate_merge_revisions,
470
 
            delayed_graph_generation=delayed_graph_generation,
471
 
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
472
 
 
473
 
        # Apply the other filters
474
 
        return make_log_rev_iterator(self.branch, view_revisions,
475
 
            rqst.get('delta_type'), rqst.get('message_search'),
476
 
            file_ids=rqst.get('specific_fileids'),
477
 
            direction=rqst.get('direction'))
478
 
 
479
 
    def _log_revision_iterator_using_per_file_graph(self):
480
 
        # Get the base revisions, filtering by the revision range.
481
 
        # Note that we always generate the merge revisions because
482
 
        # filter_revisions_touching_file_id() requires them ...
483
 
        rqst = self.rqst
484
 
        view_revisions = _calc_view_revisions(
485
 
            self.branch, self.start_rev_id, self.end_rev_id,
486
 
            rqst.get('direction'), generate_merge_revisions=True,
487
 
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
488
 
        if not isinstance(view_revisions, list):
489
 
            view_revisions = list(view_revisions)
490
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
491
 
            rqst.get('specific_fileids')[0], view_revisions,
492
 
            include_merges=rqst.get('levels') != 1)
493
 
        return make_log_rev_iterator(self.branch, view_revisions,
494
 
            rqst.get('delta_type'), rqst.get('message_search'))
495
 
 
496
 
 
497
 
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
498
 
                         generate_merge_revisions,
499
 
                         delayed_graph_generation=False,
500
 
                         exclude_common_ancestry=False,
501
 
                         ):
502
 
    """Calculate the revisions to view.
503
 
 
504
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
505
 
             a list of the same tuples.
506
 
    """
507
 
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
508
 
        raise errors.BzrCommandError(
509
 
            '--exclude-common-ancestry requires two different revisions')
510
 
    if direction not in ('reverse', 'forward'):
511
 
        raise ValueError('invalid direction %r' % direction)
512
 
    br_revno, br_rev_id = branch.last_revision_info()
513
 
    if br_revno == 0:
514
 
        return []
515
 
 
516
 
    if (end_rev_id and start_rev_id == end_rev_id
517
 
        and (not generate_merge_revisions
518
 
             or not _has_merges(branch, end_rev_id))):
519
 
        # If a single revision is requested, check we can handle it
520
 
        iter_revs = _generate_one_revision(branch, end_rev_id, br_rev_id,
521
 
                                           br_revno)
522
 
    elif not generate_merge_revisions:
523
 
        # If we only want to see linear revisions, we can iterate ...
524
 
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
525
 
                                             direction)
526
 
        if direction == 'forward':
527
 
            iter_revs = reversed(iter_revs)
528
 
    else:
529
 
        iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
530
 
                                            direction, delayed_graph_generation,
531
 
                                            exclude_common_ancestry)
532
 
        if direction == 'forward':
533
 
            iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
534
 
    return iter_revs
535
 
 
536
 
 
537
 
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
538
 
    if rev_id == br_rev_id:
539
 
        # It's the tip
540
 
        return [(br_rev_id, br_revno, 0)]
541
 
    else:
542
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
543
 
        revno_str = '.'.join(str(n) for n in revno)
544
 
        return [(rev_id, revno_str, 0)]
545
 
 
546
 
 
547
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
548
 
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
549
 
    # If a start limit was given and it's not obviously an
550
 
    # ancestor of the end limit, check it before outputting anything
551
 
    if direction == 'forward' or (start_rev_id
552
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
553
 
        try:
554
 
            result = list(result)
555
 
        except _StartNotLinearAncestor:
556
 
            raise errors.BzrCommandError('Start revision not found in'
557
 
                ' left-hand history of end revision.')
558
 
    return result
559
 
 
560
 
 
561
 
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
562
 
                            delayed_graph_generation,
563
 
                            exclude_common_ancestry=False):
564
 
    # On large trees, generating the merge graph can take 30-60 seconds
565
 
    # so we delay doing it until a merge is detected, incrementally
566
 
    # returning initial (non-merge) revisions while we can.
567
 
 
568
 
    # The above is only true for old formats (<= 0.92), for newer formats, a
569
 
    # couple of seconds only should be needed to load the whole graph and the
570
 
    # other graph operations needed are even faster than that -- vila 100201
571
 
    initial_revisions = []
572
 
    if delayed_graph_generation:
573
 
        try:
574
 
            for rev_id, revno, depth in  _linear_view_revisions(
575
 
                branch, start_rev_id, end_rev_id):
576
 
                if _has_merges(branch, rev_id):
577
 
                    # The end_rev_id can be nested down somewhere. We need an
578
 
                    # explicit ancestry check. There is an ambiguity here as we
579
 
                    # may not raise _StartNotLinearAncestor for a revision that
580
 
                    # is an ancestor but not a *linear* one. But since we have
581
 
                    # loaded the graph to do the check (or calculate a dotted
582
 
                    # revno), we may as well accept to show the log...  We need
583
 
                    # the check only if start_rev_id is not None as all
584
 
                    # revisions have _mod_revision.NULL_REVISION as an ancestor
585
 
                    # -- vila 20100319
586
 
                    graph = branch.repository.get_graph()
587
 
                    if (start_rev_id is not None
588
 
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
589
 
                        raise _StartNotLinearAncestor()
590
 
                    # Since we collected the revisions so far, we need to
591
 
                    # adjust end_rev_id.
592
 
                    end_rev_id = rev_id
593
 
                    break
594
 
                else:
595
 
                    initial_revisions.append((rev_id, revno, depth))
596
 
            else:
597
 
                # No merged revisions found
598
 
                return initial_revisions
599
 
        except _StartNotLinearAncestor:
600
 
            # A merge was never detected so the lower revision limit can't
601
 
            # be nested down somewhere
602
 
            raise errors.BzrCommandError('Start revision not found in'
603
 
                ' history of end revision.')
604
 
 
605
 
    # We exit the loop above because we encounter a revision with merges, from
606
 
    # this revision, we need to switch to _graph_view_revisions.
607
 
 
608
 
    # A log including nested merges is required. If the direction is reverse,
609
 
    # we rebase the initial merge depths so that the development line is
610
 
    # shown naturally, i.e. just like it is for linear logging. We can easily
611
 
    # make forward the exact opposite display, but showing the merge revisions
612
 
    # indented at the end seems slightly nicer in that case.
613
 
    view_revisions = chain(iter(initial_revisions),
614
 
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
615
 
                              rebase_initial_depths=(direction == 'reverse'),
616
 
                              exclude_common_ancestry=exclude_common_ancestry))
617
 
    return view_revisions
618
 
 
619
 
 
620
 
def _has_merges(branch, rev_id):
621
 
    """Does a revision have multiple parents or not?"""
622
 
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
623
 
    return len(parents) > 1
624
 
 
625
 
 
626
 
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
627
 
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
628
 
    if start_rev_id and end_rev_id:
629
 
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
630
 
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
631
 
        if len(start_dotted) == 1 and len(end_dotted) == 1:
632
 
            # both on mainline
633
 
            return start_dotted[0] <= end_dotted[0]
634
 
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
635
 
            start_dotted[0:1] == end_dotted[0:1]):
636
 
            # both on same development line
637
 
            return start_dotted[2] <= end_dotted[2]
638
 
        else:
639
 
            # not obvious
640
 
            return False
641
 
    # if either start or end is not specified then we use either the first or
642
 
    # the last revision and *they* are obvious ancestors.
643
 
    return True
644
 
 
645
 
 
646
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
647
 
    """Calculate a sequence of revisions to view, newest to oldest.
648
 
 
649
 
    :param start_rev_id: the lower revision-id
650
 
    :param end_rev_id: the upper revision-id
651
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
652
 
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
653
 
      is not found walking the left-hand history
654
 
    """
655
 
    br_revno, br_rev_id = branch.last_revision_info()
656
 
    repo = branch.repository
657
 
    if start_rev_id is None and end_rev_id is None:
658
 
        cur_revno = br_revno
659
 
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
660
 
            yield revision_id, str(cur_revno), 0
661
 
            cur_revno -= 1
662
 
    else:
663
 
        if end_rev_id is None:
664
 
            end_rev_id = br_rev_id
665
 
        found_start = start_rev_id is None
666
 
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
667
 
            revno = branch.revision_id_to_dotted_revno(revision_id)
668
 
            revno_str = '.'.join(str(n) for n in revno)
669
 
            if not found_start and revision_id == start_rev_id:
670
 
                yield revision_id, revno_str, 0
671
 
                found_start = True
672
 
                break
673
 
            else:
674
 
                yield revision_id, revno_str, 0
675
 
        else:
676
 
            if not found_start:
677
 
                raise _StartNotLinearAncestor()
678
 
 
679
 
 
680
 
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
681
 
                          rebase_initial_depths=True,
682
 
                          exclude_common_ancestry=False):
683
 
    """Calculate revisions to view including merges, newest to oldest.
684
 
 
685
 
    :param branch: the branch
686
 
    :param start_rev_id: the lower revision-id
687
 
    :param end_rev_id: the upper revision-id
688
 
    :param rebase_initial_depth: should depths be rebased until a mainline
689
 
      revision is found?
690
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
691
 
    """
692
 
    if exclude_common_ancestry:
693
 
        stop_rule = 'with-merges-without-common-ancestry'
694
 
    else:
695
 
        stop_rule = 'with-merges'
696
 
    view_revisions = branch.iter_merge_sorted_revisions(
697
 
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
698
 
        stop_rule=stop_rule)
699
 
    if not rebase_initial_depths:
700
 
        for (rev_id, merge_depth, revno, end_of_merge
701
 
             ) in view_revisions:
702
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
703
 
    else:
704
 
        # We're following a development line starting at a merged revision.
705
 
        # We need to adjust depths down by the initial depth until we find
706
 
        # a depth less than it. Then we use that depth as the adjustment.
707
 
        # If and when we reach the mainline, depth adjustment ends.
708
 
        depth_adjustment = None
709
 
        for (rev_id, merge_depth, revno, end_of_merge
710
 
             ) in view_revisions:
711
 
            if depth_adjustment is None:
712
 
                depth_adjustment = merge_depth
713
 
            if depth_adjustment:
714
 
                if merge_depth < depth_adjustment:
715
 
                    # From now on we reduce the depth adjustement, this can be
716
 
                    # surprising for users. The alternative requires two passes
717
 
                    # which breaks the fast display of the first revision
718
 
                    # though.
719
 
                    depth_adjustment = merge_depth
720
 
                merge_depth -= depth_adjustment
721
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
722
 
 
723
 
 
724
 
@deprecated_function(deprecated_in((2, 2, 0)))
725
 
def calculate_view_revisions(branch, start_revision, end_revision, direction,
726
 
        specific_fileid, generate_merge_revisions):
727
 
    """Calculate the revisions to view.
728
 
 
729
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
730
 
             a list of the same tuples.
731
 
    """
732
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
733
 
        end_revision)
734
 
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
735
 
        direction, generate_merge_revisions or specific_fileid))
 
126
    lf
 
127
        LogFormatter object to show the output.
 
128
 
 
129
    specific_fileid
 
130
        If true, list only the commits affecting the specified
 
131
        file, rather than all commits.
 
132
 
 
133
    verbose
 
134
        If true show added/changed/deleted/renamed files.
 
135
 
 
136
    direction
 
137
        'reverse' (default) is latest to earliest;
 
138
        'forward' is earliest to latest.
 
139
 
 
140
    start_revision
 
141
        If not None, only show revisions >= start_revision
 
142
 
 
143
    end_revision
 
144
        If not None, only show revisions <= end_revision
 
145
    """
 
146
    branch.lock_read()
 
147
    try:
 
148
        _show_log(branch, lf, specific_fileid, verbose, direction,
 
149
                  start_revision, end_revision, search)
 
150
    finally:
 
151
        branch.unlock()
 
152
    
 
153
def _show_log(branch,
 
154
             lf,
 
155
             specific_fileid=None,
 
156
             verbose=False,
 
157
             direction='reverse',
 
158
             start_revision=None,
 
159
             end_revision=None,
 
160
             search=None):
 
161
    """Worker function for show_log - see show_log."""
 
162
    from bzrlib.osutils import format_date
 
163
    from bzrlib.errors import BzrCheckError
 
164
    
 
165
    from warnings import warn
 
166
 
 
167
    if not isinstance(lf, LogFormatter):
 
168
        warn("not a LogFormatter instance: %r" % lf)
 
169
 
736
170
    if specific_fileid:
737
 
        view_revisions = _filter_revisions_touching_file_id(branch,
738
 
            specific_fileid, view_revisions,
739
 
            include_merges=generate_merge_revisions)
740
 
    return _rebase_merge_depth(view_revisions)
741
 
 
742
 
 
743
 
def _rebase_merge_depth(view_revisions):
744
 
    """Adjust depths upwards so the top level is 0."""
745
 
    # If either the first or last revision have a merge_depth of 0, we're done
746
 
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
747
 
        min_depth = min([d for r,n,d in view_revisions])
748
 
        if min_depth != 0:
749
 
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
750
 
    return view_revisions
751
 
 
752
 
 
753
 
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
754
 
        file_ids=None, direction='reverse'):
755
 
    """Create a revision iterator for log.
756
 
 
757
 
    :param branch: The branch being logged.
758
 
    :param view_revisions: The revisions being viewed.
759
 
    :param generate_delta: Whether to generate a delta for each revision.
760
 
      Permitted values are None, 'full' and 'partial'.
761
 
    :param search: A user text search string.
762
 
    :param file_ids: If non empty, only revisions matching one or more of
763
 
      the file-ids are to be kept.
764
 
    :param direction: the direction in which view_revisions is sorted
765
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
766
 
        delta).
767
 
    """
768
 
    # Convert view_revisions into (view, None, None) groups to fit with
769
 
    # the standard interface here.
770
 
    if type(view_revisions) == list:
771
 
        # A single batch conversion is faster than many incremental ones.
772
 
        # As we have all the data, do a batch conversion.
773
 
        nones = [None] * len(view_revisions)
774
 
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
775
 
    else:
776
 
        def _convert():
777
 
            for view in view_revisions:
778
 
                yield (view, None, None)
779
 
        log_rev_iterator = iter([_convert()])
780
 
    for adapter in log_adapters:
781
 
        # It would be nicer if log adapters were first class objects
782
 
        # with custom parameters. This will do for now. IGC 20090127
783
 
        if adapter == _make_delta_filter:
784
 
            log_rev_iterator = adapter(branch, generate_delta,
785
 
                search, log_rev_iterator, file_ids, direction)
786
 
        else:
787
 
            log_rev_iterator = adapter(branch, generate_delta,
788
 
                search, log_rev_iterator)
789
 
    return log_rev_iterator
790
 
 
791
 
 
792
 
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
793
 
    """Create a filtered iterator of log_rev_iterator matching on a regex.
794
 
 
795
 
    :param branch: The branch being logged.
796
 
    :param generate_delta: Whether to generate a delta for each revision.
797
 
    :param search: A user text search string.
798
 
    :param log_rev_iterator: An input iterator containing all revisions that
799
 
        could be displayed, in lists.
800
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
801
 
        delta).
802
 
    """
803
 
    if search is None:
804
 
        return log_rev_iterator
805
 
    searchRE = re_compile_checked(search, re.IGNORECASE,
806
 
            'log message filter')
807
 
    return _filter_message_re(searchRE, log_rev_iterator)
808
 
 
809
 
 
810
 
def _filter_message_re(searchRE, log_rev_iterator):
811
 
    for revs in log_rev_iterator:
812
 
        new_revs = []
813
 
        for (rev_id, revno, merge_depth), rev, delta in revs:
814
 
            if searchRE.search(rev.message):
815
 
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
816
 
        yield new_revs
817
 
 
818
 
 
819
 
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
820
 
    fileids=None, direction='reverse'):
821
 
    """Add revision deltas to a log iterator if needed.
822
 
 
823
 
    :param branch: The branch being logged.
824
 
    :param generate_delta: Whether to generate a delta for each revision.
825
 
      Permitted values are None, 'full' and 'partial'.
826
 
    :param search: A user text search string.
827
 
    :param log_rev_iterator: An input iterator containing all revisions that
828
 
        could be displayed, in lists.
829
 
    :param fileids: If non empty, only revisions matching one or more of
830
 
      the file-ids are to be kept.
831
 
    :param direction: the direction in which view_revisions is sorted
832
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
833
 
        delta).
834
 
    """
835
 
    if not generate_delta and not fileids:
836
 
        return log_rev_iterator
837
 
    return _generate_deltas(branch.repository, log_rev_iterator,
838
 
        generate_delta, fileids, direction)
839
 
 
840
 
 
841
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
842
 
    direction):
843
 
    """Create deltas for each batch of revisions in log_rev_iterator.
844
 
 
845
 
    If we're only generating deltas for the sake of filtering against
846
 
    file-ids, we stop generating deltas once all file-ids reach the
847
 
    appropriate life-cycle point. If we're receiving data newest to
848
 
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
849
 
    """
850
 
    check_fileids = fileids is not None and len(fileids) > 0
851
 
    if check_fileids:
852
 
        fileid_set = set(fileids)
853
 
        if direction == 'reverse':
854
 
            stop_on = 'add'
855
 
        else:
856
 
            stop_on = 'remove'
857
 
    else:
858
 
        fileid_set = None
859
 
    for revs in log_rev_iterator:
860
 
        # If we were matching against fileids and we've run out,
861
 
        # there's nothing left to do
862
 
        if check_fileids and not fileid_set:
863
 
            return
864
 
        revisions = [rev[1] for rev in revs]
865
 
        new_revs = []
866
 
        if delta_type == 'full' and not check_fileids:
867
 
            deltas = repository.get_deltas_for_revisions(revisions)
868
 
            for rev, delta in izip(revs, deltas):
869
 
                new_revs.append((rev[0], rev[1], delta))
870
 
        else:
871
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
872
 
            for rev, delta in izip(revs, deltas):
873
 
                if check_fileids:
874
 
                    if delta is None or not delta.has_changed():
875
 
                        continue
876
 
                    else:
877
 
                        _update_fileids(delta, fileid_set, stop_on)
878
 
                        if delta_type is None:
879
 
                            delta = None
880
 
                        elif delta_type == 'full':
881
 
                            # If the file matches all the time, rebuilding
882
 
                            # a full delta like this in addition to a partial
883
 
                            # one could be slow. However, it's likely that
884
 
                            # most revisions won't get this far, making it
885
 
                            # faster to filter on the partial deltas and
886
 
                            # build the occasional full delta than always
887
 
                            # building full deltas and filtering those.
888
 
                            rev_id = rev[0][0]
889
 
                            delta = repository.get_revision_delta(rev_id)
890
 
                new_revs.append((rev[0], rev[1], delta))
891
 
        yield new_revs
892
 
 
893
 
 
894
 
def _update_fileids(delta, fileids, stop_on):
895
 
    """Update the set of file-ids to search based on file lifecycle events.
896
 
    
897
 
    :param fileids: a set of fileids to update
898
 
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
899
 
      fileids set once their add or remove entry is detected respectively
900
 
    """
901
 
    if stop_on == 'add':
902
 
        for item in delta.added:
903
 
            if item[1] in fileids:
904
 
                fileids.remove(item[1])
905
 
    elif stop_on == 'delete':
906
 
        for item in delta.removed:
907
 
            if item[1] in fileids:
908
 
                fileids.remove(item[1])
909
 
 
910
 
 
911
 
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
912
 
    """Extract revision objects from the repository
913
 
 
914
 
    :param branch: The branch being logged.
915
 
    :param generate_delta: Whether to generate a delta for each revision.
916
 
    :param search: A user text search string.
917
 
    :param log_rev_iterator: An input iterator containing all revisions that
918
 
        could be displayed, in lists.
919
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
920
 
        delta).
921
 
    """
922
 
    repository = branch.repository
923
 
    for revs in log_rev_iterator:
924
 
        # r = revision_id, n = revno, d = merge depth
925
 
        revision_ids = [view[0] for view, _, _ in revs]
926
 
        revisions = repository.get_revisions(revision_ids)
927
 
        revs = [(rev[0], revision, rev[2]) for rev, revision in
928
 
            izip(revs, revisions)]
929
 
        yield revs
930
 
 
931
 
 
932
 
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
933
 
    """Group up a single large batch into smaller ones.
934
 
 
935
 
    :param branch: The branch being logged.
936
 
    :param generate_delta: Whether to generate a delta for each revision.
937
 
    :param search: A user text search string.
938
 
    :param log_rev_iterator: An input iterator containing all revisions that
939
 
        could be displayed, in lists.
940
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
941
 
        delta).
942
 
    """
943
 
    repository = branch.repository
944
 
    num = 9
945
 
    for batch in log_rev_iterator:
946
 
        batch = iter(batch)
947
 
        while True:
948
 
            step = [detail for _, detail in zip(range(num), batch)]
949
 
            if len(step) == 0:
950
 
                break
951
 
            yield step
952
 
            num = min(int(num * 1.5), 200)
953
 
 
954
 
 
955
 
def _get_revision_limits(branch, start_revision, end_revision):
956
 
    """Get and check revision limits.
957
 
 
958
 
    :param  branch: The branch containing the revisions.
959
 
 
960
 
    :param  start_revision: The first revision to be logged.
961
 
            For backwards compatibility this may be a mainline integer revno,
962
 
            but for merge revision support a RevisionInfo is expected.
963
 
 
964
 
    :param  end_revision: The last revision to be logged.
965
 
            For backwards compatibility this may be a mainline integer revno,
966
 
            but for merge revision support a RevisionInfo is expected.
967
 
 
968
 
    :return: (start_rev_id, end_rev_id) tuple.
969
 
    """
970
 
    branch_revno, branch_rev_id = branch.last_revision_info()
971
 
    start_rev_id = None
972
 
    if start_revision is None:
973
 
        start_revno = 1
974
 
    else:
975
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
976
 
            start_rev_id = start_revision.rev_id
977
 
            start_revno = start_revision.revno or 1
978
 
        else:
979
 
            branch.check_real_revno(start_revision)
980
 
            start_revno = start_revision
981
 
            start_rev_id = branch.get_rev_id(start_revno)
982
 
 
983
 
    end_rev_id = None
984
 
    if end_revision is None:
985
 
        end_revno = branch_revno
986
 
    else:
987
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
988
 
            end_rev_id = end_revision.rev_id
989
 
            end_revno = end_revision.revno or branch_revno
990
 
        else:
991
 
            branch.check_real_revno(end_revision)
992
 
            end_revno = end_revision
993
 
            end_rev_id = branch.get_rev_id(end_revno)
994
 
 
995
 
    if branch_revno != 0:
996
 
        if (start_rev_id == _mod_revision.NULL_REVISION
997
 
            or end_rev_id == _mod_revision.NULL_REVISION):
998
 
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
999
 
        if start_revno > end_revno:
1000
 
            raise errors.BzrCommandError("Start revision must be older than "
1001
 
                                         "the end revision.")
1002
 
    return (start_rev_id, end_rev_id)
1003
 
 
1004
 
 
1005
 
def _get_mainline_revs(branch, start_revision, end_revision):
1006
 
    """Get the mainline revisions from the branch.
1007
 
 
1008
 
    Generates the list of mainline revisions for the branch.
1009
 
 
1010
 
    :param  branch: The branch containing the revisions.
1011
 
 
1012
 
    :param  start_revision: The first revision to be logged.
1013
 
            For backwards compatibility this may be a mainline integer revno,
1014
 
            but for merge revision support a RevisionInfo is expected.
1015
 
 
1016
 
    :param  end_revision: The last revision to be logged.
1017
 
            For backwards compatibility this may be a mainline integer revno,
1018
 
            but for merge revision support a RevisionInfo is expected.
1019
 
 
1020
 
    :return: A (mainline_revs, rev_nos, start_rev_id, end_rev_id) tuple.
1021
 
    """
1022
 
    branch_revno, branch_last_revision = branch.last_revision_info()
1023
 
    if branch_revno == 0:
1024
 
        return None, None, None, None
1025
 
 
1026
 
    # For mainline generation, map start_revision and end_revision to
1027
 
    # mainline revnos. If the revision is not on the mainline choose the
1028
 
    # appropriate extreme of the mainline instead - the extra will be
1029
 
    # filtered later.
1030
 
    # Also map the revisions to rev_ids, to be used in the later filtering
1031
 
    # stage.
1032
 
    start_rev_id = None
1033
 
    if start_revision is None:
1034
 
        start_revno = 1
1035
 
    else:
1036
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
1037
 
            start_rev_id = start_revision.rev_id
1038
 
            start_revno = start_revision.revno or 1
1039
 
        else:
1040
 
            branch.check_real_revno(start_revision)
1041
 
            start_revno = start_revision
1042
 
 
1043
 
    end_rev_id = None
1044
 
    if end_revision is None:
1045
 
        end_revno = branch_revno
1046
 
    else:
1047
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
1048
 
            end_rev_id = end_revision.rev_id
1049
 
            end_revno = end_revision.revno or branch_revno
1050
 
        else:
1051
 
            branch.check_real_revno(end_revision)
1052
 
            end_revno = end_revision
1053
 
 
1054
 
    if ((start_rev_id == _mod_revision.NULL_REVISION)
1055
 
        or (end_rev_id == _mod_revision.NULL_REVISION)):
1056
 
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
1057
 
    if start_revno > end_revno:
1058
 
        raise errors.BzrCommandError("Start revision must be older than "
1059
 
                                     "the end revision.")
1060
 
 
1061
 
    if end_revno < start_revno:
1062
 
        return None, None, None, None
1063
 
    cur_revno = branch_revno
1064
 
    rev_nos = {}
1065
 
    mainline_revs = []
1066
 
    for revision_id in branch.repository.iter_reverse_revision_history(
1067
 
                        branch_last_revision):
1068
 
        if cur_revno < start_revno:
1069
 
            # We have gone far enough, but we always add 1 more revision
1070
 
            rev_nos[revision_id] = cur_revno
1071
 
            mainline_revs.append(revision_id)
1072
 
            break
1073
 
        if cur_revno <= end_revno:
1074
 
            rev_nos[revision_id] = cur_revno
1075
 
            mainline_revs.append(revision_id)
1076
 
        cur_revno -= 1
1077
 
    else:
1078
 
        # We walked off the edge of all revisions, so we add a 'None' marker
1079
 
        mainline_revs.append(None)
1080
 
 
1081
 
    mainline_revs.reverse()
 
171
        mutter('get log for file_id %r', specific_fileid)
 
172
 
 
173
    if search is not None:
 
174
        import re
 
175
        searchRE = re.compile(search, re.IGNORECASE)
 
176
    else:
 
177
        searchRE = None
 
178
 
 
179
    which_revs = _enumerate_history(branch)
 
180
    
 
181
    if start_revision is None:
 
182
        start_revision = 1
 
183
    else:
 
184
        branch.check_real_revno(start_revision)
 
185
    
 
186
    if end_revision is None:
 
187
        end_revision = len(which_revs)
 
188
    else:
 
189
        branch.check_real_revno(end_revision)
 
190
 
 
191
    # list indexes are 0-based; revisions are 1-based
 
192
    cut_revs = which_revs[(start_revision-1):(end_revision)]
 
193
    if not cut_revs:
 
194
        return
 
195
 
 
196
    # convert the revision history to a dictionary:
 
197
    rev_nos = dict((k, v) for v, k in cut_revs)
1082
198
 
1083
199
    # override the mainline to look like the revision history.
1084
 
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1085
 
 
1086
 
 
1087
 
@deprecated_function(deprecated_in((2, 2, 0)))
1088
 
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1089
 
    """Filter view_revisions based on revision ranges.
1090
 
 
1091
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1092
 
            tuples to be filtered.
1093
 
 
1094
 
    :param start_rev_id: If not NONE specifies the first revision to be logged.
1095
 
            If NONE then all revisions up to the end_rev_id are logged.
1096
 
 
1097
 
    :param end_rev_id: If not NONE specifies the last revision to be logged.
1098
 
            If NONE then all revisions up to the end of the log are logged.
1099
 
 
1100
 
    :return: The filtered view_revisions.
1101
 
    """
1102
 
    if start_rev_id or end_rev_id:
 
200
    mainline_revs = [revision_id for index, revision_id in cut_revs]
 
201
    if cut_revs[0][0] == 1:
 
202
        mainline_revs.insert(0, None)
 
203
    else:
 
204
        mainline_revs.insert(0, which_revs[start_revision-2][1])
 
205
    if getattr(lf, 'show_merge', None) is not None:
 
206
        include_merges = True 
 
207
    else:
 
208
        include_merges = False 
 
209
    view_revisions = list(get_view_revisions(mainline_revs, rev_nos, branch,
 
210
                          direction, include_merges=include_merges))
 
211
 
 
212
    def iter_revisions():
 
213
        # r = revision, n = revno, d = merge depth
1103
214
        revision_ids = [r for r, n, d in view_revisions]
1104
 
        if start_rev_id:
1105
 
            start_index = revision_ids.index(start_rev_id)
1106
 
        else:
1107
 
            start_index = 0
1108
 
        if start_rev_id == end_rev_id:
1109
 
            end_index = start_index
1110
 
        else:
1111
 
            if end_rev_id:
1112
 
                end_index = revision_ids.index(end_rev_id)
1113
 
            else:
1114
 
                end_index = len(view_revisions) - 1
1115
 
        # To include the revisions merged into the last revision,
1116
 
        # extend end_rev_id down to, but not including, the next rev
1117
 
        # with the same or lesser merge_depth
1118
 
        end_merge_depth = view_revisions[end_index][2]
1119
 
        try:
1120
 
            for index in xrange(end_index+1, len(view_revisions)+1):
1121
 
                if view_revisions[index][2] <= end_merge_depth:
1122
 
                    end_index = index - 1
1123
 
                    break
1124
 
        except IndexError:
1125
 
            # if the search falls off the end then log to the end as well
1126
 
            end_index = len(view_revisions) - 1
1127
 
        view_revisions = view_revisions[start_index:end_index+1]
1128
 
    return view_revisions
1129
 
 
1130
 
 
1131
 
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
1132
 
    include_merges=True):
1133
 
    r"""Return the list of revision ids which touch a given file id.
1134
 
 
1135
 
    The function filters view_revisions and returns a subset.
1136
 
    This includes the revisions which directly change the file id,
1137
 
    and the revisions which merge these changes. So if the
1138
 
    revision graph is::
1139
 
        A-.
1140
 
        |\ \
1141
 
        B C E
1142
 
        |/ /
1143
 
        D |
1144
 
        |\|
1145
 
        | F
1146
 
        |/
1147
 
        G
1148
 
 
1149
 
    And 'C' changes a file, then both C and D will be returned. F will not be
1150
 
    returned even though it brings the changes to C into the branch starting
1151
 
    with E. (Note that if we were using F as the tip instead of G, then we
1152
 
    would see C, D, F.)
1153
 
 
1154
 
    This will also be restricted based on a subset of the mainline.
1155
 
 
1156
 
    :param branch: The branch where we can get text revision information.
1157
 
 
1158
 
    :param file_id: Filter out revisions that do not touch file_id.
1159
 
 
1160
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1161
 
        tuples. This is the list of revisions which will be filtered. It is
1162
 
        assumed that view_revisions is in merge_sort order (i.e. newest
1163
 
        revision first ).
1164
 
 
1165
 
    :param include_merges: include merge revisions in the result or not
1166
 
 
1167
 
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
1168
 
    """
1169
 
    # Lookup all possible text keys to determine which ones actually modified
1170
 
    # the file.
1171
 
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1172
 
    next_keys = None
1173
 
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1174
 
    # memory consumption. GraphIndex *does* like to look for a few keys in
1175
 
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
1176
 
    # TODO: This code needs to be re-evaluated periodically as we tune the
1177
 
    #       indexing layer. We might consider passing in hints as to the known
1178
 
    #       access pattern (sparse/clustered, high success rate/low success
1179
 
    #       rate). This particular access is clustered with a low success rate.
1180
 
    get_parent_map = branch.repository.texts.get_parent_map
1181
 
    modified_text_revisions = set()
1182
 
    chunk_size = 1000
1183
 
    for start in xrange(0, len(text_keys), chunk_size):
1184
 
        next_keys = text_keys[start:start + chunk_size]
1185
 
        # Only keep the revision_id portion of the key
1186
 
        modified_text_revisions.update(
1187
 
            [k[1] for k in get_parent_map(next_keys)])
1188
 
    del text_keys, next_keys
1189
 
 
1190
 
    result = []
1191
 
    # Track what revisions will merge the current revision, replace entries
1192
 
    # with 'None' when they have been added to result
1193
 
    current_merge_stack = [None]
1194
 
    for info in view_revisions:
1195
 
        rev_id, revno, depth = info
1196
 
        if depth == len(current_merge_stack):
1197
 
            current_merge_stack.append(info)
1198
 
        else:
1199
 
            del current_merge_stack[depth + 1:]
1200
 
            current_merge_stack[-1] = info
1201
 
 
1202
 
        if rev_id in modified_text_revisions:
1203
 
            # This needs to be logged, along with the extra revisions
1204
 
            for idx in xrange(len(current_merge_stack)):
1205
 
                node = current_merge_stack[idx]
1206
 
                if node is not None:
1207
 
                    if include_merges or node[2] == 0:
1208
 
                        result.append(node)
1209
 
                        current_merge_stack[idx] = None
1210
 
    return result
1211
 
 
1212
 
 
1213
 
@deprecated_function(deprecated_in((2, 2, 0)))
 
215
        zeros = set(r for r, n, d in view_revisions if d == 0)
 
216
        num = 9
 
217
        repository = branch.repository
 
218
        while revision_ids:
 
219
            cur_deltas = {}
 
220
            revisions = repository.get_revisions(revision_ids[:num])
 
221
            if verbose or specific_fileid:
 
222
                delta_revisions = [r for r in revisions if
 
223
                                   r.revision_id in zeros]
 
224
                deltas = repository.get_deltas_for_revisions(delta_revisions)
 
225
                cur_deltas = dict(izip((r.revision_id for r in 
 
226
                                        delta_revisions), deltas))
 
227
            for revision in revisions:
 
228
                # The delta value will be None unless
 
229
                # 1. verbose or specific_fileid is specified, and
 
230
                # 2. the revision is a mainline revision
 
231
                yield revision, cur_deltas.get(revision.revision_id)
 
232
            revision_ids  = revision_ids[num:]
 
233
            num = int(num * 1.5)
 
234
            
 
235
    # now we just print all the revisions
 
236
    for ((rev_id, revno, merge_depth), (rev, delta)) in \
 
237
         izip(view_revisions, iter_revisions()):
 
238
 
 
239
        if searchRE:
 
240
            if not searchRE.search(rev.message):
 
241
                continue
 
242
 
 
243
        if merge_depth == 0:
 
244
            # a mainline revision.
 
245
                
 
246
            if specific_fileid:
 
247
                if not delta.touches_file_id(specific_fileid):
 
248
                    continue
 
249
    
 
250
            if not verbose:
 
251
                # although we calculated it, throw it away without display
 
252
                delta = None
 
253
 
 
254
            lf.show(revno, rev, delta)
 
255
        else:
 
256
            lf.show_merge(rev, merge_depth)
 
257
 
 
258
 
1214
259
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
1215
260
                       include_merges=True):
1216
261
    """Produce an iterator of revisions to show
1217
262
    :return: an iterator of (revision_id, revno, merge_depth)
1218
263
    (if there is no revno for a revision, None is supplied)
1219
264
    """
1220
 
    if not include_merges:
 
265
    if include_merges is False:
1221
266
        revision_ids = mainline_revs[1:]
1222
267
        if direction == 'reverse':
1223
268
            revision_ids.reverse()
1224
269
        for revision_id in revision_ids:
1225
 
            yield revision_id, str(rev_nos[revision_id]), 0
 
270
            yield revision_id, rev_nos[revision_id], 0
1226
271
        return
1227
 
    graph = branch.repository.get_graph()
1228
 
    # This asks for all mainline revisions, which means we only have to spider
1229
 
    # sideways, rather than depth history. That said, its still size-of-history
1230
 
    # and should be addressed.
1231
 
    # mainline_revisions always includes an extra revision at the beginning, so
1232
 
    # don't request it.
1233
 
    parent_map = dict(((key, value) for key, value in
1234
 
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
1235
 
    # filter out ghosts; merge_sort errors on ghosts.
1236
 
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
1237
 
    merge_sorted_revisions = tsort.merge_sort(
1238
 
        rev_graph,
 
272
    merge_sorted_revisions = merge_sort(
 
273
        branch.repository.get_revision_graph(mainline_revs[-1]),
1239
274
        mainline_revs[-1],
1240
 
        mainline_revs,
1241
 
        generate_revno=True)
 
275
        mainline_revs)
1242
276
 
1243
277
    if direction == 'forward':
1244
278
        # forward means oldest first.
1246
280
    elif direction != 'reverse':
1247
281
        raise ValueError('invalid direction %r' % direction)
1248
282
 
1249
 
    for (sequence, rev_id, merge_depth, revno, end_of_merge
1250
 
         ) in merge_sorted_revisions:
1251
 
        yield rev_id, '.'.join(map(str, revno)), merge_depth
 
283
    revision_history = branch.revision_history()
 
284
 
 
285
    for sequence, rev_id, merge_depth, end_of_merge in merge_sorted_revisions:
 
286
        yield rev_id, rev_nos.get(rev_id), merge_depth
1252
287
 
1253
288
 
1254
289
def reverse_by_depth(merge_sorted_revisions, _depth=0):
1258
293
    revision of that depth.  There may be no topological justification for this,
1259
294
    but it looks much nicer.
1260
295
    """
1261
 
    # Add a fake revision at start so that we can always attach sub revisions
1262
 
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
1263
296
    zd_revisions = []
1264
297
    for val in merge_sorted_revisions:
1265
298
        if val[2] == _depth:
1266
 
            # Each revision at the current depth becomes a chunk grouping all
1267
 
            # higher depth revisions.
1268
299
            zd_revisions.append([val])
1269
300
        else:
 
301
            assert val[2] > _depth
1270
302
            zd_revisions[-1].append(val)
1271
303
    for revisions in zd_revisions:
1272
304
        if len(revisions) > 1:
1273
 
            # We have higher depth revisions, let reverse them locally
1274
305
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
1275
306
    zd_revisions.reverse()
1276
307
    result = []
1277
308
    for chunk in zd_revisions:
1278
309
        result.extend(chunk)
1279
 
    if _depth == 0:
1280
 
        # Top level call, get rid of the fake revisions that have been added
1281
 
        result = [r for r in result if r[0] is not None and r[1] is not None]
1282
310
    return result
1283
311
 
1284
312
 
1285
 
class LogRevision(object):
1286
 
    """A revision to be logged (by LogFormatter.log_revision).
1287
 
 
1288
 
    A simple wrapper for the attributes of a revision to be logged.
1289
 
    The attributes may or may not be populated, as determined by the
1290
 
    logging options and the log formatter capabilities.
1291
 
    """
1292
 
 
1293
 
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1294
 
                 tags=None, diff=None):
1295
 
        self.rev = rev
1296
 
        self.revno = str(revno)
1297
 
        self.merge_depth = merge_depth
1298
 
        self.delta = delta
1299
 
        self.tags = tags
1300
 
        self.diff = diff
1301
 
 
1302
 
 
1303
313
class LogFormatter(object):
1304
 
    """Abstract class to display log messages.
1305
 
 
1306
 
    At a minimum, a derived class must implement the log_revision method.
1307
 
 
1308
 
    If the LogFormatter needs to be informed of the beginning or end of
1309
 
    a log it should implement the begin_log and/or end_log hook methods.
1310
 
 
1311
 
    A LogFormatter should define the following supports_XXX flags
1312
 
    to indicate which LogRevision attributes it supports:
1313
 
 
1314
 
    - supports_delta must be True if this log formatter supports delta.
1315
 
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1316
 
        attribute describes whether the 'short_status' format (1) or the long
1317
 
        one (2) should be used.
1318
 
 
1319
 
    - supports_merge_revisions must be True if this log formatter supports
1320
 
        merge revisions.  If not, then only mainline revisions will be passed
1321
 
        to the formatter.
1322
 
 
1323
 
    - preferred_levels is the number of levels this formatter defaults to.
1324
 
        The default value is zero meaning display all levels.
1325
 
        This value is only relevant if supports_merge_revisions is True.
1326
 
 
1327
 
    - supports_tags must be True if this log formatter supports tags.
1328
 
        Otherwise the tags attribute may not be populated.
1329
 
 
1330
 
    - supports_diff must be True if this log formatter supports diffs.
1331
 
        Otherwise the diff attribute may not be populated.
1332
 
 
1333
 
    Plugins can register functions to show custom revision properties using
1334
 
    the properties_handler_registry. The registered function
1335
 
    must respect the following interface description:
1336
 
        def my_show_properties(properties_dict):
1337
 
            # code that returns a dict {'name':'value'} of the properties
1338
 
            # to be shown
1339
 
    """
1340
 
    preferred_levels = 0
1341
 
 
1342
 
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1343
 
                 delta_format=None, levels=None, show_advice=False,
1344
 
                 to_exact_file=None):
1345
 
        """Create a LogFormatter.
1346
 
 
1347
 
        :param to_file: the file to output to
1348
 
        :param to_exact_file: if set, gives an output stream to which 
1349
 
             non-Unicode diffs are written.
1350
 
        :param show_ids: if True, revision-ids are to be displayed
1351
 
        :param show_timezone: the timezone to use
1352
 
        :param delta_format: the level of delta information to display
1353
 
          or None to leave it to the formatter to decide
1354
 
        :param levels: the number of levels to display; None or -1 to
1355
 
          let the log formatter decide.
1356
 
        :param show_advice: whether to show advice at the end of the
1357
 
          log or not
1358
 
        """
 
314
    """Abstract class to display log messages."""
 
315
 
 
316
    def __init__(self, to_file, show_ids=False, show_timezone='original'):
1359
317
        self.to_file = to_file
1360
 
        # 'exact' stream used to show diff, it should print content 'as is'
1361
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
1362
 
        if to_exact_file is not None:
1363
 
            self.to_exact_file = to_exact_file
1364
 
        else:
1365
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
1366
 
            # for code that expects to get diffs to pass in the exact file
1367
 
            # stream
1368
 
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1369
318
        self.show_ids = show_ids
1370
319
        self.show_timezone = show_timezone
1371
 
        if delta_format is None:
1372
 
            # Ensures backward compatibility
1373
 
            delta_format = 2 # long format
1374
 
        self.delta_format = delta_format
1375
 
        self.levels = levels
1376
 
        self._show_advice = show_advice
1377
 
        self._merge_count = 0
1378
 
 
1379
 
    def get_levels(self):
1380
 
        """Get the number of levels to display or 0 for all."""
1381
 
        if getattr(self, 'supports_merge_revisions', False):
1382
 
            if self.levels is None or self.levels == -1:
1383
 
                self.levels = self.preferred_levels
1384
 
        else:
1385
 
            self.levels = 1
1386
 
        return self.levels
1387
 
 
1388
 
    def log_revision(self, revision):
1389
 
        """Log a revision.
1390
 
 
1391
 
        :param  revision:   The LogRevision to be logged.
1392
 
        """
 
320
 
 
321
    def show(self, revno, rev, delta):
1393
322
        raise NotImplementedError('not implemented in abstract base')
1394
323
 
1395
 
    def show_advice(self):
1396
 
        """Output user advice, if any, when the log is completed."""
1397
 
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
1398
 
            advice_sep = self.get_advice_separator()
1399
 
            if advice_sep:
1400
 
                self.to_file.write(advice_sep)
1401
 
            self.to_file.write(
1402
 
                "Use --include-merges or -n0 to see merged revisions.\n")
1403
 
 
1404
 
    def get_advice_separator(self):
1405
 
        """Get the text separating the log from the closing advice."""
1406
 
        return ''
1407
 
 
1408
324
    def short_committer(self, rev):
1409
 
        name, address = config.parse_username(rev.committer)
1410
 
        if name:
1411
 
            return name
1412
 
        return address
1413
 
 
1414
 
    def short_author(self, rev):
1415
 
        name, address = config.parse_username(rev.get_apparent_authors()[0])
1416
 
        if name:
1417
 
            return name
1418
 
        return address
1419
 
 
1420
 
    def merge_marker(self, revision):
1421
 
        """Get the merge marker to include in the output or '' if none."""
1422
 
        if len(revision.rev.parent_ids) > 1:
1423
 
            self._merge_count += 1
1424
 
            return ' [merge]'
1425
 
        else:
1426
 
            return ''
1427
 
 
1428
 
    def show_properties(self, revision, indent):
1429
 
        """Displays the custom properties returned by each registered handler.
1430
 
 
1431
 
        If a registered handler raises an error it is propagated.
1432
 
        """
1433
 
        for line in self.custom_properties(revision):
1434
 
            self.to_file.write("%s%s\n" % (indent, line))
1435
 
 
1436
 
    def custom_properties(self, revision):
1437
 
        """Format the custom properties returned by each registered handler.
1438
 
 
1439
 
        If a registered handler raises an error it is propagated.
1440
 
 
1441
 
        :return: a list of formatted lines (excluding trailing newlines)
1442
 
        """
1443
 
        lines = self._foreign_info_properties(revision)
1444
 
        for key, handler in properties_handler_registry.iteritems():
1445
 
            lines.extend(self._format_properties(handler(revision)))
1446
 
        return lines
1447
 
 
1448
 
    def _foreign_info_properties(self, rev):
1449
 
        """Custom log displayer for foreign revision identifiers.
1450
 
 
1451
 
        :param rev: Revision object.
1452
 
        """
1453
 
        # Revision comes directly from a foreign repository
1454
 
        if isinstance(rev, foreign.ForeignRevision):
1455
 
            return self._format_properties(
1456
 
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
1457
 
 
1458
 
        # Imported foreign revision revision ids always contain :
1459
 
        if not ":" in rev.revision_id:
1460
 
            return []
1461
 
 
1462
 
        # Revision was once imported from a foreign repository
1463
 
        try:
1464
 
            foreign_revid, mapping = \
1465
 
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
1466
 
        except errors.InvalidRevisionId:
1467
 
            return []
1468
 
 
1469
 
        return self._format_properties(
1470
 
            mapping.vcs.show_foreign_revid(foreign_revid))
1471
 
 
1472
 
    def _format_properties(self, properties):
1473
 
        lines = []
1474
 
        for key, value in properties.items():
1475
 
            lines.append(key + ': ' + value)
1476
 
        return lines
1477
 
 
1478
 
    def show_diff(self, to_file, diff, indent):
1479
 
        for l in diff.rstrip().split('\n'):
1480
 
            to_file.write(indent + '%s\n' % (l,))
1481
 
 
1482
 
 
1483
 
# Separator between revisions in long format
1484
 
_LONG_SEP = '-' * 60
1485
 
 
1486
 
 
 
325
        return re.sub('<.*@.*>', '', rev.committer).strip(' ')
 
326
    
 
327
    
1487
328
class LongLogFormatter(LogFormatter):
1488
 
 
1489
 
    supports_merge_revisions = True
1490
 
    preferred_levels = 1
1491
 
    supports_delta = True
1492
 
    supports_tags = True
1493
 
    supports_diff = True
1494
 
 
1495
 
    def __init__(self, *args, **kwargs):
1496
 
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1497
 
        if self.show_timezone == 'original':
1498
 
            self.date_string = self._date_string_original_timezone
1499
 
        else:
1500
 
            self.date_string = self._date_string_with_timezone
1501
 
 
1502
 
    def _date_string_with_timezone(self, rev):
1503
 
        return format_date(rev.timestamp, rev.timezone or 0,
1504
 
                           self.show_timezone)
1505
 
 
1506
 
    def _date_string_original_timezone(self, rev):
1507
 
        return format_date_with_offset_in_original_timezone(rev.timestamp,
1508
 
            rev.timezone or 0)
1509
 
 
1510
 
    def log_revision(self, revision):
1511
 
        """Log a revision, either merged or not."""
1512
 
        indent = '    ' * revision.merge_depth
1513
 
        lines = [_LONG_SEP]
1514
 
        if revision.revno is not None:
1515
 
            lines.append('revno: %s%s' % (revision.revno,
1516
 
                self.merge_marker(revision)))
1517
 
        if revision.tags:
1518
 
            lines.append('tags: %s' % (', '.join(revision.tags)))
 
329
    def show(self, revno, rev, delta):
 
330
        return self._show_helper(revno=revno, rev=rev, delta=delta)
 
331
 
 
332
    def show_merge(self, rev, merge_depth):
 
333
        return self._show_helper(rev=rev, indent='    '*merge_depth, merged=True, delta=None)
 
334
 
 
335
    def _show_helper(self, rev=None, revno=None, indent='', merged=False, delta=None):
 
336
        """Show a revision, either merged or not."""
 
337
        from bzrlib.osutils import format_date
 
338
        to_file = self.to_file
 
339
        print >>to_file,  indent+'-' * 60
 
340
        if revno is not None:
 
341
            print >>to_file,  'revno:', revno
 
342
        if merged:
 
343
            print >>to_file,  indent+'merged:', rev.revision_id
 
344
        elif self.show_ids:
 
345
            print >>to_file,  indent+'revision-id:', rev.revision_id
1519
346
        if self.show_ids:
1520
 
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
1521
 
            for parent_id in revision.rev.parent_ids:
1522
 
                lines.append('parent: %s' % (parent_id,))
1523
 
        lines.extend(self.custom_properties(revision.rev))
1524
 
 
1525
 
        committer = revision.rev.committer
1526
 
        authors = revision.rev.get_apparent_authors()
1527
 
        if authors != [committer]:
1528
 
            lines.append('author: %s' % (", ".join(authors),))
1529
 
        lines.append('committer: %s' % (committer,))
1530
 
 
1531
 
        branch_nick = revision.rev.properties.get('branch-nick', None)
1532
 
        if branch_nick is not None:
1533
 
            lines.append('branch nick: %s' % (branch_nick,))
1534
 
 
1535
 
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1536
 
 
1537
 
        lines.append('message:')
1538
 
        if not revision.rev.message:
1539
 
            lines.append('  (no message)')
 
347
            for parent_id in rev.parent_ids:
 
348
                print >>to_file, indent+'parent:', parent_id
 
349
        print >>to_file,  indent+'committer:', rev.committer
 
350
        try:
 
351
            print >>to_file, indent+'branch nick: %s' % \
 
352
                rev.properties['branch-nick']
 
353
        except KeyError:
 
354
            pass
 
355
        date_str = format_date(rev.timestamp,
 
356
                               rev.timezone or 0,
 
357
                               self.show_timezone)
 
358
        print >>to_file,  indent+'timestamp: %s' % date_str
 
359
 
 
360
        print >>to_file,  indent+'message:'
 
361
        if not rev.message:
 
362
            print >>to_file,  indent+'  (no message)'
1540
363
        else:
1541
 
            message = revision.rev.message.rstrip('\r\n')
 
364
            message = rev.message.rstrip('\r\n')
1542
365
            for l in message.split('\n'):
1543
 
                lines.append('  %s' % (l,))
1544
 
 
1545
 
        # Dump the output, appending the delta and diff if requested
1546
 
        to_file = self.to_file
1547
 
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
1548
 
        if revision.delta is not None:
1549
 
            # Use the standard status output to display changes
1550
 
            from bzrlib.delta import report_delta
1551
 
            report_delta(to_file, revision.delta, short_status=False, 
1552
 
                         show_ids=self.show_ids, indent=indent)
1553
 
        if revision.diff is not None:
1554
 
            to_file.write(indent + 'diff:\n')
1555
 
            to_file.flush()
1556
 
            # Note: we explicitly don't indent the diff (relative to the
1557
 
            # revision information) so that the output can be fed to patch -p0
1558
 
            self.show_diff(self.to_exact_file, revision.diff, indent)
1559
 
            self.to_exact_file.flush()
1560
 
 
1561
 
    def get_advice_separator(self):
1562
 
        """Get the text separating the log from the closing advice."""
1563
 
        return '-' * 60 + '\n'
 
366
                print >>to_file,  indent+'  ' + l
 
367
        if delta != None:
 
368
            delta.show(to_file, self.show_ids)
1564
369
 
1565
370
 
1566
371
class ShortLogFormatter(LogFormatter):
1567
 
 
1568
 
    supports_merge_revisions = True
1569
 
    preferred_levels = 1
1570
 
    supports_delta = True
1571
 
    supports_tags = True
1572
 
    supports_diff = True
1573
 
 
1574
 
    def __init__(self, *args, **kwargs):
1575
 
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
1576
 
        self.revno_width_by_depth = {}
1577
 
 
1578
 
    def log_revision(self, revision):
1579
 
        # We need two indents: one per depth and one for the information
1580
 
        # relative to that indent. Most mainline revnos are 5 chars or
1581
 
        # less while dotted revnos are typically 11 chars or less. Once
1582
 
        # calculated, we need to remember the offset for a given depth
1583
 
        # as we might be starting from a dotted revno in the first column
1584
 
        # and we want subsequent mainline revisions to line up.
1585
 
        depth = revision.merge_depth
1586
 
        indent = '    ' * depth
1587
 
        revno_width = self.revno_width_by_depth.get(depth)
1588
 
        if revno_width is None:
1589
 
            if revision.revno.find('.') == -1:
1590
 
                # mainline revno, e.g. 12345
1591
 
                revno_width = 5
1592
 
            else:
1593
 
                # dotted revno, e.g. 12345.10.55
1594
 
                revno_width = 11
1595
 
            self.revno_width_by_depth[depth] = revno_width
1596
 
        offset = ' ' * (revno_width + 1)
 
372
    def show(self, revno, rev, delta):
 
373
        from bzrlib.osutils import format_date
1597
374
 
1598
375
        to_file = self.to_file
1599
 
        tags = ''
1600
 
        if revision.tags:
1601
 
            tags = ' {%s}' % (', '.join(revision.tags))
1602
 
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1603
 
                revision.revno, self.short_author(revision.rev),
1604
 
                format_date(revision.rev.timestamp,
1605
 
                            revision.rev.timezone or 0,
 
376
        date_str = format_date(rev.timestamp, rev.timezone or 0,
 
377
                            self.show_timezone)
 
378
        print >>to_file, "%5d %s\t%s" % (revno, self.short_committer(rev),
 
379
                format_date(rev.timestamp, rev.timezone or 0,
1606
380
                            self.show_timezone, date_fmt="%Y-%m-%d",
1607
 
                            show_offset=False),
1608
 
                tags, self.merge_marker(revision)))
1609
 
        self.show_properties(revision.rev, indent+offset)
 
381
                           show_offset=False))
1610
382
        if self.show_ids:
1611
 
            to_file.write(indent + offset + 'revision-id:%s\n'
1612
 
                          % (revision.rev.revision_id,))
1613
 
        if not revision.rev.message:
1614
 
            to_file.write(indent + offset + '(no message)\n')
 
383
            print >>to_file,  '      revision-id:', rev.revision_id
 
384
        if not rev.message:
 
385
            print >>to_file,  '      (no message)'
1615
386
        else:
1616
 
            message = revision.rev.message.rstrip('\r\n')
 
387
            message = rev.message.rstrip('\r\n')
1617
388
            for l in message.split('\n'):
1618
 
                to_file.write(indent + offset + '%s\n' % (l,))
 
389
                print >>to_file,  '      ' + l
1619
390
 
1620
 
        if revision.delta is not None:
1621
 
            # Use the standard status output to display changes
1622
 
            from bzrlib.delta import report_delta
1623
 
            report_delta(to_file, revision.delta, 
1624
 
                         short_status=self.delta_format==1, 
1625
 
                         show_ids=self.show_ids, indent=indent + offset)
1626
 
        if revision.diff is not None:
1627
 
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1628
 
        to_file.write('\n')
 
391
        # TODO: Why not show the modified files in a shorter form as
 
392
        # well? rewrap them single lines of appropriate length
 
393
        if delta != None:
 
394
            delta.show(to_file, self.show_ids)
 
395
        print >>to_file, ''
1629
396
 
1630
397
 
1631
398
class LineLogFormatter(LogFormatter):
1632
 
 
1633
 
    supports_merge_revisions = True
1634
 
    preferred_levels = 1
1635
 
    supports_tags = True
1636
 
 
1637
 
    def __init__(self, *args, **kwargs):
1638
 
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1639
 
        width = terminal_width()
1640
 
        if width is not None:
1641
 
            # we need one extra space for terminals that wrap on last char
1642
 
            width = width - 1
1643
 
        self._max_chars = width
1644
 
 
1645
399
    def truncate(self, str, max_len):
1646
 
        if max_len is None or len(str) <= max_len:
 
400
        if len(str) <= max_len:
1647
401
            return str
1648
 
        return str[:max_len-3] + '...'
 
402
        return str[:max_len-3]+'...'
1649
403
 
1650
404
    def date_string(self, rev):
1651
 
        return format_date(rev.timestamp, rev.timezone or 0,
 
405
        from bzrlib.osutils import format_date
 
406
        return format_date(rev.timestamp, rev.timezone or 0, 
1652
407
                           self.show_timezone, date_fmt="%Y-%m-%d",
1653
408
                           show_offset=False)
1654
409
 
1658
413
        else:
1659
414
            return rev.message
1660
415
 
1661
 
    def log_revision(self, revision):
1662
 
        indent = '  ' * revision.merge_depth
1663
 
        self.to_file.write(self.log_string(revision.revno, revision.rev,
1664
 
            self._max_chars, revision.tags, indent))
1665
 
        self.to_file.write('\n')
 
416
    def show(self, revno, rev, delta):
 
417
        from bzrlib.osutils import terminal_width
 
418
        print >> self.to_file, self.log_string(revno, rev, terminal_width()-1)
1666
419
 
1667
 
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
 
420
    def log_string(self, revno, rev, max_chars):
1668
421
        """Format log info into one string. Truncate tail of string
1669
 
        :param  revno:      revision number or None.
 
422
        :param  revno:      revision number (int) or None.
1670
423
                            Revision numbers counts from 1.
1671
 
        :param  rev:        revision object
 
424
        :param  rev:        revision info object
1672
425
        :param  max_chars:  maximum length of resulting string
1673
 
        :param  tags:       list of tags or None
1674
 
        :param  prefix:     string to prefix each line
1675
426
        :return:            formatted truncated string
1676
427
        """
1677
428
        out = []
1678
429
        if revno:
1679
430
            # show revno only when is not None
1680
 
            out.append("%s:" % revno)
1681
 
        out.append(self.truncate(self.short_author(rev), 20))
 
431
            out.append("%d:" % revno)
 
432
        out.append(self.truncate(self.short_committer(rev), 20))
1682
433
        out.append(self.date_string(rev))
1683
 
        if len(rev.parent_ids) > 1:
1684
 
            out.append('[merge]')
1685
 
        if tags:
1686
 
            tag_str = '{%s}' % (', '.join(tags))
1687
 
            out.append(tag_str)
1688
434
        out.append(rev.get_summary())
1689
 
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1690
 
 
1691
 
 
1692
 
class GnuChangelogLogFormatter(LogFormatter):
1693
 
 
1694
 
    supports_merge_revisions = True
1695
 
    supports_delta = True
1696
 
 
1697
 
    def log_revision(self, revision):
1698
 
        """Log a revision, either merged or not."""
1699
 
        to_file = self.to_file
1700
 
 
1701
 
        date_str = format_date(revision.rev.timestamp,
1702
 
                               revision.rev.timezone or 0,
1703
 
                               self.show_timezone,
1704
 
                               date_fmt='%Y-%m-%d',
1705
 
                               show_offset=False)
1706
 
        committer_str = revision.rev.get_apparent_authors()[0].replace (' <', '  <')
1707
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1708
 
 
1709
 
        if revision.delta is not None and revision.delta.has_changed():
1710
 
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1711
 
                path, = c[:1]
1712
 
                to_file.write('\t* %s:\n' % (path,))
1713
 
            for c in revision.delta.renamed:
1714
 
                oldpath,newpath = c[:2]
1715
 
                # For renamed files, show both the old and the new path
1716
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
1717
 
            to_file.write('\n')
1718
 
 
1719
 
        if not revision.rev.message:
1720
 
            to_file.write('\tNo commit message\n')
1721
 
        else:
1722
 
            message = revision.rev.message.rstrip('\r\n')
1723
 
            for l in message.split('\n'):
1724
 
                to_file.write('\t%s\n' % (l.lstrip(),))
1725
 
            to_file.write('\n')
 
435
        return self.truncate(" ".join(out).rstrip('\n'), max_chars)
1726
436
 
1727
437
 
1728
438
def line_log(rev, max_chars):
1729
439
    lf = LineLogFormatter(None)
1730
440
    return lf.log_string(None, rev, max_chars)
1731
441
 
1732
 
 
1733
 
class LogFormatterRegistry(registry.Registry):
1734
 
    """Registry for log formatters"""
1735
 
 
1736
 
    def make_formatter(self, name, *args, **kwargs):
1737
 
        """Construct a formatter from arguments.
1738
 
 
1739
 
        :param name: Name of the formatter to construct.  'short', 'long' and
1740
 
            'line' are built-in.
1741
 
        """
1742
 
        return self.get(name)(*args, **kwargs)
1743
 
 
1744
 
    def get_default(self, branch):
1745
 
        return self.get(branch.get_config().log_format())
1746
 
 
1747
 
 
1748
 
log_formatter_registry = LogFormatterRegistry()
1749
 
 
1750
 
 
1751
 
log_formatter_registry.register('short', ShortLogFormatter,
1752
 
                                'Moderately short log format')
1753
 
log_formatter_registry.register('long', LongLogFormatter,
1754
 
                                'Detailed log format')
1755
 
log_formatter_registry.register('line', LineLogFormatter,
1756
 
                                'Log format with one line per revision')
1757
 
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1758
 
                                'Format used by GNU ChangeLog files')
1759
 
 
 
442
FORMATTERS = {
 
443
              'long': LongLogFormatter,
 
444
              'short': ShortLogFormatter,
 
445
              'line': LineLogFormatter,
 
446
              }
1760
447
 
1761
448
def register_formatter(name, formatter):
1762
 
    log_formatter_registry.register(name, formatter)
1763
 
 
 
449
    FORMATTERS[name] = formatter
1764
450
 
1765
451
def log_formatter(name, *args, **kwargs):
1766
452
    """Construct a formatter from arguments.
1768
454
    name -- Name of the formatter to construct; currently 'long', 'short' and
1769
455
        'line' are supported.
1770
456
    """
 
457
    from bzrlib.errors import BzrCommandError
1771
458
    try:
1772
 
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
 
459
        return FORMATTERS[name](*args, **kwargs)
1773
460
    except KeyError:
1774
 
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
1775
 
 
 
461
        raise BzrCommandError("unknown log formatter: %r" % name)
1776
462
 
1777
463
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
1778
464
    # deprecated; for compatibility
1779
465
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
1780
466
    lf.show(revno, rev, delta)
1781
467
 
1782
 
 
1783
 
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
1784
 
                           log_format='long'):
 
468
def show_changed_revisions(branch, old_rh, new_rh, to_file=None, log_format='long'):
1785
469
    """Show the change in revision history comparing the old revision history to the new one.
1786
470
 
1787
471
    :param branch: The branch where the revisions exist
1790
474
    :param to_file: A file to write the results to. If None, stdout will be used
1791
475
    """
1792
476
    if to_file is None:
1793
 
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
1794
 
            errors='replace')
 
477
        import sys
 
478
        import codecs
 
479
        import bzrlib
 
480
        to_file = codecs.getwriter(bzrlib.user_encoding)(sys.stdout, errors='replace')
1795
481
    lf = log_formatter(log_format,
1796
482
                       show_ids=False,
1797
483
                       to_file=to_file,
1819
505
        to_file.write('\nRemoved Revisions:\n')
1820
506
        for i in range(base_idx, len(old_rh)):
1821
507
            rev = branch.repository.get_revision(old_rh[i])
1822
 
            lr = LogRevision(rev, i+1, 0, None)
1823
 
            lf.log_revision(lr)
 
508
            lf.show(i+1, rev, None)
1824
509
        to_file.write('*'*60)
1825
510
        to_file.write('\n\n')
1826
511
    if base_idx < len(new_rh):
1828
513
        show_log(branch,
1829
514
                 lf,
1830
515
                 None,
1831
 
                 verbose=False,
 
516
                 verbose=True,
1832
517
                 direction='forward',
1833
518
                 start_revision=base_idx+1,
1834
519
                 end_revision=len(new_rh),
1835
520
                 search=None)
1836
521
 
1837
 
 
1838
 
def get_history_change(old_revision_id, new_revision_id, repository):
1839
 
    """Calculate the uncommon lefthand history between two revisions.
1840
 
 
1841
 
    :param old_revision_id: The original revision id.
1842
 
    :param new_revision_id: The new revision id.
1843
 
    :param repository: The repository to use for the calculation.
1844
 
 
1845
 
    return old_history, new_history
1846
 
    """
1847
 
    old_history = []
1848
 
    old_revisions = set()
1849
 
    new_history = []
1850
 
    new_revisions = set()
1851
 
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
1852
 
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
1853
 
    stop_revision = None
1854
 
    do_old = True
1855
 
    do_new = True
1856
 
    while do_new or do_old:
1857
 
        if do_new:
1858
 
            try:
1859
 
                new_revision = new_iter.next()
1860
 
            except StopIteration:
1861
 
                do_new = False
1862
 
            else:
1863
 
                new_history.append(new_revision)
1864
 
                new_revisions.add(new_revision)
1865
 
                if new_revision in old_revisions:
1866
 
                    stop_revision = new_revision
1867
 
                    break
1868
 
        if do_old:
1869
 
            try:
1870
 
                old_revision = old_iter.next()
1871
 
            except StopIteration:
1872
 
                do_old = False
1873
 
            else:
1874
 
                old_history.append(old_revision)
1875
 
                old_revisions.add(old_revision)
1876
 
                if old_revision in new_revisions:
1877
 
                    stop_revision = old_revision
1878
 
                    break
1879
 
    new_history.reverse()
1880
 
    old_history.reverse()
1881
 
    if stop_revision is not None:
1882
 
        new_history = new_history[new_history.index(stop_revision) + 1:]
1883
 
        old_history = old_history[old_history.index(stop_revision) + 1:]
1884
 
    return old_history, new_history
1885
 
 
1886
 
 
1887
 
def show_branch_change(branch, output, old_revno, old_revision_id):
1888
 
    """Show the changes made to a branch.
1889
 
 
1890
 
    :param branch: The branch to show changes about.
1891
 
    :param output: A file-like object to write changes to.
1892
 
    :param old_revno: The revno of the old tip.
1893
 
    :param old_revision_id: The revision_id of the old tip.
1894
 
    """
1895
 
    new_revno, new_revision_id = branch.last_revision_info()
1896
 
    old_history, new_history = get_history_change(old_revision_id,
1897
 
                                                  new_revision_id,
1898
 
                                                  branch.repository)
1899
 
    if old_history == [] and new_history == []:
1900
 
        output.write('Nothing seems to have changed\n')
1901
 
        return
1902
 
 
1903
 
    log_format = log_formatter_registry.get_default(branch)
1904
 
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
1905
 
    if old_history != []:
1906
 
        output.write('*'*60)
1907
 
        output.write('\nRemoved Revisions:\n')
1908
 
        show_flat_log(branch.repository, old_history, old_revno, lf)
1909
 
        output.write('*'*60)
1910
 
        output.write('\n\n')
1911
 
    if new_history != []:
1912
 
        output.write('Added Revisions:\n')
1913
 
        start_revno = new_revno - len(new_history) + 1
1914
 
        show_log(branch, lf, None, verbose=False, direction='forward',
1915
 
                 start_revision=start_revno,)
1916
 
 
1917
 
 
1918
 
def show_flat_log(repository, history, last_revno, lf):
1919
 
    """Show a simple log of the specified history.
1920
 
 
1921
 
    :param repository: The repository to retrieve revisions from.
1922
 
    :param history: A list of revision_ids indicating the lefthand history.
1923
 
    :param last_revno: The revno of the last revision_id in the history.
1924
 
    :param lf: The log formatter to use.
1925
 
    """
1926
 
    start_revno = last_revno - len(history) + 1
1927
 
    revisions = repository.get_revisions(history)
1928
 
    for i, rev in enumerate(revisions):
1929
 
        lr = LogRevision(rev, i + last_revno, 0, None)
1930
 
        lf.log_revision(lr)
1931
 
 
1932
 
 
1933
 
def _get_info_for_log_files(revisionspec_list, file_list):
1934
 
    """Find file-ids and kinds given a list of files and a revision range.
1935
 
 
1936
 
    We search for files at the end of the range. If not found there,
1937
 
    we try the start of the range.
1938
 
 
1939
 
    :param revisionspec_list: revision range as parsed on the command line
1940
 
    :param file_list: the list of paths given on the command line;
1941
 
      the first of these can be a branch location or a file path,
1942
 
      the remainder must be file paths
1943
 
    :return: (branch, info_list, start_rev_info, end_rev_info) where
1944
 
      info_list is a list of (relative_path, file_id, kind) tuples where
1945
 
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
1946
 
      branch will be read-locked.
1947
 
    """
1948
 
    from builtins import _get_revision_range, safe_relpath_files
1949
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
1950
 
    b.lock_read()
1951
 
    # XXX: It's damn messy converting a list of paths to relative paths when
1952
 
    # those paths might be deleted ones, they might be on a case-insensitive
1953
 
    # filesystem and/or they might be in silly locations (like another branch).
1954
 
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
1955
 
    # file2 implicitly in the same dir as file1 or should its directory be
1956
 
    # taken from the current tree somehow?) For now, this solves the common
1957
 
    # case of running log in a nested directory, assuming paths beyond the
1958
 
    # first one haven't been deleted ...
1959
 
    if tree:
1960
 
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
1961
 
    else:
1962
 
        relpaths = [path] + file_list[1:]
1963
 
    info_list = []
1964
 
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
1965
 
        "log")
1966
 
    if relpaths in ([], [u'']):
1967
 
        return b, [], start_rev_info, end_rev_info
1968
 
    if start_rev_info is None and end_rev_info is None:
1969
 
        if tree is None:
1970
 
            tree = b.basis_tree()
1971
 
        tree1 = None
1972
 
        for fp in relpaths:
1973
 
            file_id = tree.path2id(fp)
1974
 
            kind = _get_kind_for_file_id(tree, file_id)
1975
 
            if file_id is None:
1976
 
                # go back to when time began
1977
 
                if tree1 is None:
1978
 
                    try:
1979
 
                        rev1 = b.get_rev_id(1)
1980
 
                    except errors.NoSuchRevision:
1981
 
                        # No history at all
1982
 
                        file_id = None
1983
 
                        kind = None
1984
 
                    else:
1985
 
                        tree1 = b.repository.revision_tree(rev1)
1986
 
                if tree1:
1987
 
                    file_id = tree1.path2id(fp)
1988
 
                    kind = _get_kind_for_file_id(tree1, file_id)
1989
 
            info_list.append((fp, file_id, kind))
1990
 
 
1991
 
    elif start_rev_info == end_rev_info:
1992
 
        # One revision given - file must exist in it
1993
 
        tree = b.repository.revision_tree(end_rev_info.rev_id)
1994
 
        for fp in relpaths:
1995
 
            file_id = tree.path2id(fp)
1996
 
            kind = _get_kind_for_file_id(tree, file_id)
1997
 
            info_list.append((fp, file_id, kind))
1998
 
 
1999
 
    else:
2000
 
        # Revision range given. Get the file-id from the end tree.
2001
 
        # If that fails, try the start tree.
2002
 
        rev_id = end_rev_info.rev_id
2003
 
        if rev_id is None:
2004
 
            tree = b.basis_tree()
2005
 
        else:
2006
 
            tree = b.repository.revision_tree(rev_id)
2007
 
        tree1 = None
2008
 
        for fp in relpaths:
2009
 
            file_id = tree.path2id(fp)
2010
 
            kind = _get_kind_for_file_id(tree, file_id)
2011
 
            if file_id is None:
2012
 
                if tree1 is None:
2013
 
                    rev_id = start_rev_info.rev_id
2014
 
                    if rev_id is None:
2015
 
                        rev1 = b.get_rev_id(1)
2016
 
                        tree1 = b.repository.revision_tree(rev1)
2017
 
                    else:
2018
 
                        tree1 = b.repository.revision_tree(rev_id)
2019
 
                file_id = tree1.path2id(fp)
2020
 
                kind = _get_kind_for_file_id(tree1, file_id)
2021
 
            info_list.append((fp, file_id, kind))
2022
 
    return b, info_list, start_rev_info, end_rev_info
2023
 
 
2024
 
 
2025
 
def _get_kind_for_file_id(tree, file_id):
2026
 
    """Return the kind of a file-id or None if it doesn't exist."""
2027
 
    if file_id is not None:
2028
 
        return tree.kind(file_id)
2029
 
    else:
2030
 
        return None
2031
 
 
2032
 
 
2033
 
properties_handler_registry = registry.Registry()
2034
 
 
2035
 
# Use the properties handlers to print out bug information if available
2036
 
def _bugs_properties_handler(revision):
2037
 
    if revision.properties.has_key('bugs'):
2038
 
        bug_lines = revision.properties['bugs'].split('\n')
2039
 
        bug_rows = [line.split(' ', 1) for line in bug_lines]
2040
 
        fixed_bug_urls = [row[0] for row in bug_rows if
2041
 
                          len(row) > 1 and row[1] == 'fixed']
2042
 
 
2043
 
        if fixed_bug_urls:
2044
 
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
2045
 
    return {}
2046
 
 
2047
 
properties_handler_registry.register('bugs_properties_handler',
2048
 
                                     _bugs_properties_handler)
2049
 
 
2050
 
 
2051
 
# adapters which revision ids to log are filtered. When log is called, the
2052
 
# log_rev_iterator is adapted through each of these factory methods.
2053
 
# Plugins are welcome to mutate this list in any way they like - as long
2054
 
# as the overall behaviour is preserved. At this point there is no extensible
2055
 
# mechanism for getting parameters to each factory method, and until there is
2056
 
# this won't be considered a stable api.
2057
 
log_adapters = [
2058
 
    # core log logic
2059
 
    _make_batch_filter,
2060
 
    # read revision objects
2061
 
    _make_revision_objects,
2062
 
    # filter on log messages
2063
 
    _make_search_filter,
2064
 
    # generate deltas for things we will show
2065
 
    _make_delta_filter
2066
 
    ]