~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Robert Collins
  • Date: 2010-04-08 04:34:03 UTC
  • mfrom: (5138 +trunk)
  • mto: This revision was merged to the branch mainline in revision 5139.
  • Revision ID: robertc@robertcollins.net-20100408043403-56z0d07vdqrx7f3t
Update bugfix for 528114 to trunk.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
 
1
# Copyright (C) 2005-2010 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
17
 
18
18
 
50
50
"""
51
51
 
52
52
import codecs
 
53
from cStringIO import StringIO
53
54
from itertools import (
 
55
    chain,
54
56
    izip,
55
57
    )
56
58
import re
59
61
    warn,
60
62
    )
61
63
 
 
64
from bzrlib.lazy_import import lazy_import
 
65
lazy_import(globals(), """
 
66
 
62
67
from bzrlib import (
 
68
    bzrdir,
63
69
    config,
64
 
    lazy_regex,
 
70
    diff,
 
71
    errors,
 
72
    foreign,
 
73
    repository as _mod_repository,
 
74
    revision as _mod_revision,
 
75
    revisionspec,
 
76
    trace,
 
77
    tsort,
 
78
    )
 
79
""")
 
80
 
 
81
from bzrlib import (
65
82
    registry,
66
 
    symbol_versioning,
67
 
    )
68
 
from bzrlib.errors import (
69
 
    BzrCommandError,
70
83
    )
71
84
from bzrlib.osutils import (
72
85
    format_date,
 
86
    format_date_with_offset_in_original_timezone,
73
87
    get_terminal_encoding,
 
88
    re_compile_checked,
74
89
    terminal_width,
75
90
    )
76
 
from bzrlib.revision import (
77
 
    NULL_REVISION,
78
 
    )
79
 
from bzrlib.revisionspec import (
80
 
    RevisionInfo,
81
 
    )
82
91
from bzrlib.symbol_versioning import (
83
 
    deprecated_method,
84
 
    zero_seventeen,
85
 
    )
86
 
from bzrlib.trace import mutter
87
 
from bzrlib.tsort import (
88
 
    merge_sort,
89
 
    topo_sort,
 
92
    deprecated_function,
 
93
    deprecated_in,
90
94
    )
91
95
 
92
96
 
105
109
    last_path = None
106
110
    revno = 1
107
111
    for revision_id in branch.revision_history():
108
 
        this_inv = branch.repository.get_revision_inventory(revision_id)
 
112
        this_inv = branch.repository.get_inventory(revision_id)
109
113
        if file_id in this_inv:
110
114
            this_ie = this_inv[file_id]
111
115
            this_path = this_inv.id2path(file_id)
151
155
             start_revision=None,
152
156
             end_revision=None,
153
157
             search=None,
154
 
             limit=None):
 
158
             limit=None,
 
159
             show_diff=False):
155
160
    """Write out human-readable log of commits to this branch.
156
161
 
157
 
    lf
158
 
        LogFormatter object to show the output.
159
 
 
160
 
    specific_fileid
161
 
        If true, list only the commits affecting the specified
162
 
        file, rather than all commits.
163
 
 
164
 
    verbose
165
 
        If true show added/changed/deleted/renamed files.
166
 
 
167
 
    direction
168
 
        'reverse' (default) is latest to earliest;
169
 
        'forward' is earliest to latest.
170
 
 
171
 
    start_revision
172
 
        If not None, only show revisions >= start_revision
173
 
 
174
 
    end_revision
175
 
        If not None, only show revisions <= end_revision
176
 
 
177
 
    search
178
 
        If not None, only show revisions with matching commit messages
179
 
 
180
 
    limit
181
 
        If not None or 0, only show limit revisions
182
 
    """
183
 
    branch.lock_read()
184
 
    try:
185
 
        if getattr(lf, 'begin_log', None):
186
 
            lf.begin_log()
187
 
 
188
 
        _show_log(branch, lf, specific_fileid, verbose, direction,
189
 
                  start_revision, end_revision, search, limit)
190
 
 
191
 
        if getattr(lf, 'end_log', None):
192
 
            lf.end_log()
193
 
    finally:
194
 
        branch.unlock()
195
 
 
196
 
def _show_log(branch,
197
 
             lf,
198
 
             specific_fileid=None,
199
 
             verbose=False,
200
 
             direction='reverse',
201
 
             start_revision=None,
202
 
             end_revision=None,
203
 
             search=None,
204
 
             limit=None):
205
 
    """Worker function for show_log - see show_log."""
206
 
    if not isinstance(lf, LogFormatter):
207
 
        warn("not a LogFormatter instance: %r" % lf)
208
 
 
209
 
    if specific_fileid:
210
 
        mutter('get log for file_id %r', specific_fileid)
211
 
 
212
 
    if search is not None:
213
 
        searchRE = re.compile(search, re.IGNORECASE)
214
 
    else:
215
 
        searchRE = None
216
 
 
217
 
    mainline_revs, rev_nos, start_rev_id, end_rev_id = \
218
 
        _get_mainline_revs(branch, start_revision, end_revision)
219
 
    if not mainline_revs:
220
 
        return
221
 
 
 
162
    This function is being retained for backwards compatibility but
 
163
    should not be extended with new parameters. Use the new Logger class
 
164
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
 
165
    make_log_request_dict function.
 
166
 
 
167
    :param lf: The LogFormatter object showing the output.
 
168
 
 
169
    :param specific_fileid: If not None, list only the commits affecting the
 
170
        specified file, rather than all commits.
 
171
 
 
172
    :param verbose: If True show added/changed/deleted/renamed files.
 
173
 
 
174
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
 
175
        earliest to latest.
 
176
 
 
177
    :param start_revision: If not None, only show revisions >= start_revision
 
178
 
 
179
    :param end_revision: If not None, only show revisions <= end_revision
 
180
 
 
181
    :param search: If not None, only show revisions with matching commit
 
182
        messages
 
183
 
 
184
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
 
185
        if None or 0.
 
186
 
 
187
    :param show_diff: If True, output a diff after each revision.
 
188
    """
 
189
    # Convert old-style parameters to new-style parameters
 
190
    if specific_fileid is not None:
 
191
        file_ids = [specific_fileid]
 
192
    else:
 
193
        file_ids = None
 
194
    if verbose:
 
195
        if file_ids:
 
196
            delta_type = 'partial'
 
197
        else:
 
198
            delta_type = 'full'
 
199
    else:
 
200
        delta_type = None
 
201
    if show_diff:
 
202
        if file_ids:
 
203
            diff_type = 'partial'
 
204
        else:
 
205
            diff_type = 'full'
 
206
    else:
 
207
        diff_type = None
 
208
 
 
209
    # Build the request and execute it
 
210
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
 
211
        start_revision=start_revision, end_revision=end_revision,
 
212
        limit=limit, message_search=search,
 
213
        delta_type=delta_type, diff_type=diff_type)
 
214
    Logger(branch, rqst).show(lf)
 
215
 
 
216
 
 
217
# Note: This needs to be kept this in sync with the defaults in
 
218
# make_log_request_dict() below
 
219
_DEFAULT_REQUEST_PARAMS = {
 
220
    'direction': 'reverse',
 
221
    'levels': 1,
 
222
    'generate_tags': True,
 
223
    '_match_using_deltas': True,
 
224
    }
 
225
 
 
226
 
 
227
def make_log_request_dict(direction='reverse', specific_fileids=None,
 
228
    start_revision=None, end_revision=None, limit=None,
 
229
    message_search=None, levels=1, generate_tags=True, delta_type=None,
 
230
    diff_type=None, _match_using_deltas=True):
 
231
    """Convenience function for making a logging request dictionary.
 
232
 
 
233
    Using this function may make code slightly safer by ensuring
 
234
    parameters have the correct names. It also provides a reference
 
235
    point for documenting the supported parameters.
 
236
 
 
237
    :param direction: 'reverse' (default) is latest to earliest;
 
238
      'forward' is earliest to latest.
 
239
 
 
240
    :param specific_fileids: If not None, only include revisions
 
241
      affecting the specified files, rather than all revisions.
 
242
 
 
243
    :param start_revision: If not None, only generate
 
244
      revisions >= start_revision
 
245
 
 
246
    :param end_revision: If not None, only generate
 
247
      revisions <= end_revision
 
248
 
 
249
    :param limit: If set, generate only 'limit' revisions, all revisions
 
250
      are shown if None or 0.
 
251
 
 
252
    :param message_search: If not None, only include revisions with
 
253
      matching commit messages
 
254
 
 
255
    :param levels: the number of levels of revisions to
 
256
      generate; 1 for just the mainline; 0 for all levels.
 
257
 
 
258
    :param generate_tags: If True, include tags for matched revisions.
 
259
 
 
260
    :param delta_type: Either 'full', 'partial' or None.
 
261
      'full' means generate the complete delta - adds/deletes/modifies/etc;
 
262
      'partial' means filter the delta using specific_fileids;
 
263
      None means do not generate any delta.
 
264
 
 
265
    :param diff_type: Either 'full', 'partial' or None.
 
266
      'full' means generate the complete diff - adds/deletes/modifies/etc;
 
267
      'partial' means filter the diff using specific_fileids;
 
268
      None means do not generate any diff.
 
269
 
 
270
    :param _match_using_deltas: a private parameter controlling the
 
271
      algorithm used for matching specific_fileids. This parameter
 
272
      may be removed in the future so bzrlib client code should NOT
 
273
      use it.
 
274
    """
 
275
    return {
 
276
        'direction': direction,
 
277
        'specific_fileids': specific_fileids,
 
278
        'start_revision': start_revision,
 
279
        'end_revision': end_revision,
 
280
        'limit': limit,
 
281
        'message_search': message_search,
 
282
        'levels': levels,
 
283
        'generate_tags': generate_tags,
 
284
        'delta_type': delta_type,
 
285
        'diff_type': diff_type,
 
286
        # Add 'private' attributes for features that may be deprecated
 
287
        '_match_using_deltas': _match_using_deltas,
 
288
    }
 
289
 
 
290
 
 
291
def _apply_log_request_defaults(rqst):
 
292
    """Apply default values to a request dictionary."""
 
293
    result = _DEFAULT_REQUEST_PARAMS
 
294
    if rqst:
 
295
        result.update(rqst)
 
296
    return result
 
297
 
 
298
 
 
299
class LogGenerator(object):
 
300
    """A generator of log revisions."""
 
301
 
 
302
    def iter_log_revisions(self):
 
303
        """Iterate over LogRevision objects.
 
304
 
 
305
        :return: An iterator yielding LogRevision objects.
 
306
        """
 
307
        raise NotImplementedError(self.iter_log_revisions)
 
308
 
 
309
 
 
310
class Logger(object):
 
311
    """An object that generates, formats and displays a log."""
 
312
 
 
313
    def __init__(self, branch, rqst):
 
314
        """Create a Logger.
 
315
 
 
316
        :param branch: the branch to log
 
317
        :param rqst: A dictionary specifying the query parameters.
 
318
          See make_log_request_dict() for supported values.
 
319
        """
 
320
        self.branch = branch
 
321
        self.rqst = _apply_log_request_defaults(rqst)
 
322
 
 
323
    def show(self, lf):
 
324
        """Display the log.
 
325
 
 
326
        :param lf: The LogFormatter object to send the output to.
 
327
        """
 
328
        if not isinstance(lf, LogFormatter):
 
329
            warn("not a LogFormatter instance: %r" % lf)
 
330
 
 
331
        self.branch.lock_read()
 
332
        try:
 
333
            if getattr(lf, 'begin_log', None):
 
334
                lf.begin_log()
 
335
            self._show_body(lf)
 
336
            if getattr(lf, 'end_log', None):
 
337
                lf.end_log()
 
338
        finally:
 
339
            self.branch.unlock()
 
340
 
 
341
    def _show_body(self, lf):
 
342
        """Show the main log output.
 
343
 
 
344
        Subclasses may wish to override this.
 
345
        """
 
346
        # Tweak the LogRequest based on what the LogFormatter can handle.
 
347
        # (There's no point generating stuff if the formatter can't display it.)
 
348
        rqst = self.rqst
 
349
        rqst['levels'] = lf.get_levels()
 
350
        if not getattr(lf, 'supports_tags', False):
 
351
            rqst['generate_tags'] = False
 
352
        if not getattr(lf, 'supports_delta', False):
 
353
            rqst['delta_type'] = None
 
354
        if not getattr(lf, 'supports_diff', False):
 
355
            rqst['diff_type'] = None
 
356
 
 
357
        # Find and print the interesting revisions
 
358
        generator = self._generator_factory(self.branch, rqst)
 
359
        for lr in generator.iter_log_revisions():
 
360
            lf.log_revision(lr)
 
361
        lf.show_advice()
 
362
 
 
363
    def _generator_factory(self, branch, rqst):
 
364
        """Make the LogGenerator object to use.
 
365
        
 
366
        Subclasses may wish to override this.
 
367
        """
 
368
        return _DefaultLogGenerator(branch, rqst)
 
369
 
 
370
 
 
371
class _StartNotLinearAncestor(Exception):
 
372
    """Raised when a start revision is not found walking left-hand history."""
 
373
 
 
374
 
 
375
class _DefaultLogGenerator(LogGenerator):
 
376
    """The default generator of log revisions."""
 
377
 
 
378
    def __init__(self, branch, rqst):
 
379
        self.branch = branch
 
380
        self.rqst = rqst
 
381
        if rqst.get('generate_tags') and branch.supports_tags():
 
382
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
383
        else:
 
384
            self.rev_tag_dict = {}
 
385
 
 
386
    def iter_log_revisions(self):
 
387
        """Iterate over LogRevision objects.
 
388
 
 
389
        :return: An iterator yielding LogRevision objects.
 
390
        """
 
391
        rqst = self.rqst
 
392
        levels = rqst.get('levels')
 
393
        limit = rqst.get('limit')
 
394
        diff_type = rqst.get('diff_type')
 
395
        log_count = 0
 
396
        revision_iterator = self._create_log_revision_iterator()
 
397
        for revs in revision_iterator:
 
398
            for (rev_id, revno, merge_depth), rev, delta in revs:
 
399
                # 0 levels means show everything; merge_depth counts from 0
 
400
                if levels != 0 and merge_depth >= levels:
 
401
                    continue
 
402
                if diff_type is None:
 
403
                    diff = None
 
404
                else:
 
405
                    diff = self._format_diff(rev, rev_id, diff_type)
 
406
                yield LogRevision(rev, revno, merge_depth, delta,
 
407
                    self.rev_tag_dict.get(rev_id), diff)
 
408
                if limit:
 
409
                    log_count += 1
 
410
                    if log_count >= limit:
 
411
                        return
 
412
 
 
413
    def _format_diff(self, rev, rev_id, diff_type):
 
414
        repo = self.branch.repository
 
415
        if len(rev.parent_ids) == 0:
 
416
            ancestor_id = _mod_revision.NULL_REVISION
 
417
        else:
 
418
            ancestor_id = rev.parent_ids[0]
 
419
        tree_1 = repo.revision_tree(ancestor_id)
 
420
        tree_2 = repo.revision_tree(rev_id)
 
421
        file_ids = self.rqst.get('specific_fileids')
 
422
        if diff_type == 'partial' and file_ids is not None:
 
423
            specific_files = [tree_2.id2path(id) for id in file_ids]
 
424
        else:
 
425
            specific_files = None
 
426
        s = StringIO()
 
427
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
428
            new_label='')
 
429
        return s.getvalue()
 
430
 
 
431
    def _create_log_revision_iterator(self):
 
432
        """Create a revision iterator for log.
 
433
 
 
434
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
435
            delta).
 
436
        """
 
437
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
 
438
            self.branch, self.rqst.get('start_revision'),
 
439
            self.rqst.get('end_revision'))
 
440
        if self.rqst.get('_match_using_deltas'):
 
441
            return self._log_revision_iterator_using_delta_matching()
 
442
        else:
 
443
            # We're using the per-file-graph algorithm. This scales really
 
444
            # well but only makes sense if there is a single file and it's
 
445
            # not a directory
 
446
            file_count = len(self.rqst.get('specific_fileids'))
 
447
            if file_count != 1:
 
448
                raise BzrError("illegal LogRequest: must match-using-deltas "
 
449
                    "when logging %d files" % file_count)
 
450
            return self._log_revision_iterator_using_per_file_graph()
 
451
 
 
452
    def _log_revision_iterator_using_delta_matching(self):
 
453
        # Get the base revisions, filtering by the revision range
 
454
        rqst = self.rqst
 
455
        generate_merge_revisions = rqst.get('levels') != 1
 
456
        delayed_graph_generation = not rqst.get('specific_fileids') and (
 
457
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
 
458
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
 
459
            self.end_rev_id, rqst.get('direction'), generate_merge_revisions,
 
460
            delayed_graph_generation=delayed_graph_generation)
 
461
 
 
462
        # Apply the other filters
 
463
        return make_log_rev_iterator(self.branch, view_revisions,
 
464
            rqst.get('delta_type'), rqst.get('message_search'),
 
465
            file_ids=rqst.get('specific_fileids'),
 
466
            direction=rqst.get('direction'))
 
467
 
 
468
    def _log_revision_iterator_using_per_file_graph(self):
 
469
        # Get the base revisions, filtering by the revision range.
 
470
        # Note that we always generate the merge revisions because
 
471
        # filter_revisions_touching_file_id() requires them ...
 
472
        rqst = self.rqst
 
473
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
 
474
            self.end_rev_id, rqst.get('direction'), True)
 
475
        if not isinstance(view_revisions, list):
 
476
            view_revisions = list(view_revisions)
 
477
        view_revisions = _filter_revisions_touching_file_id(self.branch,
 
478
            rqst.get('specific_fileids')[0], view_revisions,
 
479
            include_merges=rqst.get('levels') != 1)
 
480
        return make_log_rev_iterator(self.branch, view_revisions,
 
481
            rqst.get('delta_type'), rqst.get('message_search'))
 
482
 
 
483
 
 
484
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
 
485
    generate_merge_revisions, delayed_graph_generation=False):
 
486
    """Calculate the revisions to view.
 
487
 
 
488
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
489
             a list of the same tuples.
 
490
    """
 
491
    br_revno, br_rev_id = branch.last_revision_info()
 
492
    if br_revno == 0:
 
493
        return []
 
494
 
 
495
    # If a single revision is requested, check we can handle it
 
496
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
 
497
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
 
498
    if generate_single_revision:
 
499
        return _generate_one_revision(branch, end_rev_id, br_rev_id, br_revno)
 
500
 
 
501
    # If we only want to see linear revisions, we can iterate ...
 
502
    if not generate_merge_revisions:
 
503
        return _generate_flat_revisions(branch, start_rev_id, end_rev_id,
 
504
            direction)
 
505
    else:
 
506
        return _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
507
            direction, delayed_graph_generation)
 
508
 
 
509
 
 
510
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
 
511
    if rev_id == br_rev_id:
 
512
        # It's the tip
 
513
        return [(br_rev_id, br_revno, 0)]
 
514
    else:
 
515
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
516
        revno_str = '.'.join(str(n) for n in revno)
 
517
        return [(rev_id, revno_str, 0)]
 
518
 
 
519
 
 
520
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
 
521
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
 
522
    # If a start limit was given and it's not obviously an
 
523
    # ancestor of the end limit, check it before outputting anything
 
524
    if direction == 'forward' or (start_rev_id
 
525
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
526
        try:
 
527
            result = list(result)
 
528
        except _StartNotLinearAncestor:
 
529
            raise errors.BzrCommandError('Start revision not found in'
 
530
                ' left-hand history of end revision.')
 
531
    if direction == 'forward':
 
532
        result = reversed(result)
 
533
    return result
 
534
 
 
535
 
 
536
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
 
537
                            delayed_graph_generation):
 
538
    # On large trees, generating the merge graph can take 30-60 seconds
 
539
    # so we delay doing it until a merge is detected, incrementally
 
540
    # returning initial (non-merge) revisions while we can.
 
541
 
 
542
    # The above is only true for old formats (<= 0.92), for newer formats, a
 
543
    # couple of seconds only should be needed to load the whole graph and the
 
544
    # other graph operations needed are even faster than that -- vila 100201
 
545
    initial_revisions = []
 
546
    if delayed_graph_generation:
 
547
        try:
 
548
            for rev_id, revno, depth in  _linear_view_revisions(
 
549
                branch, start_rev_id, end_rev_id):
 
550
                if _has_merges(branch, rev_id):
 
551
                    # The end_rev_id can be nested down somewhere. We need an
 
552
                    # explicit ancestry check. There is an ambiguity here as we
 
553
                    # may not raise _StartNotLinearAncestor for a revision that
 
554
                    # is an ancestor but not a *linear* one. But since we have
 
555
                    # loaded the graph to do the check (or calculate a dotted
 
556
                    # revno), we may as well accept to show the log...  We need
 
557
                    # the check only if start_rev_id is not None as all
 
558
                    # revisions have _mod_revision.NULL_REVISION as an ancestor
 
559
                    # -- vila 20100319
 
560
                    graph = branch.repository.get_graph()
 
561
                    if (start_rev_id is not None
 
562
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
 
563
                        raise _StartNotLinearAncestor()
 
564
                    # Since we collected the revisions so far, we need to
 
565
                    # adjust end_rev_id.
 
566
                    end_rev_id = rev_id
 
567
                    break
 
568
                else:
 
569
                    initial_revisions.append((rev_id, revno, depth))
 
570
            else:
 
571
                # No merged revisions found
 
572
                if direction == 'reverse':
 
573
                    return initial_revisions
 
574
                elif direction == 'forward':
 
575
                    return reversed(initial_revisions)
 
576
                else:
 
577
                    raise ValueError('invalid direction %r' % direction)
 
578
        except _StartNotLinearAncestor:
 
579
            # A merge was never detected so the lower revision limit can't
 
580
            # be nested down somewhere
 
581
            raise errors.BzrCommandError('Start revision not found in'
 
582
                ' history of end revision.')
 
583
 
 
584
    # We exit the loop above because we encounter a revision with merges, from
 
585
    # this revision, we need to switch to _graph_view_revisions.
 
586
 
 
587
    # A log including nested merges is required. If the direction is reverse,
 
588
    # we rebase the initial merge depths so that the development line is
 
589
    # shown naturally, i.e. just like it is for linear logging. We can easily
 
590
    # make forward the exact opposite display, but showing the merge revisions
 
591
    # indented at the end seems slightly nicer in that case.
 
592
    view_revisions = chain(iter(initial_revisions),
 
593
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
594
                              rebase_initial_depths=(direction == 'reverse')))
222
595
    if direction == 'reverse':
223
 
        start_rev_id, end_rev_id = end_rev_id, start_rev_id
224
 
        
225
 
    legacy_lf = getattr(lf, 'log_revision', None) is None
226
 
    if legacy_lf:
227
 
        # pre-0.17 formatters use show for mainline revisions.
228
 
        # how should we show merged revisions ?
229
 
        #   pre-0.11 api: show_merge
230
 
        #   0.11-0.16 api: show_merge_revno
231
 
        show_merge_revno = getattr(lf, 'show_merge_revno', None)
232
 
        show_merge = getattr(lf, 'show_merge', None)
233
 
        if show_merge is None and show_merge_revno is None:
234
 
            # no merged-revno support
235
 
            generate_merge_revisions = False
236
 
        else:
237
 
            generate_merge_revisions = True
238
 
        # tell developers to update their code
239
 
        symbol_versioning.warn('LogFormatters should provide log_revision '
240
 
            'instead of show and show_merge_revno since bzr 0.17.',
241
 
            DeprecationWarning, stacklevel=3)
242
 
    else:
243
 
        generate_merge_revisions = getattr(lf, 'supports_merge_revisions', 
244
 
                                           False)
245
 
    generate_single_revision = False
246
 
    if ((not generate_merge_revisions)
247
 
        and ((start_rev_id and (start_rev_id not in rev_nos))
248
 
            or (end_rev_id and (end_rev_id not in rev_nos)))):
249
 
        generate_single_revision = ((start_rev_id == end_rev_id)
250
 
            and getattr(lf, 'supports_single_merge_revision', False))
251
 
        if not generate_single_revision:
252
 
            raise BzrCommandError('Selected log formatter only supports '
253
 
                'mainline revisions.')
254
 
        generate_merge_revisions = generate_single_revision
255
 
    view_revs_iter = get_view_revisions(mainline_revs, rev_nos, branch,
256
 
                          direction, include_merges=generate_merge_revisions)
257
 
    view_revisions = _filter_revision_range(list(view_revs_iter),
258
 
                                            start_rev_id,
259
 
                                            end_rev_id)
260
 
    if view_revisions and generate_single_revision:
261
 
        view_revisions = view_revisions[0:1]
 
596
        return view_revisions
 
597
    elif direction == 'forward':
 
598
        # Forward means oldest first, adjusting for depth.
 
599
        view_revisions = reverse_by_depth(list(view_revisions))
 
600
        return _rebase_merge_depth(view_revisions)
 
601
    else:
 
602
        raise ValueError('invalid direction %r' % direction)
 
603
 
 
604
 
 
605
def _has_merges(branch, rev_id):
 
606
    """Does a revision have multiple parents or not?"""
 
607
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
 
608
    return len(parents) > 1
 
609
 
 
610
 
 
611
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
 
612
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
 
613
    if start_rev_id and end_rev_id:
 
614
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
 
615
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
 
616
        if len(start_dotted) == 1 and len(end_dotted) == 1:
 
617
            # both on mainline
 
618
            return start_dotted[0] <= end_dotted[0]
 
619
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
 
620
            start_dotted[0:1] == end_dotted[0:1]):
 
621
            # both on same development line
 
622
            return start_dotted[2] <= end_dotted[2]
 
623
        else:
 
624
            # not obvious
 
625
            return False
 
626
    # if either start or end is not specified then we use either the first or
 
627
    # the last revision and *they* are obvious ancestors.
 
628
    return True
 
629
 
 
630
 
 
631
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
632
    """Calculate a sequence of revisions to view, newest to oldest.
 
633
 
 
634
    :param start_rev_id: the lower revision-id
 
635
    :param end_rev_id: the upper revision-id
 
636
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
637
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
 
638
      is not found walking the left-hand history
 
639
    """
 
640
    br_revno, br_rev_id = branch.last_revision_info()
 
641
    repo = branch.repository
 
642
    if start_rev_id is None and end_rev_id is None:
 
643
        cur_revno = br_revno
 
644
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
 
645
            yield revision_id, str(cur_revno), 0
 
646
            cur_revno -= 1
 
647
    else:
 
648
        if end_rev_id is None:
 
649
            end_rev_id = br_rev_id
 
650
        found_start = start_rev_id is None
 
651
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
 
652
            revno = branch.revision_id_to_dotted_revno(revision_id)
 
653
            revno_str = '.'.join(str(n) for n in revno)
 
654
            if not found_start and revision_id == start_rev_id:
 
655
                yield revision_id, revno_str, 0
 
656
                found_start = True
 
657
                break
 
658
            else:
 
659
                yield revision_id, revno_str, 0
 
660
        else:
 
661
            if not found_start:
 
662
                raise _StartNotLinearAncestor()
 
663
 
 
664
 
 
665
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
666
                          rebase_initial_depths=True):
 
667
    """Calculate revisions to view including merges, newest to oldest.
 
668
 
 
669
    :param branch: the branch
 
670
    :param start_rev_id: the lower revision-id
 
671
    :param end_rev_id: the upper revision-id
 
672
    :param rebase_initial_depth: should depths be rebased until a mainline
 
673
      revision is found?
 
674
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
675
    """
 
676
    view_revisions = branch.iter_merge_sorted_revisions(
 
677
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
 
678
        stop_rule="with-merges")
 
679
    if not rebase_initial_depths:
 
680
        for (rev_id, merge_depth, revno, end_of_merge
 
681
             ) in view_revisions:
 
682
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
683
    else:
 
684
        # We're following a development line starting at a merged revision.
 
685
        # We need to adjust depths down by the initial depth until we find
 
686
        # a depth less than it. Then we use that depth as the adjustment.
 
687
        # If and when we reach the mainline, depth adjustment ends.
 
688
        depth_adjustment = None
 
689
        for (rev_id, merge_depth, revno, end_of_merge
 
690
             ) in view_revisions:
 
691
            if depth_adjustment is None:
 
692
                depth_adjustment = merge_depth
 
693
            if depth_adjustment:
 
694
                if merge_depth < depth_adjustment:
 
695
                    # From now on we reduce the depth adjustement, this can be
 
696
                    # surprising for users. The alternative requires two passes
 
697
                    # which breaks the fast display of the first revision
 
698
                    # though.
 
699
                    depth_adjustment = merge_depth
 
700
                merge_depth -= depth_adjustment
 
701
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
702
 
 
703
 
 
704
@deprecated_function(deprecated_in((2, 2, 0)))
 
705
def calculate_view_revisions(branch, start_revision, end_revision, direction,
 
706
        specific_fileid, generate_merge_revisions):
 
707
    """Calculate the revisions to view.
 
708
 
 
709
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
710
             a list of the same tuples.
 
711
    """
 
712
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
 
713
        end_revision)
 
714
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
 
715
        direction, generate_merge_revisions or specific_fileid))
262
716
    if specific_fileid:
263
717
        view_revisions = _filter_revisions_touching_file_id(branch,
264
 
                                                         specific_fileid,
265
 
                                                         mainline_revs,
266
 
                                                         view_revisions)
267
 
 
268
 
    # rebase merge_depth - unless there are no revisions or 
269
 
    # either the first or last revision have merge_depth = 0.
 
718
            specific_fileid, view_revisions,
 
719
            include_merges=generate_merge_revisions)
 
720
    return _rebase_merge_depth(view_revisions)
 
721
 
 
722
 
 
723
def _rebase_merge_depth(view_revisions):
 
724
    """Adjust depths upwards so the top level is 0."""
 
725
    # If either the first or last revision have a merge_depth of 0, we're done
270
726
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
271
727
        min_depth = min([d for r,n,d in view_revisions])
272
728
        if min_depth != 0:
273
729
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
274
 
        
275
 
    rev_tag_dict = {}
276
 
    generate_tags = getattr(lf, 'supports_tags', False)
277
 
    if generate_tags:
278
 
        if branch.supports_tags():
279
 
            rev_tag_dict = branch.tags.get_reverse_tag_dict()
280
 
 
281
 
    generate_delta = verbose and getattr(lf, 'supports_delta', False)
282
 
 
283
 
    def iter_revisions():
284
 
        # r = revision, n = revno, d = merge depth
285
 
        revision_ids = [r for r, n, d in view_revisions]
286
 
        num = 9
287
 
        repository = branch.repository
288
 
        while revision_ids:
289
 
            cur_deltas = {}
290
 
            revisions = repository.get_revisions(revision_ids[:num])
291
 
            if generate_delta:
292
 
                deltas = repository.get_deltas_for_revisions(revisions)
293
 
                cur_deltas = dict(izip((r.revision_id for r in revisions),
294
 
                                       deltas))
295
 
            for revision in revisions:
296
 
                yield revision, cur_deltas.get(revision.revision_id)
297
 
            revision_ids  = revision_ids[num:]
 
730
    return view_revisions
 
731
 
 
732
 
 
733
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
 
734
        file_ids=None, direction='reverse'):
 
735
    """Create a revision iterator for log.
 
736
 
 
737
    :param branch: The branch being logged.
 
738
    :param view_revisions: The revisions being viewed.
 
739
    :param generate_delta: Whether to generate a delta for each revision.
 
740
      Permitted values are None, 'full' and 'partial'.
 
741
    :param search: A user text search string.
 
742
    :param file_ids: If non empty, only revisions matching one or more of
 
743
      the file-ids are to be kept.
 
744
    :param direction: the direction in which view_revisions is sorted
 
745
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
746
        delta).
 
747
    """
 
748
    # Convert view_revisions into (view, None, None) groups to fit with
 
749
    # the standard interface here.
 
750
    if type(view_revisions) == list:
 
751
        # A single batch conversion is faster than many incremental ones.
 
752
        # As we have all the data, do a batch conversion.
 
753
        nones = [None] * len(view_revisions)
 
754
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
 
755
    else:
 
756
        def _convert():
 
757
            for view in view_revisions:
 
758
                yield (view, None, None)
 
759
        log_rev_iterator = iter([_convert()])
 
760
    for adapter in log_adapters:
 
761
        # It would be nicer if log adapters were first class objects
 
762
        # with custom parameters. This will do for now. IGC 20090127
 
763
        if adapter == _make_delta_filter:
 
764
            log_rev_iterator = adapter(branch, generate_delta,
 
765
                search, log_rev_iterator, file_ids, direction)
 
766
        else:
 
767
            log_rev_iterator = adapter(branch, generate_delta,
 
768
                search, log_rev_iterator)
 
769
    return log_rev_iterator
 
770
 
 
771
 
 
772
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
 
773
    """Create a filtered iterator of log_rev_iterator matching on a regex.
 
774
 
 
775
    :param branch: The branch being logged.
 
776
    :param generate_delta: Whether to generate a delta for each revision.
 
777
    :param search: A user text search string.
 
778
    :param log_rev_iterator: An input iterator containing all revisions that
 
779
        could be displayed, in lists.
 
780
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
781
        delta).
 
782
    """
 
783
    if search is None:
 
784
        return log_rev_iterator
 
785
    searchRE = re_compile_checked(search, re.IGNORECASE,
 
786
            'log message filter')
 
787
    return _filter_message_re(searchRE, log_rev_iterator)
 
788
 
 
789
 
 
790
def _filter_message_re(searchRE, log_rev_iterator):
 
791
    for revs in log_rev_iterator:
 
792
        new_revs = []
 
793
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
794
            if searchRE.search(rev.message):
 
795
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
 
796
        yield new_revs
 
797
 
 
798
 
 
799
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
 
800
    fileids=None, direction='reverse'):
 
801
    """Add revision deltas to a log iterator if needed.
 
802
 
 
803
    :param branch: The branch being logged.
 
804
    :param generate_delta: Whether to generate a delta for each revision.
 
805
      Permitted values are None, 'full' and 'partial'.
 
806
    :param search: A user text search string.
 
807
    :param log_rev_iterator: An input iterator containing all revisions that
 
808
        could be displayed, in lists.
 
809
    :param fileids: If non empty, only revisions matching one or more of
 
810
      the file-ids are to be kept.
 
811
    :param direction: the direction in which view_revisions is sorted
 
812
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
813
        delta).
 
814
    """
 
815
    if not generate_delta and not fileids:
 
816
        return log_rev_iterator
 
817
    return _generate_deltas(branch.repository, log_rev_iterator,
 
818
        generate_delta, fileids, direction)
 
819
 
 
820
 
 
821
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
 
822
    direction):
 
823
    """Create deltas for each batch of revisions in log_rev_iterator.
 
824
 
 
825
    If we're only generating deltas for the sake of filtering against
 
826
    file-ids, we stop generating deltas once all file-ids reach the
 
827
    appropriate life-cycle point. If we're receiving data newest to
 
828
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
 
829
    """
 
830
    check_fileids = fileids is not None and len(fileids) > 0
 
831
    if check_fileids:
 
832
        fileid_set = set(fileids)
 
833
        if direction == 'reverse':
 
834
            stop_on = 'add'
 
835
        else:
 
836
            stop_on = 'remove'
 
837
    else:
 
838
        fileid_set = None
 
839
    for revs in log_rev_iterator:
 
840
        # If we were matching against fileids and we've run out,
 
841
        # there's nothing left to do
 
842
        if check_fileids and not fileid_set:
 
843
            return
 
844
        revisions = [rev[1] for rev in revs]
 
845
        new_revs = []
 
846
        if delta_type == 'full' and not check_fileids:
 
847
            deltas = repository.get_deltas_for_revisions(revisions)
 
848
            for rev, delta in izip(revs, deltas):
 
849
                new_revs.append((rev[0], rev[1], delta))
 
850
        else:
 
851
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
 
852
            for rev, delta in izip(revs, deltas):
 
853
                if check_fileids:
 
854
                    if delta is None or not delta.has_changed():
 
855
                        continue
 
856
                    else:
 
857
                        _update_fileids(delta, fileid_set, stop_on)
 
858
                        if delta_type is None:
 
859
                            delta = None
 
860
                        elif delta_type == 'full':
 
861
                            # If the file matches all the time, rebuilding
 
862
                            # a full delta like this in addition to a partial
 
863
                            # one could be slow. However, it's likely that
 
864
                            # most revisions won't get this far, making it
 
865
                            # faster to filter on the partial deltas and
 
866
                            # build the occasional full delta than always
 
867
                            # building full deltas and filtering those.
 
868
                            rev_id = rev[0][0]
 
869
                            delta = repository.get_revision_delta(rev_id)
 
870
                new_revs.append((rev[0], rev[1], delta))
 
871
        yield new_revs
 
872
 
 
873
 
 
874
def _update_fileids(delta, fileids, stop_on):
 
875
    """Update the set of file-ids to search based on file lifecycle events.
 
876
    
 
877
    :param fileids: a set of fileids to update
 
878
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
 
879
      fileids set once their add or remove entry is detected respectively
 
880
    """
 
881
    if stop_on == 'add':
 
882
        for item in delta.added:
 
883
            if item[1] in fileids:
 
884
                fileids.remove(item[1])
 
885
    elif stop_on == 'delete':
 
886
        for item in delta.removed:
 
887
            if item[1] in fileids:
 
888
                fileids.remove(item[1])
 
889
 
 
890
 
 
891
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
 
892
    """Extract revision objects from the repository
 
893
 
 
894
    :param branch: The branch being logged.
 
895
    :param generate_delta: Whether to generate a delta for each revision.
 
896
    :param search: A user text search string.
 
897
    :param log_rev_iterator: An input iterator containing all revisions that
 
898
        could be displayed, in lists.
 
899
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
900
        delta).
 
901
    """
 
902
    repository = branch.repository
 
903
    for revs in log_rev_iterator:
 
904
        # r = revision_id, n = revno, d = merge depth
 
905
        revision_ids = [view[0] for view, _, _ in revs]
 
906
        revisions = repository.get_revisions(revision_ids)
 
907
        revs = [(rev[0], revision, rev[2]) for rev, revision in
 
908
            izip(revs, revisions)]
 
909
        yield revs
 
910
 
 
911
 
 
912
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
 
913
    """Group up a single large batch into smaller ones.
 
914
 
 
915
    :param branch: The branch being logged.
 
916
    :param generate_delta: Whether to generate a delta for each revision.
 
917
    :param search: A user text search string.
 
918
    :param log_rev_iterator: An input iterator containing all revisions that
 
919
        could be displayed, in lists.
 
920
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
921
        delta).
 
922
    """
 
923
    repository = branch.repository
 
924
    num = 9
 
925
    for batch in log_rev_iterator:
 
926
        batch = iter(batch)
 
927
        while True:
 
928
            step = [detail for _, detail in zip(range(num), batch)]
 
929
            if len(step) == 0:
 
930
                break
 
931
            yield step
298
932
            num = min(int(num * 1.5), 200)
299
933
 
300
 
    # now we just print all the revisions
301
 
    log_count = 0
302
 
    for ((rev_id, revno, merge_depth), (rev, delta)) in \
303
 
         izip(view_revisions, iter_revisions()):
304
 
 
305
 
        if searchRE:
306
 
            if not searchRE.search(rev.message):
307
 
                continue
308
 
 
309
 
        if not legacy_lf:
310
 
            lr = LogRevision(rev, revno, merge_depth, delta,
311
 
                             rev_tag_dict.get(rev_id))
312
 
            lf.log_revision(lr)
313
 
        else:
314
 
            # support for legacy (pre-0.17) LogFormatters
315
 
            if merge_depth == 0:
316
 
                if generate_tags:
317
 
                    lf.show(revno, rev, delta, rev_tag_dict.get(rev_id))
318
 
                else:
319
 
                    lf.show(revno, rev, delta)
320
 
            else:
321
 
                if show_merge_revno is None:
322
 
                    lf.show_merge(rev, merge_depth)
323
 
                else:
324
 
                    if generate_tags:
325
 
                        lf.show_merge_revno(rev, merge_depth, revno,
326
 
                                            rev_tag_dict.get(rev_id))
327
 
                    else:
328
 
                        lf.show_merge_revno(rev, merge_depth, revno)
329
 
        if limit:
330
 
            log_count += 1
331
 
            if log_count >= limit:
332
 
                break
 
934
 
 
935
def _get_revision_limits(branch, start_revision, end_revision):
 
936
    """Get and check revision limits.
 
937
 
 
938
    :param  branch: The branch containing the revisions.
 
939
 
 
940
    :param  start_revision: The first revision to be logged.
 
941
            For backwards compatibility this may be a mainline integer revno,
 
942
            but for merge revision support a RevisionInfo is expected.
 
943
 
 
944
    :param  end_revision: The last revision to be logged.
 
945
            For backwards compatibility this may be a mainline integer revno,
 
946
            but for merge revision support a RevisionInfo is expected.
 
947
 
 
948
    :return: (start_rev_id, end_rev_id) tuple.
 
949
    """
 
950
    branch_revno, branch_rev_id = branch.last_revision_info()
 
951
    start_rev_id = None
 
952
    if start_revision is None:
 
953
        start_revno = 1
 
954
    else:
 
955
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
956
            start_rev_id = start_revision.rev_id
 
957
            start_revno = start_revision.revno or 1
 
958
        else:
 
959
            branch.check_real_revno(start_revision)
 
960
            start_revno = start_revision
 
961
            start_rev_id = branch.get_rev_id(start_revno)
 
962
 
 
963
    end_rev_id = None
 
964
    if end_revision is None:
 
965
        end_revno = branch_revno
 
966
    else:
 
967
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
968
            end_rev_id = end_revision.rev_id
 
969
            end_revno = end_revision.revno or branch_revno
 
970
        else:
 
971
            branch.check_real_revno(end_revision)
 
972
            end_revno = end_revision
 
973
            end_rev_id = branch.get_rev_id(end_revno)
 
974
 
 
975
    if branch_revno != 0:
 
976
        if (start_rev_id == _mod_revision.NULL_REVISION
 
977
            or end_rev_id == _mod_revision.NULL_REVISION):
 
978
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
979
        if start_revno > end_revno:
 
980
            raise errors.BzrCommandError("Start revision must be older than "
 
981
                                         "the end revision.")
 
982
    return (start_rev_id, end_rev_id)
333
983
 
334
984
 
335
985
def _get_mainline_revs(branch, start_revision, end_revision):
336
986
    """Get the mainline revisions from the branch.
337
 
    
 
987
 
338
988
    Generates the list of mainline revisions for the branch.
339
 
    
340
 
    :param  branch: The branch containing the revisions. 
 
989
 
 
990
    :param  branch: The branch containing the revisions.
341
991
 
342
992
    :param  start_revision: The first revision to be logged.
343
993
            For backwards compatibility this may be a mainline integer revno,
349
999
 
350
1000
    :return: A (mainline_revs, rev_nos, start_rev_id, end_rev_id) tuple.
351
1001
    """
352
 
    which_revs = _enumerate_history(branch)
353
 
    if not which_revs:
 
1002
    branch_revno, branch_last_revision = branch.last_revision_info()
 
1003
    if branch_revno == 0:
354
1004
        return None, None, None, None
355
1005
 
356
 
    # For mainline generation, map start_revision and end_revision to 
357
 
    # mainline revnos. If the revision is not on the mainline choose the 
358
 
    # appropriate extreme of the mainline instead - the extra will be 
 
1006
    # For mainline generation, map start_revision and end_revision to
 
1007
    # mainline revnos. If the revision is not on the mainline choose the
 
1008
    # appropriate extreme of the mainline instead - the extra will be
359
1009
    # filtered later.
360
1010
    # Also map the revisions to rev_ids, to be used in the later filtering
361
1011
    # stage.
362
 
    start_rev_id = None 
 
1012
    start_rev_id = None
363
1013
    if start_revision is None:
364
1014
        start_revno = 1
365
1015
    else:
366
 
        if isinstance(start_revision,RevisionInfo):
 
1016
        if isinstance(start_revision, revisionspec.RevisionInfo):
367
1017
            start_rev_id = start_revision.rev_id
368
1018
            start_revno = start_revision.revno or 1
369
1019
        else:
370
1020
            branch.check_real_revno(start_revision)
371
1021
            start_revno = start_revision
372
 
    
 
1022
 
373
1023
    end_rev_id = None
374
1024
    if end_revision is None:
375
 
        end_revno = len(which_revs)
 
1025
        end_revno = branch_revno
376
1026
    else:
377
 
        if isinstance(end_revision,RevisionInfo):
 
1027
        if isinstance(end_revision, revisionspec.RevisionInfo):
378
1028
            end_rev_id = end_revision.rev_id
379
 
            end_revno = end_revision.revno or len(which_revs)
 
1029
            end_revno = end_revision.revno or branch_revno
380
1030
        else:
381
1031
            branch.check_real_revno(end_revision)
382
1032
            end_revno = end_revision
383
1033
 
384
 
    if ((start_rev_id == NULL_REVISION)
385
 
        or (end_rev_id == NULL_REVISION)):
386
 
        raise BzrCommandError('Logging revision 0 is invalid.')
 
1034
    if ((start_rev_id == _mod_revision.NULL_REVISION)
 
1035
        or (end_rev_id == _mod_revision.NULL_REVISION)):
 
1036
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
387
1037
    if start_revno > end_revno:
388
 
        raise BzrCommandError("Start revision must be older than "
389
 
                              "the end revision.")
 
1038
        raise errors.BzrCommandError("Start revision must be older than "
 
1039
                                     "the end revision.")
390
1040
 
391
 
    # list indexes are 0-based; revisions are 1-based
392
 
    cut_revs = which_revs[(start_revno-1):(end_revno)]
393
 
    if not cut_revs:
 
1041
    if end_revno < start_revno:
394
1042
        return None, None, None, None
 
1043
    cur_revno = branch_revno
 
1044
    rev_nos = {}
 
1045
    mainline_revs = []
 
1046
    for revision_id in branch.repository.iter_reverse_revision_history(
 
1047
                        branch_last_revision):
 
1048
        if cur_revno < start_revno:
 
1049
            # We have gone far enough, but we always add 1 more revision
 
1050
            rev_nos[revision_id] = cur_revno
 
1051
            mainline_revs.append(revision_id)
 
1052
            break
 
1053
        if cur_revno <= end_revno:
 
1054
            rev_nos[revision_id] = cur_revno
 
1055
            mainline_revs.append(revision_id)
 
1056
        cur_revno -= 1
 
1057
    else:
 
1058
        # We walked off the edge of all revisions, so we add a 'None' marker
 
1059
        mainline_revs.append(None)
395
1060
 
396
 
    # convert the revision history to a dictionary:
397
 
    rev_nos = dict((k, v) for v, k in cut_revs)
 
1061
    mainline_revs.reverse()
398
1062
 
399
1063
    # override the mainline to look like the revision history.
400
 
    mainline_revs = [revision_id for index, revision_id in cut_revs]
401
 
    if cut_revs[0][0] == 1:
402
 
        mainline_revs.insert(0, None)
403
 
    else:
404
 
        mainline_revs.insert(0, which_revs[start_revno-2][1])
405
1064
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
406
1065
 
407
1066
 
 
1067
@deprecated_function(deprecated_in((2, 2, 0)))
408
1068
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
409
1069
    """Filter view_revisions based on revision ranges.
410
1070
 
411
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth) 
 
1071
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
412
1072
            tuples to be filtered.
413
1073
 
414
1074
    :param start_rev_id: If not NONE specifies the first revision to be logged.
419
1079
 
420
1080
    :return: The filtered view_revisions.
421
1081
    """
422
 
    if start_rev_id or end_rev_id: 
 
1082
    if start_rev_id or end_rev_id:
423
1083
        revision_ids = [r for r, n, d in view_revisions]
424
1084
        if start_rev_id:
425
1085
            start_index = revision_ids.index(start_rev_id)
432
1092
                end_index = revision_ids.index(end_rev_id)
433
1093
            else:
434
1094
                end_index = len(view_revisions) - 1
435
 
        # To include the revisions merged into the last revision, 
 
1095
        # To include the revisions merged into the last revision,
436
1096
        # extend end_rev_id down to, but not including, the next rev
437
1097
        # with the same or lesser merge_depth
438
1098
        end_merge_depth = view_revisions[end_index][2]
448
1108
    return view_revisions
449
1109
 
450
1110
 
451
 
def _filter_revisions_touching_file_id(branch, file_id, mainline_revisions,
452
 
                                       view_revs_iter):
453
 
    """Return the list of revision ids which touch a given file id.
 
1111
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
 
1112
    include_merges=True):
 
1113
    r"""Return the list of revision ids which touch a given file id.
454
1114
 
455
1115
    The function filters view_revisions and returns a subset.
456
1116
    This includes the revisions which directly change the file id,
457
1117
    and the revisions which merge these changes. So if the
458
1118
    revision graph is::
459
 
        A
460
 
        |\
461
 
        B C
 
1119
        A-.
 
1120
        |\ \
 
1121
        B C E
 
1122
        |/ /
 
1123
        D |
 
1124
        |\|
 
1125
        | F
462
1126
        |/
463
 
        D
464
 
 
465
 
    And 'C' changes a file, then both C and D will be returned.
466
 
 
467
 
    This will also can be restricted based on a subset of the mainline.
 
1127
        G
 
1128
 
 
1129
    And 'C' changes a file, then both C and D will be returned. F will not be
 
1130
    returned even though it brings the changes to C into the branch starting
 
1131
    with E. (Note that if we were using F as the tip instead of G, then we
 
1132
    would see C, D, F.)
 
1133
 
 
1134
    This will also be restricted based on a subset of the mainline.
 
1135
 
 
1136
    :param branch: The branch where we can get text revision information.
 
1137
 
 
1138
    :param file_id: Filter out revisions that do not touch file_id.
 
1139
 
 
1140
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1141
        tuples. This is the list of revisions which will be filtered. It is
 
1142
        assumed that view_revisions is in merge_sort order (i.e. newest
 
1143
        revision first ).
 
1144
 
 
1145
    :param include_merges: include merge revisions in the result or not
468
1146
 
469
1147
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
470
1148
    """
471
 
    # find all the revisions that change the specific file
472
 
    file_weave = branch.repository.weave_store.get_weave(file_id,
473
 
                branch.repository.get_transaction())
474
 
    weave_modifed_revisions = set(file_weave.versions())
475
 
    # build the ancestry of each revision in the graph
476
 
    # - only listing the ancestors that change the specific file.
477
 
    rev_graph = branch.repository.get_revision_graph(mainline_revisions[-1])
478
 
    sorted_rev_list = topo_sort(rev_graph)
479
 
    ancestry = {}
480
 
    for rev in sorted_rev_list:
481
 
        parents = rev_graph[rev]
482
 
        if rev not in weave_modifed_revisions and len(parents) == 1:
483
 
            # We will not be adding anything new, so just use a reference to
484
 
            # the parent ancestry.
485
 
            rev_ancestry = ancestry[parents[0]]
 
1149
    # Lookup all possible text keys to determine which ones actually modified
 
1150
    # the file.
 
1151
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
 
1152
    next_keys = None
 
1153
    # Looking up keys in batches of 1000 can cut the time in half, as well as
 
1154
    # memory consumption. GraphIndex *does* like to look for a few keys in
 
1155
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
 
1156
    # TODO: This code needs to be re-evaluated periodically as we tune the
 
1157
    #       indexing layer. We might consider passing in hints as to the known
 
1158
    #       access pattern (sparse/clustered, high success rate/low success
 
1159
    #       rate). This particular access is clustered with a low success rate.
 
1160
    get_parent_map = branch.repository.texts.get_parent_map
 
1161
    modified_text_revisions = set()
 
1162
    chunk_size = 1000
 
1163
    for start in xrange(0, len(text_keys), chunk_size):
 
1164
        next_keys = text_keys[start:start + chunk_size]
 
1165
        # Only keep the revision_id portion of the key
 
1166
        modified_text_revisions.update(
 
1167
            [k[1] for k in get_parent_map(next_keys)])
 
1168
    del text_keys, next_keys
 
1169
 
 
1170
    result = []
 
1171
    # Track what revisions will merge the current revision, replace entries
 
1172
    # with 'None' when they have been added to result
 
1173
    current_merge_stack = [None]
 
1174
    for info in view_revisions:
 
1175
        rev_id, revno, depth = info
 
1176
        if depth == len(current_merge_stack):
 
1177
            current_merge_stack.append(info)
486
1178
        else:
487
 
            rev_ancestry = set()
488
 
            if rev in weave_modifed_revisions:
489
 
                rev_ancestry.add(rev)
490
 
            for parent in parents:
491
 
                rev_ancestry = rev_ancestry.union(ancestry[parent])
492
 
        ancestry[rev] = rev_ancestry
493
 
 
494
 
    def is_merging_rev(r):
495
 
        parents = rev_graph[r]
496
 
        if len(parents) > 1:
497
 
            leftparent = parents[0]
498
 
            for rightparent in parents[1:]:
499
 
                if not ancestry[leftparent].issuperset(
500
 
                        ancestry[rightparent]):
501
 
                    return True
502
 
        return False
503
 
 
504
 
    # filter from the view the revisions that did not change or merge 
505
 
    # the specific file
506
 
    return [(r, n, d) for r, n, d in view_revs_iter
507
 
            if r in weave_modifed_revisions or is_merging_rev(r)]
508
 
 
509
 
 
 
1179
            del current_merge_stack[depth + 1:]
 
1180
            current_merge_stack[-1] = info
 
1181
 
 
1182
        if rev_id in modified_text_revisions:
 
1183
            # This needs to be logged, along with the extra revisions
 
1184
            for idx in xrange(len(current_merge_stack)):
 
1185
                node = current_merge_stack[idx]
 
1186
                if node is not None:
 
1187
                    if include_merges or node[2] == 0:
 
1188
                        result.append(node)
 
1189
                        current_merge_stack[idx] = None
 
1190
    return result
 
1191
 
 
1192
 
 
1193
@deprecated_function(deprecated_in((2, 2, 0)))
510
1194
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
511
1195
                       include_merges=True):
512
1196
    """Produce an iterator of revisions to show
513
1197
    :return: an iterator of (revision_id, revno, merge_depth)
514
1198
    (if there is no revno for a revision, None is supplied)
515
1199
    """
516
 
    if include_merges is False:
 
1200
    if not include_merges:
517
1201
        revision_ids = mainline_revs[1:]
518
1202
        if direction == 'reverse':
519
1203
            revision_ids.reverse()
520
1204
        for revision_id in revision_ids:
521
1205
            yield revision_id, str(rev_nos[revision_id]), 0
522
1206
        return
523
 
    merge_sorted_revisions = merge_sort(
524
 
        branch.repository.get_revision_graph(mainline_revs[-1]),
 
1207
    graph = branch.repository.get_graph()
 
1208
    # This asks for all mainline revisions, which means we only have to spider
 
1209
    # sideways, rather than depth history. That said, its still size-of-history
 
1210
    # and should be addressed.
 
1211
    # mainline_revisions always includes an extra revision at the beginning, so
 
1212
    # don't request it.
 
1213
    parent_map = dict(((key, value) for key, value in
 
1214
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
 
1215
    # filter out ghosts; merge_sort errors on ghosts.
 
1216
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
 
1217
    merge_sorted_revisions = tsort.merge_sort(
 
1218
        rev_graph,
525
1219
        mainline_revs[-1],
526
1220
        mainline_revs,
527
1221
        generate_revno=True)
532
1226
    elif direction != 'reverse':
533
1227
        raise ValueError('invalid direction %r' % direction)
534
1228
 
535
 
    for sequence, rev_id, merge_depth, revno, end_of_merge in merge_sorted_revisions:
 
1229
    for (sequence, rev_id, merge_depth, revno, end_of_merge
 
1230
         ) in merge_sorted_revisions:
536
1231
        yield rev_id, '.'.join(map(str, revno)), merge_depth
537
1232
 
538
1233
 
543
1238
    revision of that depth.  There may be no topological justification for this,
544
1239
    but it looks much nicer.
545
1240
    """
 
1241
    # Add a fake revision at start so that we can always attach sub revisions
 
1242
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
546
1243
    zd_revisions = []
547
1244
    for val in merge_sorted_revisions:
548
1245
        if val[2] == _depth:
 
1246
            # Each revision at the current depth becomes a chunk grouping all
 
1247
            # higher depth revisions.
549
1248
            zd_revisions.append([val])
550
1249
        else:
551
 
            assert val[2] > _depth
552
1250
            zd_revisions[-1].append(val)
553
1251
    for revisions in zd_revisions:
554
1252
        if len(revisions) > 1:
 
1253
            # We have higher depth revisions, let reverse them locally
555
1254
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
556
1255
    zd_revisions.reverse()
557
1256
    result = []
558
1257
    for chunk in zd_revisions:
559
1258
        result.extend(chunk)
 
1259
    if _depth == 0:
 
1260
        # Top level call, get rid of the fake revisions that have been added
 
1261
        result = [r for r in result if r[0] is not None and r[1] is not None]
560
1262
    return result
561
1263
 
562
1264
 
564
1266
    """A revision to be logged (by LogFormatter.log_revision).
565
1267
 
566
1268
    A simple wrapper for the attributes of a revision to be logged.
567
 
    The attributes may or may not be populated, as determined by the 
 
1269
    The attributes may or may not be populated, as determined by the
568
1270
    logging options and the log formatter capabilities.
569
1271
    """
570
1272
 
571
1273
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
572
 
                 tags=None):
 
1274
                 tags=None, diff=None):
573
1275
        self.rev = rev
574
 
        self.revno = revno
 
1276
        self.revno = str(revno)
575
1277
        self.merge_depth = merge_depth
576
1278
        self.delta = delta
577
1279
        self.tags = tags
 
1280
        self.diff = diff
578
1281
 
579
1282
 
580
1283
class LogFormatter(object):
585
1288
    If the LogFormatter needs to be informed of the beginning or end of
586
1289
    a log it should implement the begin_log and/or end_log hook methods.
587
1290
 
588
 
    A LogFormatter should define the following supports_XXX flags 
 
1291
    A LogFormatter should define the following supports_XXX flags
589
1292
    to indicate which LogRevision attributes it supports:
590
1293
 
591
1294
    - supports_delta must be True if this log formatter supports delta.
592
 
        Otherwise the delta attribute may not be populated.
593
 
    - supports_merge_revisions must be True if this log formatter supports 
594
 
        merge revisions.  If not, and if supports_single_merge_revisions is
595
 
        also not True, then only mainline revisions will be passed to the 
596
 
        formatter.
597
 
    - supports_single_merge_revision must be True if this log formatter
598
 
        supports logging only a single merge revision.  This flag is
599
 
        only relevant if supports_merge_revisions is not True.
 
1295
        Otherwise the delta attribute may not be populated.  The 'delta_format'
 
1296
        attribute describes whether the 'short_status' format (1) or the long
 
1297
        one (2) should be used.
 
1298
 
 
1299
    - supports_merge_revisions must be True if this log formatter supports
 
1300
        merge revisions.  If not, then only mainline revisions will be passed
 
1301
        to the formatter.
 
1302
 
 
1303
    - preferred_levels is the number of levels this formatter defaults to.
 
1304
        The default value is zero meaning display all levels.
 
1305
        This value is only relevant if supports_merge_revisions is True.
 
1306
 
600
1307
    - supports_tags must be True if this log formatter supports tags.
601
1308
        Otherwise the tags attribute may not be populated.
 
1309
 
 
1310
    - supports_diff must be True if this log formatter supports diffs.
 
1311
        Otherwise the diff attribute may not be populated.
 
1312
 
 
1313
    Plugins can register functions to show custom revision properties using
 
1314
    the properties_handler_registry. The registered function
 
1315
    must respect the following interface description:
 
1316
        def my_show_properties(properties_dict):
 
1317
            # code that returns a dict {'name':'value'} of the properties
 
1318
            # to be shown
602
1319
    """
603
 
 
604
 
    def __init__(self, to_file, show_ids=False, show_timezone='original'):
 
1320
    preferred_levels = 0
 
1321
 
 
1322
    def __init__(self, to_file, show_ids=False, show_timezone='original',
 
1323
                 delta_format=None, levels=None, show_advice=False,
 
1324
                 to_exact_file=None):
 
1325
        """Create a LogFormatter.
 
1326
 
 
1327
        :param to_file: the file to output to
 
1328
        :param to_exact_file: if set, gives an output stream to which 
 
1329
             non-Unicode diffs are written.
 
1330
        :param show_ids: if True, revision-ids are to be displayed
 
1331
        :param show_timezone: the timezone to use
 
1332
        :param delta_format: the level of delta information to display
 
1333
          or None to leave it to the formatter to decide
 
1334
        :param levels: the number of levels to display; None or -1 to
 
1335
          let the log formatter decide.
 
1336
        :param show_advice: whether to show advice at the end of the
 
1337
          log or not
 
1338
        """
605
1339
        self.to_file = to_file
 
1340
        # 'exact' stream used to show diff, it should print content 'as is'
 
1341
        # and should not try to decode/encode it to unicode to avoid bug #328007
 
1342
        if to_exact_file is not None:
 
1343
            self.to_exact_file = to_exact_file
 
1344
        else:
 
1345
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
 
1346
            # for code that expects to get diffs to pass in the exact file
 
1347
            # stream
 
1348
            self.to_exact_file = getattr(to_file, 'stream', to_file)
606
1349
        self.show_ids = show_ids
607
1350
        self.show_timezone = show_timezone
608
 
 
609
 
# TODO: uncomment this block after show() has been removed.
610
 
# Until then defining log_revision would prevent _show_log calling show() 
611
 
# in legacy formatters.
612
 
#    def log_revision(self, revision):
613
 
#        """Log a revision.
614
 
#
615
 
#        :param  revision:   The LogRevision to be logged.
616
 
#        """
617
 
#        raise NotImplementedError('not implemented in abstract base')
618
 
 
619
 
    @deprecated_method(zero_seventeen)
620
 
    def show(self, revno, rev, delta):
 
1351
        if delta_format is None:
 
1352
            # Ensures backward compatibility
 
1353
            delta_format = 2 # long format
 
1354
        self.delta_format = delta_format
 
1355
        self.levels = levels
 
1356
        self._show_advice = show_advice
 
1357
        self._merge_count = 0
 
1358
 
 
1359
    def get_levels(self):
 
1360
        """Get the number of levels to display or 0 for all."""
 
1361
        if getattr(self, 'supports_merge_revisions', False):
 
1362
            if self.levels is None or self.levels == -1:
 
1363
                self.levels = self.preferred_levels
 
1364
        else:
 
1365
            self.levels = 1
 
1366
        return self.levels
 
1367
 
 
1368
    def log_revision(self, revision):
 
1369
        """Log a revision.
 
1370
 
 
1371
        :param  revision:   The LogRevision to be logged.
 
1372
        """
621
1373
        raise NotImplementedError('not implemented in abstract base')
622
1374
 
 
1375
    def show_advice(self):
 
1376
        """Output user advice, if any, when the log is completed."""
 
1377
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
 
1378
            advice_sep = self.get_advice_separator()
 
1379
            if advice_sep:
 
1380
                self.to_file.write(advice_sep)
 
1381
            self.to_file.write(
 
1382
                "Use --include-merges or -n0 to see merged revisions.\n")
 
1383
 
 
1384
    def get_advice_separator(self):
 
1385
        """Get the text separating the log from the closing advice."""
 
1386
        return ''
 
1387
 
623
1388
    def short_committer(self, rev):
624
1389
        name, address = config.parse_username(rev.committer)
625
1390
        if name:
627
1392
        return address
628
1393
 
629
1394
    def short_author(self, rev):
630
 
        name, address = config.parse_username(rev.get_apparent_author())
 
1395
        name, address = config.parse_username(rev.get_apparent_authors()[0])
631
1396
        if name:
632
1397
            return name
633
1398
        return address
634
1399
 
 
1400
    def merge_marker(self, revision):
 
1401
        """Get the merge marker to include in the output or '' if none."""
 
1402
        if len(revision.rev.parent_ids) > 1:
 
1403
            self._merge_count += 1
 
1404
            return ' [merge]'
 
1405
        else:
 
1406
            return ''
 
1407
 
 
1408
    def show_properties(self, revision, indent):
 
1409
        """Displays the custom properties returned by each registered handler.
 
1410
 
 
1411
        If a registered handler raises an error it is propagated.
 
1412
        """
 
1413
        for line in self.custom_properties(revision):
 
1414
            self.to_file.write("%s%s\n" % (indent, line))
 
1415
 
 
1416
    def custom_properties(self, revision):
 
1417
        """Format the custom properties returned by each registered handler.
 
1418
 
 
1419
        If a registered handler raises an error it is propagated.
 
1420
 
 
1421
        :return: a list of formatted lines (excluding trailing newlines)
 
1422
        """
 
1423
        lines = self._foreign_info_properties(revision)
 
1424
        for key, handler in properties_handler_registry.iteritems():
 
1425
            lines.extend(self._format_properties(handler(revision)))
 
1426
        return lines
 
1427
 
 
1428
    def _foreign_info_properties(self, rev):
 
1429
        """Custom log displayer for foreign revision identifiers.
 
1430
 
 
1431
        :param rev: Revision object.
 
1432
        """
 
1433
        # Revision comes directly from a foreign repository
 
1434
        if isinstance(rev, foreign.ForeignRevision):
 
1435
            return self._format_properties(
 
1436
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
 
1437
 
 
1438
        # Imported foreign revision revision ids always contain :
 
1439
        if not ":" in rev.revision_id:
 
1440
            return []
 
1441
 
 
1442
        # Revision was once imported from a foreign repository
 
1443
        try:
 
1444
            foreign_revid, mapping = \
 
1445
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
 
1446
        except errors.InvalidRevisionId:
 
1447
            return []
 
1448
 
 
1449
        return self._format_properties(
 
1450
            mapping.vcs.show_foreign_revid(foreign_revid))
 
1451
 
 
1452
    def _format_properties(self, properties):
 
1453
        lines = []
 
1454
        for key, value in properties.items():
 
1455
            lines.append(key + ': ' + value)
 
1456
        return lines
 
1457
 
 
1458
    def show_diff(self, to_file, diff, indent):
 
1459
        for l in diff.rstrip().split('\n'):
 
1460
            to_file.write(indent + '%s\n' % (l,))
 
1461
 
 
1462
 
 
1463
# Separator between revisions in long format
 
1464
_LONG_SEP = '-' * 60
 
1465
 
635
1466
 
636
1467
class LongLogFormatter(LogFormatter):
637
1468
 
638
1469
    supports_merge_revisions = True
 
1470
    preferred_levels = 1
639
1471
    supports_delta = True
640
1472
    supports_tags = True
641
 
 
642
 
    @deprecated_method(zero_seventeen)
643
 
    def show(self, revno, rev, delta, tags=None):
644
 
        lr = LogRevision(rev, revno, 0, delta, tags)
645
 
        return self.log_revision(lr)
646
 
 
647
 
    @deprecated_method(zero_seventeen)
648
 
    def show_merge_revno(self, rev, merge_depth, revno, tags=None):
649
 
        """Show a merged revision rev, with merge_depth and a revno."""
650
 
        lr = LogRevision(rev, revno, merge_depth, tags=tags)
651
 
        return self.log_revision(lr)
 
1473
    supports_diff = True
 
1474
 
 
1475
    def __init__(self, *args, **kwargs):
 
1476
        super(LongLogFormatter, self).__init__(*args, **kwargs)
 
1477
        if self.show_timezone == 'original':
 
1478
            self.date_string = self._date_string_original_timezone
 
1479
        else:
 
1480
            self.date_string = self._date_string_with_timezone
 
1481
 
 
1482
    def _date_string_with_timezone(self, rev):
 
1483
        return format_date(rev.timestamp, rev.timezone or 0,
 
1484
                           self.show_timezone)
 
1485
 
 
1486
    def _date_string_original_timezone(self, rev):
 
1487
        return format_date_with_offset_in_original_timezone(rev.timestamp,
 
1488
            rev.timezone or 0)
652
1489
 
653
1490
    def log_revision(self, revision):
654
1491
        """Log a revision, either merged or not."""
655
1492
        indent = '    ' * revision.merge_depth
656
 
        to_file = self.to_file
657
 
        to_file.write(indent + '-' * 60 + '\n')
 
1493
        lines = [_LONG_SEP]
658
1494
        if revision.revno is not None:
659
 
            to_file.write(indent + 'revno: %s\n' % (revision.revno,))
 
1495
            lines.append('revno: %s%s' % (revision.revno,
 
1496
                self.merge_marker(revision)))
660
1497
        if revision.tags:
661
 
            to_file.write(indent + 'tags: %s\n' % (', '.join(revision.tags)))
 
1498
            lines.append('tags: %s' % (', '.join(revision.tags)))
662
1499
        if self.show_ids:
663
 
            to_file.write(indent + 'revision-id:' + revision.rev.revision_id)
664
 
            to_file.write('\n')
 
1500
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
665
1501
            for parent_id in revision.rev.parent_ids:
666
 
                to_file.write(indent + 'parent: %s\n' % (parent_id,))
 
1502
                lines.append('parent: %s' % (parent_id,))
 
1503
        lines.extend(self.custom_properties(revision.rev))
667
1504
 
668
 
        author = revision.rev.properties.get('author', None)
669
 
        if author is not None:
670
 
            to_file.write(indent + 'author: %s\n' % (author,))
671
 
        to_file.write(indent + 'committer: %s\n' % (revision.rev.committer,))
 
1505
        committer = revision.rev.committer
 
1506
        authors = revision.rev.get_apparent_authors()
 
1507
        if authors != [committer]:
 
1508
            lines.append('author: %s' % (", ".join(authors),))
 
1509
        lines.append('committer: %s' % (committer,))
672
1510
 
673
1511
        branch_nick = revision.rev.properties.get('branch-nick', None)
674
1512
        if branch_nick is not None:
675
 
            to_file.write(indent + 'branch nick: %s\n' % (branch_nick,))
676
 
 
677
 
        date_str = format_date(revision.rev.timestamp,
678
 
                               revision.rev.timezone or 0,
679
 
                               self.show_timezone)
680
 
        to_file.write(indent + 'timestamp: %s\n' % (date_str,))
681
 
 
682
 
        to_file.write(indent + 'message:\n')
 
1513
            lines.append('branch nick: %s' % (branch_nick,))
 
1514
 
 
1515
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
 
1516
 
 
1517
        lines.append('message:')
683
1518
        if not revision.rev.message:
684
 
            to_file.write(indent + '  (no message)\n')
 
1519
            lines.append('  (no message)')
685
1520
        else:
686
1521
            message = revision.rev.message.rstrip('\r\n')
687
1522
            for l in message.split('\n'):
688
 
                to_file.write(indent + '  %s\n' % (l,))
 
1523
                lines.append('  %s' % (l,))
 
1524
 
 
1525
        # Dump the output, appending the delta and diff if requested
 
1526
        to_file = self.to_file
 
1527
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
689
1528
        if revision.delta is not None:
690
 
            revision.delta.show(to_file, self.show_ids, indent=indent)
 
1529
            # Use the standard status output to display changes
 
1530
            from bzrlib.delta import report_delta
 
1531
            report_delta(to_file, revision.delta, short_status=False, 
 
1532
                         show_ids=self.show_ids, indent=indent)
 
1533
        if revision.diff is not None:
 
1534
            to_file.write(indent + 'diff:\n')
 
1535
            to_file.flush()
 
1536
            # Note: we explicitly don't indent the diff (relative to the
 
1537
            # revision information) so that the output can be fed to patch -p0
 
1538
            self.show_diff(self.to_exact_file, revision.diff, indent)
 
1539
            self.to_exact_file.flush()
 
1540
 
 
1541
    def get_advice_separator(self):
 
1542
        """Get the text separating the log from the closing advice."""
 
1543
        return '-' * 60 + '\n'
691
1544
 
692
1545
 
693
1546
class ShortLogFormatter(LogFormatter):
694
1547
 
 
1548
    supports_merge_revisions = True
 
1549
    preferred_levels = 1
695
1550
    supports_delta = True
696
 
    supports_single_merge_revision = True
 
1551
    supports_tags = True
 
1552
    supports_diff = True
697
1553
 
698
 
    @deprecated_method(zero_seventeen)
699
 
    def show(self, revno, rev, delta):
700
 
        lr = LogRevision(rev, revno, 0, delta)
701
 
        return self.log_revision(lr)
 
1554
    def __init__(self, *args, **kwargs):
 
1555
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
 
1556
        self.revno_width_by_depth = {}
702
1557
 
703
1558
    def log_revision(self, revision):
 
1559
        # We need two indents: one per depth and one for the information
 
1560
        # relative to that indent. Most mainline revnos are 5 chars or
 
1561
        # less while dotted revnos are typically 11 chars or less. Once
 
1562
        # calculated, we need to remember the offset for a given depth
 
1563
        # as we might be starting from a dotted revno in the first column
 
1564
        # and we want subsequent mainline revisions to line up.
 
1565
        depth = revision.merge_depth
 
1566
        indent = '    ' * depth
 
1567
        revno_width = self.revno_width_by_depth.get(depth)
 
1568
        if revno_width is None:
 
1569
            if revision.revno.find('.') == -1:
 
1570
                # mainline revno, e.g. 12345
 
1571
                revno_width = 5
 
1572
            else:
 
1573
                # dotted revno, e.g. 12345.10.55
 
1574
                revno_width = 11
 
1575
            self.revno_width_by_depth[depth] = revno_width
 
1576
        offset = ' ' * (revno_width + 1)
 
1577
 
704
1578
        to_file = self.to_file
705
 
        date_str = format_date(revision.rev.timestamp,
706
 
                               revision.rev.timezone or 0,
707
 
                               self.show_timezone)
708
 
        is_merge = ''
709
 
        if len(revision.rev.parent_ids) > 1:
710
 
            is_merge = ' [merge]'
711
 
        to_file.write("%5s %s\t%s%s\n" % (revision.revno,
712
 
                self.short_author(revision.rev),
 
1579
        tags = ''
 
1580
        if revision.tags:
 
1581
            tags = ' {%s}' % (', '.join(revision.tags))
 
1582
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
 
1583
                revision.revno, self.short_author(revision.rev),
713
1584
                format_date(revision.rev.timestamp,
714
1585
                            revision.rev.timezone or 0,
715
1586
                            self.show_timezone, date_fmt="%Y-%m-%d",
716
1587
                            show_offset=False),
717
 
                is_merge))
 
1588
                tags, self.merge_marker(revision)))
 
1589
        self.show_properties(revision.rev, indent+offset)
718
1590
        if self.show_ids:
719
 
            to_file.write('      revision-id:%s\n' % (revision.rev.revision_id,))
 
1591
            to_file.write(indent + offset + 'revision-id:%s\n'
 
1592
                          % (revision.rev.revision_id,))
720
1593
        if not revision.rev.message:
721
 
            to_file.write('      (no message)\n')
 
1594
            to_file.write(indent + offset + '(no message)\n')
722
1595
        else:
723
1596
            message = revision.rev.message.rstrip('\r\n')
724
1597
            for l in message.split('\n'):
725
 
                to_file.write('      %s\n' % (l,))
 
1598
                to_file.write(indent + offset + '%s\n' % (l,))
726
1599
 
727
 
        # TODO: Why not show the modified files in a shorter form as
728
 
        # well? rewrap them single lines of appropriate length
729
1600
        if revision.delta is not None:
730
 
            revision.delta.show(to_file, self.show_ids)
 
1601
            # Use the standard status output to display changes
 
1602
            from bzrlib.delta import report_delta
 
1603
            report_delta(to_file, revision.delta, 
 
1604
                         short_status=self.delta_format==1, 
 
1605
                         show_ids=self.show_ids, indent=indent + offset)
 
1606
        if revision.diff is not None:
 
1607
            self.show_diff(self.to_exact_file, revision.diff, '      ')
731
1608
        to_file.write('\n')
732
1609
 
733
1610
 
734
1611
class LineLogFormatter(LogFormatter):
735
1612
 
736
 
    supports_single_merge_revision = True
 
1613
    supports_merge_revisions = True
 
1614
    preferred_levels = 1
 
1615
    supports_tags = True
737
1616
 
738
1617
    def __init__(self, *args, **kwargs):
739
1618
        super(LineLogFormatter, self).__init__(*args, **kwargs)
740
 
        self._max_chars = terminal_width() - 1
 
1619
        width = terminal_width()
 
1620
        if width is not None:
 
1621
            # we need one extra space for terminals that wrap on last char
 
1622
            width = width - 1
 
1623
        self._max_chars = width
741
1624
 
742
1625
    def truncate(self, str, max_len):
743
 
        if len(str) <= max_len:
 
1626
        if max_len is None or len(str) <= max_len:
744
1627
            return str
745
 
        return str[:max_len-3]+'...'
 
1628
        return str[:max_len-3] + '...'
746
1629
 
747
1630
    def date_string(self, rev):
748
 
        return format_date(rev.timestamp, rev.timezone or 0, 
 
1631
        return format_date(rev.timestamp, rev.timezone or 0,
749
1632
                           self.show_timezone, date_fmt="%Y-%m-%d",
750
1633
                           show_offset=False)
751
1634
 
755
1638
        else:
756
1639
            return rev.message
757
1640
 
758
 
    @deprecated_method(zero_seventeen)
759
 
    def show(self, revno, rev, delta):
760
 
        self.to_file.write(self.log_string(revno, rev, terminal_width()-1))
761
 
        self.to_file.write('\n')
762
 
 
763
1641
    def log_revision(self, revision):
 
1642
        indent = '  ' * revision.merge_depth
764
1643
        self.to_file.write(self.log_string(revision.revno, revision.rev,
765
 
                                              self._max_chars))
 
1644
            self._max_chars, revision.tags, indent))
766
1645
        self.to_file.write('\n')
767
1646
 
768
 
    def log_string(self, revno, rev, max_chars):
 
1647
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
769
1648
        """Format log info into one string. Truncate tail of string
770
 
        :param  revno:      revision number (int) or None.
 
1649
        :param  revno:      revision number or None.
771
1650
                            Revision numbers counts from 1.
772
 
        :param  rev:        revision info object
 
1651
        :param  rev:        revision object
773
1652
        :param  max_chars:  maximum length of resulting string
 
1653
        :param  tags:       list of tags or None
 
1654
        :param  prefix:     string to prefix each line
774
1655
        :return:            formatted truncated string
775
1656
        """
776
1657
        out = []
779
1660
            out.append("%s:" % revno)
780
1661
        out.append(self.truncate(self.short_author(rev), 20))
781
1662
        out.append(self.date_string(rev))
 
1663
        if len(rev.parent_ids) > 1:
 
1664
            out.append('[merge]')
 
1665
        if tags:
 
1666
            tag_str = '{%s}' % (', '.join(tags))
 
1667
            out.append(tag_str)
782
1668
        out.append(rev.get_summary())
783
 
        return self.truncate(" ".join(out).rstrip('\n'), max_chars)
 
1669
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
 
1670
 
 
1671
 
 
1672
class GnuChangelogLogFormatter(LogFormatter):
 
1673
 
 
1674
    supports_merge_revisions = True
 
1675
    supports_delta = True
 
1676
 
 
1677
    def log_revision(self, revision):
 
1678
        """Log a revision, either merged or not."""
 
1679
        to_file = self.to_file
 
1680
 
 
1681
        date_str = format_date(revision.rev.timestamp,
 
1682
                               revision.rev.timezone or 0,
 
1683
                               self.show_timezone,
 
1684
                               date_fmt='%Y-%m-%d',
 
1685
                               show_offset=False)
 
1686
        committer_str = revision.rev.get_apparent_authors()[0].replace (' <', '  <')
 
1687
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
 
1688
 
 
1689
        if revision.delta is not None and revision.delta.has_changed():
 
1690
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
 
1691
                path, = c[:1]
 
1692
                to_file.write('\t* %s:\n' % (path,))
 
1693
            for c in revision.delta.renamed:
 
1694
                oldpath,newpath = c[:2]
 
1695
                # For renamed files, show both the old and the new path
 
1696
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
 
1697
            to_file.write('\n')
 
1698
 
 
1699
        if not revision.rev.message:
 
1700
            to_file.write('\tNo commit message\n')
 
1701
        else:
 
1702
            message = revision.rev.message.rstrip('\r\n')
 
1703
            for l in message.split('\n'):
 
1704
                to_file.write('\t%s\n' % (l.lstrip(),))
 
1705
            to_file.write('\n')
784
1706
 
785
1707
 
786
1708
def line_log(rev, max_chars):
812
1734
                                'Detailed log format')
813
1735
log_formatter_registry.register('line', LineLogFormatter,
814
1736
                                'Log format with one line per revision')
 
1737
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
 
1738
                                'Format used by GNU ChangeLog files')
815
1739
 
816
1740
 
817
1741
def register_formatter(name, formatter):
827
1751
    try:
828
1752
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
829
1753
    except KeyError:
830
 
        raise BzrCommandError("unknown log formatter: %r" % name)
 
1754
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
831
1755
 
832
1756
 
833
1757
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
890
1814
                 end_revision=len(new_rh),
891
1815
                 search=None)
892
1816
 
 
1817
 
 
1818
def get_history_change(old_revision_id, new_revision_id, repository):
 
1819
    """Calculate the uncommon lefthand history between two revisions.
 
1820
 
 
1821
    :param old_revision_id: The original revision id.
 
1822
    :param new_revision_id: The new revision id.
 
1823
    :param repository: The repository to use for the calculation.
 
1824
 
 
1825
    return old_history, new_history
 
1826
    """
 
1827
    old_history = []
 
1828
    old_revisions = set()
 
1829
    new_history = []
 
1830
    new_revisions = set()
 
1831
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
 
1832
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
 
1833
    stop_revision = None
 
1834
    do_old = True
 
1835
    do_new = True
 
1836
    while do_new or do_old:
 
1837
        if do_new:
 
1838
            try:
 
1839
                new_revision = new_iter.next()
 
1840
            except StopIteration:
 
1841
                do_new = False
 
1842
            else:
 
1843
                new_history.append(new_revision)
 
1844
                new_revisions.add(new_revision)
 
1845
                if new_revision in old_revisions:
 
1846
                    stop_revision = new_revision
 
1847
                    break
 
1848
        if do_old:
 
1849
            try:
 
1850
                old_revision = old_iter.next()
 
1851
            except StopIteration:
 
1852
                do_old = False
 
1853
            else:
 
1854
                old_history.append(old_revision)
 
1855
                old_revisions.add(old_revision)
 
1856
                if old_revision in new_revisions:
 
1857
                    stop_revision = old_revision
 
1858
                    break
 
1859
    new_history.reverse()
 
1860
    old_history.reverse()
 
1861
    if stop_revision is not None:
 
1862
        new_history = new_history[new_history.index(stop_revision) + 1:]
 
1863
        old_history = old_history[old_history.index(stop_revision) + 1:]
 
1864
    return old_history, new_history
 
1865
 
 
1866
 
 
1867
def show_branch_change(branch, output, old_revno, old_revision_id):
 
1868
    """Show the changes made to a branch.
 
1869
 
 
1870
    :param branch: The branch to show changes about.
 
1871
    :param output: A file-like object to write changes to.
 
1872
    :param old_revno: The revno of the old tip.
 
1873
    :param old_revision_id: The revision_id of the old tip.
 
1874
    """
 
1875
    new_revno, new_revision_id = branch.last_revision_info()
 
1876
    old_history, new_history = get_history_change(old_revision_id,
 
1877
                                                  new_revision_id,
 
1878
                                                  branch.repository)
 
1879
    if old_history == [] and new_history == []:
 
1880
        output.write('Nothing seems to have changed\n')
 
1881
        return
 
1882
 
 
1883
    log_format = log_formatter_registry.get_default(branch)
 
1884
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
 
1885
    if old_history != []:
 
1886
        output.write('*'*60)
 
1887
        output.write('\nRemoved Revisions:\n')
 
1888
        show_flat_log(branch.repository, old_history, old_revno, lf)
 
1889
        output.write('*'*60)
 
1890
        output.write('\n\n')
 
1891
    if new_history != []:
 
1892
        output.write('Added Revisions:\n')
 
1893
        start_revno = new_revno - len(new_history) + 1
 
1894
        show_log(branch, lf, None, verbose=False, direction='forward',
 
1895
                 start_revision=start_revno,)
 
1896
 
 
1897
 
 
1898
def show_flat_log(repository, history, last_revno, lf):
 
1899
    """Show a simple log of the specified history.
 
1900
 
 
1901
    :param repository: The repository to retrieve revisions from.
 
1902
    :param history: A list of revision_ids indicating the lefthand history.
 
1903
    :param last_revno: The revno of the last revision_id in the history.
 
1904
    :param lf: The log formatter to use.
 
1905
    """
 
1906
    start_revno = last_revno - len(history) + 1
 
1907
    revisions = repository.get_revisions(history)
 
1908
    for i, rev in enumerate(revisions):
 
1909
        lr = LogRevision(rev, i + last_revno, 0, None)
 
1910
        lf.log_revision(lr)
 
1911
 
 
1912
 
 
1913
def _get_info_for_log_files(revisionspec_list, file_list):
 
1914
    """Find file-ids and kinds given a list of files and a revision range.
 
1915
 
 
1916
    We search for files at the end of the range. If not found there,
 
1917
    we try the start of the range.
 
1918
 
 
1919
    :param revisionspec_list: revision range as parsed on the command line
 
1920
    :param file_list: the list of paths given on the command line;
 
1921
      the first of these can be a branch location or a file path,
 
1922
      the remainder must be file paths
 
1923
    :return: (branch, info_list, start_rev_info, end_rev_info) where
 
1924
      info_list is a list of (relative_path, file_id, kind) tuples where
 
1925
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
 
1926
      branch will be read-locked.
 
1927
    """
 
1928
    from builtins import _get_revision_range, safe_relpath_files
 
1929
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
 
1930
    b.lock_read()
 
1931
    # XXX: It's damn messy converting a list of paths to relative paths when
 
1932
    # those paths might be deleted ones, they might be on a case-insensitive
 
1933
    # filesystem and/or they might be in silly locations (like another branch).
 
1934
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
 
1935
    # file2 implicitly in the same dir as file1 or should its directory be
 
1936
    # taken from the current tree somehow?) For now, this solves the common
 
1937
    # case of running log in a nested directory, assuming paths beyond the
 
1938
    # first one haven't been deleted ...
 
1939
    if tree:
 
1940
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
 
1941
    else:
 
1942
        relpaths = [path] + file_list[1:]
 
1943
    info_list = []
 
1944
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
 
1945
        "log")
 
1946
    if relpaths in ([], [u'']):
 
1947
        return b, [], start_rev_info, end_rev_info
 
1948
    if start_rev_info is None and end_rev_info is None:
 
1949
        if tree is None:
 
1950
            tree = b.basis_tree()
 
1951
        tree1 = None
 
1952
        for fp in relpaths:
 
1953
            file_id = tree.path2id(fp)
 
1954
            kind = _get_kind_for_file_id(tree, file_id)
 
1955
            if file_id is None:
 
1956
                # go back to when time began
 
1957
                if tree1 is None:
 
1958
                    try:
 
1959
                        rev1 = b.get_rev_id(1)
 
1960
                    except errors.NoSuchRevision:
 
1961
                        # No history at all
 
1962
                        file_id = None
 
1963
                        kind = None
 
1964
                    else:
 
1965
                        tree1 = b.repository.revision_tree(rev1)
 
1966
                if tree1:
 
1967
                    file_id = tree1.path2id(fp)
 
1968
                    kind = _get_kind_for_file_id(tree1, file_id)
 
1969
            info_list.append((fp, file_id, kind))
 
1970
 
 
1971
    elif start_rev_info == end_rev_info:
 
1972
        # One revision given - file must exist in it
 
1973
        tree = b.repository.revision_tree(end_rev_info.rev_id)
 
1974
        for fp in relpaths:
 
1975
            file_id = tree.path2id(fp)
 
1976
            kind = _get_kind_for_file_id(tree, file_id)
 
1977
            info_list.append((fp, file_id, kind))
 
1978
 
 
1979
    else:
 
1980
        # Revision range given. Get the file-id from the end tree.
 
1981
        # If that fails, try the start tree.
 
1982
        rev_id = end_rev_info.rev_id
 
1983
        if rev_id is None:
 
1984
            tree = b.basis_tree()
 
1985
        else:
 
1986
            tree = b.repository.revision_tree(rev_id)
 
1987
        tree1 = None
 
1988
        for fp in relpaths:
 
1989
            file_id = tree.path2id(fp)
 
1990
            kind = _get_kind_for_file_id(tree, file_id)
 
1991
            if file_id is None:
 
1992
                if tree1 is None:
 
1993
                    rev_id = start_rev_info.rev_id
 
1994
                    if rev_id is None:
 
1995
                        rev1 = b.get_rev_id(1)
 
1996
                        tree1 = b.repository.revision_tree(rev1)
 
1997
                    else:
 
1998
                        tree1 = b.repository.revision_tree(rev_id)
 
1999
                file_id = tree1.path2id(fp)
 
2000
                kind = _get_kind_for_file_id(tree1, file_id)
 
2001
            info_list.append((fp, file_id, kind))
 
2002
    return b, info_list, start_rev_info, end_rev_info
 
2003
 
 
2004
 
 
2005
def _get_kind_for_file_id(tree, file_id):
 
2006
    """Return the kind of a file-id or None if it doesn't exist."""
 
2007
    if file_id is not None:
 
2008
        return tree.kind(file_id)
 
2009
    else:
 
2010
        return None
 
2011
 
 
2012
 
 
2013
properties_handler_registry = registry.Registry()
 
2014
 
 
2015
# Use the properties handlers to print out bug information if available
 
2016
def _bugs_properties_handler(revision):
 
2017
    if revision.properties.has_key('bugs'):
 
2018
        bug_lines = revision.properties['bugs'].split('\n')
 
2019
        bug_rows = [line.split(' ', 1) for line in bug_lines]
 
2020
        fixed_bug_urls = [row[0] for row in bug_rows if
 
2021
                          len(row) > 1 and row[1] == 'fixed']
 
2022
 
 
2023
        if fixed_bug_urls:
 
2024
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
 
2025
    return {}
 
2026
 
 
2027
properties_handler_registry.register('bugs_properties_handler',
 
2028
                                     _bugs_properties_handler)
 
2029
 
 
2030
 
 
2031
# adapters which revision ids to log are filtered. When log is called, the
 
2032
# log_rev_iterator is adapted through each of these factory methods.
 
2033
# Plugins are welcome to mutate this list in any way they like - as long
 
2034
# as the overall behaviour is preserved. At this point there is no extensible
 
2035
# mechanism for getting parameters to each factory method, and until there is
 
2036
# this won't be considered a stable api.
 
2037
log_adapters = [
 
2038
    # core log logic
 
2039
    _make_batch_filter,
 
2040
    # read revision objects
 
2041
    _make_revision_objects,
 
2042
    # filter on log messages
 
2043
    _make_search_filter,
 
2044
    # generate deltas for things we will show
 
2045
    _make_delta_filter
 
2046
    ]