~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Robert Collins
  • Date: 2010-05-06 23:54:05 UTC
  • mto: This revision was merged to the branch mainline in revision 5223.
  • Revision ID: robertc@robertcollins.net-20100506235405-wii4elupfhzl3jvy
Add __str__ to the new helper classes.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
 
1
# Copyright (C) 2005-2010 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
17
 
18
18
 
50
50
"""
51
51
 
52
52
import codecs
 
53
from cStringIO import StringIO
53
54
from itertools import (
 
55
    chain,
54
56
    izip,
55
57
    )
56
58
import re
59
61
    warn,
60
62
    )
61
63
 
 
64
from bzrlib.lazy_import import lazy_import
 
65
lazy_import(globals(), """
 
66
 
62
67
from bzrlib import (
 
68
    bzrdir,
63
69
    config,
64
 
    lazy_regex,
 
70
    diff,
 
71
    errors,
 
72
    foreign,
 
73
    repository as _mod_repository,
 
74
    revision as _mod_revision,
 
75
    revisionspec,
 
76
    trace,
 
77
    tsort,
 
78
    )
 
79
""")
 
80
 
 
81
from bzrlib import (
65
82
    registry,
66
83
    )
67
 
from bzrlib.errors import (
68
 
    BzrCommandError,
69
 
    )
70
84
from bzrlib.osutils import (
71
85
    format_date,
 
86
    format_date_with_offset_in_original_timezone,
72
87
    get_terminal_encoding,
 
88
    re_compile_checked,
73
89
    terminal_width,
74
90
    )
75
 
from bzrlib.repository import _strip_NULL_ghosts
76
 
from bzrlib.revision import (
77
 
    NULL_REVISION,
78
 
    )
79
 
from bzrlib.revisionspec import (
80
 
    RevisionInfo,
81
 
    )
82
 
from bzrlib.trace import mutter
83
 
from bzrlib.tsort import (
84
 
    merge_sort,
85
 
    topo_sort,
 
91
from bzrlib.symbol_versioning import (
 
92
    deprecated_function,
 
93
    deprecated_in,
86
94
    )
87
95
 
88
96
 
101
109
    last_path = None
102
110
    revno = 1
103
111
    for revision_id in branch.revision_history():
104
 
        this_inv = branch.repository.get_revision_inventory(revision_id)
 
112
        this_inv = branch.repository.get_inventory(revision_id)
105
113
        if file_id in this_inv:
106
114
            this_ie = this_inv[file_id]
107
115
            this_path = this_inv.id2path(file_id)
147
155
             start_revision=None,
148
156
             end_revision=None,
149
157
             search=None,
150
 
             limit=None):
 
158
             limit=None,
 
159
             show_diff=False):
151
160
    """Write out human-readable log of commits to this branch.
152
161
 
153
 
    lf
154
 
        LogFormatter object to show the output.
155
 
 
156
 
    specific_fileid
157
 
        If true, list only the commits affecting the specified
158
 
        file, rather than all commits.
159
 
 
160
 
    verbose
161
 
        If true show added/changed/deleted/renamed files.
162
 
 
163
 
    direction
164
 
        'reverse' (default) is latest to earliest;
165
 
        'forward' is earliest to latest.
166
 
 
167
 
    start_revision
168
 
        If not None, only show revisions >= start_revision
169
 
 
170
 
    end_revision
171
 
        If not None, only show revisions <= end_revision
172
 
 
173
 
    search
174
 
        If not None, only show revisions with matching commit messages
175
 
 
176
 
    limit
177
 
        If not None or 0, only show limit revisions
178
 
    """
179
 
    branch.lock_read()
180
 
    try:
181
 
        if getattr(lf, 'begin_log', None):
182
 
            lf.begin_log()
183
 
 
184
 
        _show_log(branch, lf, specific_fileid, verbose, direction,
185
 
                  start_revision, end_revision, search, limit)
186
 
 
187
 
        if getattr(lf, 'end_log', None):
188
 
            lf.end_log()
189
 
    finally:
190
 
        branch.unlock()
191
 
 
192
 
 
193
 
def _show_log(branch,
194
 
             lf,
195
 
             specific_fileid=None,
196
 
             verbose=False,
197
 
             direction='reverse',
198
 
             start_revision=None,
199
 
             end_revision=None,
200
 
             search=None,
201
 
             limit=None):
202
 
    """Worker function for show_log - see show_log."""
203
 
    if not isinstance(lf, LogFormatter):
204
 
        warn("not a LogFormatter instance: %r" % lf)
205
 
 
206
 
    if specific_fileid:
207
 
        mutter('get log for file_id %r', specific_fileid)
208
 
    generate_merge_revisions = getattr(lf, 'supports_merge_revisions', False)
209
 
    allow_single_merge_revision = getattr(lf,
210
 
        'supports_single_merge_revision', False)
211
 
    view_revisions = calculate_view_revisions(branch, start_revision,
212
 
                                              end_revision, direction,
213
 
                                              specific_fileid,
214
 
                                              generate_merge_revisions,
215
 
                                              allow_single_merge_revision)
216
 
    if search is not None:
217
 
        searchRE = re.compile(search, re.IGNORECASE)
218
 
    else:
219
 
        searchRE = None
220
 
 
221
 
    rev_tag_dict = {}
222
 
    generate_tags = getattr(lf, 'supports_tags', False)
223
 
    if generate_tags:
224
 
        if branch.supports_tags():
225
 
            rev_tag_dict = branch.tags.get_reverse_tag_dict()
226
 
 
227
 
    generate_delta = verbose and getattr(lf, 'supports_delta', False)
228
 
 
229
 
    # now we just print all the revisions
230
 
    log_count = 0
231
 
    for (rev_id, revno, merge_depth), rev, delta in _iter_revisions(
232
 
        branch.repository, view_revisions, generate_delta):
233
 
        if searchRE:
234
 
            if not searchRE.search(rev.message):
235
 
                continue
236
 
 
237
 
        lr = LogRevision(rev, revno, merge_depth, delta,
238
 
                         rev_tag_dict.get(rev_id))
239
 
        lf.log_revision(lr)
240
 
        if limit:
241
 
            log_count += 1
242
 
            if log_count >= limit:
 
162
    This function is being retained for backwards compatibility but
 
163
    should not be extended with new parameters. Use the new Logger class
 
164
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
 
165
    make_log_request_dict function.
 
166
 
 
167
    :param lf: The LogFormatter object showing the output.
 
168
 
 
169
    :param specific_fileid: If not None, list only the commits affecting the
 
170
        specified file, rather than all commits.
 
171
 
 
172
    :param verbose: If True show added/changed/deleted/renamed files.
 
173
 
 
174
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
 
175
        earliest to latest.
 
176
 
 
177
    :param start_revision: If not None, only show revisions >= start_revision
 
178
 
 
179
    :param end_revision: If not None, only show revisions <= end_revision
 
180
 
 
181
    :param search: If not None, only show revisions with matching commit
 
182
        messages
 
183
 
 
184
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
 
185
        if None or 0.
 
186
 
 
187
    :param show_diff: If True, output a diff after each revision.
 
188
    """
 
189
    # Convert old-style parameters to new-style parameters
 
190
    if specific_fileid is not None:
 
191
        file_ids = [specific_fileid]
 
192
    else:
 
193
        file_ids = None
 
194
    if verbose:
 
195
        if file_ids:
 
196
            delta_type = 'partial'
 
197
        else:
 
198
            delta_type = 'full'
 
199
    else:
 
200
        delta_type = None
 
201
    if show_diff:
 
202
        if file_ids:
 
203
            diff_type = 'partial'
 
204
        else:
 
205
            diff_type = 'full'
 
206
    else:
 
207
        diff_type = None
 
208
 
 
209
    # Build the request and execute it
 
210
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
 
211
        start_revision=start_revision, end_revision=end_revision,
 
212
        limit=limit, message_search=search,
 
213
        delta_type=delta_type, diff_type=diff_type)
 
214
    Logger(branch, rqst).show(lf)
 
215
 
 
216
 
 
217
# Note: This needs to be kept this in sync with the defaults in
 
218
# make_log_request_dict() below
 
219
_DEFAULT_REQUEST_PARAMS = {
 
220
    'direction': 'reverse',
 
221
    'levels': 1,
 
222
    'generate_tags': True,
 
223
    'exclude_common_ancestry': False,
 
224
    '_match_using_deltas': True,
 
225
    }
 
226
 
 
227
 
 
228
def make_log_request_dict(direction='reverse', specific_fileids=None,
 
229
                          start_revision=None, end_revision=None, limit=None,
 
230
                          message_search=None, levels=1, generate_tags=True,
 
231
                          delta_type=None,
 
232
                          diff_type=None, _match_using_deltas=True,
 
233
                          exclude_common_ancestry=False,
 
234
                          ):
 
235
    """Convenience function for making a logging request dictionary.
 
236
 
 
237
    Using this function may make code slightly safer by ensuring
 
238
    parameters have the correct names. It also provides a reference
 
239
    point for documenting the supported parameters.
 
240
 
 
241
    :param direction: 'reverse' (default) is latest to earliest;
 
242
      'forward' is earliest to latest.
 
243
 
 
244
    :param specific_fileids: If not None, only include revisions
 
245
      affecting the specified files, rather than all revisions.
 
246
 
 
247
    :param start_revision: If not None, only generate
 
248
      revisions >= start_revision
 
249
 
 
250
    :param end_revision: If not None, only generate
 
251
      revisions <= end_revision
 
252
 
 
253
    :param limit: If set, generate only 'limit' revisions, all revisions
 
254
      are shown if None or 0.
 
255
 
 
256
    :param message_search: If not None, only include revisions with
 
257
      matching commit messages
 
258
 
 
259
    :param levels: the number of levels of revisions to
 
260
      generate; 1 for just the mainline; 0 for all levels.
 
261
 
 
262
    :param generate_tags: If True, include tags for matched revisions.
 
263
 
 
264
    :param delta_type: Either 'full', 'partial' or None.
 
265
      'full' means generate the complete delta - adds/deletes/modifies/etc;
 
266
      'partial' means filter the delta using specific_fileids;
 
267
      None means do not generate any delta.
 
268
 
 
269
    :param diff_type: Either 'full', 'partial' or None.
 
270
      'full' means generate the complete diff - adds/deletes/modifies/etc;
 
271
      'partial' means filter the diff using specific_fileids;
 
272
      None means do not generate any diff.
 
273
 
 
274
    :param _match_using_deltas: a private parameter controlling the
 
275
      algorithm used for matching specific_fileids. This parameter
 
276
      may be removed in the future so bzrlib client code should NOT
 
277
      use it.
 
278
 
 
279
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
 
280
      range operator or as a graph difference.
 
281
    """
 
282
    return {
 
283
        'direction': direction,
 
284
        'specific_fileids': specific_fileids,
 
285
        'start_revision': start_revision,
 
286
        'end_revision': end_revision,
 
287
        'limit': limit,
 
288
        'message_search': message_search,
 
289
        'levels': levels,
 
290
        'generate_tags': generate_tags,
 
291
        'delta_type': delta_type,
 
292
        'diff_type': diff_type,
 
293
        'exclude_common_ancestry': exclude_common_ancestry,
 
294
        # Add 'private' attributes for features that may be deprecated
 
295
        '_match_using_deltas': _match_using_deltas,
 
296
    }
 
297
 
 
298
 
 
299
def _apply_log_request_defaults(rqst):
 
300
    """Apply default values to a request dictionary."""
 
301
    result = _DEFAULT_REQUEST_PARAMS
 
302
    if rqst:
 
303
        result.update(rqst)
 
304
    return result
 
305
 
 
306
 
 
307
class LogGenerator(object):
 
308
    """A generator of log revisions."""
 
309
 
 
310
    def iter_log_revisions(self):
 
311
        """Iterate over LogRevision objects.
 
312
 
 
313
        :return: An iterator yielding LogRevision objects.
 
314
        """
 
315
        raise NotImplementedError(self.iter_log_revisions)
 
316
 
 
317
 
 
318
class Logger(object):
 
319
    """An object that generates, formats and displays a log."""
 
320
 
 
321
    def __init__(self, branch, rqst):
 
322
        """Create a Logger.
 
323
 
 
324
        :param branch: the branch to log
 
325
        :param rqst: A dictionary specifying the query parameters.
 
326
          See make_log_request_dict() for supported values.
 
327
        """
 
328
        self.branch = branch
 
329
        self.rqst = _apply_log_request_defaults(rqst)
 
330
 
 
331
    def show(self, lf):
 
332
        """Display the log.
 
333
 
 
334
        :param lf: The LogFormatter object to send the output to.
 
335
        """
 
336
        if not isinstance(lf, LogFormatter):
 
337
            warn("not a LogFormatter instance: %r" % lf)
 
338
 
 
339
        self.branch.lock_read()
 
340
        try:
 
341
            if getattr(lf, 'begin_log', None):
 
342
                lf.begin_log()
 
343
            self._show_body(lf)
 
344
            if getattr(lf, 'end_log', None):
 
345
                lf.end_log()
 
346
        finally:
 
347
            self.branch.unlock()
 
348
 
 
349
    def _show_body(self, lf):
 
350
        """Show the main log output.
 
351
 
 
352
        Subclasses may wish to override this.
 
353
        """
 
354
        # Tweak the LogRequest based on what the LogFormatter can handle.
 
355
        # (There's no point generating stuff if the formatter can't display it.)
 
356
        rqst = self.rqst
 
357
        rqst['levels'] = lf.get_levels()
 
358
        if not getattr(lf, 'supports_tags', False):
 
359
            rqst['generate_tags'] = False
 
360
        if not getattr(lf, 'supports_delta', False):
 
361
            rqst['delta_type'] = None
 
362
        if not getattr(lf, 'supports_diff', False):
 
363
            rqst['diff_type'] = None
 
364
 
 
365
        # Find and print the interesting revisions
 
366
        generator = self._generator_factory(self.branch, rqst)
 
367
        for lr in generator.iter_log_revisions():
 
368
            lf.log_revision(lr)
 
369
        lf.show_advice()
 
370
 
 
371
    def _generator_factory(self, branch, rqst):
 
372
        """Make the LogGenerator object to use.
 
373
        
 
374
        Subclasses may wish to override this.
 
375
        """
 
376
        return _DefaultLogGenerator(branch, rqst)
 
377
 
 
378
 
 
379
class _StartNotLinearAncestor(Exception):
 
380
    """Raised when a start revision is not found walking left-hand history."""
 
381
 
 
382
 
 
383
class _DefaultLogGenerator(LogGenerator):
 
384
    """The default generator of log revisions."""
 
385
 
 
386
    def __init__(self, branch, rqst):
 
387
        self.branch = branch
 
388
        self.rqst = rqst
 
389
        if rqst.get('generate_tags') and branch.supports_tags():
 
390
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
391
        else:
 
392
            self.rev_tag_dict = {}
 
393
 
 
394
    def iter_log_revisions(self):
 
395
        """Iterate over LogRevision objects.
 
396
 
 
397
        :return: An iterator yielding LogRevision objects.
 
398
        """
 
399
        rqst = self.rqst
 
400
        levels = rqst.get('levels')
 
401
        limit = rqst.get('limit')
 
402
        diff_type = rqst.get('diff_type')
 
403
        log_count = 0
 
404
        revision_iterator = self._create_log_revision_iterator()
 
405
        for revs in revision_iterator:
 
406
            for (rev_id, revno, merge_depth), rev, delta in revs:
 
407
                # 0 levels means show everything; merge_depth counts from 0
 
408
                if levels != 0 and merge_depth >= levels:
 
409
                    continue
 
410
                if diff_type is None:
 
411
                    diff = None
 
412
                else:
 
413
                    diff = self._format_diff(rev, rev_id, diff_type)
 
414
                yield LogRevision(rev, revno, merge_depth, delta,
 
415
                    self.rev_tag_dict.get(rev_id), diff)
 
416
                if limit:
 
417
                    log_count += 1
 
418
                    if log_count >= limit:
 
419
                        return
 
420
 
 
421
    def _format_diff(self, rev, rev_id, diff_type):
 
422
        repo = self.branch.repository
 
423
        if len(rev.parent_ids) == 0:
 
424
            ancestor_id = _mod_revision.NULL_REVISION
 
425
        else:
 
426
            ancestor_id = rev.parent_ids[0]
 
427
        tree_1 = repo.revision_tree(ancestor_id)
 
428
        tree_2 = repo.revision_tree(rev_id)
 
429
        file_ids = self.rqst.get('specific_fileids')
 
430
        if diff_type == 'partial' and file_ids is not None:
 
431
            specific_files = [tree_2.id2path(id) for id in file_ids]
 
432
        else:
 
433
            specific_files = None
 
434
        s = StringIO()
 
435
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
436
            new_label='')
 
437
        return s.getvalue()
 
438
 
 
439
    def _create_log_revision_iterator(self):
 
440
        """Create a revision iterator for log.
 
441
 
 
442
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
443
            delta).
 
444
        """
 
445
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
 
446
            self.branch, self.rqst.get('start_revision'),
 
447
            self.rqst.get('end_revision'))
 
448
        if self.rqst.get('_match_using_deltas'):
 
449
            return self._log_revision_iterator_using_delta_matching()
 
450
        else:
 
451
            # We're using the per-file-graph algorithm. This scales really
 
452
            # well but only makes sense if there is a single file and it's
 
453
            # not a directory
 
454
            file_count = len(self.rqst.get('specific_fileids'))
 
455
            if file_count != 1:
 
456
                raise BzrError("illegal LogRequest: must match-using-deltas "
 
457
                    "when logging %d files" % file_count)
 
458
            return self._log_revision_iterator_using_per_file_graph()
 
459
 
 
460
    def _log_revision_iterator_using_delta_matching(self):
 
461
        # Get the base revisions, filtering by the revision range
 
462
        rqst = self.rqst
 
463
        generate_merge_revisions = rqst.get('levels') != 1
 
464
        delayed_graph_generation = not rqst.get('specific_fileids') and (
 
465
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
 
466
        view_revisions = _calc_view_revisions(
 
467
            self.branch, self.start_rev_id, self.end_rev_id,
 
468
            rqst.get('direction'),
 
469
            generate_merge_revisions=generate_merge_revisions,
 
470
            delayed_graph_generation=delayed_graph_generation,
 
471
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
 
472
 
 
473
        # Apply the other filters
 
474
        return make_log_rev_iterator(self.branch, view_revisions,
 
475
            rqst.get('delta_type'), rqst.get('message_search'),
 
476
            file_ids=rqst.get('specific_fileids'),
 
477
            direction=rqst.get('direction'))
 
478
 
 
479
    def _log_revision_iterator_using_per_file_graph(self):
 
480
        # Get the base revisions, filtering by the revision range.
 
481
        # Note that we always generate the merge revisions because
 
482
        # filter_revisions_touching_file_id() requires them ...
 
483
        rqst = self.rqst
 
484
        view_revisions = _calc_view_revisions(
 
485
            self.branch, self.start_rev_id, self.end_rev_id,
 
486
            rqst.get('direction'), generate_merge_revisions=True,
 
487
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
 
488
        if not isinstance(view_revisions, list):
 
489
            view_revisions = list(view_revisions)
 
490
        view_revisions = _filter_revisions_touching_file_id(self.branch,
 
491
            rqst.get('specific_fileids')[0], view_revisions,
 
492
            include_merges=rqst.get('levels') != 1)
 
493
        return make_log_rev_iterator(self.branch, view_revisions,
 
494
            rqst.get('delta_type'), rqst.get('message_search'))
 
495
 
 
496
 
 
497
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
 
498
                         generate_merge_revisions,
 
499
                         delayed_graph_generation=False,
 
500
                         exclude_common_ancestry=False,
 
501
                         ):
 
502
    """Calculate the revisions to view.
 
503
 
 
504
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
505
             a list of the same tuples.
 
506
    """
 
507
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
 
508
        raise errors.BzrCommandError(
 
509
            '--exclude-common-ancestry requires two different revisions')
 
510
    if direction not in ('reverse', 'forward'):
 
511
        raise ValueError('invalid direction %r' % direction)
 
512
    br_revno, br_rev_id = branch.last_revision_info()
 
513
    if br_revno == 0:
 
514
        return []
 
515
 
 
516
    if (end_rev_id and start_rev_id == end_rev_id
 
517
        and (not generate_merge_revisions
 
518
             or not _has_merges(branch, end_rev_id))):
 
519
        # If a single revision is requested, check we can handle it
 
520
        iter_revs = _generate_one_revision(branch, end_rev_id, br_rev_id,
 
521
                                           br_revno)
 
522
    elif not generate_merge_revisions:
 
523
        # If we only want to see linear revisions, we can iterate ...
 
524
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
 
525
                                             direction)
 
526
        if direction == 'forward':
 
527
            iter_revs = reversed(iter_revs)
 
528
    else:
 
529
        iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
530
                                            direction, delayed_graph_generation,
 
531
                                            exclude_common_ancestry)
 
532
        if direction == 'forward':
 
533
            iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
 
534
    return iter_revs
 
535
 
 
536
 
 
537
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
 
538
    if rev_id == br_rev_id:
 
539
        # It's the tip
 
540
        return [(br_rev_id, br_revno, 0)]
 
541
    else:
 
542
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
543
        revno_str = '.'.join(str(n) for n in revno)
 
544
        return [(rev_id, revno_str, 0)]
 
545
 
 
546
 
 
547
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
 
548
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
 
549
    # If a start limit was given and it's not obviously an
 
550
    # ancestor of the end limit, check it before outputting anything
 
551
    if direction == 'forward' or (start_rev_id
 
552
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
553
        try:
 
554
            result = list(result)
 
555
        except _StartNotLinearAncestor:
 
556
            raise errors.BzrCommandError('Start revision not found in'
 
557
                ' left-hand history of end revision.')
 
558
    return result
 
559
 
 
560
 
 
561
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
 
562
                            delayed_graph_generation,
 
563
                            exclude_common_ancestry=False):
 
564
    # On large trees, generating the merge graph can take 30-60 seconds
 
565
    # so we delay doing it until a merge is detected, incrementally
 
566
    # returning initial (non-merge) revisions while we can.
 
567
 
 
568
    # The above is only true for old formats (<= 0.92), for newer formats, a
 
569
    # couple of seconds only should be needed to load the whole graph and the
 
570
    # other graph operations needed are even faster than that -- vila 100201
 
571
    initial_revisions = []
 
572
    if delayed_graph_generation:
 
573
        try:
 
574
            for rev_id, revno, depth in  _linear_view_revisions(
 
575
                branch, start_rev_id, end_rev_id):
 
576
                if _has_merges(branch, rev_id):
 
577
                    # The end_rev_id can be nested down somewhere. We need an
 
578
                    # explicit ancestry check. There is an ambiguity here as we
 
579
                    # may not raise _StartNotLinearAncestor for a revision that
 
580
                    # is an ancestor but not a *linear* one. But since we have
 
581
                    # loaded the graph to do the check (or calculate a dotted
 
582
                    # revno), we may as well accept to show the log...  We need
 
583
                    # the check only if start_rev_id is not None as all
 
584
                    # revisions have _mod_revision.NULL_REVISION as an ancestor
 
585
                    # -- vila 20100319
 
586
                    graph = branch.repository.get_graph()
 
587
                    if (start_rev_id is not None
 
588
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
 
589
                        raise _StartNotLinearAncestor()
 
590
                    # Since we collected the revisions so far, we need to
 
591
                    # adjust end_rev_id.
 
592
                    end_rev_id = rev_id
 
593
                    break
 
594
                else:
 
595
                    initial_revisions.append((rev_id, revno, depth))
 
596
            else:
 
597
                # No merged revisions found
 
598
                return initial_revisions
 
599
        except _StartNotLinearAncestor:
 
600
            # A merge was never detected so the lower revision limit can't
 
601
            # be nested down somewhere
 
602
            raise errors.BzrCommandError('Start revision not found in'
 
603
                ' history of end revision.')
 
604
 
 
605
    # We exit the loop above because we encounter a revision with merges, from
 
606
    # this revision, we need to switch to _graph_view_revisions.
 
607
 
 
608
    # A log including nested merges is required. If the direction is reverse,
 
609
    # we rebase the initial merge depths so that the development line is
 
610
    # shown naturally, i.e. just like it is for linear logging. We can easily
 
611
    # make forward the exact opposite display, but showing the merge revisions
 
612
    # indented at the end seems slightly nicer in that case.
 
613
    view_revisions = chain(iter(initial_revisions),
 
614
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
615
                              rebase_initial_depths=(direction == 'reverse'),
 
616
                              exclude_common_ancestry=exclude_common_ancestry))
 
617
    return view_revisions
 
618
 
 
619
 
 
620
def _has_merges(branch, rev_id):
 
621
    """Does a revision have multiple parents or not?"""
 
622
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
 
623
    return len(parents) > 1
 
624
 
 
625
 
 
626
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
 
627
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
 
628
    if start_rev_id and end_rev_id:
 
629
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
 
630
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
 
631
        if len(start_dotted) == 1 and len(end_dotted) == 1:
 
632
            # both on mainline
 
633
            return start_dotted[0] <= end_dotted[0]
 
634
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
 
635
            start_dotted[0:1] == end_dotted[0:1]):
 
636
            # both on same development line
 
637
            return start_dotted[2] <= end_dotted[2]
 
638
        else:
 
639
            # not obvious
 
640
            return False
 
641
    # if either start or end is not specified then we use either the first or
 
642
    # the last revision and *they* are obvious ancestors.
 
643
    return True
 
644
 
 
645
 
 
646
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
647
    """Calculate a sequence of revisions to view, newest to oldest.
 
648
 
 
649
    :param start_rev_id: the lower revision-id
 
650
    :param end_rev_id: the upper revision-id
 
651
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
652
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
 
653
      is not found walking the left-hand history
 
654
    """
 
655
    br_revno, br_rev_id = branch.last_revision_info()
 
656
    repo = branch.repository
 
657
    if start_rev_id is None and end_rev_id is None:
 
658
        cur_revno = br_revno
 
659
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
 
660
            yield revision_id, str(cur_revno), 0
 
661
            cur_revno -= 1
 
662
    else:
 
663
        if end_rev_id is None:
 
664
            end_rev_id = br_rev_id
 
665
        found_start = start_rev_id is None
 
666
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
 
667
            revno = branch.revision_id_to_dotted_revno(revision_id)
 
668
            revno_str = '.'.join(str(n) for n in revno)
 
669
            if not found_start and revision_id == start_rev_id:
 
670
                yield revision_id, revno_str, 0
 
671
                found_start = True
243
672
                break
244
 
 
245
 
 
 
673
            else:
 
674
                yield revision_id, revno_str, 0
 
675
        else:
 
676
            if not found_start:
 
677
                raise _StartNotLinearAncestor()
 
678
 
 
679
 
 
680
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
681
                          rebase_initial_depths=True,
 
682
                          exclude_common_ancestry=False):
 
683
    """Calculate revisions to view including merges, newest to oldest.
 
684
 
 
685
    :param branch: the branch
 
686
    :param start_rev_id: the lower revision-id
 
687
    :param end_rev_id: the upper revision-id
 
688
    :param rebase_initial_depth: should depths be rebased until a mainline
 
689
      revision is found?
 
690
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
691
    """
 
692
    if exclude_common_ancestry:
 
693
        stop_rule = 'with-merges-without-common-ancestry'
 
694
    else:
 
695
        stop_rule = 'with-merges'
 
696
    view_revisions = branch.iter_merge_sorted_revisions(
 
697
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
 
698
        stop_rule=stop_rule)
 
699
    if not rebase_initial_depths:
 
700
        for (rev_id, merge_depth, revno, end_of_merge
 
701
             ) in view_revisions:
 
702
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
703
    else:
 
704
        # We're following a development line starting at a merged revision.
 
705
        # We need to adjust depths down by the initial depth until we find
 
706
        # a depth less than it. Then we use that depth as the adjustment.
 
707
        # If and when we reach the mainline, depth adjustment ends.
 
708
        depth_adjustment = None
 
709
        for (rev_id, merge_depth, revno, end_of_merge
 
710
             ) in view_revisions:
 
711
            if depth_adjustment is None:
 
712
                depth_adjustment = merge_depth
 
713
            if depth_adjustment:
 
714
                if merge_depth < depth_adjustment:
 
715
                    # From now on we reduce the depth adjustement, this can be
 
716
                    # surprising for users. The alternative requires two passes
 
717
                    # which breaks the fast display of the first revision
 
718
                    # though.
 
719
                    depth_adjustment = merge_depth
 
720
                merge_depth -= depth_adjustment
 
721
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
722
 
 
723
 
 
724
@deprecated_function(deprecated_in((2, 2, 0)))
246
725
def calculate_view_revisions(branch, start_revision, end_revision, direction,
247
 
                             specific_fileid, generate_merge_revisions,
248
 
                             allow_single_merge_revision):
249
 
    if (not generate_merge_revisions and start_revision is end_revision is
250
 
        None and direction == 'reverse' and specific_fileid is None):
251
 
        return _linear_view_revisions(branch)
252
 
 
253
 
    mainline_revs, rev_nos, start_rev_id, end_rev_id = \
254
 
        _get_mainline_revs(branch, start_revision, end_revision)
255
 
    if not mainline_revs:
256
 
        return []
257
 
 
258
 
    if direction == 'reverse':
259
 
        start_rev_id, end_rev_id = end_rev_id, start_rev_id
260
 
 
261
 
    generate_single_revision = False
262
 
    if ((not generate_merge_revisions)
263
 
        and ((start_rev_id and (start_rev_id not in rev_nos))
264
 
            or (end_rev_id and (end_rev_id not in rev_nos)))):
265
 
        generate_single_revision = ((start_rev_id == end_rev_id)
266
 
            and allow_single_merge_revision)
267
 
        if not generate_single_revision:
268
 
            raise BzrCommandError('Selected log formatter only supports '
269
 
                'mainline revisions.')
270
 
        generate_merge_revisions = generate_single_revision
271
 
    view_revs_iter = get_view_revisions(mainline_revs, rev_nos, branch,
272
 
                          direction, include_merges=generate_merge_revisions)
273
 
    view_revisions = _filter_revision_range(list(view_revs_iter),
274
 
                                            start_rev_id,
275
 
                                            end_rev_id)
276
 
    if view_revisions and generate_single_revision:
277
 
        view_revisions = view_revisions[0:1]
 
726
        specific_fileid, generate_merge_revisions):
 
727
    """Calculate the revisions to view.
 
728
 
 
729
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
730
             a list of the same tuples.
 
731
    """
 
732
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
 
733
        end_revision)
 
734
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
 
735
        direction, generate_merge_revisions or specific_fileid))
278
736
    if specific_fileid:
279
737
        view_revisions = _filter_revisions_touching_file_id(branch,
280
 
                                                         specific_fileid,
281
 
                                                         mainline_revs,
282
 
                                                         view_revisions)
283
 
 
284
 
    # rebase merge_depth - unless there are no revisions or 
285
 
    # either the first or last revision have merge_depth = 0.
 
738
            specific_fileid, view_revisions,
 
739
            include_merges=generate_merge_revisions)
 
740
    return _rebase_merge_depth(view_revisions)
 
741
 
 
742
 
 
743
def _rebase_merge_depth(view_revisions):
 
744
    """Adjust depths upwards so the top level is 0."""
 
745
    # If either the first or last revision have a merge_depth of 0, we're done
286
746
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
287
747
        min_depth = min([d for r,n,d in view_revisions])
288
748
        if min_depth != 0:
290
750
    return view_revisions
291
751
 
292
752
 
293
 
def _linear_view_revisions(branch):
294
 
    start_revno, start_revision_id = branch.last_revision_info()
295
 
    repo = branch.repository
296
 
    revision_ids = repo.iter_reverse_revision_history(start_revision_id)
297
 
    for num, revision_id in enumerate(revision_ids):
298
 
        yield revision_id, str(start_revno - num), 0
299
 
 
300
 
 
301
 
def _iter_revisions(repository, view_revisions, generate_delta):
 
753
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
 
754
        file_ids=None, direction='reverse'):
 
755
    """Create a revision iterator for log.
 
756
 
 
757
    :param branch: The branch being logged.
 
758
    :param view_revisions: The revisions being viewed.
 
759
    :param generate_delta: Whether to generate a delta for each revision.
 
760
      Permitted values are None, 'full' and 'partial'.
 
761
    :param search: A user text search string.
 
762
    :param file_ids: If non empty, only revisions matching one or more of
 
763
      the file-ids are to be kept.
 
764
    :param direction: the direction in which view_revisions is sorted
 
765
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
766
        delta).
 
767
    """
 
768
    # Convert view_revisions into (view, None, None) groups to fit with
 
769
    # the standard interface here.
 
770
    if type(view_revisions) == list:
 
771
        # A single batch conversion is faster than many incremental ones.
 
772
        # As we have all the data, do a batch conversion.
 
773
        nones = [None] * len(view_revisions)
 
774
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
 
775
    else:
 
776
        def _convert():
 
777
            for view in view_revisions:
 
778
                yield (view, None, None)
 
779
        log_rev_iterator = iter([_convert()])
 
780
    for adapter in log_adapters:
 
781
        # It would be nicer if log adapters were first class objects
 
782
        # with custom parameters. This will do for now. IGC 20090127
 
783
        if adapter == _make_delta_filter:
 
784
            log_rev_iterator = adapter(branch, generate_delta,
 
785
                search, log_rev_iterator, file_ids, direction)
 
786
        else:
 
787
            log_rev_iterator = adapter(branch, generate_delta,
 
788
                search, log_rev_iterator)
 
789
    return log_rev_iterator
 
790
 
 
791
 
 
792
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
 
793
    """Create a filtered iterator of log_rev_iterator matching on a regex.
 
794
 
 
795
    :param branch: The branch being logged.
 
796
    :param generate_delta: Whether to generate a delta for each revision.
 
797
    :param search: A user text search string.
 
798
    :param log_rev_iterator: An input iterator containing all revisions that
 
799
        could be displayed, in lists.
 
800
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
801
        delta).
 
802
    """
 
803
    if search is None:
 
804
        return log_rev_iterator
 
805
    searchRE = re_compile_checked(search, re.IGNORECASE,
 
806
            'log message filter')
 
807
    return _filter_message_re(searchRE, log_rev_iterator)
 
808
 
 
809
 
 
810
def _filter_message_re(searchRE, log_rev_iterator):
 
811
    for revs in log_rev_iterator:
 
812
        new_revs = []
 
813
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
814
            if searchRE.search(rev.message):
 
815
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
 
816
        yield new_revs
 
817
 
 
818
 
 
819
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
 
820
    fileids=None, direction='reverse'):
 
821
    """Add revision deltas to a log iterator if needed.
 
822
 
 
823
    :param branch: The branch being logged.
 
824
    :param generate_delta: Whether to generate a delta for each revision.
 
825
      Permitted values are None, 'full' and 'partial'.
 
826
    :param search: A user text search string.
 
827
    :param log_rev_iterator: An input iterator containing all revisions that
 
828
        could be displayed, in lists.
 
829
    :param fileids: If non empty, only revisions matching one or more of
 
830
      the file-ids are to be kept.
 
831
    :param direction: the direction in which view_revisions is sorted
 
832
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
833
        delta).
 
834
    """
 
835
    if not generate_delta and not fileids:
 
836
        return log_rev_iterator
 
837
    return _generate_deltas(branch.repository, log_rev_iterator,
 
838
        generate_delta, fileids, direction)
 
839
 
 
840
 
 
841
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
 
842
    direction):
 
843
    """Create deltas for each batch of revisions in log_rev_iterator.
 
844
 
 
845
    If we're only generating deltas for the sake of filtering against
 
846
    file-ids, we stop generating deltas once all file-ids reach the
 
847
    appropriate life-cycle point. If we're receiving data newest to
 
848
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
 
849
    """
 
850
    check_fileids = fileids is not None and len(fileids) > 0
 
851
    if check_fileids:
 
852
        fileid_set = set(fileids)
 
853
        if direction == 'reverse':
 
854
            stop_on = 'add'
 
855
        else:
 
856
            stop_on = 'remove'
 
857
    else:
 
858
        fileid_set = None
 
859
    for revs in log_rev_iterator:
 
860
        # If we were matching against fileids and we've run out,
 
861
        # there's nothing left to do
 
862
        if check_fileids and not fileid_set:
 
863
            return
 
864
        revisions = [rev[1] for rev in revs]
 
865
        new_revs = []
 
866
        if delta_type == 'full' and not check_fileids:
 
867
            deltas = repository.get_deltas_for_revisions(revisions)
 
868
            for rev, delta in izip(revs, deltas):
 
869
                new_revs.append((rev[0], rev[1], delta))
 
870
        else:
 
871
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
 
872
            for rev, delta in izip(revs, deltas):
 
873
                if check_fileids:
 
874
                    if delta is None or not delta.has_changed():
 
875
                        continue
 
876
                    else:
 
877
                        _update_fileids(delta, fileid_set, stop_on)
 
878
                        if delta_type is None:
 
879
                            delta = None
 
880
                        elif delta_type == 'full':
 
881
                            # If the file matches all the time, rebuilding
 
882
                            # a full delta like this in addition to a partial
 
883
                            # one could be slow. However, it's likely that
 
884
                            # most revisions won't get this far, making it
 
885
                            # faster to filter on the partial deltas and
 
886
                            # build the occasional full delta than always
 
887
                            # building full deltas and filtering those.
 
888
                            rev_id = rev[0][0]
 
889
                            delta = repository.get_revision_delta(rev_id)
 
890
                new_revs.append((rev[0], rev[1], delta))
 
891
        yield new_revs
 
892
 
 
893
 
 
894
def _update_fileids(delta, fileids, stop_on):
 
895
    """Update the set of file-ids to search based on file lifecycle events.
 
896
    
 
897
    :param fileids: a set of fileids to update
 
898
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
 
899
      fileids set once their add or remove entry is detected respectively
 
900
    """
 
901
    if stop_on == 'add':
 
902
        for item in delta.added:
 
903
            if item[1] in fileids:
 
904
                fileids.remove(item[1])
 
905
    elif stop_on == 'delete':
 
906
        for item in delta.removed:
 
907
            if item[1] in fileids:
 
908
                fileids.remove(item[1])
 
909
 
 
910
 
 
911
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
 
912
    """Extract revision objects from the repository
 
913
 
 
914
    :param branch: The branch being logged.
 
915
    :param generate_delta: Whether to generate a delta for each revision.
 
916
    :param search: A user text search string.
 
917
    :param log_rev_iterator: An input iterator containing all revisions that
 
918
        could be displayed, in lists.
 
919
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
920
        delta).
 
921
    """
 
922
    repository = branch.repository
 
923
    for revs in log_rev_iterator:
 
924
        # r = revision_id, n = revno, d = merge depth
 
925
        revision_ids = [view[0] for view, _, _ in revs]
 
926
        revisions = repository.get_revisions(revision_ids)
 
927
        revs = [(rev[0], revision, rev[2]) for rev, revision in
 
928
            izip(revs, revisions)]
 
929
        yield revs
 
930
 
 
931
 
 
932
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
 
933
    """Group up a single large batch into smaller ones.
 
934
 
 
935
    :param branch: The branch being logged.
 
936
    :param generate_delta: Whether to generate a delta for each revision.
 
937
    :param search: A user text search string.
 
938
    :param log_rev_iterator: An input iterator containing all revisions that
 
939
        could be displayed, in lists.
 
940
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
941
        delta).
 
942
    """
 
943
    repository = branch.repository
302
944
    num = 9
303
 
    view_revisions = iter(view_revisions)
304
 
    while True:
305
 
        cur_view_revisions = [d for x, d in zip(range(num), view_revisions)]
306
 
        if len(cur_view_revisions) == 0:
307
 
            break
308
 
        cur_deltas = {}
309
 
        # r = revision, n = revno, d = merge depth
310
 
        revision_ids = [r for (r, n, d) in cur_view_revisions]
311
 
        revisions = repository.get_revisions(revision_ids)
312
 
        if generate_delta:
313
 
            deltas = repository.get_deltas_for_revisions(revisions)
314
 
            cur_deltas = dict(izip((r.revision_id for r in revisions),
315
 
                                   deltas))
316
 
        for view_data, revision in izip(cur_view_revisions, revisions):
317
 
            yield view_data, revision, cur_deltas.get(revision.revision_id)
318
 
        num = min(int(num * 1.5), 200)
 
945
    for batch in log_rev_iterator:
 
946
        batch = iter(batch)
 
947
        while True:
 
948
            step = [detail for _, detail in zip(range(num), batch)]
 
949
            if len(step) == 0:
 
950
                break
 
951
            yield step
 
952
            num = min(int(num * 1.5), 200)
 
953
 
 
954
 
 
955
def _get_revision_limits(branch, start_revision, end_revision):
 
956
    """Get and check revision limits.
 
957
 
 
958
    :param  branch: The branch containing the revisions.
 
959
 
 
960
    :param  start_revision: The first revision to be logged.
 
961
            For backwards compatibility this may be a mainline integer revno,
 
962
            but for merge revision support a RevisionInfo is expected.
 
963
 
 
964
    :param  end_revision: The last revision to be logged.
 
965
            For backwards compatibility this may be a mainline integer revno,
 
966
            but for merge revision support a RevisionInfo is expected.
 
967
 
 
968
    :return: (start_rev_id, end_rev_id) tuple.
 
969
    """
 
970
    branch_revno, branch_rev_id = branch.last_revision_info()
 
971
    start_rev_id = None
 
972
    if start_revision is None:
 
973
        start_revno = 1
 
974
    else:
 
975
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
976
            start_rev_id = start_revision.rev_id
 
977
            start_revno = start_revision.revno or 1
 
978
        else:
 
979
            branch.check_real_revno(start_revision)
 
980
            start_revno = start_revision
 
981
            start_rev_id = branch.get_rev_id(start_revno)
 
982
 
 
983
    end_rev_id = None
 
984
    if end_revision is None:
 
985
        end_revno = branch_revno
 
986
    else:
 
987
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
988
            end_rev_id = end_revision.rev_id
 
989
            end_revno = end_revision.revno or branch_revno
 
990
        else:
 
991
            branch.check_real_revno(end_revision)
 
992
            end_revno = end_revision
 
993
            end_rev_id = branch.get_rev_id(end_revno)
 
994
 
 
995
    if branch_revno != 0:
 
996
        if (start_rev_id == _mod_revision.NULL_REVISION
 
997
            or end_rev_id == _mod_revision.NULL_REVISION):
 
998
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
999
        if start_revno > end_revno:
 
1000
            raise errors.BzrCommandError("Start revision must be older than "
 
1001
                                         "the end revision.")
 
1002
    return (start_rev_id, end_rev_id)
319
1003
 
320
1004
 
321
1005
def _get_mainline_revs(branch, start_revision, end_revision):
322
1006
    """Get the mainline revisions from the branch.
323
 
    
 
1007
 
324
1008
    Generates the list of mainline revisions for the branch.
325
 
    
326
 
    :param  branch: The branch containing the revisions. 
 
1009
 
 
1010
    :param  branch: The branch containing the revisions.
327
1011
 
328
1012
    :param  start_revision: The first revision to be logged.
329
1013
            For backwards compatibility this may be a mainline integer revno,
335
1019
 
336
1020
    :return: A (mainline_revs, rev_nos, start_rev_id, end_rev_id) tuple.
337
1021
    """
338
 
    which_revs = _enumerate_history(branch)
339
 
    if not which_revs:
 
1022
    branch_revno, branch_last_revision = branch.last_revision_info()
 
1023
    if branch_revno == 0:
340
1024
        return None, None, None, None
341
1025
 
342
 
    # For mainline generation, map start_revision and end_revision to 
343
 
    # mainline revnos. If the revision is not on the mainline choose the 
344
 
    # appropriate extreme of the mainline instead - the extra will be 
 
1026
    # For mainline generation, map start_revision and end_revision to
 
1027
    # mainline revnos. If the revision is not on the mainline choose the
 
1028
    # appropriate extreme of the mainline instead - the extra will be
345
1029
    # filtered later.
346
1030
    # Also map the revisions to rev_ids, to be used in the later filtering
347
1031
    # stage.
348
 
    start_rev_id = None 
 
1032
    start_rev_id = None
349
1033
    if start_revision is None:
350
1034
        start_revno = 1
351
1035
    else:
352
 
        if isinstance(start_revision,RevisionInfo):
 
1036
        if isinstance(start_revision, revisionspec.RevisionInfo):
353
1037
            start_rev_id = start_revision.rev_id
354
1038
            start_revno = start_revision.revno or 1
355
1039
        else:
356
1040
            branch.check_real_revno(start_revision)
357
1041
            start_revno = start_revision
358
 
    
 
1042
 
359
1043
    end_rev_id = None
360
1044
    if end_revision is None:
361
 
        end_revno = len(which_revs)
 
1045
        end_revno = branch_revno
362
1046
    else:
363
 
        if isinstance(end_revision,RevisionInfo):
 
1047
        if isinstance(end_revision, revisionspec.RevisionInfo):
364
1048
            end_rev_id = end_revision.rev_id
365
 
            end_revno = end_revision.revno or len(which_revs)
 
1049
            end_revno = end_revision.revno or branch_revno
366
1050
        else:
367
1051
            branch.check_real_revno(end_revision)
368
1052
            end_revno = end_revision
369
1053
 
370
 
    if ((start_rev_id == NULL_REVISION)
371
 
        or (end_rev_id == NULL_REVISION)):
372
 
        raise BzrCommandError('Logging revision 0 is invalid.')
 
1054
    if ((start_rev_id == _mod_revision.NULL_REVISION)
 
1055
        or (end_rev_id == _mod_revision.NULL_REVISION)):
 
1056
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
373
1057
    if start_revno > end_revno:
374
 
        raise BzrCommandError("Start revision must be older than "
375
 
                              "the end revision.")
 
1058
        raise errors.BzrCommandError("Start revision must be older than "
 
1059
                                     "the end revision.")
376
1060
 
377
 
    # list indexes are 0-based; revisions are 1-based
378
 
    cut_revs = which_revs[(start_revno-1):(end_revno)]
379
 
    if not cut_revs:
 
1061
    if end_revno < start_revno:
380
1062
        return None, None, None, None
 
1063
    cur_revno = branch_revno
 
1064
    rev_nos = {}
 
1065
    mainline_revs = []
 
1066
    for revision_id in branch.repository.iter_reverse_revision_history(
 
1067
                        branch_last_revision):
 
1068
        if cur_revno < start_revno:
 
1069
            # We have gone far enough, but we always add 1 more revision
 
1070
            rev_nos[revision_id] = cur_revno
 
1071
            mainline_revs.append(revision_id)
 
1072
            break
 
1073
        if cur_revno <= end_revno:
 
1074
            rev_nos[revision_id] = cur_revno
 
1075
            mainline_revs.append(revision_id)
 
1076
        cur_revno -= 1
 
1077
    else:
 
1078
        # We walked off the edge of all revisions, so we add a 'None' marker
 
1079
        mainline_revs.append(None)
381
1080
 
382
 
    # convert the revision history to a dictionary:
383
 
    rev_nos = dict((k, v) for v, k in cut_revs)
 
1081
    mainline_revs.reverse()
384
1082
 
385
1083
    # override the mainline to look like the revision history.
386
 
    mainline_revs = [revision_id for index, revision_id in cut_revs]
387
 
    if cut_revs[0][0] == 1:
388
 
        mainline_revs.insert(0, None)
389
 
    else:
390
 
        mainline_revs.insert(0, which_revs[start_revno-2][1])
391
1084
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
392
1085
 
393
1086
 
 
1087
@deprecated_function(deprecated_in((2, 2, 0)))
394
1088
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
395
1089
    """Filter view_revisions based on revision ranges.
396
1090
 
397
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth) 
 
1091
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
398
1092
            tuples to be filtered.
399
1093
 
400
1094
    :param start_rev_id: If not NONE specifies the first revision to be logged.
405
1099
 
406
1100
    :return: The filtered view_revisions.
407
1101
    """
408
 
    if start_rev_id or end_rev_id: 
 
1102
    if start_rev_id or end_rev_id:
409
1103
        revision_ids = [r for r, n, d in view_revisions]
410
1104
        if start_rev_id:
411
1105
            start_index = revision_ids.index(start_rev_id)
418
1112
                end_index = revision_ids.index(end_rev_id)
419
1113
            else:
420
1114
                end_index = len(view_revisions) - 1
421
 
        # To include the revisions merged into the last revision, 
 
1115
        # To include the revisions merged into the last revision,
422
1116
        # extend end_rev_id down to, but not including, the next rev
423
1117
        # with the same or lesser merge_depth
424
1118
        end_merge_depth = view_revisions[end_index][2]
434
1128
    return view_revisions
435
1129
 
436
1130
 
437
 
def _filter_revisions_touching_file_id(branch, file_id, mainline_revisions,
438
 
                                       view_revs_iter):
439
 
    """Return the list of revision ids which touch a given file id.
 
1131
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
 
1132
    include_merges=True):
 
1133
    r"""Return the list of revision ids which touch a given file id.
440
1134
 
441
1135
    The function filters view_revisions and returns a subset.
442
1136
    This includes the revisions which directly change the file id,
443
1137
    and the revisions which merge these changes. So if the
444
1138
    revision graph is::
445
 
        A
446
 
        |\
447
 
        B C
 
1139
        A-.
 
1140
        |\ \
 
1141
        B C E
 
1142
        |/ /
 
1143
        D |
 
1144
        |\|
 
1145
        | F
448
1146
        |/
449
 
        D
450
 
 
451
 
    And 'C' changes a file, then both C and D will be returned.
452
 
 
453
 
    This will also can be restricted based on a subset of the mainline.
 
1147
        G
 
1148
 
 
1149
    And 'C' changes a file, then both C and D will be returned. F will not be
 
1150
    returned even though it brings the changes to C into the branch starting
 
1151
    with E. (Note that if we were using F as the tip instead of G, then we
 
1152
    would see C, D, F.)
 
1153
 
 
1154
    This will also be restricted based on a subset of the mainline.
 
1155
 
 
1156
    :param branch: The branch where we can get text revision information.
 
1157
 
 
1158
    :param file_id: Filter out revisions that do not touch file_id.
 
1159
 
 
1160
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1161
        tuples. This is the list of revisions which will be filtered. It is
 
1162
        assumed that view_revisions is in merge_sort order (i.e. newest
 
1163
        revision first ).
 
1164
 
 
1165
    :param include_merges: include merge revisions in the result or not
454
1166
 
455
1167
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
456
1168
    """
457
 
    # find all the revisions that change the specific file
458
 
    file_weave = branch.repository.weave_store.get_weave(file_id,
459
 
                branch.repository.get_transaction())
460
 
    weave_modifed_revisions = set(file_weave.versions())
461
 
    # build the ancestry of each revision in the graph
462
 
    # - only listing the ancestors that change the specific file.
463
 
    graph = branch.repository.get_graph()
464
 
    # This asks for all mainline revisions, which means we only have to spider
465
 
    # sideways, rather than depth history. That said, its still size-of-history
466
 
    # and should be addressed.
467
 
    # mainline_revisions always includes an extra revision at the beginning, so
468
 
    # don't request it.
469
 
    parent_map = dict(((key, value) for key, value in
470
 
        graph.iter_ancestry(mainline_revisions[1:]) if value is not None))
471
 
    sorted_rev_list = topo_sort(parent_map.items())
472
 
    ancestry = {}
473
 
    for rev in sorted_rev_list:
474
 
        parents = parent_map[rev]
475
 
        if rev not in weave_modifed_revisions and len(parents) == 1:
476
 
            # We will not be adding anything new, so just use a reference to
477
 
            # the parent ancestry.
478
 
            rev_ancestry = ancestry[parents[0]]
 
1169
    # Lookup all possible text keys to determine which ones actually modified
 
1170
    # the file.
 
1171
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
 
1172
    next_keys = None
 
1173
    # Looking up keys in batches of 1000 can cut the time in half, as well as
 
1174
    # memory consumption. GraphIndex *does* like to look for a few keys in
 
1175
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
 
1176
    # TODO: This code needs to be re-evaluated periodically as we tune the
 
1177
    #       indexing layer. We might consider passing in hints as to the known
 
1178
    #       access pattern (sparse/clustered, high success rate/low success
 
1179
    #       rate). This particular access is clustered with a low success rate.
 
1180
    get_parent_map = branch.repository.texts.get_parent_map
 
1181
    modified_text_revisions = set()
 
1182
    chunk_size = 1000
 
1183
    for start in xrange(0, len(text_keys), chunk_size):
 
1184
        next_keys = text_keys[start:start + chunk_size]
 
1185
        # Only keep the revision_id portion of the key
 
1186
        modified_text_revisions.update(
 
1187
            [k[1] for k in get_parent_map(next_keys)])
 
1188
    del text_keys, next_keys
 
1189
 
 
1190
    result = []
 
1191
    # Track what revisions will merge the current revision, replace entries
 
1192
    # with 'None' when they have been added to result
 
1193
    current_merge_stack = [None]
 
1194
    for info in view_revisions:
 
1195
        rev_id, revno, depth = info
 
1196
        if depth == len(current_merge_stack):
 
1197
            current_merge_stack.append(info)
479
1198
        else:
480
 
            rev_ancestry = set()
481
 
            if rev in weave_modifed_revisions:
482
 
                rev_ancestry.add(rev)
483
 
            for parent in parents:
484
 
                if parent not in ancestry:
485
 
                    # parent is a Ghost, which won't be present in
486
 
                    # sorted_rev_list, but we may access it later, so create an
487
 
                    # empty node for it
488
 
                    ancestry[parent] = set()
489
 
                rev_ancestry = rev_ancestry.union(ancestry[parent])
490
 
        ancestry[rev] = rev_ancestry
491
 
 
492
 
    def is_merging_rev(r):
493
 
        parents = parent_map[r]
494
 
        if len(parents) > 1:
495
 
            leftparent = parents[0]
496
 
            for rightparent in parents[1:]:
497
 
                if not ancestry[leftparent].issuperset(
498
 
                        ancestry[rightparent]):
499
 
                    return True
500
 
        return False
501
 
 
502
 
    # filter from the view the revisions that did not change or merge 
503
 
    # the specific file
504
 
    return [(r, n, d) for r, n, d in view_revs_iter
505
 
            if r in weave_modifed_revisions or is_merging_rev(r)]
506
 
 
507
 
 
 
1199
            del current_merge_stack[depth + 1:]
 
1200
            current_merge_stack[-1] = info
 
1201
 
 
1202
        if rev_id in modified_text_revisions:
 
1203
            # This needs to be logged, along with the extra revisions
 
1204
            for idx in xrange(len(current_merge_stack)):
 
1205
                node = current_merge_stack[idx]
 
1206
                if node is not None:
 
1207
                    if include_merges or node[2] == 0:
 
1208
                        result.append(node)
 
1209
                        current_merge_stack[idx] = None
 
1210
    return result
 
1211
 
 
1212
 
 
1213
@deprecated_function(deprecated_in((2, 2, 0)))
508
1214
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
509
1215
                       include_merges=True):
510
1216
    """Produce an iterator of revisions to show
511
1217
    :return: an iterator of (revision_id, revno, merge_depth)
512
1218
    (if there is no revno for a revision, None is supplied)
513
1219
    """
514
 
    if include_merges is False:
 
1220
    if not include_merges:
515
1221
        revision_ids = mainline_revs[1:]
516
1222
        if direction == 'reverse':
517
1223
            revision_ids.reverse()
522
1228
    # This asks for all mainline revisions, which means we only have to spider
523
1229
    # sideways, rather than depth history. That said, its still size-of-history
524
1230
    # and should be addressed.
 
1231
    # mainline_revisions always includes an extra revision at the beginning, so
 
1232
    # don't request it.
525
1233
    parent_map = dict(((key, value) for key, value in
526
 
        graph.iter_ancestry(mainline_revs) if value is not None))
 
1234
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
527
1235
    # filter out ghosts; merge_sort errors on ghosts.
528
 
    rev_graph = _strip_NULL_ghosts(parent_map)
529
 
    merge_sorted_revisions = merge_sort(
 
1236
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
 
1237
    merge_sorted_revisions = tsort.merge_sort(
530
1238
        rev_graph,
531
1239
        mainline_revs[-1],
532
1240
        mainline_revs,
538
1246
    elif direction != 'reverse':
539
1247
        raise ValueError('invalid direction %r' % direction)
540
1248
 
541
 
    for sequence, rev_id, merge_depth, revno, end_of_merge in merge_sorted_revisions:
 
1249
    for (sequence, rev_id, merge_depth, revno, end_of_merge
 
1250
         ) in merge_sorted_revisions:
542
1251
        yield rev_id, '.'.join(map(str, revno)), merge_depth
543
1252
 
544
1253
 
549
1258
    revision of that depth.  There may be no topological justification for this,
550
1259
    but it looks much nicer.
551
1260
    """
 
1261
    # Add a fake revision at start so that we can always attach sub revisions
 
1262
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
552
1263
    zd_revisions = []
553
1264
    for val in merge_sorted_revisions:
554
1265
        if val[2] == _depth:
 
1266
            # Each revision at the current depth becomes a chunk grouping all
 
1267
            # higher depth revisions.
555
1268
            zd_revisions.append([val])
556
1269
        else:
557
1270
            zd_revisions[-1].append(val)
558
1271
    for revisions in zd_revisions:
559
1272
        if len(revisions) > 1:
 
1273
            # We have higher depth revisions, let reverse them locally
560
1274
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
561
1275
    zd_revisions.reverse()
562
1276
    result = []
563
1277
    for chunk in zd_revisions:
564
1278
        result.extend(chunk)
 
1279
    if _depth == 0:
 
1280
        # Top level call, get rid of the fake revisions that have been added
 
1281
        result = [r for r in result if r[0] is not None and r[1] is not None]
565
1282
    return result
566
1283
 
567
1284
 
569
1286
    """A revision to be logged (by LogFormatter.log_revision).
570
1287
 
571
1288
    A simple wrapper for the attributes of a revision to be logged.
572
 
    The attributes may or may not be populated, as determined by the 
 
1289
    The attributes may or may not be populated, as determined by the
573
1290
    logging options and the log formatter capabilities.
574
1291
    """
575
1292
 
576
1293
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
577
 
                 tags=None):
 
1294
                 tags=None, diff=None):
578
1295
        self.rev = rev
579
 
        self.revno = revno
 
1296
        self.revno = str(revno)
580
1297
        self.merge_depth = merge_depth
581
1298
        self.delta = delta
582
1299
        self.tags = tags
 
1300
        self.diff = diff
583
1301
 
584
1302
 
585
1303
class LogFormatter(object):
590
1308
    If the LogFormatter needs to be informed of the beginning or end of
591
1309
    a log it should implement the begin_log and/or end_log hook methods.
592
1310
 
593
 
    A LogFormatter should define the following supports_XXX flags 
 
1311
    A LogFormatter should define the following supports_XXX flags
594
1312
    to indicate which LogRevision attributes it supports:
595
1313
 
596
1314
    - supports_delta must be True if this log formatter supports delta.
597
 
        Otherwise the delta attribute may not be populated.
598
 
    - supports_merge_revisions must be True if this log formatter supports 
599
 
        merge revisions.  If not, and if supports_single_merge_revisions is
600
 
        also not True, then only mainline revisions will be passed to the 
601
 
        formatter.
602
 
    - supports_single_merge_revision must be True if this log formatter
603
 
        supports logging only a single merge revision.  This flag is
604
 
        only relevant if supports_merge_revisions is not True.
 
1315
        Otherwise the delta attribute may not be populated.  The 'delta_format'
 
1316
        attribute describes whether the 'short_status' format (1) or the long
 
1317
        one (2) should be used.
 
1318
 
 
1319
    - supports_merge_revisions must be True if this log formatter supports
 
1320
        merge revisions.  If not, then only mainline revisions will be passed
 
1321
        to the formatter.
 
1322
 
 
1323
    - preferred_levels is the number of levels this formatter defaults to.
 
1324
        The default value is zero meaning display all levels.
 
1325
        This value is only relevant if supports_merge_revisions is True.
 
1326
 
605
1327
    - supports_tags must be True if this log formatter supports tags.
606
1328
        Otherwise the tags attribute may not be populated.
 
1329
 
 
1330
    - supports_diff must be True if this log formatter supports diffs.
 
1331
        Otherwise the diff attribute may not be populated.
 
1332
 
 
1333
    Plugins can register functions to show custom revision properties using
 
1334
    the properties_handler_registry. The registered function
 
1335
    must respect the following interface description:
 
1336
        def my_show_properties(properties_dict):
 
1337
            # code that returns a dict {'name':'value'} of the properties
 
1338
            # to be shown
607
1339
    """
608
 
 
609
 
    def __init__(self, to_file, show_ids=False, show_timezone='original'):
 
1340
    preferred_levels = 0
 
1341
 
 
1342
    def __init__(self, to_file, show_ids=False, show_timezone='original',
 
1343
                 delta_format=None, levels=None, show_advice=False,
 
1344
                 to_exact_file=None):
 
1345
        """Create a LogFormatter.
 
1346
 
 
1347
        :param to_file: the file to output to
 
1348
        :param to_exact_file: if set, gives an output stream to which 
 
1349
             non-Unicode diffs are written.
 
1350
        :param show_ids: if True, revision-ids are to be displayed
 
1351
        :param show_timezone: the timezone to use
 
1352
        :param delta_format: the level of delta information to display
 
1353
          or None to leave it to the formatter to decide
 
1354
        :param levels: the number of levels to display; None or -1 to
 
1355
          let the log formatter decide.
 
1356
        :param show_advice: whether to show advice at the end of the
 
1357
          log or not
 
1358
        """
610
1359
        self.to_file = to_file
 
1360
        # 'exact' stream used to show diff, it should print content 'as is'
 
1361
        # and should not try to decode/encode it to unicode to avoid bug #328007
 
1362
        if to_exact_file is not None:
 
1363
            self.to_exact_file = to_exact_file
 
1364
        else:
 
1365
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
 
1366
            # for code that expects to get diffs to pass in the exact file
 
1367
            # stream
 
1368
            self.to_exact_file = getattr(to_file, 'stream', to_file)
611
1369
        self.show_ids = show_ids
612
1370
        self.show_timezone = show_timezone
613
 
 
614
 
# TODO: uncomment this block after show() has been removed.
615
 
# Until then defining log_revision would prevent _show_log calling show() 
616
 
# in legacy formatters.
617
 
#    def log_revision(self, revision):
618
 
#        """Log a revision.
619
 
#
620
 
#        :param  revision:   The LogRevision to be logged.
621
 
#        """
622
 
#        raise NotImplementedError('not implemented in abstract base')
 
1371
        if delta_format is None:
 
1372
            # Ensures backward compatibility
 
1373
            delta_format = 2 # long format
 
1374
        self.delta_format = delta_format
 
1375
        self.levels = levels
 
1376
        self._show_advice = show_advice
 
1377
        self._merge_count = 0
 
1378
 
 
1379
    def get_levels(self):
 
1380
        """Get the number of levels to display or 0 for all."""
 
1381
        if getattr(self, 'supports_merge_revisions', False):
 
1382
            if self.levels is None or self.levels == -1:
 
1383
                self.levels = self.preferred_levels
 
1384
        else:
 
1385
            self.levels = 1
 
1386
        return self.levels
 
1387
 
 
1388
    def log_revision(self, revision):
 
1389
        """Log a revision.
 
1390
 
 
1391
        :param  revision:   The LogRevision to be logged.
 
1392
        """
 
1393
        raise NotImplementedError('not implemented in abstract base')
 
1394
 
 
1395
    def show_advice(self):
 
1396
        """Output user advice, if any, when the log is completed."""
 
1397
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
 
1398
            advice_sep = self.get_advice_separator()
 
1399
            if advice_sep:
 
1400
                self.to_file.write(advice_sep)
 
1401
            self.to_file.write(
 
1402
                "Use --include-merges or -n0 to see merged revisions.\n")
 
1403
 
 
1404
    def get_advice_separator(self):
 
1405
        """Get the text separating the log from the closing advice."""
 
1406
        return ''
623
1407
 
624
1408
    def short_committer(self, rev):
625
1409
        name, address = config.parse_username(rev.committer)
628
1412
        return address
629
1413
 
630
1414
    def short_author(self, rev):
631
 
        name, address = config.parse_username(rev.get_apparent_author())
 
1415
        name, address = config.parse_username(rev.get_apparent_authors()[0])
632
1416
        if name:
633
1417
            return name
634
1418
        return address
635
1419
 
 
1420
    def merge_marker(self, revision):
 
1421
        """Get the merge marker to include in the output or '' if none."""
 
1422
        if len(revision.rev.parent_ids) > 1:
 
1423
            self._merge_count += 1
 
1424
            return ' [merge]'
 
1425
        else:
 
1426
            return ''
 
1427
 
 
1428
    def show_properties(self, revision, indent):
 
1429
        """Displays the custom properties returned by each registered handler.
 
1430
 
 
1431
        If a registered handler raises an error it is propagated.
 
1432
        """
 
1433
        for line in self.custom_properties(revision):
 
1434
            self.to_file.write("%s%s\n" % (indent, line))
 
1435
 
 
1436
    def custom_properties(self, revision):
 
1437
        """Format the custom properties returned by each registered handler.
 
1438
 
 
1439
        If a registered handler raises an error it is propagated.
 
1440
 
 
1441
        :return: a list of formatted lines (excluding trailing newlines)
 
1442
        """
 
1443
        lines = self._foreign_info_properties(revision)
 
1444
        for key, handler in properties_handler_registry.iteritems():
 
1445
            lines.extend(self._format_properties(handler(revision)))
 
1446
        return lines
 
1447
 
 
1448
    def _foreign_info_properties(self, rev):
 
1449
        """Custom log displayer for foreign revision identifiers.
 
1450
 
 
1451
        :param rev: Revision object.
 
1452
        """
 
1453
        # Revision comes directly from a foreign repository
 
1454
        if isinstance(rev, foreign.ForeignRevision):
 
1455
            return self._format_properties(
 
1456
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
 
1457
 
 
1458
        # Imported foreign revision revision ids always contain :
 
1459
        if not ":" in rev.revision_id:
 
1460
            return []
 
1461
 
 
1462
        # Revision was once imported from a foreign repository
 
1463
        try:
 
1464
            foreign_revid, mapping = \
 
1465
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
 
1466
        except errors.InvalidRevisionId:
 
1467
            return []
 
1468
 
 
1469
        return self._format_properties(
 
1470
            mapping.vcs.show_foreign_revid(foreign_revid))
 
1471
 
 
1472
    def _format_properties(self, properties):
 
1473
        lines = []
 
1474
        for key, value in properties.items():
 
1475
            lines.append(key + ': ' + value)
 
1476
        return lines
 
1477
 
 
1478
    def show_diff(self, to_file, diff, indent):
 
1479
        for l in diff.rstrip().split('\n'):
 
1480
            to_file.write(indent + '%s\n' % (l,))
 
1481
 
 
1482
 
 
1483
# Separator between revisions in long format
 
1484
_LONG_SEP = '-' * 60
 
1485
 
636
1486
 
637
1487
class LongLogFormatter(LogFormatter):
638
1488
 
639
1489
    supports_merge_revisions = True
 
1490
    preferred_levels = 1
640
1491
    supports_delta = True
641
1492
    supports_tags = True
 
1493
    supports_diff = True
 
1494
 
 
1495
    def __init__(self, *args, **kwargs):
 
1496
        super(LongLogFormatter, self).__init__(*args, **kwargs)
 
1497
        if self.show_timezone == 'original':
 
1498
            self.date_string = self._date_string_original_timezone
 
1499
        else:
 
1500
            self.date_string = self._date_string_with_timezone
 
1501
 
 
1502
    def _date_string_with_timezone(self, rev):
 
1503
        return format_date(rev.timestamp, rev.timezone or 0,
 
1504
                           self.show_timezone)
 
1505
 
 
1506
    def _date_string_original_timezone(self, rev):
 
1507
        return format_date_with_offset_in_original_timezone(rev.timestamp,
 
1508
            rev.timezone or 0)
642
1509
 
643
1510
    def log_revision(self, revision):
644
1511
        """Log a revision, either merged or not."""
645
1512
        indent = '    ' * revision.merge_depth
646
 
        to_file = self.to_file
647
 
        to_file.write(indent + '-' * 60 + '\n')
 
1513
        lines = [_LONG_SEP]
648
1514
        if revision.revno is not None:
649
 
            to_file.write(indent + 'revno: %s\n' % (revision.revno,))
 
1515
            lines.append('revno: %s%s' % (revision.revno,
 
1516
                self.merge_marker(revision)))
650
1517
        if revision.tags:
651
 
            to_file.write(indent + 'tags: %s\n' % (', '.join(revision.tags)))
 
1518
            lines.append('tags: %s' % (', '.join(revision.tags)))
652
1519
        if self.show_ids:
653
 
            to_file.write(indent + 'revision-id: ' + revision.rev.revision_id)
654
 
            to_file.write('\n')
 
1520
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
655
1521
            for parent_id in revision.rev.parent_ids:
656
 
                to_file.write(indent + 'parent: %s\n' % (parent_id,))
 
1522
                lines.append('parent: %s' % (parent_id,))
 
1523
        lines.extend(self.custom_properties(revision.rev))
657
1524
 
658
 
        author = revision.rev.properties.get('author', None)
659
 
        if author is not None:
660
 
            to_file.write(indent + 'author: %s\n' % (author,))
661
 
        to_file.write(indent + 'committer: %s\n' % (revision.rev.committer,))
 
1525
        committer = revision.rev.committer
 
1526
        authors = revision.rev.get_apparent_authors()
 
1527
        if authors != [committer]:
 
1528
            lines.append('author: %s' % (", ".join(authors),))
 
1529
        lines.append('committer: %s' % (committer,))
662
1530
 
663
1531
        branch_nick = revision.rev.properties.get('branch-nick', None)
664
1532
        if branch_nick is not None:
665
 
            to_file.write(indent + 'branch nick: %s\n' % (branch_nick,))
666
 
 
667
 
        date_str = format_date(revision.rev.timestamp,
668
 
                               revision.rev.timezone or 0,
669
 
                               self.show_timezone)
670
 
        to_file.write(indent + 'timestamp: %s\n' % (date_str,))
671
 
 
672
 
        to_file.write(indent + 'message:\n')
 
1533
            lines.append('branch nick: %s' % (branch_nick,))
 
1534
 
 
1535
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
 
1536
 
 
1537
        lines.append('message:')
673
1538
        if not revision.rev.message:
674
 
            to_file.write(indent + '  (no message)\n')
 
1539
            lines.append('  (no message)')
675
1540
        else:
676
1541
            message = revision.rev.message.rstrip('\r\n')
677
1542
            for l in message.split('\n'):
678
 
                to_file.write(indent + '  %s\n' % (l,))
 
1543
                lines.append('  %s' % (l,))
 
1544
 
 
1545
        # Dump the output, appending the delta and diff if requested
 
1546
        to_file = self.to_file
 
1547
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
679
1548
        if revision.delta is not None:
680
 
            revision.delta.show(to_file, self.show_ids, indent=indent)
 
1549
            # Use the standard status output to display changes
 
1550
            from bzrlib.delta import report_delta
 
1551
            report_delta(to_file, revision.delta, short_status=False, 
 
1552
                         show_ids=self.show_ids, indent=indent)
 
1553
        if revision.diff is not None:
 
1554
            to_file.write(indent + 'diff:\n')
 
1555
            to_file.flush()
 
1556
            # Note: we explicitly don't indent the diff (relative to the
 
1557
            # revision information) so that the output can be fed to patch -p0
 
1558
            self.show_diff(self.to_exact_file, revision.diff, indent)
 
1559
            self.to_exact_file.flush()
 
1560
 
 
1561
    def get_advice_separator(self):
 
1562
        """Get the text separating the log from the closing advice."""
 
1563
        return '-' * 60 + '\n'
681
1564
 
682
1565
 
683
1566
class ShortLogFormatter(LogFormatter):
684
1567
 
 
1568
    supports_merge_revisions = True
 
1569
    preferred_levels = 1
685
1570
    supports_delta = True
686
 
    supports_single_merge_revision = True
 
1571
    supports_tags = True
 
1572
    supports_diff = True
 
1573
 
 
1574
    def __init__(self, *args, **kwargs):
 
1575
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
 
1576
        self.revno_width_by_depth = {}
687
1577
 
688
1578
    def log_revision(self, revision):
 
1579
        # We need two indents: one per depth and one for the information
 
1580
        # relative to that indent. Most mainline revnos are 5 chars or
 
1581
        # less while dotted revnos are typically 11 chars or less. Once
 
1582
        # calculated, we need to remember the offset for a given depth
 
1583
        # as we might be starting from a dotted revno in the first column
 
1584
        # and we want subsequent mainline revisions to line up.
 
1585
        depth = revision.merge_depth
 
1586
        indent = '    ' * depth
 
1587
        revno_width = self.revno_width_by_depth.get(depth)
 
1588
        if revno_width is None:
 
1589
            if revision.revno.find('.') == -1:
 
1590
                # mainline revno, e.g. 12345
 
1591
                revno_width = 5
 
1592
            else:
 
1593
                # dotted revno, e.g. 12345.10.55
 
1594
                revno_width = 11
 
1595
            self.revno_width_by_depth[depth] = revno_width
 
1596
        offset = ' ' * (revno_width + 1)
 
1597
 
689
1598
        to_file = self.to_file
690
 
        date_str = format_date(revision.rev.timestamp,
691
 
                               revision.rev.timezone or 0,
692
 
                               self.show_timezone)
693
 
        is_merge = ''
694
 
        if len(revision.rev.parent_ids) > 1:
695
 
            is_merge = ' [merge]'
696
 
        to_file.write("%5s %s\t%s%s\n" % (revision.revno,
697
 
                self.short_author(revision.rev),
 
1599
        tags = ''
 
1600
        if revision.tags:
 
1601
            tags = ' {%s}' % (', '.join(revision.tags))
 
1602
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
 
1603
                revision.revno, self.short_author(revision.rev),
698
1604
                format_date(revision.rev.timestamp,
699
1605
                            revision.rev.timezone or 0,
700
1606
                            self.show_timezone, date_fmt="%Y-%m-%d",
701
1607
                            show_offset=False),
702
 
                is_merge))
 
1608
                tags, self.merge_marker(revision)))
 
1609
        self.show_properties(revision.rev, indent+offset)
703
1610
        if self.show_ids:
704
 
            to_file.write('      revision-id:%s\n' % (revision.rev.revision_id,))
 
1611
            to_file.write(indent + offset + 'revision-id:%s\n'
 
1612
                          % (revision.rev.revision_id,))
705
1613
        if not revision.rev.message:
706
 
            to_file.write('      (no message)\n')
 
1614
            to_file.write(indent + offset + '(no message)\n')
707
1615
        else:
708
1616
            message = revision.rev.message.rstrip('\r\n')
709
1617
            for l in message.split('\n'):
710
 
                to_file.write('      %s\n' % (l,))
 
1618
                to_file.write(indent + offset + '%s\n' % (l,))
711
1619
 
712
 
        # TODO: Why not show the modified files in a shorter form as
713
 
        # well? rewrap them single lines of appropriate length
714
1620
        if revision.delta is not None:
715
 
            revision.delta.show(to_file, self.show_ids)
 
1621
            # Use the standard status output to display changes
 
1622
            from bzrlib.delta import report_delta
 
1623
            report_delta(to_file, revision.delta, 
 
1624
                         short_status=self.delta_format==1, 
 
1625
                         show_ids=self.show_ids, indent=indent + offset)
 
1626
        if revision.diff is not None:
 
1627
            self.show_diff(self.to_exact_file, revision.diff, '      ')
716
1628
        to_file.write('\n')
717
1629
 
718
1630
 
719
1631
class LineLogFormatter(LogFormatter):
720
1632
 
721
 
    supports_single_merge_revision = True
 
1633
    supports_merge_revisions = True
 
1634
    preferred_levels = 1
 
1635
    supports_tags = True
722
1636
 
723
1637
    def __init__(self, *args, **kwargs):
724
1638
        super(LineLogFormatter, self).__init__(*args, **kwargs)
725
 
        self._max_chars = terminal_width() - 1
 
1639
        width = terminal_width()
 
1640
        if width is not None:
 
1641
            # we need one extra space for terminals that wrap on last char
 
1642
            width = width - 1
 
1643
        self._max_chars = width
726
1644
 
727
1645
    def truncate(self, str, max_len):
728
 
        if len(str) <= max_len:
 
1646
        if max_len is None or len(str) <= max_len:
729
1647
            return str
730
 
        return str[:max_len-3]+'...'
 
1648
        return str[:max_len-3] + '...'
731
1649
 
732
1650
    def date_string(self, rev):
733
 
        return format_date(rev.timestamp, rev.timezone or 0, 
 
1651
        return format_date(rev.timestamp, rev.timezone or 0,
734
1652
                           self.show_timezone, date_fmt="%Y-%m-%d",
735
1653
                           show_offset=False)
736
1654
 
741
1659
            return rev.message
742
1660
 
743
1661
    def log_revision(self, revision):
 
1662
        indent = '  ' * revision.merge_depth
744
1663
        self.to_file.write(self.log_string(revision.revno, revision.rev,
745
 
                                              self._max_chars))
 
1664
            self._max_chars, revision.tags, indent))
746
1665
        self.to_file.write('\n')
747
1666
 
748
 
    def log_string(self, revno, rev, max_chars):
 
1667
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
749
1668
        """Format log info into one string. Truncate tail of string
750
 
        :param  revno:      revision number (int) or None.
 
1669
        :param  revno:      revision number or None.
751
1670
                            Revision numbers counts from 1.
752
 
        :param  rev:        revision info object
 
1671
        :param  rev:        revision object
753
1672
        :param  max_chars:  maximum length of resulting string
 
1673
        :param  tags:       list of tags or None
 
1674
        :param  prefix:     string to prefix each line
754
1675
        :return:            formatted truncated string
755
1676
        """
756
1677
        out = []
759
1680
            out.append("%s:" % revno)
760
1681
        out.append(self.truncate(self.short_author(rev), 20))
761
1682
        out.append(self.date_string(rev))
 
1683
        if len(rev.parent_ids) > 1:
 
1684
            out.append('[merge]')
 
1685
        if tags:
 
1686
            tag_str = '{%s}' % (', '.join(tags))
 
1687
            out.append(tag_str)
762
1688
        out.append(rev.get_summary())
763
 
        return self.truncate(" ".join(out).rstrip('\n'), max_chars)
 
1689
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
 
1690
 
 
1691
 
 
1692
class GnuChangelogLogFormatter(LogFormatter):
 
1693
 
 
1694
    supports_merge_revisions = True
 
1695
    supports_delta = True
 
1696
 
 
1697
    def log_revision(self, revision):
 
1698
        """Log a revision, either merged or not."""
 
1699
        to_file = self.to_file
 
1700
 
 
1701
        date_str = format_date(revision.rev.timestamp,
 
1702
                               revision.rev.timezone or 0,
 
1703
                               self.show_timezone,
 
1704
                               date_fmt='%Y-%m-%d',
 
1705
                               show_offset=False)
 
1706
        committer_str = revision.rev.get_apparent_authors()[0].replace (' <', '  <')
 
1707
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
 
1708
 
 
1709
        if revision.delta is not None and revision.delta.has_changed():
 
1710
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
 
1711
                path, = c[:1]
 
1712
                to_file.write('\t* %s:\n' % (path,))
 
1713
            for c in revision.delta.renamed:
 
1714
                oldpath,newpath = c[:2]
 
1715
                # For renamed files, show both the old and the new path
 
1716
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
 
1717
            to_file.write('\n')
 
1718
 
 
1719
        if not revision.rev.message:
 
1720
            to_file.write('\tNo commit message\n')
 
1721
        else:
 
1722
            message = revision.rev.message.rstrip('\r\n')
 
1723
            for l in message.split('\n'):
 
1724
                to_file.write('\t%s\n' % (l.lstrip(),))
 
1725
            to_file.write('\n')
764
1726
 
765
1727
 
766
1728
def line_log(rev, max_chars):
792
1754
                                'Detailed log format')
793
1755
log_formatter_registry.register('line', LineLogFormatter,
794
1756
                                'Log format with one line per revision')
 
1757
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
 
1758
                                'Format used by GNU ChangeLog files')
795
1759
 
796
1760
 
797
1761
def register_formatter(name, formatter):
807
1771
    try:
808
1772
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
809
1773
    except KeyError:
810
 
        raise BzrCommandError("unknown log formatter: %r" % name)
 
1774
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
811
1775
 
812
1776
 
813
1777
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
870
1834
                 end_revision=len(new_rh),
871
1835
                 search=None)
872
1836
 
 
1837
 
 
1838
def get_history_change(old_revision_id, new_revision_id, repository):
 
1839
    """Calculate the uncommon lefthand history between two revisions.
 
1840
 
 
1841
    :param old_revision_id: The original revision id.
 
1842
    :param new_revision_id: The new revision id.
 
1843
    :param repository: The repository to use for the calculation.
 
1844
 
 
1845
    return old_history, new_history
 
1846
    """
 
1847
    old_history = []
 
1848
    old_revisions = set()
 
1849
    new_history = []
 
1850
    new_revisions = set()
 
1851
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
 
1852
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
 
1853
    stop_revision = None
 
1854
    do_old = True
 
1855
    do_new = True
 
1856
    while do_new or do_old:
 
1857
        if do_new:
 
1858
            try:
 
1859
                new_revision = new_iter.next()
 
1860
            except StopIteration:
 
1861
                do_new = False
 
1862
            else:
 
1863
                new_history.append(new_revision)
 
1864
                new_revisions.add(new_revision)
 
1865
                if new_revision in old_revisions:
 
1866
                    stop_revision = new_revision
 
1867
                    break
 
1868
        if do_old:
 
1869
            try:
 
1870
                old_revision = old_iter.next()
 
1871
            except StopIteration:
 
1872
                do_old = False
 
1873
            else:
 
1874
                old_history.append(old_revision)
 
1875
                old_revisions.add(old_revision)
 
1876
                if old_revision in new_revisions:
 
1877
                    stop_revision = old_revision
 
1878
                    break
 
1879
    new_history.reverse()
 
1880
    old_history.reverse()
 
1881
    if stop_revision is not None:
 
1882
        new_history = new_history[new_history.index(stop_revision) + 1:]
 
1883
        old_history = old_history[old_history.index(stop_revision) + 1:]
 
1884
    return old_history, new_history
 
1885
 
 
1886
 
 
1887
def show_branch_change(branch, output, old_revno, old_revision_id):
 
1888
    """Show the changes made to a branch.
 
1889
 
 
1890
    :param branch: The branch to show changes about.
 
1891
    :param output: A file-like object to write changes to.
 
1892
    :param old_revno: The revno of the old tip.
 
1893
    :param old_revision_id: The revision_id of the old tip.
 
1894
    """
 
1895
    new_revno, new_revision_id = branch.last_revision_info()
 
1896
    old_history, new_history = get_history_change(old_revision_id,
 
1897
                                                  new_revision_id,
 
1898
                                                  branch.repository)
 
1899
    if old_history == [] and new_history == []:
 
1900
        output.write('Nothing seems to have changed\n')
 
1901
        return
 
1902
 
 
1903
    log_format = log_formatter_registry.get_default(branch)
 
1904
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
 
1905
    if old_history != []:
 
1906
        output.write('*'*60)
 
1907
        output.write('\nRemoved Revisions:\n')
 
1908
        show_flat_log(branch.repository, old_history, old_revno, lf)
 
1909
        output.write('*'*60)
 
1910
        output.write('\n\n')
 
1911
    if new_history != []:
 
1912
        output.write('Added Revisions:\n')
 
1913
        start_revno = new_revno - len(new_history) + 1
 
1914
        show_log(branch, lf, None, verbose=False, direction='forward',
 
1915
                 start_revision=start_revno,)
 
1916
 
 
1917
 
 
1918
def show_flat_log(repository, history, last_revno, lf):
 
1919
    """Show a simple log of the specified history.
 
1920
 
 
1921
    :param repository: The repository to retrieve revisions from.
 
1922
    :param history: A list of revision_ids indicating the lefthand history.
 
1923
    :param last_revno: The revno of the last revision_id in the history.
 
1924
    :param lf: The log formatter to use.
 
1925
    """
 
1926
    start_revno = last_revno - len(history) + 1
 
1927
    revisions = repository.get_revisions(history)
 
1928
    for i, rev in enumerate(revisions):
 
1929
        lr = LogRevision(rev, i + last_revno, 0, None)
 
1930
        lf.log_revision(lr)
 
1931
 
 
1932
 
 
1933
def _get_info_for_log_files(revisionspec_list, file_list, add_cleanup):
 
1934
    """Find file-ids and kinds given a list of files and a revision range.
 
1935
 
 
1936
    We search for files at the end of the range. If not found there,
 
1937
    we try the start of the range.
 
1938
 
 
1939
    :param revisionspec_list: revision range as parsed on the command line
 
1940
    :param file_list: the list of paths given on the command line;
 
1941
      the first of these can be a branch location or a file path,
 
1942
      the remainder must be file paths
 
1943
    :param add_cleanup: When the branch returned is read locked,
 
1944
      an unlock call will be queued to the cleanup.
 
1945
    :return: (branch, info_list, start_rev_info, end_rev_info) where
 
1946
      info_list is a list of (relative_path, file_id, kind) tuples where
 
1947
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
 
1948
      branch will be read-locked.
 
1949
    """
 
1950
    from builtins import _get_revision_range, safe_relpath_files
 
1951
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
 
1952
    add_cleanup(b.lock_read().unlock)
 
1953
    # XXX: It's damn messy converting a list of paths to relative paths when
 
1954
    # those paths might be deleted ones, they might be on a case-insensitive
 
1955
    # filesystem and/or they might be in silly locations (like another branch).
 
1956
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
 
1957
    # file2 implicitly in the same dir as file1 or should its directory be
 
1958
    # taken from the current tree somehow?) For now, this solves the common
 
1959
    # case of running log in a nested directory, assuming paths beyond the
 
1960
    # first one haven't been deleted ...
 
1961
    if tree:
 
1962
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
 
1963
    else:
 
1964
        relpaths = [path] + file_list[1:]
 
1965
    info_list = []
 
1966
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
 
1967
        "log")
 
1968
    if relpaths in ([], [u'']):
 
1969
        return b, [], start_rev_info, end_rev_info
 
1970
    if start_rev_info is None and end_rev_info is None:
 
1971
        if tree is None:
 
1972
            tree = b.basis_tree()
 
1973
        tree1 = None
 
1974
        for fp in relpaths:
 
1975
            file_id = tree.path2id(fp)
 
1976
            kind = _get_kind_for_file_id(tree, file_id)
 
1977
            if file_id is None:
 
1978
                # go back to when time began
 
1979
                if tree1 is None:
 
1980
                    try:
 
1981
                        rev1 = b.get_rev_id(1)
 
1982
                    except errors.NoSuchRevision:
 
1983
                        # No history at all
 
1984
                        file_id = None
 
1985
                        kind = None
 
1986
                    else:
 
1987
                        tree1 = b.repository.revision_tree(rev1)
 
1988
                if tree1:
 
1989
                    file_id = tree1.path2id(fp)
 
1990
                    kind = _get_kind_for_file_id(tree1, file_id)
 
1991
            info_list.append((fp, file_id, kind))
 
1992
 
 
1993
    elif start_rev_info == end_rev_info:
 
1994
        # One revision given - file must exist in it
 
1995
        tree = b.repository.revision_tree(end_rev_info.rev_id)
 
1996
        for fp in relpaths:
 
1997
            file_id = tree.path2id(fp)
 
1998
            kind = _get_kind_for_file_id(tree, file_id)
 
1999
            info_list.append((fp, file_id, kind))
 
2000
 
 
2001
    else:
 
2002
        # Revision range given. Get the file-id from the end tree.
 
2003
        # If that fails, try the start tree.
 
2004
        rev_id = end_rev_info.rev_id
 
2005
        if rev_id is None:
 
2006
            tree = b.basis_tree()
 
2007
        else:
 
2008
            tree = b.repository.revision_tree(rev_id)
 
2009
        tree1 = None
 
2010
        for fp in relpaths:
 
2011
            file_id = tree.path2id(fp)
 
2012
            kind = _get_kind_for_file_id(tree, file_id)
 
2013
            if file_id is None:
 
2014
                if tree1 is None:
 
2015
                    rev_id = start_rev_info.rev_id
 
2016
                    if rev_id is None:
 
2017
                        rev1 = b.get_rev_id(1)
 
2018
                        tree1 = b.repository.revision_tree(rev1)
 
2019
                    else:
 
2020
                        tree1 = b.repository.revision_tree(rev_id)
 
2021
                file_id = tree1.path2id(fp)
 
2022
                kind = _get_kind_for_file_id(tree1, file_id)
 
2023
            info_list.append((fp, file_id, kind))
 
2024
    return b, info_list, start_rev_info, end_rev_info
 
2025
 
 
2026
 
 
2027
def _get_kind_for_file_id(tree, file_id):
 
2028
    """Return the kind of a file-id or None if it doesn't exist."""
 
2029
    if file_id is not None:
 
2030
        return tree.kind(file_id)
 
2031
    else:
 
2032
        return None
 
2033
 
 
2034
 
 
2035
properties_handler_registry = registry.Registry()
 
2036
 
 
2037
# Use the properties handlers to print out bug information if available
 
2038
def _bugs_properties_handler(revision):
 
2039
    if revision.properties.has_key('bugs'):
 
2040
        bug_lines = revision.properties['bugs'].split('\n')
 
2041
        bug_rows = [line.split(' ', 1) for line in bug_lines]
 
2042
        fixed_bug_urls = [row[0] for row in bug_rows if
 
2043
                          len(row) > 1 and row[1] == 'fixed']
 
2044
 
 
2045
        if fixed_bug_urls:
 
2046
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
 
2047
    return {}
 
2048
 
 
2049
properties_handler_registry.register('bugs_properties_handler',
 
2050
                                     _bugs_properties_handler)
 
2051
 
 
2052
 
 
2053
# adapters which revision ids to log are filtered. When log is called, the
 
2054
# log_rev_iterator is adapted through each of these factory methods.
 
2055
# Plugins are welcome to mutate this list in any way they like - as long
 
2056
# as the overall behaviour is preserved. At this point there is no extensible
 
2057
# mechanism for getting parameters to each factory method, and until there is
 
2058
# this won't be considered a stable api.
 
2059
log_adapters = [
 
2060
    # core log logic
 
2061
    _make_batch_filter,
 
2062
    # read revision objects
 
2063
    _make_revision_objects,
 
2064
    # filter on log messages
 
2065
    _make_search_filter,
 
2066
    # generate deltas for things we will show
 
2067
    _make_delta_filter
 
2068
    ]