~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

NEWS section template into a separate file

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007, 2009 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
17
 
18
18
 
50
50
"""
51
51
 
52
52
import codecs
 
53
from cStringIO import StringIO
53
54
from itertools import (
 
55
    chain,
54
56
    izip,
55
57
    )
56
58
import re
59
61
    warn,
60
62
    )
61
63
 
 
64
from bzrlib.lazy_import import lazy_import
 
65
lazy_import(globals(), """
 
66
 
62
67
from bzrlib import (
 
68
    bzrdir,
63
69
    config,
64
 
    lazy_regex,
 
70
    diff,
 
71
    errors,
 
72
    foreign,
 
73
    repository as _mod_repository,
 
74
    revision as _mod_revision,
 
75
    revisionspec,
 
76
    trace,
 
77
    tsort,
 
78
    )
 
79
""")
 
80
 
 
81
from bzrlib import (
65
82
    registry,
66
83
    )
67
 
from bzrlib.errors import (
68
 
    BzrCommandError,
69
 
    )
70
84
from bzrlib.osutils import (
71
85
    format_date,
72
86
    get_terminal_encoding,
 
87
    re_compile_checked,
73
88
    terminal_width,
74
89
    )
75
 
from bzrlib.repository import _strip_NULL_ghosts
76
 
from bzrlib.revision import (
77
 
    NULL_REVISION,
78
 
    )
79
 
from bzrlib.revisionspec import (
80
 
    RevisionInfo,
81
 
    )
82
 
from bzrlib.trace import mutter
83
 
from bzrlib.tsort import (
84
 
    merge_sort,
85
 
    topo_sort,
86
 
    )
87
90
 
88
91
 
89
92
def find_touching_revisions(branch, file_id):
147
150
             start_revision=None,
148
151
             end_revision=None,
149
152
             search=None,
150
 
             limit=None):
 
153
             limit=None,
 
154
             show_diff=False):
151
155
    """Write out human-readable log of commits to this branch.
152
156
 
153
 
    lf
154
 
        LogFormatter object to show the output.
155
 
 
156
 
    specific_fileid
157
 
        If true, list only the commits affecting the specified
158
 
        file, rather than all commits.
159
 
 
160
 
    verbose
161
 
        If true show added/changed/deleted/renamed files.
162
 
 
163
 
    direction
164
 
        'reverse' (default) is latest to earliest;
165
 
        'forward' is earliest to latest.
166
 
 
167
 
    start_revision
168
 
        If not None, only show revisions >= start_revision
169
 
 
170
 
    end_revision
171
 
        If not None, only show revisions <= end_revision
172
 
 
173
 
    search
174
 
        If not None, only show revisions with matching commit messages
175
 
 
176
 
    limit
177
 
        If not None or 0, only show limit revisions
178
 
    """
179
 
    branch.lock_read()
180
 
    try:
181
 
        if getattr(lf, 'begin_log', None):
182
 
            lf.begin_log()
183
 
 
184
 
        _show_log(branch, lf, specific_fileid, verbose, direction,
185
 
                  start_revision, end_revision, search, limit)
186
 
 
187
 
        if getattr(lf, 'end_log', None):
188
 
            lf.end_log()
189
 
    finally:
190
 
        branch.unlock()
191
 
 
192
 
 
193
 
def _show_log(branch,
194
 
             lf,
195
 
             specific_fileid=None,
196
 
             verbose=False,
197
 
             direction='reverse',
198
 
             start_revision=None,
199
 
             end_revision=None,
200
 
             search=None,
201
 
             limit=None):
202
 
    """Worker function for show_log - see show_log."""
203
 
    if not isinstance(lf, LogFormatter):
204
 
        warn("not a LogFormatter instance: %r" % lf)
205
 
 
206
 
    if specific_fileid:
207
 
        mutter('get log for file_id %r', specific_fileid)
208
 
    generate_merge_revisions = getattr(lf, 'supports_merge_revisions', False)
209
 
    allow_single_merge_revision = getattr(lf,
210
 
        'supports_single_merge_revision', False)
211
 
    view_revisions = calculate_view_revisions(branch, start_revision,
212
 
                                              end_revision, direction,
213
 
                                              specific_fileid,
214
 
                                              generate_merge_revisions,
215
 
                                              allow_single_merge_revision)
216
 
    if search is not None:
217
 
        searchRE = re.compile(search, re.IGNORECASE)
218
 
    else:
219
 
        searchRE = None
220
 
 
221
 
    rev_tag_dict = {}
222
 
    generate_tags = getattr(lf, 'supports_tags', False)
223
 
    if generate_tags:
224
 
        if branch.supports_tags():
225
 
            rev_tag_dict = branch.tags.get_reverse_tag_dict()
226
 
 
227
 
    generate_delta = verbose and getattr(lf, 'supports_delta', False)
228
 
 
229
 
    # now we just print all the revisions
230
 
    log_count = 0
231
 
    for (rev_id, revno, merge_depth), rev, delta in _iter_revisions(
232
 
        branch.repository, view_revisions, generate_delta):
233
 
        if searchRE:
234
 
            if not searchRE.search(rev.message):
235
 
                continue
236
 
 
237
 
        lr = LogRevision(rev, revno, merge_depth, delta,
238
 
                         rev_tag_dict.get(rev_id))
239
 
        lf.log_revision(lr)
240
 
        if limit:
241
 
            log_count += 1
242
 
            if log_count >= limit:
243
 
                break
244
 
 
245
 
 
246
 
def calculate_view_revisions(branch, start_revision, end_revision, direction,
247
 
                             specific_fileid, generate_merge_revisions,
248
 
                             allow_single_merge_revision):
249
 
    if (not generate_merge_revisions and start_revision is end_revision is
250
 
        None and direction == 'reverse' and specific_fileid is None):
251
 
        return _linear_view_revisions(branch)
252
 
 
253
 
    mainline_revs, rev_nos, start_rev_id, end_rev_id = \
254
 
        _get_mainline_revs(branch, start_revision, end_revision)
255
 
    if not mainline_revs:
 
157
    This function is being retained for backwards compatibility but
 
158
    should not be extended with new parameters. Use the new Logger class
 
159
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
 
160
    make_log_request_dict function.
 
161
 
 
162
    :param lf: The LogFormatter object showing the output.
 
163
 
 
164
    :param specific_fileid: If not None, list only the commits affecting the
 
165
        specified file, rather than all commits.
 
166
 
 
167
    :param verbose: If True show added/changed/deleted/renamed files.
 
168
 
 
169
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
 
170
        earliest to latest.
 
171
 
 
172
    :param start_revision: If not None, only show revisions >= start_revision
 
173
 
 
174
    :param end_revision: If not None, only show revisions <= end_revision
 
175
 
 
176
    :param search: If not None, only show revisions with matching commit
 
177
        messages
 
178
 
 
179
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
 
180
        if None or 0.
 
181
 
 
182
    :param show_diff: If True, output a diff after each revision.
 
183
    """
 
184
    # Convert old-style parameters to new-style parameters
 
185
    if specific_fileid is not None:
 
186
        file_ids = [specific_fileid]
 
187
    else:
 
188
        file_ids = None
 
189
    if verbose:
 
190
        if file_ids:
 
191
            delta_type = 'partial'
 
192
        else:
 
193
            delta_type = 'full'
 
194
    else:
 
195
        delta_type = None
 
196
    if show_diff:
 
197
        if file_ids:
 
198
            diff_type = 'partial'
 
199
        else:
 
200
            diff_type = 'full'
 
201
    else:
 
202
        diff_type = None
 
203
 
 
204
    # Build the request and execute it
 
205
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
 
206
        start_revision=start_revision, end_revision=end_revision,
 
207
        limit=limit, message_search=search,
 
208
        delta_type=delta_type, diff_type=diff_type)
 
209
    Logger(branch, rqst).show(lf)
 
210
 
 
211
 
 
212
# Note: This needs to be kept this in sync with the defaults in
 
213
# make_log_request_dict() below
 
214
_DEFAULT_REQUEST_PARAMS = {
 
215
    'direction': 'reverse',
 
216
    'levels': 1,
 
217
    'generate_tags': True,
 
218
    '_match_using_deltas': True,
 
219
    }
 
220
 
 
221
 
 
222
def make_log_request_dict(direction='reverse', specific_fileids=None,
 
223
    start_revision=None, end_revision=None, limit=None,
 
224
    message_search=None, levels=1, generate_tags=True, delta_type=None,
 
225
    diff_type=None, _match_using_deltas=True):
 
226
    """Convenience function for making a logging request dictionary.
 
227
 
 
228
    Using this function may make code slightly safer by ensuring
 
229
    parameters have the correct names. It also provides a reference
 
230
    point for documenting the supported parameters.
 
231
 
 
232
    :param direction: 'reverse' (default) is latest to earliest;
 
233
      'forward' is earliest to latest.
 
234
 
 
235
    :param specific_fileids: If not None, only include revisions
 
236
      affecting the specified files, rather than all revisions.
 
237
 
 
238
    :param start_revision: If not None, only generate
 
239
      revisions >= start_revision
 
240
 
 
241
    :param end_revision: If not None, only generate
 
242
      revisions <= end_revision
 
243
 
 
244
    :param limit: If set, generate only 'limit' revisions, all revisions
 
245
      are shown if None or 0.
 
246
 
 
247
    :param message_search: If not None, only include revisions with
 
248
      matching commit messages
 
249
 
 
250
    :param levels: the number of levels of revisions to
 
251
      generate; 1 for just the mainline; 0 for all levels.
 
252
 
 
253
    :param generate_tags: If True, include tags for matched revisions.
 
254
 
 
255
    :param delta_type: Either 'full', 'partial' or None.
 
256
      'full' means generate the complete delta - adds/deletes/modifies/etc;
 
257
      'partial' means filter the delta using specific_fileids;
 
258
      None means do not generate any delta.
 
259
 
 
260
    :param diff_type: Either 'full', 'partial' or None.
 
261
      'full' means generate the complete diff - adds/deletes/modifies/etc;
 
262
      'partial' means filter the diff using specific_fileids;
 
263
      None means do not generate any diff.
 
264
 
 
265
    :param _match_using_deltas: a private parameter controlling the
 
266
      algorithm used for matching specific_fileids. This parameter
 
267
      may be removed in the future so bzrlib client code should NOT
 
268
      use it.
 
269
    """
 
270
    return {
 
271
        'direction': direction,
 
272
        'specific_fileids': specific_fileids,
 
273
        'start_revision': start_revision,
 
274
        'end_revision': end_revision,
 
275
        'limit': limit,
 
276
        'message_search': message_search,
 
277
        'levels': levels,
 
278
        'generate_tags': generate_tags,
 
279
        'delta_type': delta_type,
 
280
        'diff_type': diff_type,
 
281
        # Add 'private' attributes for features that may be deprecated
 
282
        '_match_using_deltas': _match_using_deltas,
 
283
    }
 
284
 
 
285
 
 
286
def _apply_log_request_defaults(rqst):
 
287
    """Apply default values to a request dictionary."""
 
288
    result = _DEFAULT_REQUEST_PARAMS
 
289
    if rqst:
 
290
        result.update(rqst)
 
291
    return result
 
292
 
 
293
 
 
294
class LogGenerator(object):
 
295
    """A generator of log revisions."""
 
296
 
 
297
    def iter_log_revisions(self):
 
298
        """Iterate over LogRevision objects.
 
299
 
 
300
        :return: An iterator yielding LogRevision objects.
 
301
        """
 
302
        raise NotImplementedError(self.iter_log_revisions)
 
303
 
 
304
 
 
305
class Logger(object):
 
306
    """An object the generates, formats and displays a log."""
 
307
 
 
308
    def __init__(self, branch, rqst):
 
309
        """Create a Logger.
 
310
 
 
311
        :param branch: the branch to log
 
312
        :param rqst: A dictionary specifying the query parameters.
 
313
          See make_log_request_dict() for supported values.
 
314
        """
 
315
        self.branch = branch
 
316
        self.rqst = _apply_log_request_defaults(rqst)
 
317
 
 
318
    def show(self, lf):
 
319
        """Display the log.
 
320
 
 
321
        :param lf: The LogFormatter object to send the output to.
 
322
        """
 
323
        if not isinstance(lf, LogFormatter):
 
324
            warn("not a LogFormatter instance: %r" % lf)
 
325
 
 
326
        self.branch.lock_read()
 
327
        try:
 
328
            if getattr(lf, 'begin_log', None):
 
329
                lf.begin_log()
 
330
            self._show_body(lf)
 
331
            if getattr(lf, 'end_log', None):
 
332
                lf.end_log()
 
333
        finally:
 
334
            self.branch.unlock()
 
335
 
 
336
    def _show_body(self, lf):
 
337
        """Show the main log output.
 
338
 
 
339
        Subclasses may wish to override this.
 
340
        """
 
341
        # Tweak the LogRequest based on what the LogFormatter can handle.
 
342
        # (There's no point generating stuff if the formatter can't display it.)
 
343
        rqst = self.rqst
 
344
        rqst['levels'] = lf.get_levels()
 
345
        if not getattr(lf, 'supports_tags', False):
 
346
            rqst['generate_tags'] = False
 
347
        if not getattr(lf, 'supports_delta', False):
 
348
            rqst['delta_type'] = None
 
349
        if not getattr(lf, 'supports_diff', False):
 
350
            rqst['diff_type'] = None
 
351
 
 
352
        # Find and print the interesting revisions
 
353
        generator = self._generator_factory(self.branch, rqst)
 
354
        for lr in generator.iter_log_revisions():
 
355
            lf.log_revision(lr)
 
356
        lf.show_advice()
 
357
 
 
358
    def _generator_factory(self, branch, rqst):
 
359
        """Make the LogGenerator object to use.
 
360
        
 
361
        Subclasses may wish to override this.
 
362
        """
 
363
        return _DefaultLogGenerator(branch, rqst)
 
364
 
 
365
 
 
366
class _StartNotLinearAncestor(Exception):
 
367
    """Raised when a start revision is not found walking left-hand history."""
 
368
 
 
369
 
 
370
class _DefaultLogGenerator(LogGenerator):
 
371
    """The default generator of log revisions."""
 
372
 
 
373
    def __init__(self, branch, rqst):
 
374
        self.branch = branch
 
375
        self.rqst = rqst
 
376
        if rqst.get('generate_tags') and branch.supports_tags():
 
377
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
378
        else:
 
379
            self.rev_tag_dict = {}
 
380
 
 
381
    def iter_log_revisions(self):
 
382
        """Iterate over LogRevision objects.
 
383
 
 
384
        :return: An iterator yielding LogRevision objects.
 
385
        """
 
386
        rqst = self.rqst
 
387
        log_count = 0
 
388
        revision_iterator = self._create_log_revision_iterator()
 
389
        for revs in revision_iterator:
 
390
            for (rev_id, revno, merge_depth), rev, delta in revs:
 
391
                # 0 levels means show everything; merge_depth counts from 0
 
392
                levels = rqst.get('levels')
 
393
                if levels != 0 and merge_depth >= levels:
 
394
                    continue
 
395
                diff = self._format_diff(rev, rev_id)
 
396
                yield LogRevision(rev, revno, merge_depth, delta,
 
397
                    self.rev_tag_dict.get(rev_id), diff)
 
398
                limit = rqst.get('limit')
 
399
                if limit:
 
400
                    log_count += 1
 
401
                    if log_count >= limit:
 
402
                        return
 
403
 
 
404
    def _format_diff(self, rev, rev_id):
 
405
        diff_type = self.rqst.get('diff_type')
 
406
        if diff_type is None:
 
407
            return None
 
408
        repo = self.branch.repository
 
409
        if len(rev.parent_ids) == 0:
 
410
            ancestor_id = _mod_revision.NULL_REVISION
 
411
        else:
 
412
            ancestor_id = rev.parent_ids[0]
 
413
        tree_1 = repo.revision_tree(ancestor_id)
 
414
        tree_2 = repo.revision_tree(rev_id)
 
415
        file_ids = self.rqst.get('specific_fileids')
 
416
        if diff_type == 'partial' and file_ids is not None:
 
417
            specific_files = [tree_2.id2path(id) for id in file_ids]
 
418
        else:
 
419
            specific_files = None
 
420
        s = StringIO()
 
421
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
422
            new_label='')
 
423
        return s.getvalue()
 
424
 
 
425
    def _create_log_revision_iterator(self):
 
426
        """Create a revision iterator for log.
 
427
 
 
428
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
429
            delta).
 
430
        """
 
431
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
 
432
            self.branch, self.rqst.get('start_revision'),
 
433
            self.rqst.get('end_revision'))
 
434
        if self.rqst.get('_match_using_deltas'):
 
435
            return self._log_revision_iterator_using_delta_matching()
 
436
        else:
 
437
            # We're using the per-file-graph algorithm. This scales really
 
438
            # well but only makes sense if there is a single file and it's
 
439
            # not a directory
 
440
            file_count = len(self.rqst.get('specific_fileids'))
 
441
            if file_count != 1:
 
442
                raise BzrError("illegal LogRequest: must match-using-deltas "
 
443
                    "when logging %d files" % file_count)
 
444
            return self._log_revision_iterator_using_per_file_graph()
 
445
 
 
446
    def _log_revision_iterator_using_delta_matching(self):
 
447
        # Get the base revisions, filtering by the revision range
 
448
        rqst = self.rqst
 
449
        generate_merge_revisions = rqst.get('levels') != 1
 
450
        delayed_graph_generation = not rqst.get('specific_fileids') and (
 
451
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
 
452
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
 
453
            self.end_rev_id, rqst.get('direction'), generate_merge_revisions,
 
454
            delayed_graph_generation=delayed_graph_generation)
 
455
 
 
456
        # Apply the other filters
 
457
        return make_log_rev_iterator(self.branch, view_revisions,
 
458
            rqst.get('delta_type'), rqst.get('message_search'),
 
459
            file_ids=rqst.get('specific_fileids'),
 
460
            direction=rqst.get('direction'))
 
461
 
 
462
    def _log_revision_iterator_using_per_file_graph(self):
 
463
        # Get the base revisions, filtering by the revision range.
 
464
        # Note that we always generate the merge revisions because
 
465
        # filter_revisions_touching_file_id() requires them ...
 
466
        rqst = self.rqst
 
467
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
 
468
            self.end_rev_id, rqst.get('direction'), True)
 
469
        if not isinstance(view_revisions, list):
 
470
            view_revisions = list(view_revisions)
 
471
        view_revisions = _filter_revisions_touching_file_id(self.branch,
 
472
            rqst.get('specific_fileids')[0], view_revisions,
 
473
            include_merges=rqst.get('levels') != 1)
 
474
        return make_log_rev_iterator(self.branch, view_revisions,
 
475
            rqst.get('delta_type'), rqst.get('message_search'))
 
476
 
 
477
 
 
478
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
 
479
    generate_merge_revisions, delayed_graph_generation=False):
 
480
    """Calculate the revisions to view.
 
481
 
 
482
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
483
             a list of the same tuples.
 
484
    """
 
485
    br_revno, br_rev_id = branch.last_revision_info()
 
486
    if br_revno == 0:
256
487
        return []
257
488
 
 
489
    # If a single revision is requested, check we can handle it
 
490
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
 
491
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
 
492
    if generate_single_revision:
 
493
        return _generate_one_revision(branch, end_rev_id, br_rev_id, br_revno)
 
494
 
 
495
    # If we only want to see linear revisions, we can iterate ...
 
496
    if not generate_merge_revisions:
 
497
        return _generate_flat_revisions(branch, start_rev_id, end_rev_id,
 
498
            direction)
 
499
    else:
 
500
        return _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
501
            direction, delayed_graph_generation)
 
502
 
 
503
 
 
504
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
 
505
    if rev_id == br_rev_id:
 
506
        # It's the tip
 
507
        return [(br_rev_id, br_revno, 0)]
 
508
    else:
 
509
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
510
        revno_str = '.'.join(str(n) for n in revno)
 
511
        return [(rev_id, revno_str, 0)]
 
512
 
 
513
 
 
514
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
 
515
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
 
516
    # If a start limit was given and it's not obviously an
 
517
    # ancestor of the end limit, check it before outputting anything
 
518
    if direction == 'forward' or (start_rev_id
 
519
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
520
        try:
 
521
            result = list(result)
 
522
        except _StartNotLinearAncestor:
 
523
            raise errors.BzrCommandError('Start revision not found in'
 
524
                ' left-hand history of end revision.')
 
525
    if direction == 'forward':
 
526
        result = reversed(result)
 
527
    return result
 
528
 
 
529
 
 
530
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
 
531
    delayed_graph_generation):
 
532
    # On large trees, generating the merge graph can take 30-60 seconds
 
533
    # so we delay doing it until a merge is detected, incrementally
 
534
    # returning initial (non-merge) revisions while we can.
 
535
    initial_revisions = []
 
536
    if delayed_graph_generation:
 
537
        try:
 
538
            for rev_id, revno, depth in \
 
539
                _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
540
                if _has_merges(branch, rev_id):
 
541
                    end_rev_id = rev_id
 
542
                    break
 
543
                else:
 
544
                    initial_revisions.append((rev_id, revno, depth))
 
545
            else:
 
546
                # No merged revisions found
 
547
                if direction == 'reverse':
 
548
                    return initial_revisions
 
549
                elif direction == 'forward':
 
550
                    return reversed(initial_revisions)
 
551
                else:
 
552
                    raise ValueError('invalid direction %r' % direction)
 
553
        except _StartNotLinearAncestor:
 
554
            # A merge was never detected so the lower revision limit can't
 
555
            # be nested down somewhere
 
556
            raise errors.BzrCommandError('Start revision not found in'
 
557
                ' history of end revision.')
 
558
 
 
559
    # A log including nested merges is required. If the direction is reverse,
 
560
    # we rebase the initial merge depths so that the development line is
 
561
    # shown naturally, i.e. just like it is for linear logging. We can easily
 
562
    # make forward the exact opposite display, but showing the merge revisions
 
563
    # indented at the end seems slightly nicer in that case.
 
564
    view_revisions = chain(iter(initial_revisions),
 
565
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
566
        rebase_initial_depths=direction == 'reverse'))
258
567
    if direction == 'reverse':
259
 
        start_rev_id, end_rev_id = end_rev_id, start_rev_id
260
 
 
261
 
    generate_single_revision = False
262
 
    if ((not generate_merge_revisions)
263
 
        and ((start_rev_id and (start_rev_id not in rev_nos))
264
 
            or (end_rev_id and (end_rev_id not in rev_nos)))):
265
 
        generate_single_revision = ((start_rev_id == end_rev_id)
266
 
            and allow_single_merge_revision)
267
 
        if not generate_single_revision:
268
 
            raise BzrCommandError('Selected log formatter only supports '
269
 
                'mainline revisions.')
270
 
        generate_merge_revisions = generate_single_revision
271
 
    view_revs_iter = get_view_revisions(mainline_revs, rev_nos, branch,
272
 
                          direction, include_merges=generate_merge_revisions)
273
 
    view_revisions = _filter_revision_range(list(view_revs_iter),
274
 
                                            start_rev_id,
275
 
                                            end_rev_id)
276
 
    if view_revisions and generate_single_revision:
277
 
        view_revisions = view_revisions[0:1]
 
568
        return view_revisions
 
569
    elif direction == 'forward':
 
570
        # Forward means oldest first, adjusting for depth.
 
571
        view_revisions = reverse_by_depth(list(view_revisions))
 
572
        return _rebase_merge_depth(view_revisions)
 
573
    else:
 
574
        raise ValueError('invalid direction %r' % direction)
 
575
 
 
576
 
 
577
def _has_merges(branch, rev_id):
 
578
    """Does a revision have multiple parents or not?"""
 
579
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
 
580
    return len(parents) > 1
 
581
 
 
582
 
 
583
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
 
584
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
 
585
    if start_rev_id and end_rev_id:
 
586
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
 
587
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
 
588
        if len(start_dotted) == 1 and len(end_dotted) == 1:
 
589
            # both on mainline
 
590
            return start_dotted[0] <= end_dotted[0]
 
591
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
 
592
            start_dotted[0:1] == end_dotted[0:1]):
 
593
            # both on same development line
 
594
            return start_dotted[2] <= end_dotted[2]
 
595
        else:
 
596
            # not obvious
 
597
            return False
 
598
    return True
 
599
 
 
600
 
 
601
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
602
    """Calculate a sequence of revisions to view, newest to oldest.
 
603
 
 
604
    :param start_rev_id: the lower revision-id
 
605
    :param end_rev_id: the upper revision-id
 
606
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
607
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
 
608
      is not found walking the left-hand history
 
609
    """
 
610
    br_revno, br_rev_id = branch.last_revision_info()
 
611
    repo = branch.repository
 
612
    if start_rev_id is None and end_rev_id is None:
 
613
        cur_revno = br_revno
 
614
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
 
615
            yield revision_id, str(cur_revno), 0
 
616
            cur_revno -= 1
 
617
    else:
 
618
        if end_rev_id is None:
 
619
            end_rev_id = br_rev_id
 
620
        found_start = start_rev_id is None
 
621
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
 
622
            revno = branch.revision_id_to_dotted_revno(revision_id)
 
623
            revno_str = '.'.join(str(n) for n in revno)
 
624
            if not found_start and revision_id == start_rev_id:
 
625
                yield revision_id, revno_str, 0
 
626
                found_start = True
 
627
                break
 
628
            else:
 
629
                yield revision_id, revno_str, 0
 
630
        else:
 
631
            if not found_start:
 
632
                raise _StartNotLinearAncestor()
 
633
 
 
634
 
 
635
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
636
    rebase_initial_depths=True):
 
637
    """Calculate revisions to view including merges, newest to oldest.
 
638
 
 
639
    :param branch: the branch
 
640
    :param start_rev_id: the lower revision-id
 
641
    :param end_rev_id: the upper revision-id
 
642
    :param rebase_initial_depth: should depths be rebased until a mainline
 
643
      revision is found?
 
644
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
645
    """
 
646
    view_revisions = branch.iter_merge_sorted_revisions(
 
647
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
 
648
        stop_rule="with-merges")
 
649
    if not rebase_initial_depths:
 
650
        for (rev_id, merge_depth, revno, end_of_merge
 
651
             ) in view_revisions:
 
652
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
653
    else:
 
654
        # We're following a development line starting at a merged revision.
 
655
        # We need to adjust depths down by the initial depth until we find
 
656
        # a depth less than it. Then we use that depth as the adjustment.
 
657
        # If and when we reach the mainline, depth adjustment ends.
 
658
        depth_adjustment = None
 
659
        for (rev_id, merge_depth, revno, end_of_merge
 
660
             ) in view_revisions:
 
661
            if depth_adjustment is None:
 
662
                depth_adjustment = merge_depth
 
663
            if depth_adjustment:
 
664
                if merge_depth < depth_adjustment:
 
665
                    depth_adjustment = merge_depth
 
666
                merge_depth -= depth_adjustment
 
667
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
668
 
 
669
 
 
670
def calculate_view_revisions(branch, start_revision, end_revision, direction,
 
671
        specific_fileid, generate_merge_revisions):
 
672
    """Calculate the revisions to view.
 
673
 
 
674
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
675
             a list of the same tuples.
 
676
    """
 
677
    # This method is no longer called by the main code path.
 
678
    # It is retained for API compatibility and may be deprecated
 
679
    # soon. IGC 20090116
 
680
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
 
681
        end_revision)
 
682
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
 
683
        direction, generate_merge_revisions or specific_fileid))
278
684
    if specific_fileid:
279
685
        view_revisions = _filter_revisions_touching_file_id(branch,
280
 
                                                         specific_fileid,
281
 
                                                         mainline_revs,
282
 
                                                         view_revisions)
283
 
 
284
 
    # rebase merge_depth - unless there are no revisions or 
285
 
    # either the first or last revision have merge_depth = 0.
 
686
            specific_fileid, view_revisions,
 
687
            include_merges=generate_merge_revisions)
 
688
    return _rebase_merge_depth(view_revisions)
 
689
 
 
690
 
 
691
def _rebase_merge_depth(view_revisions):
 
692
    """Adjust depths upwards so the top level is 0."""
 
693
    # If either the first or last revision have a merge_depth of 0, we're done
286
694
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
287
695
        min_depth = min([d for r,n,d in view_revisions])
288
696
        if min_depth != 0:
290
698
    return view_revisions
291
699
 
292
700
 
293
 
def _linear_view_revisions(branch):
294
 
    start_revno, start_revision_id = branch.last_revision_info()
295
 
    repo = branch.repository
296
 
    revision_ids = repo.iter_reverse_revision_history(start_revision_id)
297
 
    for num, revision_id in enumerate(revision_ids):
298
 
        yield revision_id, str(start_revno - num), 0
299
 
 
300
 
 
301
 
def _iter_revisions(repository, view_revisions, generate_delta):
 
701
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
 
702
        file_ids=None, direction='reverse'):
 
703
    """Create a revision iterator for log.
 
704
 
 
705
    :param branch: The branch being logged.
 
706
    :param view_revisions: The revisions being viewed.
 
707
    :param generate_delta: Whether to generate a delta for each revision.
 
708
      Permitted values are None, 'full' and 'partial'.
 
709
    :param search: A user text search string.
 
710
    :param file_ids: If non empty, only revisions matching one or more of
 
711
      the file-ids are to be kept.
 
712
    :param direction: the direction in which view_revisions is sorted
 
713
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
714
        delta).
 
715
    """
 
716
    # Convert view_revisions into (view, None, None) groups to fit with
 
717
    # the standard interface here.
 
718
    if type(view_revisions) == list:
 
719
        # A single batch conversion is faster than many incremental ones.
 
720
        # As we have all the data, do a batch conversion.
 
721
        nones = [None] * len(view_revisions)
 
722
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
 
723
    else:
 
724
        def _convert():
 
725
            for view in view_revisions:
 
726
                yield (view, None, None)
 
727
        log_rev_iterator = iter([_convert()])
 
728
    for adapter in log_adapters:
 
729
        # It would be nicer if log adapters were first class objects
 
730
        # with custom parameters. This will do for now. IGC 20090127
 
731
        if adapter == _make_delta_filter:
 
732
            log_rev_iterator = adapter(branch, generate_delta,
 
733
                search, log_rev_iterator, file_ids, direction)
 
734
        else:
 
735
            log_rev_iterator = adapter(branch, generate_delta,
 
736
                search, log_rev_iterator)
 
737
    return log_rev_iterator
 
738
 
 
739
 
 
740
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
 
741
    """Create a filtered iterator of log_rev_iterator matching on a regex.
 
742
 
 
743
    :param branch: The branch being logged.
 
744
    :param generate_delta: Whether to generate a delta for each revision.
 
745
    :param search: A user text search string.
 
746
    :param log_rev_iterator: An input iterator containing all revisions that
 
747
        could be displayed, in lists.
 
748
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
749
        delta).
 
750
    """
 
751
    if search is None:
 
752
        return log_rev_iterator
 
753
    searchRE = re_compile_checked(search, re.IGNORECASE,
 
754
            'log message filter')
 
755
    return _filter_message_re(searchRE, log_rev_iterator)
 
756
 
 
757
 
 
758
def _filter_message_re(searchRE, log_rev_iterator):
 
759
    for revs in log_rev_iterator:
 
760
        new_revs = []
 
761
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
762
            if searchRE.search(rev.message):
 
763
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
 
764
        yield new_revs
 
765
 
 
766
 
 
767
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
 
768
    fileids=None, direction='reverse'):
 
769
    """Add revision deltas to a log iterator if needed.
 
770
 
 
771
    :param branch: The branch being logged.
 
772
    :param generate_delta: Whether to generate a delta for each revision.
 
773
      Permitted values are None, 'full' and 'partial'.
 
774
    :param search: A user text search string.
 
775
    :param log_rev_iterator: An input iterator containing all revisions that
 
776
        could be displayed, in lists.
 
777
    :param fileids: If non empty, only revisions matching one or more of
 
778
      the file-ids are to be kept.
 
779
    :param direction: the direction in which view_revisions is sorted
 
780
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
781
        delta).
 
782
    """
 
783
    if not generate_delta and not fileids:
 
784
        return log_rev_iterator
 
785
    return _generate_deltas(branch.repository, log_rev_iterator,
 
786
        generate_delta, fileids, direction)
 
787
 
 
788
 
 
789
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
 
790
    direction):
 
791
    """Create deltas for each batch of revisions in log_rev_iterator.
 
792
 
 
793
    If we're only generating deltas for the sake of filtering against
 
794
    file-ids, we stop generating deltas once all file-ids reach the
 
795
    appropriate life-cycle point. If we're receiving data newest to
 
796
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
 
797
    """
 
798
    check_fileids = fileids is not None and len(fileids) > 0
 
799
    if check_fileids:
 
800
        fileid_set = set(fileids)
 
801
        if direction == 'reverse':
 
802
            stop_on = 'add'
 
803
        else:
 
804
            stop_on = 'remove'
 
805
    else:
 
806
        fileid_set = None
 
807
    for revs in log_rev_iterator:
 
808
        # If we were matching against fileids and we've run out,
 
809
        # there's nothing left to do
 
810
        if check_fileids and not fileid_set:
 
811
            return
 
812
        revisions = [rev[1] for rev in revs]
 
813
        new_revs = []
 
814
        if delta_type == 'full' and not check_fileids:
 
815
            deltas = repository.get_deltas_for_revisions(revisions)
 
816
            for rev, delta in izip(revs, deltas):
 
817
                new_revs.append((rev[0], rev[1], delta))
 
818
        else:
 
819
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
 
820
            for rev, delta in izip(revs, deltas):
 
821
                if check_fileids:
 
822
                    if delta is None or not delta.has_changed():
 
823
                        continue
 
824
                    else:
 
825
                        _update_fileids(delta, fileid_set, stop_on)
 
826
                        if delta_type is None:
 
827
                            delta = None
 
828
                        elif delta_type == 'full':
 
829
                            # If the file matches all the time, rebuilding
 
830
                            # a full delta like this in addition to a partial
 
831
                            # one could be slow. However, it's likely that
 
832
                            # most revisions won't get this far, making it
 
833
                            # faster to filter on the partial deltas and
 
834
                            # build the occasional full delta than always
 
835
                            # building full deltas and filtering those.
 
836
                            rev_id = rev[0][0]
 
837
                            delta = repository.get_revision_delta(rev_id)
 
838
                new_revs.append((rev[0], rev[1], delta))
 
839
        yield new_revs
 
840
 
 
841
 
 
842
def _update_fileids(delta, fileids, stop_on):
 
843
    """Update the set of file-ids to search based on file lifecycle events.
 
844
    
 
845
    :param fileids: a set of fileids to update
 
846
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
 
847
      fileids set once their add or remove entry is detected respectively
 
848
    """
 
849
    if stop_on == 'add':
 
850
        for item in delta.added:
 
851
            if item[1] in fileids:
 
852
                fileids.remove(item[1])
 
853
    elif stop_on == 'delete':
 
854
        for item in delta.removed:
 
855
            if item[1] in fileids:
 
856
                fileids.remove(item[1])
 
857
 
 
858
 
 
859
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
 
860
    """Extract revision objects from the repository
 
861
 
 
862
    :param branch: The branch being logged.
 
863
    :param generate_delta: Whether to generate a delta for each revision.
 
864
    :param search: A user text search string.
 
865
    :param log_rev_iterator: An input iterator containing all revisions that
 
866
        could be displayed, in lists.
 
867
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
868
        delta).
 
869
    """
 
870
    repository = branch.repository
 
871
    for revs in log_rev_iterator:
 
872
        # r = revision_id, n = revno, d = merge depth
 
873
        revision_ids = [view[0] for view, _, _ in revs]
 
874
        revisions = repository.get_revisions(revision_ids)
 
875
        revs = [(rev[0], revision, rev[2]) for rev, revision in
 
876
            izip(revs, revisions)]
 
877
        yield revs
 
878
 
 
879
 
 
880
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
 
881
    """Group up a single large batch into smaller ones.
 
882
 
 
883
    :param branch: The branch being logged.
 
884
    :param generate_delta: Whether to generate a delta for each revision.
 
885
    :param search: A user text search string.
 
886
    :param log_rev_iterator: An input iterator containing all revisions that
 
887
        could be displayed, in lists.
 
888
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
889
        delta).
 
890
    """
 
891
    repository = branch.repository
302
892
    num = 9
303
 
    view_revisions = iter(view_revisions)
304
 
    while True:
305
 
        cur_view_revisions = [d for x, d in zip(range(num), view_revisions)]
306
 
        if len(cur_view_revisions) == 0:
307
 
            break
308
 
        cur_deltas = {}
309
 
        # r = revision, n = revno, d = merge depth
310
 
        revision_ids = [r for (r, n, d) in cur_view_revisions]
311
 
        revisions = repository.get_revisions(revision_ids)
312
 
        if generate_delta:
313
 
            deltas = repository.get_deltas_for_revisions(revisions)
314
 
            cur_deltas = dict(izip((r.revision_id for r in revisions),
315
 
                                   deltas))
316
 
        for view_data, revision in izip(cur_view_revisions, revisions):
317
 
            yield view_data, revision, cur_deltas.get(revision.revision_id)
318
 
        num = min(int(num * 1.5), 200)
 
893
    for batch in log_rev_iterator:
 
894
        batch = iter(batch)
 
895
        while True:
 
896
            step = [detail for _, detail in zip(range(num), batch)]
 
897
            if len(step) == 0:
 
898
                break
 
899
            yield step
 
900
            num = min(int(num * 1.5), 200)
 
901
 
 
902
 
 
903
def _get_revision_limits(branch, start_revision, end_revision):
 
904
    """Get and check revision limits.
 
905
 
 
906
    :param  branch: The branch containing the revisions.
 
907
 
 
908
    :param  start_revision: The first revision to be logged.
 
909
            For backwards compatibility this may be a mainline integer revno,
 
910
            but for merge revision support a RevisionInfo is expected.
 
911
 
 
912
    :param  end_revision: The last revision to be logged.
 
913
            For backwards compatibility this may be a mainline integer revno,
 
914
            but for merge revision support a RevisionInfo is expected.
 
915
 
 
916
    :return: (start_rev_id, end_rev_id) tuple.
 
917
    """
 
918
    branch_revno, branch_rev_id = branch.last_revision_info()
 
919
    start_rev_id = None
 
920
    if start_revision is None:
 
921
        start_revno = 1
 
922
    else:
 
923
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
924
            start_rev_id = start_revision.rev_id
 
925
            start_revno = start_revision.revno or 1
 
926
        else:
 
927
            branch.check_real_revno(start_revision)
 
928
            start_revno = start_revision
 
929
            start_rev_id = branch.get_rev_id(start_revno)
 
930
 
 
931
    end_rev_id = None
 
932
    if end_revision is None:
 
933
        end_revno = branch_revno
 
934
    else:
 
935
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
936
            end_rev_id = end_revision.rev_id
 
937
            end_revno = end_revision.revno or branch_revno
 
938
        else:
 
939
            branch.check_real_revno(end_revision)
 
940
            end_revno = end_revision
 
941
            end_rev_id = branch.get_rev_id(end_revno)
 
942
 
 
943
    if branch_revno != 0:
 
944
        if (start_rev_id == _mod_revision.NULL_REVISION
 
945
            or end_rev_id == _mod_revision.NULL_REVISION):
 
946
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
947
        if start_revno > end_revno:
 
948
            raise errors.BzrCommandError("Start revision must be older than "
 
949
                                         "the end revision.")
 
950
    return (start_rev_id, end_rev_id)
319
951
 
320
952
 
321
953
def _get_mainline_revs(branch, start_revision, end_revision):
322
954
    """Get the mainline revisions from the branch.
323
 
    
 
955
 
324
956
    Generates the list of mainline revisions for the branch.
325
 
    
326
 
    :param  branch: The branch containing the revisions. 
 
957
 
 
958
    :param  branch: The branch containing the revisions.
327
959
 
328
960
    :param  start_revision: The first revision to be logged.
329
961
            For backwards compatibility this may be a mainline integer revno,
339
971
    if branch_revno == 0:
340
972
        return None, None, None, None
341
973
 
342
 
    # For mainline generation, map start_revision and end_revision to 
343
 
    # mainline revnos. If the revision is not on the mainline choose the 
344
 
    # appropriate extreme of the mainline instead - the extra will be 
 
974
    # For mainline generation, map start_revision and end_revision to
 
975
    # mainline revnos. If the revision is not on the mainline choose the
 
976
    # appropriate extreme of the mainline instead - the extra will be
345
977
    # filtered later.
346
978
    # Also map the revisions to rev_ids, to be used in the later filtering
347
979
    # stage.
348
 
    start_rev_id = None 
 
980
    start_rev_id = None
349
981
    if start_revision is None:
350
982
        start_revno = 1
351
983
    else:
352
 
        if isinstance(start_revision, RevisionInfo):
 
984
        if isinstance(start_revision, revisionspec.RevisionInfo):
353
985
            start_rev_id = start_revision.rev_id
354
986
            start_revno = start_revision.revno or 1
355
987
        else:
356
988
            branch.check_real_revno(start_revision)
357
989
            start_revno = start_revision
358
 
    
 
990
 
359
991
    end_rev_id = None
360
992
    if end_revision is None:
361
993
        end_revno = branch_revno
362
994
    else:
363
 
        if isinstance(end_revision, RevisionInfo):
 
995
        if isinstance(end_revision, revisionspec.RevisionInfo):
364
996
            end_rev_id = end_revision.rev_id
365
997
            end_revno = end_revision.revno or branch_revno
366
998
        else:
367
999
            branch.check_real_revno(end_revision)
368
1000
            end_revno = end_revision
369
1001
 
370
 
    if ((start_rev_id == NULL_REVISION)
371
 
        or (end_rev_id == NULL_REVISION)):
372
 
        raise BzrCommandError('Logging revision 0 is invalid.')
 
1002
    if ((start_rev_id == _mod_revision.NULL_REVISION)
 
1003
        or (end_rev_id == _mod_revision.NULL_REVISION)):
 
1004
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
373
1005
    if start_revno > end_revno:
374
 
        raise BzrCommandError("Start revision must be older than "
375
 
                              "the end revision.")
 
1006
        raise errors.BzrCommandError("Start revision must be older than "
 
1007
                                     "the end revision.")
376
1008
 
377
1009
    if end_revno < start_revno:
378
1010
        return None, None, None, None
403
1035
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
404
1036
    """Filter view_revisions based on revision ranges.
405
1037
 
406
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth) 
 
1038
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
407
1039
            tuples to be filtered.
408
1040
 
409
1041
    :param start_rev_id: If not NONE specifies the first revision to be logged.
414
1046
 
415
1047
    :return: The filtered view_revisions.
416
1048
    """
417
 
    if start_rev_id or end_rev_id: 
 
1049
    # This method is no longer called by the main code path.
 
1050
    # It may be removed soon. IGC 20090127
 
1051
    if start_rev_id or end_rev_id:
418
1052
        revision_ids = [r for r, n, d in view_revisions]
419
1053
        if start_rev_id:
420
1054
            start_index = revision_ids.index(start_rev_id)
427
1061
                end_index = revision_ids.index(end_rev_id)
428
1062
            else:
429
1063
                end_index = len(view_revisions) - 1
430
 
        # To include the revisions merged into the last revision, 
 
1064
        # To include the revisions merged into the last revision,
431
1065
        # extend end_rev_id down to, but not including, the next rev
432
1066
        # with the same or lesser merge_depth
433
1067
        end_merge_depth = view_revisions[end_index][2]
443
1077
    return view_revisions
444
1078
 
445
1079
 
446
 
def _filter_revisions_touching_file_id(branch, file_id, mainline_revisions,
447
 
                                       view_revs_iter):
448
 
    """Return the list of revision ids which touch a given file id.
 
1080
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
 
1081
    include_merges=True):
 
1082
    r"""Return the list of revision ids which touch a given file id.
449
1083
 
450
1084
    The function filters view_revisions and returns a subset.
451
1085
    This includes the revisions which directly change the file id,
452
1086
    and the revisions which merge these changes. So if the
453
1087
    revision graph is::
454
 
        A
455
 
        |\
456
 
        B C
 
1088
        A-.
 
1089
        |\ \
 
1090
        B C E
 
1091
        |/ /
 
1092
        D |
 
1093
        |\|
 
1094
        | F
457
1095
        |/
458
 
        D
459
 
 
460
 
    And 'C' changes a file, then both C and D will be returned.
461
 
 
462
 
    This will also can be restricted based on a subset of the mainline.
 
1096
        G
 
1097
 
 
1098
    And 'C' changes a file, then both C and D will be returned. F will not be
 
1099
    returned even though it brings the changes to C into the branch starting
 
1100
    with E. (Note that if we were using F as the tip instead of G, then we
 
1101
    would see C, D, F.)
 
1102
 
 
1103
    This will also be restricted based on a subset of the mainline.
 
1104
 
 
1105
    :param branch: The branch where we can get text revision information.
 
1106
 
 
1107
    :param file_id: Filter out revisions that do not touch file_id.
 
1108
 
 
1109
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1110
        tuples. This is the list of revisions which will be filtered. It is
 
1111
        assumed that view_revisions is in merge_sort order (i.e. newest
 
1112
        revision first ).
 
1113
 
 
1114
    :param include_merges: include merge revisions in the result or not
463
1115
 
464
1116
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
465
1117
    """
466
 
    # find all the revisions that change the specific file
467
 
    # build the ancestry of each revision in the graph
468
 
    # - only listing the ancestors that change the specific file.
469
 
    graph = branch.repository.get_graph()
470
 
    # This asks for all mainline revisions, which means we only have to spider
471
 
    # sideways, rather than depth history. That said, its still size-of-history
472
 
    # and should be addressed.
473
 
    # mainline_revisions always includes an extra revision at the beginning, so
474
 
    # don't request it.
475
 
    parent_map = dict(((key, value) for key, value in
476
 
        graph.iter_ancestry(mainline_revisions[1:]) if value is not None))
477
 
    sorted_rev_list = topo_sort(parent_map.items())
478
 
    text_keys = [(file_id, rev_id) for rev_id in sorted_rev_list]
479
 
    modified_text_versions = branch.repository.texts.get_parent_map(text_keys)
480
 
    ancestry = {}
481
 
    for rev in sorted_rev_list:
482
 
        text_key = (file_id, rev)
483
 
        parents = parent_map[rev]
484
 
        if text_key not in modified_text_versions and len(parents) == 1:
485
 
            # We will not be adding anything new, so just use a reference to
486
 
            # the parent ancestry.
487
 
            rev_ancestry = ancestry[parents[0]]
 
1118
    # Lookup all possible text keys to determine which ones actually modified
 
1119
    # the file.
 
1120
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
 
1121
    next_keys = None
 
1122
    # Looking up keys in batches of 1000 can cut the time in half, as well as
 
1123
    # memory consumption. GraphIndex *does* like to look for a few keys in
 
1124
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
 
1125
    # TODO: This code needs to be re-evaluated periodically as we tune the
 
1126
    #       indexing layer. We might consider passing in hints as to the known
 
1127
    #       access pattern (sparse/clustered, high success rate/low success
 
1128
    #       rate). This particular access is clustered with a low success rate.
 
1129
    get_parent_map = branch.repository.texts.get_parent_map
 
1130
    modified_text_revisions = set()
 
1131
    chunk_size = 1000
 
1132
    for start in xrange(0, len(text_keys), chunk_size):
 
1133
        next_keys = text_keys[start:start + chunk_size]
 
1134
        # Only keep the revision_id portion of the key
 
1135
        modified_text_revisions.update(
 
1136
            [k[1] for k in get_parent_map(next_keys)])
 
1137
    del text_keys, next_keys
 
1138
 
 
1139
    result = []
 
1140
    # Track what revisions will merge the current revision, replace entries
 
1141
    # with 'None' when they have been added to result
 
1142
    current_merge_stack = [None]
 
1143
    for info in view_revisions:
 
1144
        rev_id, revno, depth = info
 
1145
        if depth == len(current_merge_stack):
 
1146
            current_merge_stack.append(info)
488
1147
        else:
489
 
            rev_ancestry = set()
490
 
            if text_key in modified_text_versions:
491
 
                rev_ancestry.add(rev)
492
 
            for parent in parents:
493
 
                if parent not in ancestry:
494
 
                    # parent is a Ghost, which won't be present in
495
 
                    # sorted_rev_list, but we may access it later, so create an
496
 
                    # empty node for it
497
 
                    ancestry[parent] = set()
498
 
                rev_ancestry = rev_ancestry.union(ancestry[parent])
499
 
        ancestry[rev] = rev_ancestry
500
 
 
501
 
    def is_merging_rev(r):
502
 
        parents = parent_map[r]
503
 
        if len(parents) > 1:
504
 
            leftparent = parents[0]
505
 
            for rightparent in parents[1:]:
506
 
                if not ancestry[leftparent].issuperset(
507
 
                        ancestry[rightparent]):
508
 
                    return True
509
 
        return False
510
 
 
511
 
    # filter from the view the revisions that did not change or merge 
512
 
    # the specific file
513
 
    return [(r, n, d) for r, n, d in view_revs_iter
514
 
            if (file_id, r) in modified_text_versions or is_merging_rev(r)]
 
1148
            del current_merge_stack[depth + 1:]
 
1149
            current_merge_stack[-1] = info
 
1150
 
 
1151
        if rev_id in modified_text_revisions:
 
1152
            # This needs to be logged, along with the extra revisions
 
1153
            for idx in xrange(len(current_merge_stack)):
 
1154
                node = current_merge_stack[idx]
 
1155
                if node is not None:
 
1156
                    if include_merges or node[2] == 0:
 
1157
                        result.append(node)
 
1158
                        current_merge_stack[idx] = None
 
1159
    return result
515
1160
 
516
1161
 
517
1162
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
520
1165
    :return: an iterator of (revision_id, revno, merge_depth)
521
1166
    (if there is no revno for a revision, None is supplied)
522
1167
    """
523
 
    if include_merges is False:
 
1168
    # This method is no longer called by the main code path.
 
1169
    # It is retained for API compatibility and may be deprecated
 
1170
    # soon. IGC 20090127
 
1171
    if not include_merges:
524
1172
        revision_ids = mainline_revs[1:]
525
1173
        if direction == 'reverse':
526
1174
            revision_ids.reverse()
536
1184
    parent_map = dict(((key, value) for key, value in
537
1185
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
538
1186
    # filter out ghosts; merge_sort errors on ghosts.
539
 
    rev_graph = _strip_NULL_ghosts(parent_map)
540
 
    merge_sorted_revisions = merge_sort(
 
1187
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
 
1188
    merge_sorted_revisions = tsort.merge_sort(
541
1189
        rev_graph,
542
1190
        mainline_revs[-1],
543
1191
        mainline_revs,
549
1197
    elif direction != 'reverse':
550
1198
        raise ValueError('invalid direction %r' % direction)
551
1199
 
552
 
    for sequence, rev_id, merge_depth, revno, end_of_merge in merge_sorted_revisions:
 
1200
    for (sequence, rev_id, merge_depth, revno, end_of_merge
 
1201
         ) in merge_sorted_revisions:
553
1202
        yield rev_id, '.'.join(map(str, revno)), merge_depth
554
1203
 
555
1204
 
560
1209
    revision of that depth.  There may be no topological justification for this,
561
1210
    but it looks much nicer.
562
1211
    """
 
1212
    # Add a fake revision at start so that we can always attach sub revisions
 
1213
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
563
1214
    zd_revisions = []
564
1215
    for val in merge_sorted_revisions:
565
1216
        if val[2] == _depth:
 
1217
            # Each revision at the current depth becomes a chunk grouping all
 
1218
            # higher depth revisions.
566
1219
            zd_revisions.append([val])
567
1220
        else:
568
1221
            zd_revisions[-1].append(val)
569
1222
    for revisions in zd_revisions:
570
1223
        if len(revisions) > 1:
 
1224
            # We have higher depth revisions, let reverse them locally
571
1225
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
572
1226
    zd_revisions.reverse()
573
1227
    result = []
574
1228
    for chunk in zd_revisions:
575
1229
        result.extend(chunk)
 
1230
    if _depth == 0:
 
1231
        # Top level call, get rid of the fake revisions that have been added
 
1232
        result = [r for r in result if r[0] is not None and r[1] is not None]
576
1233
    return result
577
1234
 
578
1235
 
580
1237
    """A revision to be logged (by LogFormatter.log_revision).
581
1238
 
582
1239
    A simple wrapper for the attributes of a revision to be logged.
583
 
    The attributes may or may not be populated, as determined by the 
 
1240
    The attributes may or may not be populated, as determined by the
584
1241
    logging options and the log formatter capabilities.
585
1242
    """
586
1243
 
587
1244
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
588
 
                 tags=None):
 
1245
                 tags=None, diff=None):
589
1246
        self.rev = rev
590
 
        self.revno = revno
 
1247
        self.revno = str(revno)
591
1248
        self.merge_depth = merge_depth
592
1249
        self.delta = delta
593
1250
        self.tags = tags
 
1251
        self.diff = diff
594
1252
 
595
1253
 
596
1254
class LogFormatter(object):
601
1259
    If the LogFormatter needs to be informed of the beginning or end of
602
1260
    a log it should implement the begin_log and/or end_log hook methods.
603
1261
 
604
 
    A LogFormatter should define the following supports_XXX flags 
 
1262
    A LogFormatter should define the following supports_XXX flags
605
1263
    to indicate which LogRevision attributes it supports:
606
1264
 
607
1265
    - supports_delta must be True if this log formatter supports delta.
608
 
        Otherwise the delta attribute may not be populated.
609
 
    - supports_merge_revisions must be True if this log formatter supports 
610
 
        merge revisions.  If not, and if supports_single_merge_revisions is
611
 
        also not True, then only mainline revisions will be passed to the 
612
 
        formatter.
613
 
    - supports_single_merge_revision must be True if this log formatter
614
 
        supports logging only a single merge revision.  This flag is
615
 
        only relevant if supports_merge_revisions is not True.
 
1266
        Otherwise the delta attribute may not be populated.  The 'delta_format'
 
1267
        attribute describes whether the 'short_status' format (1) or the long
 
1268
        one (2) should be used.
 
1269
 
 
1270
    - supports_merge_revisions must be True if this log formatter supports
 
1271
        merge revisions.  If not, then only mainline revisions will be passed
 
1272
        to the formatter.
 
1273
 
 
1274
    - preferred_levels is the number of levels this formatter defaults to.
 
1275
        The default value is zero meaning display all levels.
 
1276
        This value is only relevant if supports_merge_revisions is True.
 
1277
 
616
1278
    - supports_tags must be True if this log formatter supports tags.
617
1279
        Otherwise the tags attribute may not be populated.
 
1280
 
 
1281
    - supports_diff must be True if this log formatter supports diffs.
 
1282
        Otherwise the diff attribute may not be populated.
 
1283
 
 
1284
    Plugins can register functions to show custom revision properties using
 
1285
    the properties_handler_registry. The registered function
 
1286
    must respect the following interface description:
 
1287
        def my_show_properties(properties_dict):
 
1288
            # code that returns a dict {'name':'value'} of the properties
 
1289
            # to be shown
618
1290
    """
619
 
 
620
 
    def __init__(self, to_file, show_ids=False, show_timezone='original'):
 
1291
    preferred_levels = 0
 
1292
 
 
1293
    def __init__(self, to_file, show_ids=False, show_timezone='original',
 
1294
                 delta_format=None, levels=None, show_advice=False):
 
1295
        """Create a LogFormatter.
 
1296
 
 
1297
        :param to_file: the file to output to
 
1298
        :param show_ids: if True, revision-ids are to be displayed
 
1299
        :param show_timezone: the timezone to use
 
1300
        :param delta_format: the level of delta information to display
 
1301
          or None to leave it to the formatter to decide
 
1302
        :param levels: the number of levels to display; None or -1 to
 
1303
          let the log formatter decide.
 
1304
        :param show_advice: whether to show advice at the end of the
 
1305
          log or not
 
1306
        """
621
1307
        self.to_file = to_file
 
1308
        # 'exact' stream used to show diff, it should print content 'as is'
 
1309
        # and should not try to decode/encode it to unicode to avoid bug #328007
 
1310
        self.to_exact_file = getattr(to_file, 'stream', to_file)
622
1311
        self.show_ids = show_ids
623
1312
        self.show_timezone = show_timezone
624
 
 
625
 
# TODO: uncomment this block after show() has been removed.
626
 
# Until then defining log_revision would prevent _show_log calling show() 
627
 
# in legacy formatters.
628
 
#    def log_revision(self, revision):
629
 
#        """Log a revision.
630
 
#
631
 
#        :param  revision:   The LogRevision to be logged.
632
 
#        """
633
 
#        raise NotImplementedError('not implemented in abstract base')
 
1313
        if delta_format is None:
 
1314
            # Ensures backward compatibility
 
1315
            delta_format = 2 # long format
 
1316
        self.delta_format = delta_format
 
1317
        self.levels = levels
 
1318
        self._show_advice = show_advice
 
1319
        self._merge_count = 0
 
1320
 
 
1321
    def get_levels(self):
 
1322
        """Get the number of levels to display or 0 for all."""
 
1323
        if getattr(self, 'supports_merge_revisions', False):
 
1324
            if self.levels is None or self.levels == -1:
 
1325
                self.levels = self.preferred_levels
 
1326
        else:
 
1327
            self.levels = 1
 
1328
        return self.levels
 
1329
 
 
1330
    def log_revision(self, revision):
 
1331
        """Log a revision.
 
1332
 
 
1333
        :param  revision:   The LogRevision to be logged.
 
1334
        """
 
1335
        raise NotImplementedError('not implemented in abstract base')
 
1336
 
 
1337
    def show_advice(self):
 
1338
        """Output user advice, if any, when the log is completed."""
 
1339
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
 
1340
            advice_sep = self.get_advice_separator()
 
1341
            if advice_sep:
 
1342
                self.to_file.write(advice_sep)
 
1343
            self.to_file.write(
 
1344
                "Use --include-merges or -n0 to see merged revisions.\n")
 
1345
 
 
1346
    def get_advice_separator(self):
 
1347
        """Get the text separating the log from the closing advice."""
 
1348
        return ''
634
1349
 
635
1350
    def short_committer(self, rev):
636
1351
        name, address = config.parse_username(rev.committer)
639
1354
        return address
640
1355
 
641
1356
    def short_author(self, rev):
642
 
        name, address = config.parse_username(rev.get_apparent_author())
 
1357
        name, address = config.parse_username(rev.get_apparent_authors()[0])
643
1358
        if name:
644
1359
            return name
645
1360
        return address
646
1361
 
 
1362
    def merge_marker(self, revision):
 
1363
        """Get the merge marker to include in the output or '' if none."""
 
1364
        if len(revision.rev.parent_ids) > 1:
 
1365
            self._merge_count += 1
 
1366
            return ' [merge]'
 
1367
        else:
 
1368
            return ''
 
1369
 
 
1370
    def show_foreign_info(self, rev, indent):
 
1371
        """Custom log displayer for foreign revision identifiers.
 
1372
 
 
1373
        :param rev: Revision object.
 
1374
        """
 
1375
        # Revision comes directly from a foreign repository
 
1376
        if isinstance(rev, foreign.ForeignRevision):
 
1377
            self._write_properties(indent, rev.mapping.vcs.show_foreign_revid(
 
1378
                rev.foreign_revid))
 
1379
            return
 
1380
 
 
1381
        # Imported foreign revision revision ids always contain :
 
1382
        if not ":" in rev.revision_id:
 
1383
            return
 
1384
 
 
1385
        # Revision was once imported from a foreign repository
 
1386
        try:
 
1387
            foreign_revid, mapping = \
 
1388
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
 
1389
        except errors.InvalidRevisionId:
 
1390
            return
 
1391
 
 
1392
        self._write_properties(indent, 
 
1393
            mapping.vcs.show_foreign_revid(foreign_revid))
 
1394
 
 
1395
    def show_properties(self, revision, indent):
 
1396
        """Displays the custom properties returned by each registered handler.
 
1397
 
 
1398
        If a registered handler raises an error it is propagated.
 
1399
        """
 
1400
        for key, handler in properties_handler_registry.iteritems():
 
1401
            self._write_properties(indent, handler(revision))
 
1402
 
 
1403
    def _write_properties(self, indent, properties):
 
1404
        for key, value in properties.items():
 
1405
            self.to_file.write(indent + key + ': ' + value + '\n')
 
1406
 
 
1407
    def show_diff(self, to_file, diff, indent):
 
1408
        for l in diff.rstrip().split('\n'):
 
1409
            to_file.write(indent + '%s\n' % (l,))
 
1410
 
647
1411
 
648
1412
class LongLogFormatter(LogFormatter):
649
1413
 
650
1414
    supports_merge_revisions = True
 
1415
    preferred_levels = 1
651
1416
    supports_delta = True
652
1417
    supports_tags = True
 
1418
    supports_diff = True
653
1419
 
654
1420
    def log_revision(self, revision):
655
1421
        """Log a revision, either merged or not."""
657
1423
        to_file = self.to_file
658
1424
        to_file.write(indent + '-' * 60 + '\n')
659
1425
        if revision.revno is not None:
660
 
            to_file.write(indent + 'revno: %s\n' % (revision.revno,))
 
1426
            to_file.write(indent + 'revno: %s%s\n' % (revision.revno,
 
1427
                self.merge_marker(revision)))
661
1428
        if revision.tags:
662
1429
            to_file.write(indent + 'tags: %s\n' % (', '.join(revision.tags)))
663
1430
        if self.show_ids:
665
1432
            to_file.write('\n')
666
1433
            for parent_id in revision.rev.parent_ids:
667
1434
                to_file.write(indent + 'parent: %s\n' % (parent_id,))
 
1435
        self.show_foreign_info(revision.rev, indent)
 
1436
        self.show_properties(revision.rev, indent)
668
1437
 
669
 
        author = revision.rev.properties.get('author', None)
670
 
        if author is not None:
671
 
            to_file.write(indent + 'author: %s\n' % (author,))
672
 
        to_file.write(indent + 'committer: %s\n' % (revision.rev.committer,))
 
1438
        committer = revision.rev.committer
 
1439
        authors = revision.rev.get_apparent_authors()
 
1440
        if authors != [committer]:
 
1441
            to_file.write(indent + 'author: %s\n' % (", ".join(authors),))
 
1442
        to_file.write(indent + 'committer: %s\n' % (committer,))
673
1443
 
674
1444
        branch_nick = revision.rev.properties.get('branch-nick', None)
675
1445
        if branch_nick is not None:
688
1458
            for l in message.split('\n'):
689
1459
                to_file.write(indent + '  %s\n' % (l,))
690
1460
        if revision.delta is not None:
691
 
            revision.delta.show(to_file, self.show_ids, indent=indent)
 
1461
            # We don't respect delta_format for compatibility
 
1462
            revision.delta.show(to_file, self.show_ids, indent=indent,
 
1463
                                short_status=False)
 
1464
        if revision.diff is not None:
 
1465
            to_file.write(indent + 'diff:\n')
 
1466
            # Note: we explicitly don't indent the diff (relative to the
 
1467
            # revision information) so that the output can be fed to patch -p0
 
1468
            self.show_diff(self.to_exact_file, revision.diff, indent)
 
1469
 
 
1470
    def get_advice_separator(self):
 
1471
        """Get the text separating the log from the closing advice."""
 
1472
        return '-' * 60 + '\n'
692
1473
 
693
1474
 
694
1475
class ShortLogFormatter(LogFormatter):
695
1476
 
 
1477
    supports_merge_revisions = True
 
1478
    preferred_levels = 1
696
1479
    supports_delta = True
697
 
    supports_single_merge_revision = True
 
1480
    supports_tags = True
 
1481
    supports_diff = True
 
1482
 
 
1483
    def __init__(self, *args, **kwargs):
 
1484
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
 
1485
        self.revno_width_by_depth = {}
698
1486
 
699
1487
    def log_revision(self, revision):
 
1488
        # We need two indents: one per depth and one for the information
 
1489
        # relative to that indent. Most mainline revnos are 5 chars or
 
1490
        # less while dotted revnos are typically 11 chars or less. Once
 
1491
        # calculated, we need to remember the offset for a given depth
 
1492
        # as we might be starting from a dotted revno in the first column
 
1493
        # and we want subsequent mainline revisions to line up.
 
1494
        depth = revision.merge_depth
 
1495
        indent = '    ' * depth
 
1496
        revno_width = self.revno_width_by_depth.get(depth)
 
1497
        if revno_width is None:
 
1498
            if revision.revno.find('.') == -1:
 
1499
                # mainline revno, e.g. 12345
 
1500
                revno_width = 5
 
1501
            else:
 
1502
                # dotted revno, e.g. 12345.10.55
 
1503
                revno_width = 11
 
1504
            self.revno_width_by_depth[depth] = revno_width
 
1505
        offset = ' ' * (revno_width + 1)
 
1506
 
700
1507
        to_file = self.to_file
701
 
        is_merge = ''
702
 
        if len(revision.rev.parent_ids) > 1:
703
 
            is_merge = ' [merge]'
704
 
        to_file.write("%5s %s\t%s%s\n" % (revision.revno,
705
 
                self.short_author(revision.rev),
 
1508
        tags = ''
 
1509
        if revision.tags:
 
1510
            tags = ' {%s}' % (', '.join(revision.tags))
 
1511
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
 
1512
                revision.revno, self.short_author(revision.rev),
706
1513
                format_date(revision.rev.timestamp,
707
1514
                            revision.rev.timezone or 0,
708
1515
                            self.show_timezone, date_fmt="%Y-%m-%d",
709
1516
                            show_offset=False),
710
 
                is_merge))
 
1517
                tags, self.merge_marker(revision)))
 
1518
        self.show_foreign_info(revision.rev, indent+offset)
 
1519
        self.show_properties(revision.rev, indent+offset)
711
1520
        if self.show_ids:
712
 
            to_file.write('      revision-id:%s\n' % (revision.rev.revision_id,))
 
1521
            to_file.write(indent + offset + 'revision-id:%s\n'
 
1522
                          % (revision.rev.revision_id,))
713
1523
        if not revision.rev.message:
714
 
            to_file.write('      (no message)\n')
 
1524
            to_file.write(indent + offset + '(no message)\n')
715
1525
        else:
716
1526
            message = revision.rev.message.rstrip('\r\n')
717
1527
            for l in message.split('\n'):
718
 
                to_file.write('      %s\n' % (l,))
 
1528
                to_file.write(indent + offset + '%s\n' % (l,))
719
1529
 
720
 
        # TODO: Why not show the modified files in a shorter form as
721
 
        # well? rewrap them single lines of appropriate length
722
1530
        if revision.delta is not None:
723
 
            revision.delta.show(to_file, self.show_ids)
 
1531
            revision.delta.show(to_file, self.show_ids, indent=indent + offset,
 
1532
                                short_status=self.delta_format==1)
 
1533
        if revision.diff is not None:
 
1534
            self.show_diff(self.to_exact_file, revision.diff, '      ')
724
1535
        to_file.write('\n')
725
1536
 
726
1537
 
727
1538
class LineLogFormatter(LogFormatter):
728
1539
 
729
 
    supports_single_merge_revision = True
 
1540
    supports_merge_revisions = True
 
1541
    preferred_levels = 1
 
1542
    supports_tags = True
730
1543
 
731
1544
    def __init__(self, *args, **kwargs):
732
1545
        super(LineLogFormatter, self).__init__(*args, **kwargs)
738
1551
        return str[:max_len-3]+'...'
739
1552
 
740
1553
    def date_string(self, rev):
741
 
        return format_date(rev.timestamp, rev.timezone or 0, 
 
1554
        return format_date(rev.timestamp, rev.timezone or 0,
742
1555
                           self.show_timezone, date_fmt="%Y-%m-%d",
743
1556
                           show_offset=False)
744
1557
 
749
1562
            return rev.message
750
1563
 
751
1564
    def log_revision(self, revision):
 
1565
        indent = '  ' * revision.merge_depth
752
1566
        self.to_file.write(self.log_string(revision.revno, revision.rev,
753
 
                                              self._max_chars))
 
1567
            self._max_chars, revision.tags, indent))
754
1568
        self.to_file.write('\n')
755
1569
 
756
 
    def log_string(self, revno, rev, max_chars):
 
1570
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
757
1571
        """Format log info into one string. Truncate tail of string
758
 
        :param  revno:      revision number (int) or None.
 
1572
        :param  revno:      revision number or None.
759
1573
                            Revision numbers counts from 1.
760
 
        :param  rev:        revision info object
 
1574
        :param  rev:        revision object
761
1575
        :param  max_chars:  maximum length of resulting string
 
1576
        :param  tags:       list of tags or None
 
1577
        :param  prefix:     string to prefix each line
762
1578
        :return:            formatted truncated string
763
1579
        """
764
1580
        out = []
767
1583
            out.append("%s:" % revno)
768
1584
        out.append(self.truncate(self.short_author(rev), 20))
769
1585
        out.append(self.date_string(rev))
 
1586
        if len(rev.parent_ids) > 1:
 
1587
            out.append('[merge]')
 
1588
        if tags:
 
1589
            tag_str = '{%s}' % (', '.join(tags))
 
1590
            out.append(tag_str)
770
1591
        out.append(rev.get_summary())
771
 
        return self.truncate(" ".join(out).rstrip('\n'), max_chars)
 
1592
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
 
1593
 
 
1594
 
 
1595
class GnuChangelogLogFormatter(LogFormatter):
 
1596
 
 
1597
    supports_merge_revisions = True
 
1598
    supports_delta = True
 
1599
 
 
1600
    def log_revision(self, revision):
 
1601
        """Log a revision, either merged or not."""
 
1602
        to_file = self.to_file
 
1603
 
 
1604
        date_str = format_date(revision.rev.timestamp,
 
1605
                               revision.rev.timezone or 0,
 
1606
                               self.show_timezone,
 
1607
                               date_fmt='%Y-%m-%d',
 
1608
                               show_offset=False)
 
1609
        committer_str = revision.rev.committer.replace (' <', '  <')
 
1610
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
 
1611
 
 
1612
        if revision.delta is not None and revision.delta.has_changed():
 
1613
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
 
1614
                path, = c[:1]
 
1615
                to_file.write('\t* %s:\n' % (path,))
 
1616
            for c in revision.delta.renamed:
 
1617
                oldpath,newpath = c[:2]
 
1618
                # For renamed files, show both the old and the new path
 
1619
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
 
1620
            to_file.write('\n')
 
1621
 
 
1622
        if not revision.rev.message:
 
1623
            to_file.write('\tNo commit message\n')
 
1624
        else:
 
1625
            message = revision.rev.message.rstrip('\r\n')
 
1626
            for l in message.split('\n'):
 
1627
                to_file.write('\t%s\n' % (l.lstrip(),))
 
1628
            to_file.write('\n')
772
1629
 
773
1630
 
774
1631
def line_log(rev, max_chars):
800
1657
                                'Detailed log format')
801
1658
log_formatter_registry.register('line', LineLogFormatter,
802
1659
                                'Log format with one line per revision')
 
1660
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
 
1661
                                'Format used by GNU ChangeLog files')
803
1662
 
804
1663
 
805
1664
def register_formatter(name, formatter):
815
1674
    try:
816
1675
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
817
1676
    except KeyError:
818
 
        raise BzrCommandError("unknown log formatter: %r" % name)
 
1677
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
819
1678
 
820
1679
 
821
1680
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
878
1737
                 end_revision=len(new_rh),
879
1738
                 search=None)
880
1739
 
 
1740
 
 
1741
def get_history_change(old_revision_id, new_revision_id, repository):
 
1742
    """Calculate the uncommon lefthand history between two revisions.
 
1743
 
 
1744
    :param old_revision_id: The original revision id.
 
1745
    :param new_revision_id: The new revision id.
 
1746
    :param repository: The repository to use for the calculation.
 
1747
 
 
1748
    return old_history, new_history
 
1749
    """
 
1750
    old_history = []
 
1751
    old_revisions = set()
 
1752
    new_history = []
 
1753
    new_revisions = set()
 
1754
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
 
1755
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
 
1756
    stop_revision = None
 
1757
    do_old = True
 
1758
    do_new = True
 
1759
    while do_new or do_old:
 
1760
        if do_new:
 
1761
            try:
 
1762
                new_revision = new_iter.next()
 
1763
            except StopIteration:
 
1764
                do_new = False
 
1765
            else:
 
1766
                new_history.append(new_revision)
 
1767
                new_revisions.add(new_revision)
 
1768
                if new_revision in old_revisions:
 
1769
                    stop_revision = new_revision
 
1770
                    break
 
1771
        if do_old:
 
1772
            try:
 
1773
                old_revision = old_iter.next()
 
1774
            except StopIteration:
 
1775
                do_old = False
 
1776
            else:
 
1777
                old_history.append(old_revision)
 
1778
                old_revisions.add(old_revision)
 
1779
                if old_revision in new_revisions:
 
1780
                    stop_revision = old_revision
 
1781
                    break
 
1782
    new_history.reverse()
 
1783
    old_history.reverse()
 
1784
    if stop_revision is not None:
 
1785
        new_history = new_history[new_history.index(stop_revision) + 1:]
 
1786
        old_history = old_history[old_history.index(stop_revision) + 1:]
 
1787
    return old_history, new_history
 
1788
 
 
1789
 
 
1790
def show_branch_change(branch, output, old_revno, old_revision_id):
 
1791
    """Show the changes made to a branch.
 
1792
 
 
1793
    :param branch: The branch to show changes about.
 
1794
    :param output: A file-like object to write changes to.
 
1795
    :param old_revno: The revno of the old tip.
 
1796
    :param old_revision_id: The revision_id of the old tip.
 
1797
    """
 
1798
    new_revno, new_revision_id = branch.last_revision_info()
 
1799
    old_history, new_history = get_history_change(old_revision_id,
 
1800
                                                  new_revision_id,
 
1801
                                                  branch.repository)
 
1802
    if old_history == [] and new_history == []:
 
1803
        output.write('Nothing seems to have changed\n')
 
1804
        return
 
1805
 
 
1806
    log_format = log_formatter_registry.get_default(branch)
 
1807
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
 
1808
    if old_history != []:
 
1809
        output.write('*'*60)
 
1810
        output.write('\nRemoved Revisions:\n')
 
1811
        show_flat_log(branch.repository, old_history, old_revno, lf)
 
1812
        output.write('*'*60)
 
1813
        output.write('\n\n')
 
1814
    if new_history != []:
 
1815
        output.write('Added Revisions:\n')
 
1816
        start_revno = new_revno - len(new_history) + 1
 
1817
        show_log(branch, lf, None, verbose=False, direction='forward',
 
1818
                 start_revision=start_revno,)
 
1819
 
 
1820
 
 
1821
def show_flat_log(repository, history, last_revno, lf):
 
1822
    """Show a simple log of the specified history.
 
1823
 
 
1824
    :param repository: The repository to retrieve revisions from.
 
1825
    :param history: A list of revision_ids indicating the lefthand history.
 
1826
    :param last_revno: The revno of the last revision_id in the history.
 
1827
    :param lf: The log formatter to use.
 
1828
    """
 
1829
    start_revno = last_revno - len(history) + 1
 
1830
    revisions = repository.get_revisions(history)
 
1831
    for i, rev in enumerate(revisions):
 
1832
        lr = LogRevision(rev, i + last_revno, 0, None)
 
1833
        lf.log_revision(lr)
 
1834
 
 
1835
 
 
1836
def _get_info_for_log_files(revisionspec_list, file_list):
 
1837
    """Find file-ids and kinds given a list of files and a revision range.
 
1838
 
 
1839
    We search for files at the end of the range. If not found there,
 
1840
    we try the start of the range.
 
1841
 
 
1842
    :param revisionspec_list: revision range as parsed on the command line
 
1843
    :param file_list: the list of paths given on the command line;
 
1844
      the first of these can be a branch location or a file path,
 
1845
      the remainder must be file paths
 
1846
    :return: (branch, info_list, start_rev_info, end_rev_info) where
 
1847
      info_list is a list of (relative_path, file_id, kind) tuples where
 
1848
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
 
1849
      branch will be read-locked.
 
1850
    """
 
1851
    from builtins import _get_revision_range, safe_relpath_files
 
1852
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
 
1853
    b.lock_read()
 
1854
    # XXX: It's damn messy converting a list of paths to relative paths when
 
1855
    # those paths might be deleted ones, they might be on a case-insensitive
 
1856
    # filesystem and/or they might be in silly locations (like another branch).
 
1857
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
 
1858
    # file2 implicitly in the same dir as file1 or should its directory be
 
1859
    # taken from the current tree somehow?) For now, this solves the common
 
1860
    # case of running log in a nested directory, assuming paths beyond the
 
1861
    # first one haven't been deleted ...
 
1862
    if tree:
 
1863
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
 
1864
    else:
 
1865
        relpaths = [path] + file_list[1:]
 
1866
    info_list = []
 
1867
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
 
1868
        "log")
 
1869
    if relpaths in ([], [u'']):
 
1870
        return b, [], start_rev_info, end_rev_info
 
1871
    if start_rev_info is None and end_rev_info is None:
 
1872
        if tree is None:
 
1873
            tree = b.basis_tree()
 
1874
        tree1 = None
 
1875
        for fp in relpaths:
 
1876
            file_id = tree.path2id(fp)
 
1877
            kind = _get_kind_for_file_id(tree, file_id)
 
1878
            if file_id is None:
 
1879
                # go back to when time began
 
1880
                if tree1 is None:
 
1881
                    try:
 
1882
                        rev1 = b.get_rev_id(1)
 
1883
                    except errors.NoSuchRevision:
 
1884
                        # No history at all
 
1885
                        file_id = None
 
1886
                        kind = None
 
1887
                    else:
 
1888
                        tree1 = b.repository.revision_tree(rev1)
 
1889
                if tree1:
 
1890
                    file_id = tree1.path2id(fp)
 
1891
                    kind = _get_kind_for_file_id(tree1, file_id)
 
1892
            info_list.append((fp, file_id, kind))
 
1893
 
 
1894
    elif start_rev_info == end_rev_info:
 
1895
        # One revision given - file must exist in it
 
1896
        tree = b.repository.revision_tree(end_rev_info.rev_id)
 
1897
        for fp in relpaths:
 
1898
            file_id = tree.path2id(fp)
 
1899
            kind = _get_kind_for_file_id(tree, file_id)
 
1900
            info_list.append((fp, file_id, kind))
 
1901
 
 
1902
    else:
 
1903
        # Revision range given. Get the file-id from the end tree.
 
1904
        # If that fails, try the start tree.
 
1905
        rev_id = end_rev_info.rev_id
 
1906
        if rev_id is None:
 
1907
            tree = b.basis_tree()
 
1908
        else:
 
1909
            tree = b.repository.revision_tree(rev_id)
 
1910
        tree1 = None
 
1911
        for fp in relpaths:
 
1912
            file_id = tree.path2id(fp)
 
1913
            kind = _get_kind_for_file_id(tree, file_id)
 
1914
            if file_id is None:
 
1915
                if tree1 is None:
 
1916
                    rev_id = start_rev_info.rev_id
 
1917
                    if rev_id is None:
 
1918
                        rev1 = b.get_rev_id(1)
 
1919
                        tree1 = b.repository.revision_tree(rev1)
 
1920
                    else:
 
1921
                        tree1 = b.repository.revision_tree(rev_id)
 
1922
                file_id = tree1.path2id(fp)
 
1923
                kind = _get_kind_for_file_id(tree1, file_id)
 
1924
            info_list.append((fp, file_id, kind))
 
1925
    return b, info_list, start_rev_info, end_rev_info
 
1926
 
 
1927
 
 
1928
def _get_kind_for_file_id(tree, file_id):
 
1929
    """Return the kind of a file-id or None if it doesn't exist."""
 
1930
    if file_id is not None:
 
1931
        return tree.kind(file_id)
 
1932
    else:
 
1933
        return None
 
1934
 
 
1935
 
 
1936
properties_handler_registry = registry.Registry()
 
1937
 
 
1938
 
 
1939
# adapters which revision ids to log are filtered. When log is called, the
 
1940
# log_rev_iterator is adapted through each of these factory methods.
 
1941
# Plugins are welcome to mutate this list in any way they like - as long
 
1942
# as the overall behaviour is preserved. At this point there is no extensible
 
1943
# mechanism for getting parameters to each factory method, and until there is
 
1944
# this won't be considered a stable api.
 
1945
log_adapters = [
 
1946
    # core log logic
 
1947
    _make_batch_filter,
 
1948
    # read revision objects
 
1949
    _make_revision_objects,
 
1950
    # filter on log messages
 
1951
    _make_search_filter,
 
1952
    # generate deltas for things we will show
 
1953
    _make_delta_filter
 
1954
    ]