~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2009-08-27 02:27:19 UTC
  • mfrom: (4634.3.19 gc-batching)
  • Revision ID: pqm@pqm.ubuntu.com-20090827022719-bl2yoqhpj3fcfczu
(andrew) Fix #402657: 2a fetch over dumb transport reads one group at
        a time.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007, 2009 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
17
 
18
18
 
50
50
"""
51
51
 
52
52
import codecs
 
53
from cStringIO import StringIO
53
54
from itertools import (
 
55
    chain,
54
56
    izip,
55
57
    )
56
58
import re
63
65
lazy_import(globals(), """
64
66
 
65
67
from bzrlib import (
 
68
    bzrdir,
66
69
    config,
 
70
    diff,
67
71
    errors,
 
72
    foreign,
68
73
    repository as _mod_repository,
69
74
    revision as _mod_revision,
70
75
    revisionspec,
79
84
from bzrlib.osutils import (
80
85
    format_date,
81
86
    get_terminal_encoding,
 
87
    re_compile_checked,
82
88
    terminal_width,
83
89
    )
84
90
 
144
150
             start_revision=None,
145
151
             end_revision=None,
146
152
             search=None,
147
 
             limit=None):
 
153
             limit=None,
 
154
             show_diff=False):
148
155
    """Write out human-readable log of commits to this branch.
149
156
 
150
 
    lf
151
 
        LogFormatter object to show the output.
152
 
 
153
 
    specific_fileid
154
 
        If true, list only the commits affecting the specified
155
 
        file, rather than all commits.
156
 
 
157
 
    verbose
158
 
        If true show added/changed/deleted/renamed files.
159
 
 
160
 
    direction
161
 
        'reverse' (default) is latest to earliest;
162
 
        'forward' is earliest to latest.
163
 
 
164
 
    start_revision
165
 
        If not None, only show revisions >= start_revision
166
 
 
167
 
    end_revision
168
 
        If not None, only show revisions <= end_revision
169
 
 
170
 
    search
171
 
        If not None, only show revisions with matching commit messages
172
 
 
173
 
    limit
174
 
        If not None or 0, only show limit revisions
175
 
    """
176
 
    branch.lock_read()
177
 
    try:
178
 
        if getattr(lf, 'begin_log', None):
179
 
            lf.begin_log()
180
 
 
181
 
        _show_log(branch, lf, specific_fileid, verbose, direction,
182
 
                  start_revision, end_revision, search, limit)
183
 
 
184
 
        if getattr(lf, 'end_log', None):
185
 
            lf.end_log()
186
 
    finally:
187
 
        branch.unlock()
188
 
 
189
 
 
190
 
def _show_log(branch,
191
 
             lf,
192
 
             specific_fileid=None,
193
 
             verbose=False,
194
 
             direction='reverse',
195
 
             start_revision=None,
196
 
             end_revision=None,
197
 
             search=None,
198
 
             limit=None):
199
 
    """Worker function for show_log - see show_log."""
200
 
    if not isinstance(lf, LogFormatter):
201
 
        warn("not a LogFormatter instance: %r" % lf)
202
 
 
203
 
    if specific_fileid:
204
 
        trace.mutter('get log for file_id %r', specific_fileid)
205
 
    generate_merge_revisions = getattr(lf, 'supports_merge_revisions', False)
206
 
    allow_single_merge_revision = getattr(lf,
207
 
        'supports_single_merge_revision', False)
208
 
    view_revisions = calculate_view_revisions(branch, start_revision,
209
 
                                              end_revision, direction,
210
 
                                              specific_fileid,
211
 
                                              generate_merge_revisions,
212
 
                                              allow_single_merge_revision)
213
 
    rev_tag_dict = {}
214
 
    generate_tags = getattr(lf, 'supports_tags', False)
215
 
    if generate_tags:
216
 
        if branch.supports_tags():
217
 
            rev_tag_dict = branch.tags.get_reverse_tag_dict()
218
 
 
219
 
    generate_delta = verbose and getattr(lf, 'supports_delta', False)
220
 
 
221
 
    # now we just print all the revisions
222
 
    log_count = 0
223
 
    revision_iterator = make_log_rev_iterator(branch, view_revisions,
224
 
        generate_delta, search)
225
 
    for revs in revision_iterator:
226
 
        for (rev_id, revno, merge_depth), rev, delta in revs:
227
 
            lr = LogRevision(rev, revno, merge_depth, delta,
228
 
                             rev_tag_dict.get(rev_id))
 
157
    This function is being retained for backwards compatibility but
 
158
    should not be extended with new parameters. Use the new Logger class
 
159
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
 
160
    make_log_request_dict function.
 
161
 
 
162
    :param lf: The LogFormatter object showing the output.
 
163
 
 
164
    :param specific_fileid: If not None, list only the commits affecting the
 
165
        specified file, rather than all commits.
 
166
 
 
167
    :param verbose: If True show added/changed/deleted/renamed files.
 
168
 
 
169
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
 
170
        earliest to latest.
 
171
 
 
172
    :param start_revision: If not None, only show revisions >= start_revision
 
173
 
 
174
    :param end_revision: If not None, only show revisions <= end_revision
 
175
 
 
176
    :param search: If not None, only show revisions with matching commit
 
177
        messages
 
178
 
 
179
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
 
180
        if None or 0.
 
181
 
 
182
    :param show_diff: If True, output a diff after each revision.
 
183
    """
 
184
    # Convert old-style parameters to new-style parameters
 
185
    if specific_fileid is not None:
 
186
        file_ids = [specific_fileid]
 
187
    else:
 
188
        file_ids = None
 
189
    if verbose:
 
190
        if file_ids:
 
191
            delta_type = 'partial'
 
192
        else:
 
193
            delta_type = 'full'
 
194
    else:
 
195
        delta_type = None
 
196
    if show_diff:
 
197
        if file_ids:
 
198
            diff_type = 'partial'
 
199
        else:
 
200
            diff_type = 'full'
 
201
    else:
 
202
        diff_type = None
 
203
 
 
204
    # Build the request and execute it
 
205
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
 
206
        start_revision=start_revision, end_revision=end_revision,
 
207
        limit=limit, message_search=search,
 
208
        delta_type=delta_type, diff_type=diff_type)
 
209
    Logger(branch, rqst).show(lf)
 
210
 
 
211
 
 
212
# Note: This needs to be kept this in sync with the defaults in
 
213
# make_log_request_dict() below
 
214
_DEFAULT_REQUEST_PARAMS = {
 
215
    'direction': 'reverse',
 
216
    'levels': 1,
 
217
    'generate_tags': True,
 
218
    '_match_using_deltas': True,
 
219
    }
 
220
 
 
221
 
 
222
def make_log_request_dict(direction='reverse', specific_fileids=None,
 
223
    start_revision=None, end_revision=None, limit=None,
 
224
    message_search=None, levels=1, generate_tags=True, delta_type=None,
 
225
    diff_type=None, _match_using_deltas=True):
 
226
    """Convenience function for making a logging request dictionary.
 
227
 
 
228
    Using this function may make code slightly safer by ensuring
 
229
    parameters have the correct names. It also provides a reference
 
230
    point for documenting the supported parameters.
 
231
 
 
232
    :param direction: 'reverse' (default) is latest to earliest;
 
233
      'forward' is earliest to latest.
 
234
 
 
235
    :param specific_fileids: If not None, only include revisions
 
236
      affecting the specified files, rather than all revisions.
 
237
 
 
238
    :param start_revision: If not None, only generate
 
239
      revisions >= start_revision
 
240
 
 
241
    :param end_revision: If not None, only generate
 
242
      revisions <= end_revision
 
243
 
 
244
    :param limit: If set, generate only 'limit' revisions, all revisions
 
245
      are shown if None or 0.
 
246
 
 
247
    :param message_search: If not None, only include revisions with
 
248
      matching commit messages
 
249
 
 
250
    :param levels: the number of levels of revisions to
 
251
      generate; 1 for just the mainline; 0 for all levels.
 
252
 
 
253
    :param generate_tags: If True, include tags for matched revisions.
 
254
 
 
255
    :param delta_type: Either 'full', 'partial' or None.
 
256
      'full' means generate the complete delta - adds/deletes/modifies/etc;
 
257
      'partial' means filter the delta using specific_fileids;
 
258
      None means do not generate any delta.
 
259
 
 
260
    :param diff_type: Either 'full', 'partial' or None.
 
261
      'full' means generate the complete diff - adds/deletes/modifies/etc;
 
262
      'partial' means filter the diff using specific_fileids;
 
263
      None means do not generate any diff.
 
264
 
 
265
    :param _match_using_deltas: a private parameter controlling the
 
266
      algorithm used for matching specific_fileids. This parameter
 
267
      may be removed in the future so bzrlib client code should NOT
 
268
      use it.
 
269
    """
 
270
    return {
 
271
        'direction': direction,
 
272
        'specific_fileids': specific_fileids,
 
273
        'start_revision': start_revision,
 
274
        'end_revision': end_revision,
 
275
        'limit': limit,
 
276
        'message_search': message_search,
 
277
        'levels': levels,
 
278
        'generate_tags': generate_tags,
 
279
        'delta_type': delta_type,
 
280
        'diff_type': diff_type,
 
281
        # Add 'private' attributes for features that may be deprecated
 
282
        '_match_using_deltas': _match_using_deltas,
 
283
    }
 
284
 
 
285
 
 
286
def _apply_log_request_defaults(rqst):
 
287
    """Apply default values to a request dictionary."""
 
288
    result = _DEFAULT_REQUEST_PARAMS
 
289
    if rqst:
 
290
        result.update(rqst)
 
291
    return result
 
292
 
 
293
 
 
294
class LogGenerator(object):
 
295
    """A generator of log revisions."""
 
296
 
 
297
    def iter_log_revisions(self):
 
298
        """Iterate over LogRevision objects.
 
299
 
 
300
        :return: An iterator yielding LogRevision objects.
 
301
        """
 
302
        raise NotImplementedError(self.iter_log_revisions)
 
303
 
 
304
 
 
305
class Logger(object):
 
306
    """An object the generates, formats and displays a log."""
 
307
 
 
308
    def __init__(self, branch, rqst):
 
309
        """Create a Logger.
 
310
 
 
311
        :param branch: the branch to log
 
312
        :param rqst: A dictionary specifying the query parameters.
 
313
          See make_log_request_dict() for supported values.
 
314
        """
 
315
        self.branch = branch
 
316
        self.rqst = _apply_log_request_defaults(rqst)
 
317
 
 
318
    def show(self, lf):
 
319
        """Display the log.
 
320
 
 
321
        :param lf: The LogFormatter object to send the output to.
 
322
        """
 
323
        if not isinstance(lf, LogFormatter):
 
324
            warn("not a LogFormatter instance: %r" % lf)
 
325
 
 
326
        self.branch.lock_read()
 
327
        try:
 
328
            if getattr(lf, 'begin_log', None):
 
329
                lf.begin_log()
 
330
            self._show_body(lf)
 
331
            if getattr(lf, 'end_log', None):
 
332
                lf.end_log()
 
333
        finally:
 
334
            self.branch.unlock()
 
335
 
 
336
    def _show_body(self, lf):
 
337
        """Show the main log output.
 
338
 
 
339
        Subclasses may wish to override this.
 
340
        """
 
341
        # Tweak the LogRequest based on what the LogFormatter can handle.
 
342
        # (There's no point generating stuff if the formatter can't display it.)
 
343
        rqst = self.rqst
 
344
        rqst['levels'] = lf.get_levels()
 
345
        if not getattr(lf, 'supports_tags', False):
 
346
            rqst['generate_tags'] = False
 
347
        if not getattr(lf, 'supports_delta', False):
 
348
            rqst['delta_type'] = None
 
349
        if not getattr(lf, 'supports_diff', False):
 
350
            rqst['diff_type'] = None
 
351
 
 
352
        # Find and print the interesting revisions
 
353
        generator = self._generator_factory(self.branch, rqst)
 
354
        for lr in generator.iter_log_revisions():
229
355
            lf.log_revision(lr)
230
 
            if limit:
231
 
                log_count += 1
232
 
                if log_count >= limit:
233
 
                    return
234
 
 
235
 
 
236
 
def calculate_view_revisions(branch, start_revision, end_revision, direction,
237
 
                             specific_fileid, generate_merge_revisions,
238
 
                             allow_single_merge_revision):
239
 
    if (not generate_merge_revisions and start_revision is end_revision is
240
 
        None and direction == 'reverse' and specific_fileid is None):
241
 
        return _linear_view_revisions(branch)
242
 
 
243
 
    mainline_revs, rev_nos, start_rev_id, end_rev_id = \
244
 
        _get_mainline_revs(branch, start_revision, end_revision)
245
 
    if not mainline_revs:
 
356
        lf.show_advice()
 
357
 
 
358
    def _generator_factory(self, branch, rqst):
 
359
        """Make the LogGenerator object to use.
 
360
        
 
361
        Subclasses may wish to override this.
 
362
        """
 
363
        return _DefaultLogGenerator(branch, rqst)
 
364
 
 
365
 
 
366
class _StartNotLinearAncestor(Exception):
 
367
    """Raised when a start revision is not found walking left-hand history."""
 
368
 
 
369
 
 
370
class _DefaultLogGenerator(LogGenerator):
 
371
    """The default generator of log revisions."""
 
372
 
 
373
    def __init__(self, branch, rqst):
 
374
        self.branch = branch
 
375
        self.rqst = rqst
 
376
        if rqst.get('generate_tags') and branch.supports_tags():
 
377
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
378
        else:
 
379
            self.rev_tag_dict = {}
 
380
 
 
381
    def iter_log_revisions(self):
 
382
        """Iterate over LogRevision objects.
 
383
 
 
384
        :return: An iterator yielding LogRevision objects.
 
385
        """
 
386
        rqst = self.rqst
 
387
        log_count = 0
 
388
        revision_iterator = self._create_log_revision_iterator()
 
389
        for revs in revision_iterator:
 
390
            for (rev_id, revno, merge_depth), rev, delta in revs:
 
391
                # 0 levels means show everything; merge_depth counts from 0
 
392
                levels = rqst.get('levels')
 
393
                if levels != 0 and merge_depth >= levels:
 
394
                    continue
 
395
                diff = self._format_diff(rev, rev_id)
 
396
                yield LogRevision(rev, revno, merge_depth, delta,
 
397
                    self.rev_tag_dict.get(rev_id), diff)
 
398
                limit = rqst.get('limit')
 
399
                if limit:
 
400
                    log_count += 1
 
401
                    if log_count >= limit:
 
402
                        return
 
403
 
 
404
    def _format_diff(self, rev, rev_id):
 
405
        diff_type = self.rqst.get('diff_type')
 
406
        if diff_type is None:
 
407
            return None
 
408
        repo = self.branch.repository
 
409
        if len(rev.parent_ids) == 0:
 
410
            ancestor_id = _mod_revision.NULL_REVISION
 
411
        else:
 
412
            ancestor_id = rev.parent_ids[0]
 
413
        tree_1 = repo.revision_tree(ancestor_id)
 
414
        tree_2 = repo.revision_tree(rev_id)
 
415
        file_ids = self.rqst.get('specific_fileids')
 
416
        if diff_type == 'partial' and file_ids is not None:
 
417
            specific_files = [tree_2.id2path(id) for id in file_ids]
 
418
        else:
 
419
            specific_files = None
 
420
        s = StringIO()
 
421
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
422
            new_label='')
 
423
        return s.getvalue()
 
424
 
 
425
    def _create_log_revision_iterator(self):
 
426
        """Create a revision iterator for log.
 
427
 
 
428
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
429
            delta).
 
430
        """
 
431
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
 
432
            self.branch, self.rqst.get('start_revision'),
 
433
            self.rqst.get('end_revision'))
 
434
        if self.rqst.get('_match_using_deltas'):
 
435
            return self._log_revision_iterator_using_delta_matching()
 
436
        else:
 
437
            # We're using the per-file-graph algorithm. This scales really
 
438
            # well but only makes sense if there is a single file and it's
 
439
            # not a directory
 
440
            file_count = len(self.rqst.get('specific_fileids'))
 
441
            if file_count != 1:
 
442
                raise BzrError("illegal LogRequest: must match-using-deltas "
 
443
                    "when logging %d files" % file_count)
 
444
            return self._log_revision_iterator_using_per_file_graph()
 
445
 
 
446
    def _log_revision_iterator_using_delta_matching(self):
 
447
        # Get the base revisions, filtering by the revision range
 
448
        rqst = self.rqst
 
449
        generate_merge_revisions = rqst.get('levels') != 1
 
450
        delayed_graph_generation = not rqst.get('specific_fileids') and (
 
451
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
 
452
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
 
453
            self.end_rev_id, rqst.get('direction'), generate_merge_revisions,
 
454
            delayed_graph_generation=delayed_graph_generation)
 
455
 
 
456
        # Apply the other filters
 
457
        return make_log_rev_iterator(self.branch, view_revisions,
 
458
            rqst.get('delta_type'), rqst.get('message_search'),
 
459
            file_ids=rqst.get('specific_fileids'),
 
460
            direction=rqst.get('direction'))
 
461
 
 
462
    def _log_revision_iterator_using_per_file_graph(self):
 
463
        # Get the base revisions, filtering by the revision range.
 
464
        # Note that we always generate the merge revisions because
 
465
        # filter_revisions_touching_file_id() requires them ...
 
466
        rqst = self.rqst
 
467
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
 
468
            self.end_rev_id, rqst.get('direction'), True)
 
469
        if not isinstance(view_revisions, list):
 
470
            view_revisions = list(view_revisions)
 
471
        view_revisions = _filter_revisions_touching_file_id(self.branch,
 
472
            rqst.get('specific_fileids')[0], view_revisions,
 
473
            include_merges=rqst.get('levels') != 1)
 
474
        return make_log_rev_iterator(self.branch, view_revisions,
 
475
            rqst.get('delta_type'), rqst.get('message_search'))
 
476
 
 
477
 
 
478
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
 
479
    generate_merge_revisions, delayed_graph_generation=False):
 
480
    """Calculate the revisions to view.
 
481
 
 
482
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
483
             a list of the same tuples.
 
484
    """
 
485
    br_revno, br_rev_id = branch.last_revision_info()
 
486
    if br_revno == 0:
246
487
        return []
247
488
 
 
489
    # If a single revision is requested, check we can handle it
 
490
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
 
491
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
 
492
    if generate_single_revision:
 
493
        return _generate_one_revision(branch, end_rev_id, br_rev_id, br_revno)
 
494
 
 
495
    # If we only want to see linear revisions, we can iterate ...
 
496
    if not generate_merge_revisions:
 
497
        return _generate_flat_revisions(branch, start_rev_id, end_rev_id,
 
498
            direction)
 
499
    else:
 
500
        return _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
501
            direction, delayed_graph_generation)
 
502
 
 
503
 
 
504
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
 
505
    if rev_id == br_rev_id:
 
506
        # It's the tip
 
507
        return [(br_rev_id, br_revno, 0)]
 
508
    else:
 
509
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
510
        revno_str = '.'.join(str(n) for n in revno)
 
511
        return [(rev_id, revno_str, 0)]
 
512
 
 
513
 
 
514
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
 
515
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
 
516
    # If a start limit was given and it's not obviously an
 
517
    # ancestor of the end limit, check it before outputting anything
 
518
    if direction == 'forward' or (start_rev_id
 
519
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
520
        try:
 
521
            result = list(result)
 
522
        except _StartNotLinearAncestor:
 
523
            raise errors.BzrCommandError('Start revision not found in'
 
524
                ' left-hand history of end revision.')
 
525
    if direction == 'forward':
 
526
        result = reversed(result)
 
527
    return result
 
528
 
 
529
 
 
530
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
 
531
    delayed_graph_generation):
 
532
    # On large trees, generating the merge graph can take 30-60 seconds
 
533
    # so we delay doing it until a merge is detected, incrementally
 
534
    # returning initial (non-merge) revisions while we can.
 
535
    initial_revisions = []
 
536
    if delayed_graph_generation:
 
537
        try:
 
538
            for rev_id, revno, depth in \
 
539
                _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
540
                if _has_merges(branch, rev_id):
 
541
                    end_rev_id = rev_id
 
542
                    break
 
543
                else:
 
544
                    initial_revisions.append((rev_id, revno, depth))
 
545
            else:
 
546
                # No merged revisions found
 
547
                if direction == 'reverse':
 
548
                    return initial_revisions
 
549
                elif direction == 'forward':
 
550
                    return reversed(initial_revisions)
 
551
                else:
 
552
                    raise ValueError('invalid direction %r' % direction)
 
553
        except _StartNotLinearAncestor:
 
554
            # A merge was never detected so the lower revision limit can't
 
555
            # be nested down somewhere
 
556
            raise errors.BzrCommandError('Start revision not found in'
 
557
                ' history of end revision.')
 
558
 
 
559
    # A log including nested merges is required. If the direction is reverse,
 
560
    # we rebase the initial merge depths so that the development line is
 
561
    # shown naturally, i.e. just like it is for linear logging. We can easily
 
562
    # make forward the exact opposite display, but showing the merge revisions
 
563
    # indented at the end seems slightly nicer in that case.
 
564
    view_revisions = chain(iter(initial_revisions),
 
565
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
566
        rebase_initial_depths=direction == 'reverse'))
248
567
    if direction == 'reverse':
249
 
        start_rev_id, end_rev_id = end_rev_id, start_rev_id
250
 
 
251
 
    generate_single_revision = False
252
 
    if ((not generate_merge_revisions)
253
 
        and ((start_rev_id and (start_rev_id not in rev_nos))
254
 
            or (end_rev_id and (end_rev_id not in rev_nos)))):
255
 
        generate_single_revision = ((start_rev_id == end_rev_id)
256
 
            and allow_single_merge_revision)
257
 
        if not generate_single_revision:
258
 
            raise errors.BzrCommandError('Selected log formatter only supports'
259
 
                ' mainline revisions.')
260
 
        generate_merge_revisions = generate_single_revision
261
 
    view_revs_iter = get_view_revisions(mainline_revs, rev_nos, branch,
262
 
                          direction, include_merges=generate_merge_revisions)
263
 
    view_revisions = _filter_revision_range(list(view_revs_iter),
264
 
                                            start_rev_id,
265
 
                                            end_rev_id)
266
 
    if view_revisions and generate_single_revision:
267
 
        view_revisions = view_revisions[0:1]
 
568
        return view_revisions
 
569
    elif direction == 'forward':
 
570
        # Forward means oldest first, adjusting for depth.
 
571
        view_revisions = reverse_by_depth(list(view_revisions))
 
572
        return _rebase_merge_depth(view_revisions)
 
573
    else:
 
574
        raise ValueError('invalid direction %r' % direction)
 
575
 
 
576
 
 
577
def _has_merges(branch, rev_id):
 
578
    """Does a revision have multiple parents or not?"""
 
579
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
 
580
    return len(parents) > 1
 
581
 
 
582
 
 
583
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
 
584
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
 
585
    if start_rev_id and end_rev_id:
 
586
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
 
587
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
 
588
        if len(start_dotted) == 1 and len(end_dotted) == 1:
 
589
            # both on mainline
 
590
            return start_dotted[0] <= end_dotted[0]
 
591
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
 
592
            start_dotted[0:1] == end_dotted[0:1]):
 
593
            # both on same development line
 
594
            return start_dotted[2] <= end_dotted[2]
 
595
        else:
 
596
            # not obvious
 
597
            return False
 
598
    return True
 
599
 
 
600
 
 
601
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
602
    """Calculate a sequence of revisions to view, newest to oldest.
 
603
 
 
604
    :param start_rev_id: the lower revision-id
 
605
    :param end_rev_id: the upper revision-id
 
606
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
607
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
 
608
      is not found walking the left-hand history
 
609
    """
 
610
    br_revno, br_rev_id = branch.last_revision_info()
 
611
    repo = branch.repository
 
612
    if start_rev_id is None and end_rev_id is None:
 
613
        cur_revno = br_revno
 
614
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
 
615
            yield revision_id, str(cur_revno), 0
 
616
            cur_revno -= 1
 
617
    else:
 
618
        if end_rev_id is None:
 
619
            end_rev_id = br_rev_id
 
620
        found_start = start_rev_id is None
 
621
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
 
622
            revno = branch.revision_id_to_dotted_revno(revision_id)
 
623
            revno_str = '.'.join(str(n) for n in revno)
 
624
            if not found_start and revision_id == start_rev_id:
 
625
                yield revision_id, revno_str, 0
 
626
                found_start = True
 
627
                break
 
628
            else:
 
629
                yield revision_id, revno_str, 0
 
630
        else:
 
631
            if not found_start:
 
632
                raise _StartNotLinearAncestor()
 
633
 
 
634
 
 
635
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
636
    rebase_initial_depths=True):
 
637
    """Calculate revisions to view including merges, newest to oldest.
 
638
 
 
639
    :param branch: the branch
 
640
    :param start_rev_id: the lower revision-id
 
641
    :param end_rev_id: the upper revision-id
 
642
    :param rebase_initial_depth: should depths be rebased until a mainline
 
643
      revision is found?
 
644
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
645
    """
 
646
    view_revisions = branch.iter_merge_sorted_revisions(
 
647
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
 
648
        stop_rule="with-merges")
 
649
    if not rebase_initial_depths:
 
650
        for (rev_id, merge_depth, revno, end_of_merge
 
651
             ) in view_revisions:
 
652
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
653
    else:
 
654
        # We're following a development line starting at a merged revision.
 
655
        # We need to adjust depths down by the initial depth until we find
 
656
        # a depth less than it. Then we use that depth as the adjustment.
 
657
        # If and when we reach the mainline, depth adjustment ends.
 
658
        depth_adjustment = None
 
659
        for (rev_id, merge_depth, revno, end_of_merge
 
660
             ) in view_revisions:
 
661
            if depth_adjustment is None:
 
662
                depth_adjustment = merge_depth
 
663
            if depth_adjustment:
 
664
                if merge_depth < depth_adjustment:
 
665
                    depth_adjustment = merge_depth
 
666
                merge_depth -= depth_adjustment
 
667
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
668
 
 
669
 
 
670
def calculate_view_revisions(branch, start_revision, end_revision, direction,
 
671
        specific_fileid, generate_merge_revisions):
 
672
    """Calculate the revisions to view.
 
673
 
 
674
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
675
             a list of the same tuples.
 
676
    """
 
677
    # This method is no longer called by the main code path.
 
678
    # It is retained for API compatibility and may be deprecated
 
679
    # soon. IGC 20090116
 
680
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
 
681
        end_revision)
 
682
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
 
683
        direction, generate_merge_revisions or specific_fileid))
268
684
    if specific_fileid:
269
685
        view_revisions = _filter_revisions_touching_file_id(branch,
270
 
                                                         specific_fileid,
271
 
                                                         mainline_revs,
272
 
                                                         view_revisions)
273
 
 
274
 
    # rebase merge_depth - unless there are no revisions or 
275
 
    # either the first or last revision have merge_depth = 0.
 
686
            specific_fileid, view_revisions,
 
687
            include_merges=generate_merge_revisions)
 
688
    return _rebase_merge_depth(view_revisions)
 
689
 
 
690
 
 
691
def _rebase_merge_depth(view_revisions):
 
692
    """Adjust depths upwards so the top level is 0."""
 
693
    # If either the first or last revision have a merge_depth of 0, we're done
276
694
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
277
695
        min_depth = min([d for r,n,d in view_revisions])
278
696
        if min_depth != 0:
280
698
    return view_revisions
281
699
 
282
700
 
283
 
def _linear_view_revisions(branch):
284
 
    start_revno, start_revision_id = branch.last_revision_info()
285
 
    repo = branch.repository
286
 
    revision_ids = repo.iter_reverse_revision_history(start_revision_id)
287
 
    for num, revision_id in enumerate(revision_ids):
288
 
        yield revision_id, str(start_revno - num), 0
289
 
 
290
 
 
291
 
def make_log_rev_iterator(branch, view_revisions, generate_delta, search):
 
701
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
 
702
        file_ids=None, direction='reverse'):
292
703
    """Create a revision iterator for log.
293
704
 
294
705
    :param branch: The branch being logged.
295
706
    :param view_revisions: The revisions being viewed.
296
707
    :param generate_delta: Whether to generate a delta for each revision.
 
708
      Permitted values are None, 'full' and 'partial'.
297
709
    :param search: A user text search string.
 
710
    :param file_ids: If non empty, only revisions matching one or more of
 
711
      the file-ids are to be kept.
 
712
    :param direction: the direction in which view_revisions is sorted
298
713
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
299
714
        delta).
300
715
    """
311
726
                yield (view, None, None)
312
727
        log_rev_iterator = iter([_convert()])
313
728
    for adapter in log_adapters:
314
 
        log_rev_iterator = adapter(branch, generate_delta, search,
315
 
            log_rev_iterator)
 
729
        # It would be nicer if log adapters were first class objects
 
730
        # with custom parameters. This will do for now. IGC 20090127
 
731
        if adapter == _make_delta_filter:
 
732
            log_rev_iterator = adapter(branch, generate_delta,
 
733
                search, log_rev_iterator, file_ids, direction)
 
734
        else:
 
735
            log_rev_iterator = adapter(branch, generate_delta,
 
736
                search, log_rev_iterator)
316
737
    return log_rev_iterator
317
738
 
318
739
 
329
750
    """
330
751
    if search is None:
331
752
        return log_rev_iterator
332
 
    # Compile the search now to get early errors.
333
 
    searchRE = re.compile(search, re.IGNORECASE)
 
753
    searchRE = re_compile_checked(search, re.IGNORECASE,
 
754
            'log message filter')
334
755
    return _filter_message_re(searchRE, log_rev_iterator)
335
756
 
336
757
 
343
764
        yield new_revs
344
765
 
345
766
 
346
 
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator):
 
767
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
 
768
    fileids=None, direction='reverse'):
347
769
    """Add revision deltas to a log iterator if needed.
348
770
 
349
771
    :param branch: The branch being logged.
350
772
    :param generate_delta: Whether to generate a delta for each revision.
 
773
      Permitted values are None, 'full' and 'partial'.
351
774
    :param search: A user text search string.
352
775
    :param log_rev_iterator: An input iterator containing all revisions that
353
776
        could be displayed, in lists.
 
777
    :param fileids: If non empty, only revisions matching one or more of
 
778
      the file-ids are to be kept.
 
779
    :param direction: the direction in which view_revisions is sorted
354
780
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
355
781
        delta).
356
782
    """
357
 
    if not generate_delta:
 
783
    if not generate_delta and not fileids:
358
784
        return log_rev_iterator
359
 
    return _generate_deltas(branch.repository, log_rev_iterator)
360
 
 
361
 
 
362
 
def _generate_deltas(repository, log_rev_iterator):
363
 
    """Create deltas for each batch of revisions in log_rev_iterator."""
 
785
    return _generate_deltas(branch.repository, log_rev_iterator,
 
786
        generate_delta, fileids, direction)
 
787
 
 
788
 
 
789
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
 
790
    direction):
 
791
    """Create deltas for each batch of revisions in log_rev_iterator.
 
792
 
 
793
    If we're only generating deltas for the sake of filtering against
 
794
    file-ids, we stop generating deltas once all file-ids reach the
 
795
    appropriate life-cycle point. If we're receiving data newest to
 
796
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
 
797
    """
 
798
    check_fileids = fileids is not None and len(fileids) > 0
 
799
    if check_fileids:
 
800
        fileid_set = set(fileids)
 
801
        if direction == 'reverse':
 
802
            stop_on = 'add'
 
803
        else:
 
804
            stop_on = 'remove'
 
805
    else:
 
806
        fileid_set = None
364
807
    for revs in log_rev_iterator:
 
808
        # If we were matching against fileids and we've run out,
 
809
        # there's nothing left to do
 
810
        if check_fileids and not fileid_set:
 
811
            return
365
812
        revisions = [rev[1] for rev in revs]
366
 
        deltas = repository.get_deltas_for_revisions(revisions)
367
 
        revs = [(rev[0], rev[1], delta) for rev, delta in izip(revs, deltas)]
368
 
        yield revs
 
813
        new_revs = []
 
814
        if delta_type == 'full' and not check_fileids:
 
815
            deltas = repository.get_deltas_for_revisions(revisions)
 
816
            for rev, delta in izip(revs, deltas):
 
817
                new_revs.append((rev[0], rev[1], delta))
 
818
        else:
 
819
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
 
820
            for rev, delta in izip(revs, deltas):
 
821
                if check_fileids:
 
822
                    if delta is None or not delta.has_changed():
 
823
                        continue
 
824
                    else:
 
825
                        _update_fileids(delta, fileid_set, stop_on)
 
826
                        if delta_type is None:
 
827
                            delta = None
 
828
                        elif delta_type == 'full':
 
829
                            # If the file matches all the time, rebuilding
 
830
                            # a full delta like this in addition to a partial
 
831
                            # one could be slow. However, it's likely that
 
832
                            # most revisions won't get this far, making it
 
833
                            # faster to filter on the partial deltas and
 
834
                            # build the occasional full delta than always
 
835
                            # building full deltas and filtering those.
 
836
                            rev_id = rev[0][0]
 
837
                            delta = repository.get_revision_delta(rev_id)
 
838
                new_revs.append((rev[0], rev[1], delta))
 
839
        yield new_revs
 
840
 
 
841
 
 
842
def _update_fileids(delta, fileids, stop_on):
 
843
    """Update the set of file-ids to search based on file lifecycle events.
 
844
    
 
845
    :param fileids: a set of fileids to update
 
846
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
 
847
      fileids set once their add or remove entry is detected respectively
 
848
    """
 
849
    if stop_on == 'add':
 
850
        for item in delta.added:
 
851
            if item[1] in fileids:
 
852
                fileids.remove(item[1])
 
853
    elif stop_on == 'delete':
 
854
        for item in delta.removed:
 
855
            if item[1] in fileids:
 
856
                fileids.remove(item[1])
369
857
 
370
858
 
371
859
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
397
885
    :param search: A user text search string.
398
886
    :param log_rev_iterator: An input iterator containing all revisions that
399
887
        could be displayed, in lists.
400
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev, delta).
 
888
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
889
        delta).
401
890
    """
402
891
    repository = branch.repository
403
892
    num = 9
411
900
            num = min(int(num * 1.5), 200)
412
901
 
413
902
 
 
903
def _get_revision_limits(branch, start_revision, end_revision):
 
904
    """Get and check revision limits.
 
905
 
 
906
    :param  branch: The branch containing the revisions.
 
907
 
 
908
    :param  start_revision: The first revision to be logged.
 
909
            For backwards compatibility this may be a mainline integer revno,
 
910
            but for merge revision support a RevisionInfo is expected.
 
911
 
 
912
    :param  end_revision: The last revision to be logged.
 
913
            For backwards compatibility this may be a mainline integer revno,
 
914
            but for merge revision support a RevisionInfo is expected.
 
915
 
 
916
    :return: (start_rev_id, end_rev_id) tuple.
 
917
    """
 
918
    branch_revno, branch_rev_id = branch.last_revision_info()
 
919
    start_rev_id = None
 
920
    if start_revision is None:
 
921
        start_revno = 1
 
922
    else:
 
923
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
924
            start_rev_id = start_revision.rev_id
 
925
            start_revno = start_revision.revno or 1
 
926
        else:
 
927
            branch.check_real_revno(start_revision)
 
928
            start_revno = start_revision
 
929
            start_rev_id = branch.get_rev_id(start_revno)
 
930
 
 
931
    end_rev_id = None
 
932
    if end_revision is None:
 
933
        end_revno = branch_revno
 
934
    else:
 
935
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
936
            end_rev_id = end_revision.rev_id
 
937
            end_revno = end_revision.revno or branch_revno
 
938
        else:
 
939
            branch.check_real_revno(end_revision)
 
940
            end_revno = end_revision
 
941
            end_rev_id = branch.get_rev_id(end_revno)
 
942
 
 
943
    if branch_revno != 0:
 
944
        if (start_rev_id == _mod_revision.NULL_REVISION
 
945
            or end_rev_id == _mod_revision.NULL_REVISION):
 
946
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
947
        if start_revno > end_revno:
 
948
            raise errors.BzrCommandError("Start revision must be older than "
 
949
                                         "the end revision.")
 
950
    return (start_rev_id, end_rev_id)
 
951
 
 
952
 
414
953
def _get_mainline_revs(branch, start_revision, end_revision):
415
954
    """Get the mainline revisions from the branch.
416
 
    
 
955
 
417
956
    Generates the list of mainline revisions for the branch.
418
 
    
419
 
    :param  branch: The branch containing the revisions. 
 
957
 
 
958
    :param  branch: The branch containing the revisions.
420
959
 
421
960
    :param  start_revision: The first revision to be logged.
422
961
            For backwards compatibility this may be a mainline integer revno,
432
971
    if branch_revno == 0:
433
972
        return None, None, None, None
434
973
 
435
 
    # For mainline generation, map start_revision and end_revision to 
436
 
    # mainline revnos. If the revision is not on the mainline choose the 
437
 
    # appropriate extreme of the mainline instead - the extra will be 
 
974
    # For mainline generation, map start_revision and end_revision to
 
975
    # mainline revnos. If the revision is not on the mainline choose the
 
976
    # appropriate extreme of the mainline instead - the extra will be
438
977
    # filtered later.
439
978
    # Also map the revisions to rev_ids, to be used in the later filtering
440
979
    # stage.
441
 
    start_rev_id = None 
 
980
    start_rev_id = None
442
981
    if start_revision is None:
443
982
        start_revno = 1
444
983
    else:
448
987
        else:
449
988
            branch.check_real_revno(start_revision)
450
989
            start_revno = start_revision
451
 
    
 
990
 
452
991
    end_rev_id = None
453
992
    if end_revision is None:
454
993
        end_revno = branch_revno
496
1035
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
497
1036
    """Filter view_revisions based on revision ranges.
498
1037
 
499
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth) 
 
1038
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
500
1039
            tuples to be filtered.
501
1040
 
502
1041
    :param start_rev_id: If not NONE specifies the first revision to be logged.
507
1046
 
508
1047
    :return: The filtered view_revisions.
509
1048
    """
510
 
    if start_rev_id or end_rev_id: 
 
1049
    # This method is no longer called by the main code path.
 
1050
    # It may be removed soon. IGC 20090127
 
1051
    if start_rev_id or end_rev_id:
511
1052
        revision_ids = [r for r, n, d in view_revisions]
512
1053
        if start_rev_id:
513
1054
            start_index = revision_ids.index(start_rev_id)
520
1061
                end_index = revision_ids.index(end_rev_id)
521
1062
            else:
522
1063
                end_index = len(view_revisions) - 1
523
 
        # To include the revisions merged into the last revision, 
 
1064
        # To include the revisions merged into the last revision,
524
1065
        # extend end_rev_id down to, but not including, the next rev
525
1066
        # with the same or lesser merge_depth
526
1067
        end_merge_depth = view_revisions[end_index][2]
536
1077
    return view_revisions
537
1078
 
538
1079
 
539
 
def _filter_revisions_touching_file_id(branch, file_id, mainline_revisions,
540
 
                                       view_revs_iter):
541
 
    """Return the list of revision ids which touch a given file id.
 
1080
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
 
1081
    include_merges=True):
 
1082
    r"""Return the list of revision ids which touch a given file id.
542
1083
 
543
1084
    The function filters view_revisions and returns a subset.
544
1085
    This includes the revisions which directly change the file id,
545
1086
    and the revisions which merge these changes. So if the
546
1087
    revision graph is::
547
 
        A
548
 
        |\
549
 
        B C
 
1088
        A-.
 
1089
        |\ \
 
1090
        B C E
 
1091
        |/ /
 
1092
        D |
 
1093
        |\|
 
1094
        | F
550
1095
        |/
551
 
        D
552
 
 
553
 
    And 'C' changes a file, then both C and D will be returned.
554
 
 
555
 
    This will also can be restricted based on a subset of the mainline.
 
1096
        G
 
1097
 
 
1098
    And 'C' changes a file, then both C and D will be returned. F will not be
 
1099
    returned even though it brings the changes to C into the branch starting
 
1100
    with E. (Note that if we were using F as the tip instead of G, then we
 
1101
    would see C, D, F.)
 
1102
 
 
1103
    This will also be restricted based on a subset of the mainline.
 
1104
 
 
1105
    :param branch: The branch where we can get text revision information.
 
1106
 
 
1107
    :param file_id: Filter out revisions that do not touch file_id.
 
1108
 
 
1109
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1110
        tuples. This is the list of revisions which will be filtered. It is
 
1111
        assumed that view_revisions is in merge_sort order (i.e. newest
 
1112
        revision first ).
 
1113
 
 
1114
    :param include_merges: include merge revisions in the result or not
556
1115
 
557
1116
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
558
1117
    """
559
 
    # find all the revisions that change the specific file
560
 
    # build the ancestry of each revision in the graph
561
 
    # - only listing the ancestors that change the specific file.
562
 
    graph = branch.repository.get_graph()
563
 
    # This asks for all mainline revisions, which means we only have to spider
564
 
    # sideways, rather than depth history. That said, its still size-of-history
565
 
    # and should be addressed.
566
 
    # mainline_revisions always includes an extra revision at the beginning, so
567
 
    # don't request it.
568
 
    parent_map = dict(((key, value) for key, value in
569
 
        graph.iter_ancestry(mainline_revisions[1:]) if value is not None))
570
 
    sorted_rev_list = tsort.topo_sort(parent_map.items())
571
 
    text_keys = [(file_id, rev_id) for rev_id in sorted_rev_list]
572
 
    modified_text_versions = branch.repository.texts.get_parent_map(text_keys)
573
 
    ancestry = {}
574
 
    for rev in sorted_rev_list:
575
 
        text_key = (file_id, rev)
576
 
        parents = parent_map[rev]
577
 
        if text_key not in modified_text_versions and len(parents) == 1:
578
 
            # We will not be adding anything new, so just use a reference to
579
 
            # the parent ancestry.
580
 
            rev_ancestry = ancestry[parents[0]]
 
1118
    # Lookup all possible text keys to determine which ones actually modified
 
1119
    # the file.
 
1120
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
 
1121
    next_keys = None
 
1122
    # Looking up keys in batches of 1000 can cut the time in half, as well as
 
1123
    # memory consumption. GraphIndex *does* like to look for a few keys in
 
1124
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
 
1125
    # TODO: This code needs to be re-evaluated periodically as we tune the
 
1126
    #       indexing layer. We might consider passing in hints as to the known
 
1127
    #       access pattern (sparse/clustered, high success rate/low success
 
1128
    #       rate). This particular access is clustered with a low success rate.
 
1129
    get_parent_map = branch.repository.texts.get_parent_map
 
1130
    modified_text_revisions = set()
 
1131
    chunk_size = 1000
 
1132
    for start in xrange(0, len(text_keys), chunk_size):
 
1133
        next_keys = text_keys[start:start + chunk_size]
 
1134
        # Only keep the revision_id portion of the key
 
1135
        modified_text_revisions.update(
 
1136
            [k[1] for k in get_parent_map(next_keys)])
 
1137
    del text_keys, next_keys
 
1138
 
 
1139
    result = []
 
1140
    # Track what revisions will merge the current revision, replace entries
 
1141
    # with 'None' when they have been added to result
 
1142
    current_merge_stack = [None]
 
1143
    for info in view_revisions:
 
1144
        rev_id, revno, depth = info
 
1145
        if depth == len(current_merge_stack):
 
1146
            current_merge_stack.append(info)
581
1147
        else:
582
 
            rev_ancestry = set()
583
 
            if text_key in modified_text_versions:
584
 
                rev_ancestry.add(rev)
585
 
            for parent in parents:
586
 
                if parent not in ancestry:
587
 
                    # parent is a Ghost, which won't be present in
588
 
                    # sorted_rev_list, but we may access it later, so create an
589
 
                    # empty node for it
590
 
                    ancestry[parent] = set()
591
 
                rev_ancestry = rev_ancestry.union(ancestry[parent])
592
 
        ancestry[rev] = rev_ancestry
593
 
 
594
 
    def is_merging_rev(r):
595
 
        parents = parent_map[r]
596
 
        if len(parents) > 1:
597
 
            leftparent = parents[0]
598
 
            for rightparent in parents[1:]:
599
 
                if not ancestry[leftparent].issuperset(
600
 
                        ancestry[rightparent]):
601
 
                    return True
602
 
        return False
603
 
 
604
 
    # filter from the view the revisions that did not change or merge 
605
 
    # the specific file
606
 
    return [(r, n, d) for r, n, d in view_revs_iter
607
 
            if (file_id, r) in modified_text_versions or is_merging_rev(r)]
 
1148
            del current_merge_stack[depth + 1:]
 
1149
            current_merge_stack[-1] = info
 
1150
 
 
1151
        if rev_id in modified_text_revisions:
 
1152
            # This needs to be logged, along with the extra revisions
 
1153
            for idx in xrange(len(current_merge_stack)):
 
1154
                node = current_merge_stack[idx]
 
1155
                if node is not None:
 
1156
                    if include_merges or node[2] == 0:
 
1157
                        result.append(node)
 
1158
                        current_merge_stack[idx] = None
 
1159
    return result
608
1160
 
609
1161
 
610
1162
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
613
1165
    :return: an iterator of (revision_id, revno, merge_depth)
614
1166
    (if there is no revno for a revision, None is supplied)
615
1167
    """
616
 
    if include_merges is False:
 
1168
    # This method is no longer called by the main code path.
 
1169
    # It is retained for API compatibility and may be deprecated
 
1170
    # soon. IGC 20090127
 
1171
    if not include_merges:
617
1172
        revision_ids = mainline_revs[1:]
618
1173
        if direction == 'reverse':
619
1174
            revision_ids.reverse()
642
1197
    elif direction != 'reverse':
643
1198
        raise ValueError('invalid direction %r' % direction)
644
1199
 
645
 
    for sequence, rev_id, merge_depth, revno, end_of_merge in merge_sorted_revisions:
 
1200
    for (sequence, rev_id, merge_depth, revno, end_of_merge
 
1201
         ) in merge_sorted_revisions:
646
1202
        yield rev_id, '.'.join(map(str, revno)), merge_depth
647
1203
 
648
1204
 
653
1209
    revision of that depth.  There may be no topological justification for this,
654
1210
    but it looks much nicer.
655
1211
    """
 
1212
    # Add a fake revision at start so that we can always attach sub revisions
 
1213
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
656
1214
    zd_revisions = []
657
1215
    for val in merge_sorted_revisions:
658
1216
        if val[2] == _depth:
 
1217
            # Each revision at the current depth becomes a chunk grouping all
 
1218
            # higher depth revisions.
659
1219
            zd_revisions.append([val])
660
1220
        else:
661
1221
            zd_revisions[-1].append(val)
662
1222
    for revisions in zd_revisions:
663
1223
        if len(revisions) > 1:
 
1224
            # We have higher depth revisions, let reverse them locally
664
1225
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
665
1226
    zd_revisions.reverse()
666
1227
    result = []
667
1228
    for chunk in zd_revisions:
668
1229
        result.extend(chunk)
 
1230
    if _depth == 0:
 
1231
        # Top level call, get rid of the fake revisions that have been added
 
1232
        result = [r for r in result if r[0] is not None and r[1] is not None]
669
1233
    return result
670
1234
 
671
1235
 
673
1237
    """A revision to be logged (by LogFormatter.log_revision).
674
1238
 
675
1239
    A simple wrapper for the attributes of a revision to be logged.
676
 
    The attributes may or may not be populated, as determined by the 
 
1240
    The attributes may or may not be populated, as determined by the
677
1241
    logging options and the log formatter capabilities.
678
1242
    """
679
1243
 
680
1244
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
681
 
                 tags=None):
 
1245
                 tags=None, diff=None):
682
1246
        self.rev = rev
683
 
        self.revno = revno
 
1247
        self.revno = str(revno)
684
1248
        self.merge_depth = merge_depth
685
1249
        self.delta = delta
686
1250
        self.tags = tags
 
1251
        self.diff = diff
687
1252
 
688
1253
 
689
1254
class LogFormatter(object):
694
1259
    If the LogFormatter needs to be informed of the beginning or end of
695
1260
    a log it should implement the begin_log and/or end_log hook methods.
696
1261
 
697
 
    A LogFormatter should define the following supports_XXX flags 
 
1262
    A LogFormatter should define the following supports_XXX flags
698
1263
    to indicate which LogRevision attributes it supports:
699
1264
 
700
1265
    - supports_delta must be True if this log formatter supports delta.
701
 
        Otherwise the delta attribute may not be populated.
702
 
    - supports_merge_revisions must be True if this log formatter supports 
703
 
        merge revisions.  If not, and if supports_single_merge_revisions is
704
 
        also not True, then only mainline revisions will be passed to the 
705
 
        formatter.
706
 
    - supports_single_merge_revision must be True if this log formatter
707
 
        supports logging only a single merge revision.  This flag is
708
 
        only relevant if supports_merge_revisions is not True.
 
1266
        Otherwise the delta attribute may not be populated.  The 'delta_format'
 
1267
        attribute describes whether the 'short_status' format (1) or the long
 
1268
        one (2) should be used.
 
1269
 
 
1270
    - supports_merge_revisions must be True if this log formatter supports
 
1271
        merge revisions.  If not, then only mainline revisions will be passed
 
1272
        to the formatter.
 
1273
 
 
1274
    - preferred_levels is the number of levels this formatter defaults to.
 
1275
        The default value is zero meaning display all levels.
 
1276
        This value is only relevant if supports_merge_revisions is True.
 
1277
 
709
1278
    - supports_tags must be True if this log formatter supports tags.
710
1279
        Otherwise the tags attribute may not be populated.
711
1280
 
 
1281
    - supports_diff must be True if this log formatter supports diffs.
 
1282
        Otherwise the diff attribute may not be populated.
 
1283
 
712
1284
    Plugins can register functions to show custom revision properties using
713
1285
    the properties_handler_registry. The registered function
714
1286
    must respect the following interface description:
715
1287
        def my_show_properties(properties_dict):
716
 
            # code that returns a dict {'name':'value'} of the properties 
 
1288
            # code that returns a dict {'name':'value'} of the properties
717
1289
            # to be shown
718
1290
    """
719
 
 
720
 
    def __init__(self, to_file, show_ids=False, show_timezone='original'):
 
1291
    preferred_levels = 0
 
1292
 
 
1293
    def __init__(self, to_file, show_ids=False, show_timezone='original',
 
1294
                 delta_format=None, levels=None, show_advice=False):
 
1295
        """Create a LogFormatter.
 
1296
 
 
1297
        :param to_file: the file to output to
 
1298
        :param show_ids: if True, revision-ids are to be displayed
 
1299
        :param show_timezone: the timezone to use
 
1300
        :param delta_format: the level of delta information to display
 
1301
          or None to leave it to the formatter to decide
 
1302
        :param levels: the number of levels to display; None or -1 to
 
1303
          let the log formatter decide.
 
1304
        :param show_advice: whether to show advice at the end of the
 
1305
          log or not
 
1306
        """
721
1307
        self.to_file = to_file
 
1308
        # 'exact' stream used to show diff, it should print content 'as is'
 
1309
        # and should not try to decode/encode it to unicode to avoid bug #328007
 
1310
        self.to_exact_file = getattr(to_file, 'stream', to_file)
722
1311
        self.show_ids = show_ids
723
1312
        self.show_timezone = show_timezone
724
 
 
725
 
# TODO: uncomment this block after show() has been removed.
726
 
# Until then defining log_revision would prevent _show_log calling show() 
727
 
# in legacy formatters.
728
 
#    def log_revision(self, revision):
729
 
#        """Log a revision.
730
 
#
731
 
#        :param  revision:   The LogRevision to be logged.
732
 
#        """
733
 
#        raise NotImplementedError('not implemented in abstract base')
 
1313
        if delta_format is None:
 
1314
            # Ensures backward compatibility
 
1315
            delta_format = 2 # long format
 
1316
        self.delta_format = delta_format
 
1317
        self.levels = levels
 
1318
        self._show_advice = show_advice
 
1319
        self._merge_count = 0
 
1320
 
 
1321
    def get_levels(self):
 
1322
        """Get the number of levels to display or 0 for all."""
 
1323
        if getattr(self, 'supports_merge_revisions', False):
 
1324
            if self.levels is None or self.levels == -1:
 
1325
                self.levels = self.preferred_levels
 
1326
        else:
 
1327
            self.levels = 1
 
1328
        return self.levels
 
1329
 
 
1330
    def log_revision(self, revision):
 
1331
        """Log a revision.
 
1332
 
 
1333
        :param  revision:   The LogRevision to be logged.
 
1334
        """
 
1335
        raise NotImplementedError('not implemented in abstract base')
 
1336
 
 
1337
    def show_advice(self):
 
1338
        """Output user advice, if any, when the log is completed."""
 
1339
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
 
1340
            advice_sep = self.get_advice_separator()
 
1341
            if advice_sep:
 
1342
                self.to_file.write(advice_sep)
 
1343
            self.to_file.write(
 
1344
                "Use --include-merges or -n0 to see merged revisions.\n")
 
1345
 
 
1346
    def get_advice_separator(self):
 
1347
        """Get the text separating the log from the closing advice."""
 
1348
        return ''
734
1349
 
735
1350
    def short_committer(self, rev):
736
1351
        name, address = config.parse_username(rev.committer)
739
1354
        return address
740
1355
 
741
1356
    def short_author(self, rev):
742
 
        name, address = config.parse_username(rev.get_apparent_author())
 
1357
        name, address = config.parse_username(rev.get_apparent_authors()[0])
743
1358
        if name:
744
1359
            return name
745
1360
        return address
746
1361
 
 
1362
    def merge_marker(self, revision):
 
1363
        """Get the merge marker to include in the output or '' if none."""
 
1364
        if len(revision.rev.parent_ids) > 1:
 
1365
            self._merge_count += 1
 
1366
            return ' [merge]'
 
1367
        else:
 
1368
            return ''
 
1369
 
 
1370
    def show_foreign_info(self, rev, indent):
 
1371
        """Custom log displayer for foreign revision identifiers.
 
1372
 
 
1373
        :param rev: Revision object.
 
1374
        """
 
1375
        # Revision comes directly from a foreign repository
 
1376
        if isinstance(rev, foreign.ForeignRevision):
 
1377
            self._write_properties(indent, rev.mapping.vcs.show_foreign_revid(
 
1378
                rev.foreign_revid))
 
1379
            return
 
1380
 
 
1381
        # Imported foreign revision revision ids always contain :
 
1382
        if not ":" in rev.revision_id:
 
1383
            return
 
1384
 
 
1385
        # Revision was once imported from a foreign repository
 
1386
        try:
 
1387
            foreign_revid, mapping = \
 
1388
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
 
1389
        except errors.InvalidRevisionId:
 
1390
            return
 
1391
 
 
1392
        self._write_properties(indent, 
 
1393
            mapping.vcs.show_foreign_revid(foreign_revid))
 
1394
 
747
1395
    def show_properties(self, revision, indent):
748
1396
        """Displays the custom properties returned by each registered handler.
749
 
        
 
1397
 
750
1398
        If a registered handler raises an error it is propagated.
751
1399
        """
752
1400
        for key, handler in properties_handler_registry.iteritems():
753
 
            for key, value in handler(revision).items():
754
 
                self.to_file.write(indent + key + ': ' + value + '\n')
 
1401
            self._write_properties(indent, handler(revision))
 
1402
 
 
1403
    def _write_properties(self, indent, properties):
 
1404
        for key, value in properties.items():
 
1405
            self.to_file.write(indent + key + ': ' + value + '\n')
 
1406
 
 
1407
    def show_diff(self, to_file, diff, indent):
 
1408
        for l in diff.rstrip().split('\n'):
 
1409
            to_file.write(indent + '%s\n' % (l,))
755
1410
 
756
1411
 
757
1412
class LongLogFormatter(LogFormatter):
758
1413
 
759
1414
    supports_merge_revisions = True
 
1415
    preferred_levels = 1
760
1416
    supports_delta = True
761
1417
    supports_tags = True
 
1418
    supports_diff = True
762
1419
 
763
1420
    def log_revision(self, revision):
764
1421
        """Log a revision, either merged or not."""
766
1423
        to_file = self.to_file
767
1424
        to_file.write(indent + '-' * 60 + '\n')
768
1425
        if revision.revno is not None:
769
 
            to_file.write(indent + 'revno: %s\n' % (revision.revno,))
 
1426
            to_file.write(indent + 'revno: %s%s\n' % (revision.revno,
 
1427
                self.merge_marker(revision)))
770
1428
        if revision.tags:
771
1429
            to_file.write(indent + 'tags: %s\n' % (', '.join(revision.tags)))
772
1430
        if self.show_ids:
774
1432
            to_file.write('\n')
775
1433
            for parent_id in revision.rev.parent_ids:
776
1434
                to_file.write(indent + 'parent: %s\n' % (parent_id,))
 
1435
        self.show_foreign_info(revision.rev, indent)
777
1436
        self.show_properties(revision.rev, indent)
778
1437
 
779
 
        author = revision.rev.properties.get('author', None)
780
 
        if author is not None:
781
 
            to_file.write(indent + 'author: %s\n' % (author,))
782
 
        to_file.write(indent + 'committer: %s\n' % (revision.rev.committer,))
 
1438
        committer = revision.rev.committer
 
1439
        authors = revision.rev.get_apparent_authors()
 
1440
        if authors != [committer]:
 
1441
            to_file.write(indent + 'author: %s\n' % (", ".join(authors),))
 
1442
        to_file.write(indent + 'committer: %s\n' % (committer,))
783
1443
 
784
1444
        branch_nick = revision.rev.properties.get('branch-nick', None)
785
1445
        if branch_nick is not None:
798
1458
            for l in message.split('\n'):
799
1459
                to_file.write(indent + '  %s\n' % (l,))
800
1460
        if revision.delta is not None:
801
 
            revision.delta.show(to_file, self.show_ids, indent=indent)
 
1461
            # We don't respect delta_format for compatibility
 
1462
            revision.delta.show(to_file, self.show_ids, indent=indent,
 
1463
                                short_status=False)
 
1464
        if revision.diff is not None:
 
1465
            to_file.write(indent + 'diff:\n')
 
1466
            # Note: we explicitly don't indent the diff (relative to the
 
1467
            # revision information) so that the output can be fed to patch -p0
 
1468
            self.show_diff(self.to_exact_file, revision.diff, indent)
 
1469
 
 
1470
    def get_advice_separator(self):
 
1471
        """Get the text separating the log from the closing advice."""
 
1472
        return '-' * 60 + '\n'
802
1473
 
803
1474
 
804
1475
class ShortLogFormatter(LogFormatter):
805
1476
 
 
1477
    supports_merge_revisions = True
 
1478
    preferred_levels = 1
806
1479
    supports_delta = True
807
 
    supports_single_merge_revision = True
 
1480
    supports_tags = True
 
1481
    supports_diff = True
 
1482
 
 
1483
    def __init__(self, *args, **kwargs):
 
1484
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
 
1485
        self.revno_width_by_depth = {}
808
1486
 
809
1487
    def log_revision(self, revision):
 
1488
        # We need two indents: one per depth and one for the information
 
1489
        # relative to that indent. Most mainline revnos are 5 chars or
 
1490
        # less while dotted revnos are typically 11 chars or less. Once
 
1491
        # calculated, we need to remember the offset for a given depth
 
1492
        # as we might be starting from a dotted revno in the first column
 
1493
        # and we want subsequent mainline revisions to line up.
 
1494
        depth = revision.merge_depth
 
1495
        indent = '    ' * depth
 
1496
        revno_width = self.revno_width_by_depth.get(depth)
 
1497
        if revno_width is None:
 
1498
            if revision.revno.find('.') == -1:
 
1499
                # mainline revno, e.g. 12345
 
1500
                revno_width = 5
 
1501
            else:
 
1502
                # dotted revno, e.g. 12345.10.55
 
1503
                revno_width = 11
 
1504
            self.revno_width_by_depth[depth] = revno_width
 
1505
        offset = ' ' * (revno_width + 1)
 
1506
 
810
1507
        to_file = self.to_file
811
 
        is_merge = ''
812
 
        if len(revision.rev.parent_ids) > 1:
813
 
            is_merge = ' [merge]'
814
 
        to_file.write("%5s %s\t%s%s\n" % (revision.revno,
815
 
                self.short_author(revision.rev),
 
1508
        tags = ''
 
1509
        if revision.tags:
 
1510
            tags = ' {%s}' % (', '.join(revision.tags))
 
1511
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
 
1512
                revision.revno, self.short_author(revision.rev),
816
1513
                format_date(revision.rev.timestamp,
817
1514
                            revision.rev.timezone or 0,
818
1515
                            self.show_timezone, date_fmt="%Y-%m-%d",
819
1516
                            show_offset=False),
820
 
                is_merge))
 
1517
                tags, self.merge_marker(revision)))
 
1518
        self.show_foreign_info(revision.rev, indent+offset)
 
1519
        self.show_properties(revision.rev, indent+offset)
821
1520
        if self.show_ids:
822
 
            to_file.write('      revision-id:%s\n' % (revision.rev.revision_id,))
 
1521
            to_file.write(indent + offset + 'revision-id:%s\n'
 
1522
                          % (revision.rev.revision_id,))
823
1523
        if not revision.rev.message:
824
 
            to_file.write('      (no message)\n')
 
1524
            to_file.write(indent + offset + '(no message)\n')
825
1525
        else:
826
1526
            message = revision.rev.message.rstrip('\r\n')
827
1527
            for l in message.split('\n'):
828
 
                to_file.write('      %s\n' % (l,))
 
1528
                to_file.write(indent + offset + '%s\n' % (l,))
829
1529
 
830
 
        # TODO: Why not show the modified files in a shorter form as
831
 
        # well? rewrap them single lines of appropriate length
832
1530
        if revision.delta is not None:
833
 
            revision.delta.show(to_file, self.show_ids)
 
1531
            revision.delta.show(to_file, self.show_ids, indent=indent + offset,
 
1532
                                short_status=self.delta_format==1)
 
1533
        if revision.diff is not None:
 
1534
            self.show_diff(self.to_exact_file, revision.diff, '      ')
834
1535
        to_file.write('\n')
835
1536
 
836
1537
 
837
1538
class LineLogFormatter(LogFormatter):
838
1539
 
839
 
    supports_single_merge_revision = True
 
1540
    supports_merge_revisions = True
 
1541
    preferred_levels = 1
 
1542
    supports_tags = True
840
1543
 
841
1544
    def __init__(self, *args, **kwargs):
842
1545
        super(LineLogFormatter, self).__init__(*args, **kwargs)
848
1551
        return str[:max_len-3]+'...'
849
1552
 
850
1553
    def date_string(self, rev):
851
 
        return format_date(rev.timestamp, rev.timezone or 0, 
 
1554
        return format_date(rev.timestamp, rev.timezone or 0,
852
1555
                           self.show_timezone, date_fmt="%Y-%m-%d",
853
1556
                           show_offset=False)
854
1557
 
859
1562
            return rev.message
860
1563
 
861
1564
    def log_revision(self, revision):
 
1565
        indent = '  ' * revision.merge_depth
862
1566
        self.to_file.write(self.log_string(revision.revno, revision.rev,
863
 
                                              self._max_chars))
 
1567
            self._max_chars, revision.tags, indent))
864
1568
        self.to_file.write('\n')
865
1569
 
866
 
    def log_string(self, revno, rev, max_chars):
 
1570
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
867
1571
        """Format log info into one string. Truncate tail of string
868
 
        :param  revno:      revision number (int) or None.
 
1572
        :param  revno:      revision number or None.
869
1573
                            Revision numbers counts from 1.
870
 
        :param  rev:        revision info object
 
1574
        :param  rev:        revision object
871
1575
        :param  max_chars:  maximum length of resulting string
 
1576
        :param  tags:       list of tags or None
 
1577
        :param  prefix:     string to prefix each line
872
1578
        :return:            formatted truncated string
873
1579
        """
874
1580
        out = []
877
1583
            out.append("%s:" % revno)
878
1584
        out.append(self.truncate(self.short_author(rev), 20))
879
1585
        out.append(self.date_string(rev))
 
1586
        if len(rev.parent_ids) > 1:
 
1587
            out.append('[merge]')
 
1588
        if tags:
 
1589
            tag_str = '{%s}' % (', '.join(tags))
 
1590
            out.append(tag_str)
880
1591
        out.append(rev.get_summary())
881
 
        return self.truncate(" ".join(out).rstrip('\n'), max_chars)
 
1592
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
 
1593
 
 
1594
 
 
1595
class GnuChangelogLogFormatter(LogFormatter):
 
1596
 
 
1597
    supports_merge_revisions = True
 
1598
    supports_delta = True
 
1599
 
 
1600
    def log_revision(self, revision):
 
1601
        """Log a revision, either merged or not."""
 
1602
        to_file = self.to_file
 
1603
 
 
1604
        date_str = format_date(revision.rev.timestamp,
 
1605
                               revision.rev.timezone or 0,
 
1606
                               self.show_timezone,
 
1607
                               date_fmt='%Y-%m-%d',
 
1608
                               show_offset=False)
 
1609
        committer_str = revision.rev.committer.replace (' <', '  <')
 
1610
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
 
1611
 
 
1612
        if revision.delta is not None and revision.delta.has_changed():
 
1613
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
 
1614
                path, = c[:1]
 
1615
                to_file.write('\t* %s:\n' % (path,))
 
1616
            for c in revision.delta.renamed:
 
1617
                oldpath,newpath = c[:2]
 
1618
                # For renamed files, show both the old and the new path
 
1619
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
 
1620
            to_file.write('\n')
 
1621
 
 
1622
        if not revision.rev.message:
 
1623
            to_file.write('\tNo commit message\n')
 
1624
        else:
 
1625
            message = revision.rev.message.rstrip('\r\n')
 
1626
            for l in message.split('\n'):
 
1627
                to_file.write('\t%s\n' % (l.lstrip(),))
 
1628
            to_file.write('\n')
882
1629
 
883
1630
 
884
1631
def line_log(rev, max_chars):
910
1657
                                'Detailed log format')
911
1658
log_formatter_registry.register('line', LineLogFormatter,
912
1659
                                'Log format with one line per revision')
 
1660
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
 
1661
                                'Format used by GNU ChangeLog files')
913
1662
 
914
1663
 
915
1664
def register_formatter(name, formatter):
989
1738
                 search=None)
990
1739
 
991
1740
 
 
1741
def get_history_change(old_revision_id, new_revision_id, repository):
 
1742
    """Calculate the uncommon lefthand history between two revisions.
 
1743
 
 
1744
    :param old_revision_id: The original revision id.
 
1745
    :param new_revision_id: The new revision id.
 
1746
    :param repository: The repository to use for the calculation.
 
1747
 
 
1748
    return old_history, new_history
 
1749
    """
 
1750
    old_history = []
 
1751
    old_revisions = set()
 
1752
    new_history = []
 
1753
    new_revisions = set()
 
1754
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
 
1755
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
 
1756
    stop_revision = None
 
1757
    do_old = True
 
1758
    do_new = True
 
1759
    while do_new or do_old:
 
1760
        if do_new:
 
1761
            try:
 
1762
                new_revision = new_iter.next()
 
1763
            except StopIteration:
 
1764
                do_new = False
 
1765
            else:
 
1766
                new_history.append(new_revision)
 
1767
                new_revisions.add(new_revision)
 
1768
                if new_revision in old_revisions:
 
1769
                    stop_revision = new_revision
 
1770
                    break
 
1771
        if do_old:
 
1772
            try:
 
1773
                old_revision = old_iter.next()
 
1774
            except StopIteration:
 
1775
                do_old = False
 
1776
            else:
 
1777
                old_history.append(old_revision)
 
1778
                old_revisions.add(old_revision)
 
1779
                if old_revision in new_revisions:
 
1780
                    stop_revision = old_revision
 
1781
                    break
 
1782
    new_history.reverse()
 
1783
    old_history.reverse()
 
1784
    if stop_revision is not None:
 
1785
        new_history = new_history[new_history.index(stop_revision) + 1:]
 
1786
        old_history = old_history[old_history.index(stop_revision) + 1:]
 
1787
    return old_history, new_history
 
1788
 
 
1789
 
 
1790
def show_branch_change(branch, output, old_revno, old_revision_id):
 
1791
    """Show the changes made to a branch.
 
1792
 
 
1793
    :param branch: The branch to show changes about.
 
1794
    :param output: A file-like object to write changes to.
 
1795
    :param old_revno: The revno of the old tip.
 
1796
    :param old_revision_id: The revision_id of the old tip.
 
1797
    """
 
1798
    new_revno, new_revision_id = branch.last_revision_info()
 
1799
    old_history, new_history = get_history_change(old_revision_id,
 
1800
                                                  new_revision_id,
 
1801
                                                  branch.repository)
 
1802
    if old_history == [] and new_history == []:
 
1803
        output.write('Nothing seems to have changed\n')
 
1804
        return
 
1805
 
 
1806
    log_format = log_formatter_registry.get_default(branch)
 
1807
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
 
1808
    if old_history != []:
 
1809
        output.write('*'*60)
 
1810
        output.write('\nRemoved Revisions:\n')
 
1811
        show_flat_log(branch.repository, old_history, old_revno, lf)
 
1812
        output.write('*'*60)
 
1813
        output.write('\n\n')
 
1814
    if new_history != []:
 
1815
        output.write('Added Revisions:\n')
 
1816
        start_revno = new_revno - len(new_history) + 1
 
1817
        show_log(branch, lf, None, verbose=False, direction='forward',
 
1818
                 start_revision=start_revno,)
 
1819
 
 
1820
 
 
1821
def show_flat_log(repository, history, last_revno, lf):
 
1822
    """Show a simple log of the specified history.
 
1823
 
 
1824
    :param repository: The repository to retrieve revisions from.
 
1825
    :param history: A list of revision_ids indicating the lefthand history.
 
1826
    :param last_revno: The revno of the last revision_id in the history.
 
1827
    :param lf: The log formatter to use.
 
1828
    """
 
1829
    start_revno = last_revno - len(history) + 1
 
1830
    revisions = repository.get_revisions(history)
 
1831
    for i, rev in enumerate(revisions):
 
1832
        lr = LogRevision(rev, i + last_revno, 0, None)
 
1833
        lf.log_revision(lr)
 
1834
 
 
1835
 
 
1836
def _get_info_for_log_files(revisionspec_list, file_list):
 
1837
    """Find file-ids and kinds given a list of files and a revision range.
 
1838
 
 
1839
    We search for files at the end of the range. If not found there,
 
1840
    we try the start of the range.
 
1841
 
 
1842
    :param revisionspec_list: revision range as parsed on the command line
 
1843
    :param file_list: the list of paths given on the command line;
 
1844
      the first of these can be a branch location or a file path,
 
1845
      the remainder must be file paths
 
1846
    :return: (branch, info_list, start_rev_info, end_rev_info) where
 
1847
      info_list is a list of (relative_path, file_id, kind) tuples where
 
1848
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
 
1849
    """
 
1850
    from builtins import _get_revision_range, safe_relpath_files
 
1851
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
 
1852
    # XXX: It's damn messy converting a list of paths to relative paths when
 
1853
    # those paths might be deleted ones, they might be on a case-insensitive
 
1854
    # filesystem and/or they might be in silly locations (like another branch).
 
1855
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
 
1856
    # file2 implicitly in the same dir as file1 or should its directory be
 
1857
    # taken from the current tree somehow?) For now, this solves the common
 
1858
    # case of running log in a nested directory, assuming paths beyond the
 
1859
    # first one haven't been deleted ...
 
1860
    if tree:
 
1861
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
 
1862
    else:
 
1863
        relpaths = [path] + file_list[1:]
 
1864
    info_list = []
 
1865
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
 
1866
        "log")
 
1867
    if relpaths in ([], [u'']):
 
1868
        return b, [], start_rev_info, end_rev_info
 
1869
    if start_rev_info is None and end_rev_info is None:
 
1870
        if tree is None:
 
1871
            tree = b.basis_tree()
 
1872
        tree1 = None
 
1873
        for fp in relpaths:
 
1874
            file_id = tree.path2id(fp)
 
1875
            kind = _get_kind_for_file_id(tree, file_id)
 
1876
            if file_id is None:
 
1877
                # go back to when time began
 
1878
                if tree1 is None:
 
1879
                    try:
 
1880
                        rev1 = b.get_rev_id(1)
 
1881
                    except errors.NoSuchRevision:
 
1882
                        # No history at all
 
1883
                        file_id = None
 
1884
                        kind = None
 
1885
                    else:
 
1886
                        tree1 = b.repository.revision_tree(rev1)
 
1887
                if tree1:
 
1888
                    file_id = tree1.path2id(fp)
 
1889
                    kind = _get_kind_for_file_id(tree1, file_id)
 
1890
            info_list.append((fp, file_id, kind))
 
1891
 
 
1892
    elif start_rev_info == end_rev_info:
 
1893
        # One revision given - file must exist in it
 
1894
        tree = b.repository.revision_tree(end_rev_info.rev_id)
 
1895
        for fp in relpaths:
 
1896
            file_id = tree.path2id(fp)
 
1897
            kind = _get_kind_for_file_id(tree, file_id)
 
1898
            info_list.append((fp, file_id, kind))
 
1899
 
 
1900
    else:
 
1901
        # Revision range given. Get the file-id from the end tree.
 
1902
        # If that fails, try the start tree.
 
1903
        rev_id = end_rev_info.rev_id
 
1904
        if rev_id is None:
 
1905
            tree = b.basis_tree()
 
1906
        else:
 
1907
            tree = b.repository.revision_tree(rev_id)
 
1908
        tree1 = None
 
1909
        for fp in relpaths:
 
1910
            file_id = tree.path2id(fp)
 
1911
            kind = _get_kind_for_file_id(tree, file_id)
 
1912
            if file_id is None:
 
1913
                if tree1 is None:
 
1914
                    rev_id = start_rev_info.rev_id
 
1915
                    if rev_id is None:
 
1916
                        rev1 = b.get_rev_id(1)
 
1917
                        tree1 = b.repository.revision_tree(rev1)
 
1918
                    else:
 
1919
                        tree1 = b.repository.revision_tree(rev_id)
 
1920
                file_id = tree1.path2id(fp)
 
1921
                kind = _get_kind_for_file_id(tree1, file_id)
 
1922
            info_list.append((fp, file_id, kind))
 
1923
    return b, info_list, start_rev_info, end_rev_info
 
1924
 
 
1925
 
 
1926
def _get_kind_for_file_id(tree, file_id):
 
1927
    """Return the kind of a file-id or None if it doesn't exist."""
 
1928
    if file_id is not None:
 
1929
        return tree.kind(file_id)
 
1930
    else:
 
1931
        return None
 
1932
 
 
1933
 
992
1934
properties_handler_registry = registry.Registry()
993
1935
 
 
1936
 
994
1937
# adapters which revision ids to log are filtered. When log is called, the
995
1938
# log_rev_iterator is adapted through each of these factory methods.
996
1939
# Plugins are welcome to mutate this list in any way they like - as long