~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: John Arbash Meinel
  • Date: 2008-09-09 15:09:12 UTC
  • mto: This revision was merged to the branch mainline in revision 3699.
  • Revision ID: john@arbash-meinel.com-20080909150912-wyttm8he1zsls2ck
Use the right timing function on win32

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007, 2009 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
 
18
18
 
50
50
"""
51
51
 
52
52
import codecs
53
 
from cStringIO import StringIO
54
53
from itertools import (
55
 
    chain,
56
54
    izip,
57
55
    )
58
56
import re
65
63
lazy_import(globals(), """
66
64
 
67
65
from bzrlib import (
68
 
    bzrdir,
69
66
    config,
70
 
    diff,
71
67
    errors,
72
 
    foreign,
73
68
    repository as _mod_repository,
74
69
    revision as _mod_revision,
75
70
    revisionspec,
84
79
from bzrlib.osutils import (
85
80
    format_date,
86
81
    get_terminal_encoding,
87
 
    re_compile_checked,
88
82
    terminal_width,
89
83
    )
90
84
 
150
144
             start_revision=None,
151
145
             end_revision=None,
152
146
             search=None,
153
 
             limit=None,
154
 
             show_diff=False):
 
147
             limit=None):
155
148
    """Write out human-readable log of commits to this branch.
156
149
 
157
 
    This function is being retained for backwards compatibility but
158
 
    should not be extended with new parameters. Use the new Logger class
159
 
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
160
 
    make_log_request_dict function.
161
 
 
162
 
    :param lf: The LogFormatter object showing the output.
163
 
 
164
 
    :param specific_fileid: If not None, list only the commits affecting the
165
 
        specified file, rather than all commits.
166
 
 
167
 
    :param verbose: If True show added/changed/deleted/renamed files.
168
 
 
169
 
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
170
 
        earliest to latest.
171
 
 
172
 
    :param start_revision: If not None, only show revisions >= start_revision
173
 
 
174
 
    :param end_revision: If not None, only show revisions <= end_revision
175
 
 
176
 
    :param search: If not None, only show revisions with matching commit
177
 
        messages
178
 
 
179
 
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
180
 
        if None or 0.
181
 
 
182
 
    :param show_diff: If True, output a diff after each revision.
183
 
    """
184
 
    # Convert old-style parameters to new-style parameters
185
 
    if specific_fileid is not None:
186
 
        file_ids = [specific_fileid]
187
 
    else:
188
 
        file_ids = None
189
 
    if verbose:
190
 
        if file_ids:
191
 
            delta_type = 'partial'
192
 
        else:
193
 
            delta_type = 'full'
194
 
    else:
195
 
        delta_type = None
196
 
    if show_diff:
197
 
        if file_ids:
198
 
            diff_type = 'partial'
199
 
        else:
200
 
            diff_type = 'full'
201
 
    else:
202
 
        diff_type = None
203
 
 
204
 
    # Build the request and execute it
205
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
206
 
        start_revision=start_revision, end_revision=end_revision,
207
 
        limit=limit, message_search=search,
208
 
        delta_type=delta_type, diff_type=diff_type)
209
 
    Logger(branch, rqst).show(lf)
210
 
 
211
 
 
212
 
# Note: This needs to be kept this in sync with the defaults in
213
 
# make_log_request_dict() below
214
 
_DEFAULT_REQUEST_PARAMS = {
215
 
    'direction': 'reverse',
216
 
    'levels': 1,
217
 
    'generate_tags': True,
218
 
    '_match_using_deltas': True,
219
 
    }
220
 
 
221
 
 
222
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
223
 
    start_revision=None, end_revision=None, limit=None,
224
 
    message_search=None, levels=1, generate_tags=True, delta_type=None,
225
 
    diff_type=None, _match_using_deltas=True):
226
 
    """Convenience function for making a logging request dictionary.
227
 
 
228
 
    Using this function may make code slightly safer by ensuring
229
 
    parameters have the correct names. It also provides a reference
230
 
    point for documenting the supported parameters.
231
 
 
232
 
    :param direction: 'reverse' (default) is latest to earliest;
233
 
      'forward' is earliest to latest.
234
 
 
235
 
    :param specific_fileids: If not None, only include revisions
236
 
      affecting the specified files, rather than all revisions.
237
 
 
238
 
    :param start_revision: If not None, only generate
239
 
      revisions >= start_revision
240
 
 
241
 
    :param end_revision: If not None, only generate
242
 
      revisions <= end_revision
243
 
 
244
 
    :param limit: If set, generate only 'limit' revisions, all revisions
245
 
      are shown if None or 0.
246
 
 
247
 
    :param message_search: If not None, only include revisions with
248
 
      matching commit messages
249
 
 
250
 
    :param levels: the number of levels of revisions to
251
 
      generate; 1 for just the mainline; 0 for all levels.
252
 
 
253
 
    :param generate_tags: If True, include tags for matched revisions.
254
 
 
255
 
    :param delta_type: Either 'full', 'partial' or None.
256
 
      'full' means generate the complete delta - adds/deletes/modifies/etc;
257
 
      'partial' means filter the delta using specific_fileids;
258
 
      None means do not generate any delta.
259
 
 
260
 
    :param diff_type: Either 'full', 'partial' or None.
261
 
      'full' means generate the complete diff - adds/deletes/modifies/etc;
262
 
      'partial' means filter the diff using specific_fileids;
263
 
      None means do not generate any diff.
264
 
 
265
 
    :param _match_using_deltas: a private parameter controlling the
266
 
      algorithm used for matching specific_fileids. This parameter
267
 
      may be removed in the future so bzrlib client code should NOT
268
 
      use it.
269
 
    """
270
 
    return {
271
 
        'direction': direction,
272
 
        'specific_fileids': specific_fileids,
273
 
        'start_revision': start_revision,
274
 
        'end_revision': end_revision,
275
 
        'limit': limit,
276
 
        'message_search': message_search,
277
 
        'levels': levels,
278
 
        'generate_tags': generate_tags,
279
 
        'delta_type': delta_type,
280
 
        'diff_type': diff_type,
281
 
        # Add 'private' attributes for features that may be deprecated
282
 
        '_match_using_deltas': _match_using_deltas,
283
 
    }
284
 
 
285
 
 
286
 
def _apply_log_request_defaults(rqst):
287
 
    """Apply default values to a request dictionary."""
288
 
    result = _DEFAULT_REQUEST_PARAMS
289
 
    if rqst:
290
 
        result.update(rqst)
291
 
    return result
292
 
 
293
 
 
294
 
class LogGenerator(object):
295
 
    """A generator of log revisions."""
296
 
 
297
 
    def iter_log_revisions(self):
298
 
        """Iterate over LogRevision objects.
299
 
 
300
 
        :return: An iterator yielding LogRevision objects.
301
 
        """
302
 
        raise NotImplementedError(self.iter_log_revisions)
303
 
 
304
 
 
305
 
class Logger(object):
306
 
    """An object the generates, formats and displays a log."""
307
 
 
308
 
    def __init__(self, branch, rqst):
309
 
        """Create a Logger.
310
 
 
311
 
        :param branch: the branch to log
312
 
        :param rqst: A dictionary specifying the query parameters.
313
 
          See make_log_request_dict() for supported values.
314
 
        """
315
 
        self.branch = branch
316
 
        self.rqst = _apply_log_request_defaults(rqst)
317
 
 
318
 
    def show(self, lf):
319
 
        """Display the log.
320
 
 
321
 
        :param lf: The LogFormatter object to send the output to.
322
 
        """
323
 
        if not isinstance(lf, LogFormatter):
324
 
            warn("not a LogFormatter instance: %r" % lf)
325
 
 
326
 
        self.branch.lock_read()
327
 
        try:
328
 
            if getattr(lf, 'begin_log', None):
329
 
                lf.begin_log()
330
 
            self._show_body(lf)
331
 
            if getattr(lf, 'end_log', None):
332
 
                lf.end_log()
333
 
        finally:
334
 
            self.branch.unlock()
335
 
 
336
 
    def _show_body(self, lf):
337
 
        """Show the main log output.
338
 
 
339
 
        Subclasses may wish to override this.
340
 
        """
341
 
        # Tweak the LogRequest based on what the LogFormatter can handle.
342
 
        # (There's no point generating stuff if the formatter can't display it.)
343
 
        rqst = self.rqst
344
 
        rqst['levels'] = lf.get_levels()
345
 
        if not getattr(lf, 'supports_tags', False):
346
 
            rqst['generate_tags'] = False
347
 
        if not getattr(lf, 'supports_delta', False):
348
 
            rqst['delta_type'] = None
349
 
        if not getattr(lf, 'supports_diff', False):
350
 
            rqst['diff_type'] = None
351
 
 
352
 
        # Find and print the interesting revisions
353
 
        generator = self._generator_factory(self.branch, rqst)
354
 
        for lr in generator.iter_log_revisions():
 
150
    lf
 
151
        LogFormatter object to show the output.
 
152
 
 
153
    specific_fileid
 
154
        If true, list only the commits affecting the specified
 
155
        file, rather than all commits.
 
156
 
 
157
    verbose
 
158
        If true show added/changed/deleted/renamed files.
 
159
 
 
160
    direction
 
161
        'reverse' (default) is latest to earliest;
 
162
        'forward' is earliest to latest.
 
163
 
 
164
    start_revision
 
165
        If not None, only show revisions >= start_revision
 
166
 
 
167
    end_revision
 
168
        If not None, only show revisions <= end_revision
 
169
 
 
170
    search
 
171
        If not None, only show revisions with matching commit messages
 
172
 
 
173
    limit
 
174
        If not None or 0, only show limit revisions
 
175
    """
 
176
    branch.lock_read()
 
177
    try:
 
178
        if getattr(lf, 'begin_log', None):
 
179
            lf.begin_log()
 
180
 
 
181
        _show_log(branch, lf, specific_fileid, verbose, direction,
 
182
                  start_revision, end_revision, search, limit)
 
183
 
 
184
        if getattr(lf, 'end_log', None):
 
185
            lf.end_log()
 
186
    finally:
 
187
        branch.unlock()
 
188
 
 
189
 
 
190
def _show_log(branch,
 
191
             lf,
 
192
             specific_fileid=None,
 
193
             verbose=False,
 
194
             direction='reverse',
 
195
             start_revision=None,
 
196
             end_revision=None,
 
197
             search=None,
 
198
             limit=None):
 
199
    """Worker function for show_log - see show_log."""
 
200
    if not isinstance(lf, LogFormatter):
 
201
        warn("not a LogFormatter instance: %r" % lf)
 
202
 
 
203
    if specific_fileid:
 
204
        trace.mutter('get log for file_id %r', specific_fileid)
 
205
    generate_merge_revisions = getattr(lf, 'supports_merge_revisions', False)
 
206
    allow_single_merge_revision = getattr(lf,
 
207
        'supports_single_merge_revision', False)
 
208
    view_revisions = calculate_view_revisions(branch, start_revision,
 
209
                                              end_revision, direction,
 
210
                                              specific_fileid,
 
211
                                              generate_merge_revisions,
 
212
                                              allow_single_merge_revision)
 
213
    rev_tag_dict = {}
 
214
    generate_tags = getattr(lf, 'supports_tags', False)
 
215
    if generate_tags:
 
216
        if branch.supports_tags():
 
217
            rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
218
 
 
219
    generate_delta = verbose and getattr(lf, 'supports_delta', False)
 
220
 
 
221
    # now we just print all the revisions
 
222
    log_count = 0
 
223
    revision_iterator = make_log_rev_iterator(branch, view_revisions,
 
224
        generate_delta, search)
 
225
    for revs in revision_iterator:
 
226
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
227
            lr = LogRevision(rev, revno, merge_depth, delta,
 
228
                             rev_tag_dict.get(rev_id))
355
229
            lf.log_revision(lr)
356
 
        lf.show_advice()
357
 
 
358
 
    def _generator_factory(self, branch, rqst):
359
 
        """Make the LogGenerator object to use.
360
 
        
361
 
        Subclasses may wish to override this.
362
 
        """
363
 
        return _DefaultLogGenerator(branch, rqst)
364
 
 
365
 
 
366
 
class _StartNotLinearAncestor(Exception):
367
 
    """Raised when a start revision is not found walking left-hand history."""
368
 
 
369
 
 
370
 
class _DefaultLogGenerator(LogGenerator):
371
 
    """The default generator of log revisions."""
372
 
 
373
 
    def __init__(self, branch, rqst):
374
 
        self.branch = branch
375
 
        self.rqst = rqst
376
 
        if rqst.get('generate_tags') and branch.supports_tags():
377
 
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
378
 
        else:
379
 
            self.rev_tag_dict = {}
380
 
 
381
 
    def iter_log_revisions(self):
382
 
        """Iterate over LogRevision objects.
383
 
 
384
 
        :return: An iterator yielding LogRevision objects.
385
 
        """
386
 
        rqst = self.rqst
387
 
        log_count = 0
388
 
        revision_iterator = self._create_log_revision_iterator()
389
 
        for revs in revision_iterator:
390
 
            for (rev_id, revno, merge_depth), rev, delta in revs:
391
 
                # 0 levels means show everything; merge_depth counts from 0
392
 
                levels = rqst.get('levels')
393
 
                if levels != 0 and merge_depth >= levels:
394
 
                    continue
395
 
                diff = self._format_diff(rev, rev_id)
396
 
                yield LogRevision(rev, revno, merge_depth, delta,
397
 
                    self.rev_tag_dict.get(rev_id), diff)
398
 
                limit = rqst.get('limit')
399
 
                if limit:
400
 
                    log_count += 1
401
 
                    if log_count >= limit:
402
 
                        return
403
 
 
404
 
    def _format_diff(self, rev, rev_id):
405
 
        diff_type = self.rqst.get('diff_type')
406
 
        if diff_type is None:
407
 
            return None
408
 
        repo = self.branch.repository
409
 
        if len(rev.parent_ids) == 0:
410
 
            ancestor_id = _mod_revision.NULL_REVISION
411
 
        else:
412
 
            ancestor_id = rev.parent_ids[0]
413
 
        tree_1 = repo.revision_tree(ancestor_id)
414
 
        tree_2 = repo.revision_tree(rev_id)
415
 
        file_ids = self.rqst.get('specific_fileids')
416
 
        if diff_type == 'partial' and file_ids is not None:
417
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
418
 
        else:
419
 
            specific_files = None
420
 
        s = StringIO()
421
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
422
 
            new_label='')
423
 
        return s.getvalue()
424
 
 
425
 
    def _create_log_revision_iterator(self):
426
 
        """Create a revision iterator for log.
427
 
 
428
 
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
429
 
            delta).
430
 
        """
431
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
432
 
            self.branch, self.rqst.get('start_revision'),
433
 
            self.rqst.get('end_revision'))
434
 
        if self.rqst.get('_match_using_deltas'):
435
 
            return self._log_revision_iterator_using_delta_matching()
436
 
        else:
437
 
            # We're using the per-file-graph algorithm. This scales really
438
 
            # well but only makes sense if there is a single file and it's
439
 
            # not a directory
440
 
            file_count = len(self.rqst.get('specific_fileids'))
441
 
            if file_count != 1:
442
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
443
 
                    "when logging %d files" % file_count)
444
 
            return self._log_revision_iterator_using_per_file_graph()
445
 
 
446
 
    def _log_revision_iterator_using_delta_matching(self):
447
 
        # Get the base revisions, filtering by the revision range
448
 
        rqst = self.rqst
449
 
        generate_merge_revisions = rqst.get('levels') != 1
450
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
451
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
452
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
453
 
            self.end_rev_id, rqst.get('direction'), generate_merge_revisions,
454
 
            delayed_graph_generation=delayed_graph_generation)
455
 
 
456
 
        # Apply the other filters
457
 
        return make_log_rev_iterator(self.branch, view_revisions,
458
 
            rqst.get('delta_type'), rqst.get('message_search'),
459
 
            file_ids=rqst.get('specific_fileids'),
460
 
            direction=rqst.get('direction'))
461
 
 
462
 
    def _log_revision_iterator_using_per_file_graph(self):
463
 
        # Get the base revisions, filtering by the revision range.
464
 
        # Note that we always generate the merge revisions because
465
 
        # filter_revisions_touching_file_id() requires them ...
466
 
        rqst = self.rqst
467
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
468
 
            self.end_rev_id, rqst.get('direction'), True)
469
 
        if not isinstance(view_revisions, list):
470
 
            view_revisions = list(view_revisions)
471
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
472
 
            rqst.get('specific_fileids')[0], view_revisions,
473
 
            include_merges=rqst.get('levels') != 1)
474
 
        return make_log_rev_iterator(self.branch, view_revisions,
475
 
            rqst.get('delta_type'), rqst.get('message_search'))
476
 
 
477
 
 
478
 
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
479
 
    generate_merge_revisions, delayed_graph_generation=False):
480
 
    """Calculate the revisions to view.
481
 
 
482
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
483
 
             a list of the same tuples.
484
 
    """
485
 
    br_revno, br_rev_id = branch.last_revision_info()
486
 
    if br_revno == 0:
 
230
            if limit:
 
231
                log_count += 1
 
232
                if log_count >= limit:
 
233
                    return
 
234
 
 
235
 
 
236
def calculate_view_revisions(branch, start_revision, end_revision, direction,
 
237
                             specific_fileid, generate_merge_revisions,
 
238
                             allow_single_merge_revision):
 
239
    if (not generate_merge_revisions and start_revision is end_revision is
 
240
        None and direction == 'reverse' and specific_fileid is None):
 
241
        return _linear_view_revisions(branch)
 
242
 
 
243
    mainline_revs, rev_nos, start_rev_id, end_rev_id = \
 
244
        _get_mainline_revs(branch, start_revision, end_revision)
 
245
    if not mainline_revs:
487
246
        return []
488
247
 
489
 
    # If a single revision is requested, check we can handle it
490
 
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
491
 
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
492
 
    if generate_single_revision:
493
 
        return _generate_one_revision(branch, end_rev_id, br_rev_id, br_revno)
494
 
 
495
 
    # If we only want to see linear revisions, we can iterate ...
496
 
    if not generate_merge_revisions:
497
 
        return _generate_flat_revisions(branch, start_rev_id, end_rev_id,
498
 
            direction)
499
 
    else:
500
 
        return _generate_all_revisions(branch, start_rev_id, end_rev_id,
501
 
            direction, delayed_graph_generation)
502
 
 
503
 
 
504
 
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
505
 
    if rev_id == br_rev_id:
506
 
        # It's the tip
507
 
        return [(br_rev_id, br_revno, 0)]
508
 
    else:
509
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
510
 
        revno_str = '.'.join(str(n) for n in revno)
511
 
        return [(rev_id, revno_str, 0)]
512
 
 
513
 
 
514
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
515
 
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
516
 
    # If a start limit was given and it's not obviously an
517
 
    # ancestor of the end limit, check it before outputting anything
518
 
    if direction == 'forward' or (start_rev_id
519
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
520
 
        try:
521
 
            result = list(result)
522
 
        except _StartNotLinearAncestor:
523
 
            raise errors.BzrCommandError('Start revision not found in'
524
 
                ' left-hand history of end revision.')
525
 
    if direction == 'forward':
526
 
        result = reversed(result)
527
 
    return result
528
 
 
529
 
 
530
 
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
531
 
    delayed_graph_generation):
532
 
    # On large trees, generating the merge graph can take 30-60 seconds
533
 
    # so we delay doing it until a merge is detected, incrementally
534
 
    # returning initial (non-merge) revisions while we can.
535
 
    initial_revisions = []
536
 
    if delayed_graph_generation:
537
 
        try:
538
 
            for rev_id, revno, depth in \
539
 
                _linear_view_revisions(branch, start_rev_id, end_rev_id):
540
 
                if _has_merges(branch, rev_id):
541
 
                    end_rev_id = rev_id
542
 
                    break
543
 
                else:
544
 
                    initial_revisions.append((rev_id, revno, depth))
545
 
            else:
546
 
                # No merged revisions found
547
 
                if direction == 'reverse':
548
 
                    return initial_revisions
549
 
                elif direction == 'forward':
550
 
                    return reversed(initial_revisions)
551
 
                else:
552
 
                    raise ValueError('invalid direction %r' % direction)
553
 
        except _StartNotLinearAncestor:
554
 
            # A merge was never detected so the lower revision limit can't
555
 
            # be nested down somewhere
556
 
            raise errors.BzrCommandError('Start revision not found in'
557
 
                ' history of end revision.')
558
 
 
559
 
    # A log including nested merges is required. If the direction is reverse,
560
 
    # we rebase the initial merge depths so that the development line is
561
 
    # shown naturally, i.e. just like it is for linear logging. We can easily
562
 
    # make forward the exact opposite display, but showing the merge revisions
563
 
    # indented at the end seems slightly nicer in that case.
564
 
    view_revisions = chain(iter(initial_revisions),
565
 
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
566
 
        rebase_initial_depths=direction == 'reverse'))
567
248
    if direction == 'reverse':
568
 
        return view_revisions
569
 
    elif direction == 'forward':
570
 
        # Forward means oldest first, adjusting for depth.
571
 
        view_revisions = reverse_by_depth(list(view_revisions))
572
 
        return _rebase_merge_depth(view_revisions)
573
 
    else:
574
 
        raise ValueError('invalid direction %r' % direction)
575
 
 
576
 
 
577
 
def _has_merges(branch, rev_id):
578
 
    """Does a revision have multiple parents or not?"""
579
 
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
580
 
    return len(parents) > 1
581
 
 
582
 
 
583
 
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
584
 
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
585
 
    if start_rev_id and end_rev_id:
586
 
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
587
 
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
588
 
        if len(start_dotted) == 1 and len(end_dotted) == 1:
589
 
            # both on mainline
590
 
            return start_dotted[0] <= end_dotted[0]
591
 
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
592
 
            start_dotted[0:1] == end_dotted[0:1]):
593
 
            # both on same development line
594
 
            return start_dotted[2] <= end_dotted[2]
595
 
        else:
596
 
            # not obvious
597
 
            return False
598
 
    return True
599
 
 
600
 
 
601
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
602
 
    """Calculate a sequence of revisions to view, newest to oldest.
603
 
 
604
 
    :param start_rev_id: the lower revision-id
605
 
    :param end_rev_id: the upper revision-id
606
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
607
 
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
608
 
      is not found walking the left-hand history
609
 
    """
610
 
    br_revno, br_rev_id = branch.last_revision_info()
611
 
    repo = branch.repository
612
 
    if start_rev_id is None and end_rev_id is None:
613
 
        cur_revno = br_revno
614
 
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
615
 
            yield revision_id, str(cur_revno), 0
616
 
            cur_revno -= 1
617
 
    else:
618
 
        if end_rev_id is None:
619
 
            end_rev_id = br_rev_id
620
 
        found_start = start_rev_id is None
621
 
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
622
 
            revno = branch.revision_id_to_dotted_revno(revision_id)
623
 
            revno_str = '.'.join(str(n) for n in revno)
624
 
            if not found_start and revision_id == start_rev_id:
625
 
                yield revision_id, revno_str, 0
626
 
                found_start = True
627
 
                break
628
 
            else:
629
 
                yield revision_id, revno_str, 0
630
 
        else:
631
 
            if not found_start:
632
 
                raise _StartNotLinearAncestor()
633
 
 
634
 
 
635
 
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
636
 
    rebase_initial_depths=True):
637
 
    """Calculate revisions to view including merges, newest to oldest.
638
 
 
639
 
    :param branch: the branch
640
 
    :param start_rev_id: the lower revision-id
641
 
    :param end_rev_id: the upper revision-id
642
 
    :param rebase_initial_depth: should depths be rebased until a mainline
643
 
      revision is found?
644
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
645
 
    """
646
 
    view_revisions = branch.iter_merge_sorted_revisions(
647
 
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
648
 
        stop_rule="with-merges")
649
 
    if not rebase_initial_depths:
650
 
        for (rev_id, merge_depth, revno, end_of_merge
651
 
             ) in view_revisions:
652
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
653
 
    else:
654
 
        # We're following a development line starting at a merged revision.
655
 
        # We need to adjust depths down by the initial depth until we find
656
 
        # a depth less than it. Then we use that depth as the adjustment.
657
 
        # If and when we reach the mainline, depth adjustment ends.
658
 
        depth_adjustment = None
659
 
        for (rev_id, merge_depth, revno, end_of_merge
660
 
             ) in view_revisions:
661
 
            if depth_adjustment is None:
662
 
                depth_adjustment = merge_depth
663
 
            if depth_adjustment:
664
 
                if merge_depth < depth_adjustment:
665
 
                    depth_adjustment = merge_depth
666
 
                merge_depth -= depth_adjustment
667
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
668
 
 
669
 
 
670
 
def calculate_view_revisions(branch, start_revision, end_revision, direction,
671
 
        specific_fileid, generate_merge_revisions):
672
 
    """Calculate the revisions to view.
673
 
 
674
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
675
 
             a list of the same tuples.
676
 
    """
677
 
    # This method is no longer called by the main code path.
678
 
    # It is retained for API compatibility and may be deprecated
679
 
    # soon. IGC 20090116
680
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
681
 
        end_revision)
682
 
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
683
 
        direction, generate_merge_revisions or specific_fileid))
 
249
        start_rev_id, end_rev_id = end_rev_id, start_rev_id
 
250
 
 
251
    generate_single_revision = False
 
252
    if ((not generate_merge_revisions)
 
253
        and ((start_rev_id and (start_rev_id not in rev_nos))
 
254
            or (end_rev_id and (end_rev_id not in rev_nos)))):
 
255
        generate_single_revision = ((start_rev_id == end_rev_id)
 
256
            and allow_single_merge_revision)
 
257
        if not generate_single_revision:
 
258
            raise errors.BzrCommandError('Selected log formatter only supports'
 
259
                ' mainline revisions.')
 
260
        generate_merge_revisions = generate_single_revision
 
261
    view_revs_iter = get_view_revisions(mainline_revs, rev_nos, branch,
 
262
                          direction, include_merges=generate_merge_revisions)
 
263
    view_revisions = _filter_revision_range(list(view_revs_iter),
 
264
                                            start_rev_id,
 
265
                                            end_rev_id)
 
266
    if view_revisions and generate_single_revision:
 
267
        view_revisions = view_revisions[0:1]
684
268
    if specific_fileid:
685
269
        view_revisions = _filter_revisions_touching_file_id(branch,
686
 
            specific_fileid, view_revisions,
687
 
            include_merges=generate_merge_revisions)
688
 
    return _rebase_merge_depth(view_revisions)
689
 
 
690
 
 
691
 
def _rebase_merge_depth(view_revisions):
692
 
    """Adjust depths upwards so the top level is 0."""
693
 
    # If either the first or last revision have a merge_depth of 0, we're done
 
270
                                                         specific_fileid,
 
271
                                                         mainline_revs,
 
272
                                                         view_revisions)
 
273
 
 
274
    # rebase merge_depth - unless there are no revisions or 
 
275
    # either the first or last revision have merge_depth = 0.
694
276
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
695
277
        min_depth = min([d for r,n,d in view_revisions])
696
278
        if min_depth != 0:
698
280
    return view_revisions
699
281
 
700
282
 
701
 
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
702
 
        file_ids=None, direction='reverse'):
 
283
def _linear_view_revisions(branch):
 
284
    start_revno, start_revision_id = branch.last_revision_info()
 
285
    repo = branch.repository
 
286
    revision_ids = repo.iter_reverse_revision_history(start_revision_id)
 
287
    for num, revision_id in enumerate(revision_ids):
 
288
        yield revision_id, str(start_revno - num), 0
 
289
 
 
290
 
 
291
def make_log_rev_iterator(branch, view_revisions, generate_delta, search):
703
292
    """Create a revision iterator for log.
704
293
 
705
294
    :param branch: The branch being logged.
706
295
    :param view_revisions: The revisions being viewed.
707
296
    :param generate_delta: Whether to generate a delta for each revision.
708
 
      Permitted values are None, 'full' and 'partial'.
709
297
    :param search: A user text search string.
710
 
    :param file_ids: If non empty, only revisions matching one or more of
711
 
      the file-ids are to be kept.
712
 
    :param direction: the direction in which view_revisions is sorted
713
298
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
714
299
        delta).
715
300
    """
726
311
                yield (view, None, None)
727
312
        log_rev_iterator = iter([_convert()])
728
313
    for adapter in log_adapters:
729
 
        # It would be nicer if log adapters were first class objects
730
 
        # with custom parameters. This will do for now. IGC 20090127
731
 
        if adapter == _make_delta_filter:
732
 
            log_rev_iterator = adapter(branch, generate_delta,
733
 
                search, log_rev_iterator, file_ids, direction)
734
 
        else:
735
 
            log_rev_iterator = adapter(branch, generate_delta,
736
 
                search, log_rev_iterator)
 
314
        log_rev_iterator = adapter(branch, generate_delta, search,
 
315
            log_rev_iterator)
737
316
    return log_rev_iterator
738
317
 
739
318
 
750
329
    """
751
330
    if search is None:
752
331
        return log_rev_iterator
753
 
    searchRE = re_compile_checked(search, re.IGNORECASE,
754
 
            'log message filter')
 
332
    # Compile the search now to get early errors.
 
333
    searchRE = re.compile(search, re.IGNORECASE)
755
334
    return _filter_message_re(searchRE, log_rev_iterator)
756
335
 
757
336
 
764
343
        yield new_revs
765
344
 
766
345
 
767
 
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
768
 
    fileids=None, direction='reverse'):
 
346
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator):
769
347
    """Add revision deltas to a log iterator if needed.
770
348
 
771
349
    :param branch: The branch being logged.
772
350
    :param generate_delta: Whether to generate a delta for each revision.
773
 
      Permitted values are None, 'full' and 'partial'.
774
351
    :param search: A user text search string.
775
352
    :param log_rev_iterator: An input iterator containing all revisions that
776
353
        could be displayed, in lists.
777
 
    :param fileids: If non empty, only revisions matching one or more of
778
 
      the file-ids are to be kept.
779
 
    :param direction: the direction in which view_revisions is sorted
780
354
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
781
355
        delta).
782
356
    """
783
 
    if not generate_delta and not fileids:
 
357
    if not generate_delta:
784
358
        return log_rev_iterator
785
 
    return _generate_deltas(branch.repository, log_rev_iterator,
786
 
        generate_delta, fileids, direction)
787
 
 
788
 
 
789
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
790
 
    direction):
791
 
    """Create deltas for each batch of revisions in log_rev_iterator.
792
 
 
793
 
    If we're only generating deltas for the sake of filtering against
794
 
    file-ids, we stop generating deltas once all file-ids reach the
795
 
    appropriate life-cycle point. If we're receiving data newest to
796
 
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
797
 
    """
798
 
    check_fileids = fileids is not None and len(fileids) > 0
799
 
    if check_fileids:
800
 
        fileid_set = set(fileids)
801
 
        if direction == 'reverse':
802
 
            stop_on = 'add'
803
 
        else:
804
 
            stop_on = 'remove'
805
 
    else:
806
 
        fileid_set = None
 
359
    return _generate_deltas(branch.repository, log_rev_iterator)
 
360
 
 
361
 
 
362
def _generate_deltas(repository, log_rev_iterator):
 
363
    """Create deltas for each batch of revisions in log_rev_iterator."""
807
364
    for revs in log_rev_iterator:
808
 
        # If we were matching against fileids and we've run out,
809
 
        # there's nothing left to do
810
 
        if check_fileids and not fileid_set:
811
 
            return
812
365
        revisions = [rev[1] for rev in revs]
813
 
        new_revs = []
814
 
        if delta_type == 'full' and not check_fileids:
815
 
            deltas = repository.get_deltas_for_revisions(revisions)
816
 
            for rev, delta in izip(revs, deltas):
817
 
                new_revs.append((rev[0], rev[1], delta))
818
 
        else:
819
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
820
 
            for rev, delta in izip(revs, deltas):
821
 
                if check_fileids:
822
 
                    if delta is None or not delta.has_changed():
823
 
                        continue
824
 
                    else:
825
 
                        _update_fileids(delta, fileid_set, stop_on)
826
 
                        if delta_type is None:
827
 
                            delta = None
828
 
                        elif delta_type == 'full':
829
 
                            # If the file matches all the time, rebuilding
830
 
                            # a full delta like this in addition to a partial
831
 
                            # one could be slow. However, it's likely that
832
 
                            # most revisions won't get this far, making it
833
 
                            # faster to filter on the partial deltas and
834
 
                            # build the occasional full delta than always
835
 
                            # building full deltas and filtering those.
836
 
                            rev_id = rev[0][0]
837
 
                            delta = repository.get_revision_delta(rev_id)
838
 
                new_revs.append((rev[0], rev[1], delta))
839
 
        yield new_revs
840
 
 
841
 
 
842
 
def _update_fileids(delta, fileids, stop_on):
843
 
    """Update the set of file-ids to search based on file lifecycle events.
844
 
    
845
 
    :param fileids: a set of fileids to update
846
 
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
847
 
      fileids set once their add or remove entry is detected respectively
848
 
    """
849
 
    if stop_on == 'add':
850
 
        for item in delta.added:
851
 
            if item[1] in fileids:
852
 
                fileids.remove(item[1])
853
 
    elif stop_on == 'delete':
854
 
        for item in delta.removed:
855
 
            if item[1] in fileids:
856
 
                fileids.remove(item[1])
 
366
        deltas = repository.get_deltas_for_revisions(revisions)
 
367
        revs = [(rev[0], rev[1], delta) for rev, delta in izip(revs, deltas)]
 
368
        yield revs
857
369
 
858
370
 
859
371
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
885
397
    :param search: A user text search string.
886
398
    :param log_rev_iterator: An input iterator containing all revisions that
887
399
        could be displayed, in lists.
888
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
889
 
        delta).
 
400
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev, delta).
890
401
    """
891
402
    repository = branch.repository
892
403
    num = 9
900
411
            num = min(int(num * 1.5), 200)
901
412
 
902
413
 
903
 
def _get_revision_limits(branch, start_revision, end_revision):
904
 
    """Get and check revision limits.
905
 
 
906
 
    :param  branch: The branch containing the revisions.
907
 
 
908
 
    :param  start_revision: The first revision to be logged.
909
 
            For backwards compatibility this may be a mainline integer revno,
910
 
            but for merge revision support a RevisionInfo is expected.
911
 
 
912
 
    :param  end_revision: The last revision to be logged.
913
 
            For backwards compatibility this may be a mainline integer revno,
914
 
            but for merge revision support a RevisionInfo is expected.
915
 
 
916
 
    :return: (start_rev_id, end_rev_id) tuple.
917
 
    """
918
 
    branch_revno, branch_rev_id = branch.last_revision_info()
919
 
    start_rev_id = None
920
 
    if start_revision is None:
921
 
        start_revno = 1
922
 
    else:
923
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
924
 
            start_rev_id = start_revision.rev_id
925
 
            start_revno = start_revision.revno or 1
926
 
        else:
927
 
            branch.check_real_revno(start_revision)
928
 
            start_revno = start_revision
929
 
            start_rev_id = branch.get_rev_id(start_revno)
930
 
 
931
 
    end_rev_id = None
932
 
    if end_revision is None:
933
 
        end_revno = branch_revno
934
 
    else:
935
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
936
 
            end_rev_id = end_revision.rev_id
937
 
            end_revno = end_revision.revno or branch_revno
938
 
        else:
939
 
            branch.check_real_revno(end_revision)
940
 
            end_revno = end_revision
941
 
            end_rev_id = branch.get_rev_id(end_revno)
942
 
 
943
 
    if branch_revno != 0:
944
 
        if (start_rev_id == _mod_revision.NULL_REVISION
945
 
            or end_rev_id == _mod_revision.NULL_REVISION):
946
 
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
947
 
        if start_revno > end_revno:
948
 
            raise errors.BzrCommandError("Start revision must be older than "
949
 
                                         "the end revision.")
950
 
    return (start_rev_id, end_rev_id)
951
 
 
952
 
 
953
414
def _get_mainline_revs(branch, start_revision, end_revision):
954
415
    """Get the mainline revisions from the branch.
955
 
 
 
416
    
956
417
    Generates the list of mainline revisions for the branch.
957
 
 
958
 
    :param  branch: The branch containing the revisions.
 
418
    
 
419
    :param  branch: The branch containing the revisions. 
959
420
 
960
421
    :param  start_revision: The first revision to be logged.
961
422
            For backwards compatibility this may be a mainline integer revno,
971
432
    if branch_revno == 0:
972
433
        return None, None, None, None
973
434
 
974
 
    # For mainline generation, map start_revision and end_revision to
975
 
    # mainline revnos. If the revision is not on the mainline choose the
976
 
    # appropriate extreme of the mainline instead - the extra will be
 
435
    # For mainline generation, map start_revision and end_revision to 
 
436
    # mainline revnos. If the revision is not on the mainline choose the 
 
437
    # appropriate extreme of the mainline instead - the extra will be 
977
438
    # filtered later.
978
439
    # Also map the revisions to rev_ids, to be used in the later filtering
979
440
    # stage.
980
 
    start_rev_id = None
 
441
    start_rev_id = None 
981
442
    if start_revision is None:
982
443
        start_revno = 1
983
444
    else:
987
448
        else:
988
449
            branch.check_real_revno(start_revision)
989
450
            start_revno = start_revision
990
 
 
 
451
    
991
452
    end_rev_id = None
992
453
    if end_revision is None:
993
454
        end_revno = branch_revno
1035
496
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1036
497
    """Filter view_revisions based on revision ranges.
1037
498
 
1038
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
499
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth) 
1039
500
            tuples to be filtered.
1040
501
 
1041
502
    :param start_rev_id: If not NONE specifies the first revision to be logged.
1046
507
 
1047
508
    :return: The filtered view_revisions.
1048
509
    """
1049
 
    # This method is no longer called by the main code path.
1050
 
    # It may be removed soon. IGC 20090127
1051
 
    if start_rev_id or end_rev_id:
 
510
    if start_rev_id or end_rev_id: 
1052
511
        revision_ids = [r for r, n, d in view_revisions]
1053
512
        if start_rev_id:
1054
513
            start_index = revision_ids.index(start_rev_id)
1061
520
                end_index = revision_ids.index(end_rev_id)
1062
521
            else:
1063
522
                end_index = len(view_revisions) - 1
1064
 
        # To include the revisions merged into the last revision,
 
523
        # To include the revisions merged into the last revision, 
1065
524
        # extend end_rev_id down to, but not including, the next rev
1066
525
        # with the same or lesser merge_depth
1067
526
        end_merge_depth = view_revisions[end_index][2]
1077
536
    return view_revisions
1078
537
 
1079
538
 
1080
 
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
1081
 
    include_merges=True):
1082
 
    r"""Return the list of revision ids which touch a given file id.
 
539
def _filter_revisions_touching_file_id(branch, file_id, mainline_revisions,
 
540
                                       view_revs_iter):
 
541
    """Return the list of revision ids which touch a given file id.
1083
542
 
1084
543
    The function filters view_revisions and returns a subset.
1085
544
    This includes the revisions which directly change the file id,
1086
545
    and the revisions which merge these changes. So if the
1087
546
    revision graph is::
1088
 
        A-.
1089
 
        |\ \
1090
 
        B C E
1091
 
        |/ /
1092
 
        D |
1093
 
        |\|
1094
 
        | F
 
547
        A
 
548
        |\
 
549
        B C
1095
550
        |/
1096
 
        G
1097
 
 
1098
 
    And 'C' changes a file, then both C and D will be returned. F will not be
1099
 
    returned even though it brings the changes to C into the branch starting
1100
 
    with E. (Note that if we were using F as the tip instead of G, then we
1101
 
    would see C, D, F.)
1102
 
 
1103
 
    This will also be restricted based on a subset of the mainline.
1104
 
 
1105
 
    :param branch: The branch where we can get text revision information.
1106
 
 
1107
 
    :param file_id: Filter out revisions that do not touch file_id.
1108
 
 
1109
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1110
 
        tuples. This is the list of revisions which will be filtered. It is
1111
 
        assumed that view_revisions is in merge_sort order (i.e. newest
1112
 
        revision first ).
1113
 
 
1114
 
    :param include_merges: include merge revisions in the result or not
 
551
        D
 
552
 
 
553
    And 'C' changes a file, then both C and D will be returned.
 
554
 
 
555
    This will also can be restricted based on a subset of the mainline.
1115
556
 
1116
557
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
1117
558
    """
1118
 
    # Lookup all possible text keys to determine which ones actually modified
1119
 
    # the file.
1120
 
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1121
 
    next_keys = None
1122
 
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1123
 
    # memory consumption. GraphIndex *does* like to look for a few keys in
1124
 
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
1125
 
    # TODO: This code needs to be re-evaluated periodically as we tune the
1126
 
    #       indexing layer. We might consider passing in hints as to the known
1127
 
    #       access pattern (sparse/clustered, high success rate/low success
1128
 
    #       rate). This particular access is clustered with a low success rate.
1129
 
    get_parent_map = branch.repository.texts.get_parent_map
1130
 
    modified_text_revisions = set()
1131
 
    chunk_size = 1000
1132
 
    for start in xrange(0, len(text_keys), chunk_size):
1133
 
        next_keys = text_keys[start:start + chunk_size]
1134
 
        # Only keep the revision_id portion of the key
1135
 
        modified_text_revisions.update(
1136
 
            [k[1] for k in get_parent_map(next_keys)])
1137
 
    del text_keys, next_keys
1138
 
 
1139
 
    result = []
1140
 
    # Track what revisions will merge the current revision, replace entries
1141
 
    # with 'None' when they have been added to result
1142
 
    current_merge_stack = [None]
1143
 
    for info in view_revisions:
1144
 
        rev_id, revno, depth = info
1145
 
        if depth == len(current_merge_stack):
1146
 
            current_merge_stack.append(info)
 
559
    # find all the revisions that change the specific file
 
560
    # build the ancestry of each revision in the graph
 
561
    # - only listing the ancestors that change the specific file.
 
562
    graph = branch.repository.get_graph()
 
563
    # This asks for all mainline revisions, which means we only have to spider
 
564
    # sideways, rather than depth history. That said, its still size-of-history
 
565
    # and should be addressed.
 
566
    # mainline_revisions always includes an extra revision at the beginning, so
 
567
    # don't request it.
 
568
    parent_map = dict(((key, value) for key, value in
 
569
        graph.iter_ancestry(mainline_revisions[1:]) if value is not None))
 
570
    sorted_rev_list = tsort.topo_sort(parent_map.items())
 
571
    text_keys = [(file_id, rev_id) for rev_id in sorted_rev_list]
 
572
    modified_text_versions = branch.repository.texts.get_parent_map(text_keys)
 
573
    ancestry = {}
 
574
    for rev in sorted_rev_list:
 
575
        text_key = (file_id, rev)
 
576
        parents = parent_map[rev]
 
577
        if text_key not in modified_text_versions and len(parents) == 1:
 
578
            # We will not be adding anything new, so just use a reference to
 
579
            # the parent ancestry.
 
580
            rev_ancestry = ancestry[parents[0]]
1147
581
        else:
1148
 
            del current_merge_stack[depth + 1:]
1149
 
            current_merge_stack[-1] = info
1150
 
 
1151
 
        if rev_id in modified_text_revisions:
1152
 
            # This needs to be logged, along with the extra revisions
1153
 
            for idx in xrange(len(current_merge_stack)):
1154
 
                node = current_merge_stack[idx]
1155
 
                if node is not None:
1156
 
                    if include_merges or node[2] == 0:
1157
 
                        result.append(node)
1158
 
                        current_merge_stack[idx] = None
1159
 
    return result
 
582
            rev_ancestry = set()
 
583
            if text_key in modified_text_versions:
 
584
                rev_ancestry.add(rev)
 
585
            for parent in parents:
 
586
                if parent not in ancestry:
 
587
                    # parent is a Ghost, which won't be present in
 
588
                    # sorted_rev_list, but we may access it later, so create an
 
589
                    # empty node for it
 
590
                    ancestry[parent] = set()
 
591
                rev_ancestry = rev_ancestry.union(ancestry[parent])
 
592
        ancestry[rev] = rev_ancestry
 
593
 
 
594
    def is_merging_rev(r):
 
595
        parents = parent_map[r]
 
596
        if len(parents) > 1:
 
597
            leftparent = parents[0]
 
598
            for rightparent in parents[1:]:
 
599
                if not ancestry[leftparent].issuperset(
 
600
                        ancestry[rightparent]):
 
601
                    return True
 
602
        return False
 
603
 
 
604
    # filter from the view the revisions that did not change or merge 
 
605
    # the specific file
 
606
    return [(r, n, d) for r, n, d in view_revs_iter
 
607
            if (file_id, r) in modified_text_versions or is_merging_rev(r)]
1160
608
 
1161
609
 
1162
610
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
1165
613
    :return: an iterator of (revision_id, revno, merge_depth)
1166
614
    (if there is no revno for a revision, None is supplied)
1167
615
    """
1168
 
    # This method is no longer called by the main code path.
1169
 
    # It is retained for API compatibility and may be deprecated
1170
 
    # soon. IGC 20090127
1171
 
    if not include_merges:
 
616
    if include_merges is False:
1172
617
        revision_ids = mainline_revs[1:]
1173
618
        if direction == 'reverse':
1174
619
            revision_ids.reverse()
1197
642
    elif direction != 'reverse':
1198
643
        raise ValueError('invalid direction %r' % direction)
1199
644
 
1200
 
    for (sequence, rev_id, merge_depth, revno, end_of_merge
1201
 
         ) in merge_sorted_revisions:
 
645
    for sequence, rev_id, merge_depth, revno, end_of_merge in merge_sorted_revisions:
1202
646
        yield rev_id, '.'.join(map(str, revno)), merge_depth
1203
647
 
1204
648
 
1209
653
    revision of that depth.  There may be no topological justification for this,
1210
654
    but it looks much nicer.
1211
655
    """
1212
 
    # Add a fake revision at start so that we can always attach sub revisions
1213
 
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
1214
656
    zd_revisions = []
1215
657
    for val in merge_sorted_revisions:
1216
658
        if val[2] == _depth:
1217
 
            # Each revision at the current depth becomes a chunk grouping all
1218
 
            # higher depth revisions.
1219
659
            zd_revisions.append([val])
1220
660
        else:
1221
661
            zd_revisions[-1].append(val)
1222
662
    for revisions in zd_revisions:
1223
663
        if len(revisions) > 1:
1224
 
            # We have higher depth revisions, let reverse them locally
1225
664
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
1226
665
    zd_revisions.reverse()
1227
666
    result = []
1228
667
    for chunk in zd_revisions:
1229
668
        result.extend(chunk)
1230
 
    if _depth == 0:
1231
 
        # Top level call, get rid of the fake revisions that have been added
1232
 
        result = [r for r in result if r[0] is not None and r[1] is not None]
1233
669
    return result
1234
670
 
1235
671
 
1237
673
    """A revision to be logged (by LogFormatter.log_revision).
1238
674
 
1239
675
    A simple wrapper for the attributes of a revision to be logged.
1240
 
    The attributes may or may not be populated, as determined by the
 
676
    The attributes may or may not be populated, as determined by the 
1241
677
    logging options and the log formatter capabilities.
1242
678
    """
1243
679
 
1244
680
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1245
 
                 tags=None, diff=None):
 
681
                 tags=None):
1246
682
        self.rev = rev
1247
 
        self.revno = str(revno)
 
683
        self.revno = revno
1248
684
        self.merge_depth = merge_depth
1249
685
        self.delta = delta
1250
686
        self.tags = tags
1251
 
        self.diff = diff
1252
687
 
1253
688
 
1254
689
class LogFormatter(object):
1259
694
    If the LogFormatter needs to be informed of the beginning or end of
1260
695
    a log it should implement the begin_log and/or end_log hook methods.
1261
696
 
1262
 
    A LogFormatter should define the following supports_XXX flags
 
697
    A LogFormatter should define the following supports_XXX flags 
1263
698
    to indicate which LogRevision attributes it supports:
1264
699
 
1265
700
    - supports_delta must be True if this log formatter supports delta.
1266
 
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1267
 
        attribute describes whether the 'short_status' format (1) or the long
1268
 
        one (2) should be used.
1269
 
 
1270
 
    - supports_merge_revisions must be True if this log formatter supports
1271
 
        merge revisions.  If not, then only mainline revisions will be passed
1272
 
        to the formatter.
1273
 
 
1274
 
    - preferred_levels is the number of levels this formatter defaults to.
1275
 
        The default value is zero meaning display all levels.
1276
 
        This value is only relevant if supports_merge_revisions is True.
1277
 
 
 
701
        Otherwise the delta attribute may not be populated.
 
702
    - supports_merge_revisions must be True if this log formatter supports 
 
703
        merge revisions.  If not, and if supports_single_merge_revisions is
 
704
        also not True, then only mainline revisions will be passed to the 
 
705
        formatter.
 
706
    - supports_single_merge_revision must be True if this log formatter
 
707
        supports logging only a single merge revision.  This flag is
 
708
        only relevant if supports_merge_revisions is not True.
1278
709
    - supports_tags must be True if this log formatter supports tags.
1279
710
        Otherwise the tags attribute may not be populated.
1280
711
 
1281
 
    - supports_diff must be True if this log formatter supports diffs.
1282
 
        Otherwise the diff attribute may not be populated.
1283
 
 
1284
712
    Plugins can register functions to show custom revision properties using
1285
713
    the properties_handler_registry. The registered function
1286
714
    must respect the following interface description:
1287
715
        def my_show_properties(properties_dict):
1288
 
            # code that returns a dict {'name':'value'} of the properties
 
716
            # code that returns a dict {'name':'value'} of the properties 
1289
717
            # to be shown
1290
718
    """
1291
 
    preferred_levels = 0
1292
 
 
1293
 
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1294
 
                 delta_format=None, levels=None, show_advice=False):
1295
 
        """Create a LogFormatter.
1296
 
 
1297
 
        :param to_file: the file to output to
1298
 
        :param show_ids: if True, revision-ids are to be displayed
1299
 
        :param show_timezone: the timezone to use
1300
 
        :param delta_format: the level of delta information to display
1301
 
          or None to leave it to the formatter to decide
1302
 
        :param levels: the number of levels to display; None or -1 to
1303
 
          let the log formatter decide.
1304
 
        :param show_advice: whether to show advice at the end of the
1305
 
          log or not
1306
 
        """
 
719
 
 
720
    def __init__(self, to_file, show_ids=False, show_timezone='original'):
1307
721
        self.to_file = to_file
1308
 
        # 'exact' stream used to show diff, it should print content 'as is'
1309
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
1310
 
        self.to_exact_file = getattr(to_file, 'stream', to_file)
1311
722
        self.show_ids = show_ids
1312
723
        self.show_timezone = show_timezone
1313
 
        if delta_format is None:
1314
 
            # Ensures backward compatibility
1315
 
            delta_format = 2 # long format
1316
 
        self.delta_format = delta_format
1317
 
        self.levels = levels
1318
 
        self._show_advice = show_advice
1319
 
        self._merge_count = 0
1320
 
 
1321
 
    def get_levels(self):
1322
 
        """Get the number of levels to display or 0 for all."""
1323
 
        if getattr(self, 'supports_merge_revisions', False):
1324
 
            if self.levels is None or self.levels == -1:
1325
 
                self.levels = self.preferred_levels
1326
 
        else:
1327
 
            self.levels = 1
1328
 
        return self.levels
1329
 
 
1330
 
    def log_revision(self, revision):
1331
 
        """Log a revision.
1332
 
 
1333
 
        :param  revision:   The LogRevision to be logged.
1334
 
        """
1335
 
        raise NotImplementedError('not implemented in abstract base')
1336
 
 
1337
 
    def show_advice(self):
1338
 
        """Output user advice, if any, when the log is completed."""
1339
 
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
1340
 
            advice_sep = self.get_advice_separator()
1341
 
            if advice_sep:
1342
 
                self.to_file.write(advice_sep)
1343
 
            self.to_file.write(
1344
 
                "Use --include-merges or -n0 to see merged revisions.\n")
1345
 
 
1346
 
    def get_advice_separator(self):
1347
 
        """Get the text separating the log from the closing advice."""
1348
 
        return ''
 
724
 
 
725
# TODO: uncomment this block after show() has been removed.
 
726
# Until then defining log_revision would prevent _show_log calling show() 
 
727
# in legacy formatters.
 
728
#    def log_revision(self, revision):
 
729
#        """Log a revision.
 
730
#
 
731
#        :param  revision:   The LogRevision to be logged.
 
732
#        """
 
733
#        raise NotImplementedError('not implemented in abstract base')
1349
734
 
1350
735
    def short_committer(self, rev):
1351
736
        name, address = config.parse_username(rev.committer)
1354
739
        return address
1355
740
 
1356
741
    def short_author(self, rev):
1357
 
        name, address = config.parse_username(rev.get_apparent_authors()[0])
 
742
        name, address = config.parse_username(rev.get_apparent_author())
1358
743
        if name:
1359
744
            return name
1360
745
        return address
1361
746
 
1362
 
    def merge_marker(self, revision):
1363
 
        """Get the merge marker to include in the output or '' if none."""
1364
 
        if len(revision.rev.parent_ids) > 1:
1365
 
            self._merge_count += 1
1366
 
            return ' [merge]'
1367
 
        else:
1368
 
            return ''
1369
 
 
1370
 
    def show_foreign_info(self, rev, indent):
1371
 
        """Custom log displayer for foreign revision identifiers.
1372
 
 
1373
 
        :param rev: Revision object.
1374
 
        """
1375
 
        # Revision comes directly from a foreign repository
1376
 
        if isinstance(rev, foreign.ForeignRevision):
1377
 
            self._write_properties(indent, rev.mapping.vcs.show_foreign_revid(
1378
 
                rev.foreign_revid))
1379
 
            return
1380
 
 
1381
 
        # Imported foreign revision revision ids always contain :
1382
 
        if not ":" in rev.revision_id:
1383
 
            return
1384
 
 
1385
 
        # Revision was once imported from a foreign repository
1386
 
        try:
1387
 
            foreign_revid, mapping = \
1388
 
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
1389
 
        except errors.InvalidRevisionId:
1390
 
            return
1391
 
 
1392
 
        self._write_properties(indent, 
1393
 
            mapping.vcs.show_foreign_revid(foreign_revid))
1394
 
 
1395
747
    def show_properties(self, revision, indent):
1396
748
        """Displays the custom properties returned by each registered handler.
1397
 
 
 
749
        
1398
750
        If a registered handler raises an error it is propagated.
1399
751
        """
1400
752
        for key, handler in properties_handler_registry.iteritems():
1401
 
            self._write_properties(indent, handler(revision))
1402
 
 
1403
 
    def _write_properties(self, indent, properties):
1404
 
        for key, value in properties.items():
1405
 
            self.to_file.write(indent + key + ': ' + value + '\n')
1406
 
 
1407
 
    def show_diff(self, to_file, diff, indent):
1408
 
        for l in diff.rstrip().split('\n'):
1409
 
            to_file.write(indent + '%s\n' % (l,))
 
753
            for key, value in handler(revision).items():
 
754
                self.to_file.write(indent + key + ': ' + value + '\n')
1410
755
 
1411
756
 
1412
757
class LongLogFormatter(LogFormatter):
1413
758
 
1414
759
    supports_merge_revisions = True
1415
 
    preferred_levels = 1
1416
760
    supports_delta = True
1417
761
    supports_tags = True
1418
 
    supports_diff = True
1419
762
 
1420
763
    def log_revision(self, revision):
1421
764
        """Log a revision, either merged or not."""
1423
766
        to_file = self.to_file
1424
767
        to_file.write(indent + '-' * 60 + '\n')
1425
768
        if revision.revno is not None:
1426
 
            to_file.write(indent + 'revno: %s%s\n' % (revision.revno,
1427
 
                self.merge_marker(revision)))
 
769
            to_file.write(indent + 'revno: %s\n' % (revision.revno,))
1428
770
        if revision.tags:
1429
771
            to_file.write(indent + 'tags: %s\n' % (', '.join(revision.tags)))
1430
772
        if self.show_ids:
1432
774
            to_file.write('\n')
1433
775
            for parent_id in revision.rev.parent_ids:
1434
776
                to_file.write(indent + 'parent: %s\n' % (parent_id,))
1435
 
        self.show_foreign_info(revision.rev, indent)
1436
777
        self.show_properties(revision.rev, indent)
1437
778
 
1438
 
        committer = revision.rev.committer
1439
 
        authors = revision.rev.get_apparent_authors()
1440
 
        if authors != [committer]:
1441
 
            to_file.write(indent + 'author: %s\n' % (", ".join(authors),))
1442
 
        to_file.write(indent + 'committer: %s\n' % (committer,))
 
779
        author = revision.rev.properties.get('author', None)
 
780
        if author is not None:
 
781
            to_file.write(indent + 'author: %s\n' % (author,))
 
782
        to_file.write(indent + 'committer: %s\n' % (revision.rev.committer,))
1443
783
 
1444
784
        branch_nick = revision.rev.properties.get('branch-nick', None)
1445
785
        if branch_nick is not None:
1458
798
            for l in message.split('\n'):
1459
799
                to_file.write(indent + '  %s\n' % (l,))
1460
800
        if revision.delta is not None:
1461
 
            # We don't respect delta_format for compatibility
1462
 
            revision.delta.show(to_file, self.show_ids, indent=indent,
1463
 
                                short_status=False)
1464
 
        if revision.diff is not None:
1465
 
            to_file.write(indent + 'diff:\n')
1466
 
            # Note: we explicitly don't indent the diff (relative to the
1467
 
            # revision information) so that the output can be fed to patch -p0
1468
 
            self.show_diff(self.to_exact_file, revision.diff, indent)
1469
 
 
1470
 
    def get_advice_separator(self):
1471
 
        """Get the text separating the log from the closing advice."""
1472
 
        return '-' * 60 + '\n'
 
801
            revision.delta.show(to_file, self.show_ids, indent=indent)
1473
802
 
1474
803
 
1475
804
class ShortLogFormatter(LogFormatter):
1476
805
 
1477
 
    supports_merge_revisions = True
1478
 
    preferred_levels = 1
1479
806
    supports_delta = True
1480
 
    supports_tags = True
1481
 
    supports_diff = True
1482
 
 
1483
 
    def __init__(self, *args, **kwargs):
1484
 
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
1485
 
        self.revno_width_by_depth = {}
 
807
    supports_single_merge_revision = True
1486
808
 
1487
809
    def log_revision(self, revision):
1488
 
        # We need two indents: one per depth and one for the information
1489
 
        # relative to that indent. Most mainline revnos are 5 chars or
1490
 
        # less while dotted revnos are typically 11 chars or less. Once
1491
 
        # calculated, we need to remember the offset for a given depth
1492
 
        # as we might be starting from a dotted revno in the first column
1493
 
        # and we want subsequent mainline revisions to line up.
1494
 
        depth = revision.merge_depth
1495
 
        indent = '    ' * depth
1496
 
        revno_width = self.revno_width_by_depth.get(depth)
1497
 
        if revno_width is None:
1498
 
            if revision.revno.find('.') == -1:
1499
 
                # mainline revno, e.g. 12345
1500
 
                revno_width = 5
1501
 
            else:
1502
 
                # dotted revno, e.g. 12345.10.55
1503
 
                revno_width = 11
1504
 
            self.revno_width_by_depth[depth] = revno_width
1505
 
        offset = ' ' * (revno_width + 1)
1506
 
 
1507
810
        to_file = self.to_file
1508
 
        tags = ''
1509
 
        if revision.tags:
1510
 
            tags = ' {%s}' % (', '.join(revision.tags))
1511
 
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1512
 
                revision.revno, self.short_author(revision.rev),
 
811
        is_merge = ''
 
812
        if len(revision.rev.parent_ids) > 1:
 
813
            is_merge = ' [merge]'
 
814
        to_file.write("%5s %s\t%s%s\n" % (revision.revno,
 
815
                self.short_author(revision.rev),
1513
816
                format_date(revision.rev.timestamp,
1514
817
                            revision.rev.timezone or 0,
1515
818
                            self.show_timezone, date_fmt="%Y-%m-%d",
1516
819
                            show_offset=False),
1517
 
                tags, self.merge_marker(revision)))
1518
 
        self.show_foreign_info(revision.rev, indent+offset)
1519
 
        self.show_properties(revision.rev, indent+offset)
 
820
                is_merge))
1520
821
        if self.show_ids:
1521
 
            to_file.write(indent + offset + 'revision-id:%s\n'
1522
 
                          % (revision.rev.revision_id,))
 
822
            to_file.write('      revision-id:%s\n' % (revision.rev.revision_id,))
1523
823
        if not revision.rev.message:
1524
 
            to_file.write(indent + offset + '(no message)\n')
 
824
            to_file.write('      (no message)\n')
1525
825
        else:
1526
826
            message = revision.rev.message.rstrip('\r\n')
1527
827
            for l in message.split('\n'):
1528
 
                to_file.write(indent + offset + '%s\n' % (l,))
 
828
                to_file.write('      %s\n' % (l,))
1529
829
 
 
830
        # TODO: Why not show the modified files in a shorter form as
 
831
        # well? rewrap them single lines of appropriate length
1530
832
        if revision.delta is not None:
1531
 
            revision.delta.show(to_file, self.show_ids, indent=indent + offset,
1532
 
                                short_status=self.delta_format==1)
1533
 
        if revision.diff is not None:
1534
 
            self.show_diff(self.to_exact_file, revision.diff, '      ')
 
833
            revision.delta.show(to_file, self.show_ids)
1535
834
        to_file.write('\n')
1536
835
 
1537
836
 
1538
837
class LineLogFormatter(LogFormatter):
1539
838
 
1540
 
    supports_merge_revisions = True
1541
 
    preferred_levels = 1
1542
 
    supports_tags = True
 
839
    supports_single_merge_revision = True
1543
840
 
1544
841
    def __init__(self, *args, **kwargs):
1545
842
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1551
848
        return str[:max_len-3]+'...'
1552
849
 
1553
850
    def date_string(self, rev):
1554
 
        return format_date(rev.timestamp, rev.timezone or 0,
 
851
        return format_date(rev.timestamp, rev.timezone or 0, 
1555
852
                           self.show_timezone, date_fmt="%Y-%m-%d",
1556
853
                           show_offset=False)
1557
854
 
1562
859
            return rev.message
1563
860
 
1564
861
    def log_revision(self, revision):
1565
 
        indent = '  ' * revision.merge_depth
1566
862
        self.to_file.write(self.log_string(revision.revno, revision.rev,
1567
 
            self._max_chars, revision.tags, indent))
 
863
                                              self._max_chars))
1568
864
        self.to_file.write('\n')
1569
865
 
1570
 
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
 
866
    def log_string(self, revno, rev, max_chars):
1571
867
        """Format log info into one string. Truncate tail of string
1572
 
        :param  revno:      revision number or None.
 
868
        :param  revno:      revision number (int) or None.
1573
869
                            Revision numbers counts from 1.
1574
 
        :param  rev:        revision object
 
870
        :param  rev:        revision info object
1575
871
        :param  max_chars:  maximum length of resulting string
1576
 
        :param  tags:       list of tags or None
1577
 
        :param  prefix:     string to prefix each line
1578
872
        :return:            formatted truncated string
1579
873
        """
1580
874
        out = []
1583
877
            out.append("%s:" % revno)
1584
878
        out.append(self.truncate(self.short_author(rev), 20))
1585
879
        out.append(self.date_string(rev))
1586
 
        if len(rev.parent_ids) > 1:
1587
 
            out.append('[merge]')
1588
 
        if tags:
1589
 
            tag_str = '{%s}' % (', '.join(tags))
1590
 
            out.append(tag_str)
1591
880
        out.append(rev.get_summary())
1592
 
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1593
 
 
1594
 
 
1595
 
class GnuChangelogLogFormatter(LogFormatter):
1596
 
 
1597
 
    supports_merge_revisions = True
1598
 
    supports_delta = True
1599
 
 
1600
 
    def log_revision(self, revision):
1601
 
        """Log a revision, either merged or not."""
1602
 
        to_file = self.to_file
1603
 
 
1604
 
        date_str = format_date(revision.rev.timestamp,
1605
 
                               revision.rev.timezone or 0,
1606
 
                               self.show_timezone,
1607
 
                               date_fmt='%Y-%m-%d',
1608
 
                               show_offset=False)
1609
 
        committer_str = revision.rev.committer.replace (' <', '  <')
1610
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1611
 
 
1612
 
        if revision.delta is not None and revision.delta.has_changed():
1613
 
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1614
 
                path, = c[:1]
1615
 
                to_file.write('\t* %s:\n' % (path,))
1616
 
            for c in revision.delta.renamed:
1617
 
                oldpath,newpath = c[:2]
1618
 
                # For renamed files, show both the old and the new path
1619
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
1620
 
            to_file.write('\n')
1621
 
 
1622
 
        if not revision.rev.message:
1623
 
            to_file.write('\tNo commit message\n')
1624
 
        else:
1625
 
            message = revision.rev.message.rstrip('\r\n')
1626
 
            for l in message.split('\n'):
1627
 
                to_file.write('\t%s\n' % (l.lstrip(),))
1628
 
            to_file.write('\n')
 
881
        return self.truncate(" ".join(out).rstrip('\n'), max_chars)
1629
882
 
1630
883
 
1631
884
def line_log(rev, max_chars):
1657
910
                                'Detailed log format')
1658
911
log_formatter_registry.register('line', LineLogFormatter,
1659
912
                                'Log format with one line per revision')
1660
 
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1661
 
                                'Format used by GNU ChangeLog files')
1662
913
 
1663
914
 
1664
915
def register_formatter(name, formatter):
1738
989
                 search=None)
1739
990
 
1740
991
 
1741
 
def get_history_change(old_revision_id, new_revision_id, repository):
1742
 
    """Calculate the uncommon lefthand history between two revisions.
1743
 
 
1744
 
    :param old_revision_id: The original revision id.
1745
 
    :param new_revision_id: The new revision id.
1746
 
    :param repository: The repository to use for the calculation.
1747
 
 
1748
 
    return old_history, new_history
1749
 
    """
1750
 
    old_history = []
1751
 
    old_revisions = set()
1752
 
    new_history = []
1753
 
    new_revisions = set()
1754
 
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
1755
 
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
1756
 
    stop_revision = None
1757
 
    do_old = True
1758
 
    do_new = True
1759
 
    while do_new or do_old:
1760
 
        if do_new:
1761
 
            try:
1762
 
                new_revision = new_iter.next()
1763
 
            except StopIteration:
1764
 
                do_new = False
1765
 
            else:
1766
 
                new_history.append(new_revision)
1767
 
                new_revisions.add(new_revision)
1768
 
                if new_revision in old_revisions:
1769
 
                    stop_revision = new_revision
1770
 
                    break
1771
 
        if do_old:
1772
 
            try:
1773
 
                old_revision = old_iter.next()
1774
 
            except StopIteration:
1775
 
                do_old = False
1776
 
            else:
1777
 
                old_history.append(old_revision)
1778
 
                old_revisions.add(old_revision)
1779
 
                if old_revision in new_revisions:
1780
 
                    stop_revision = old_revision
1781
 
                    break
1782
 
    new_history.reverse()
1783
 
    old_history.reverse()
1784
 
    if stop_revision is not None:
1785
 
        new_history = new_history[new_history.index(stop_revision) + 1:]
1786
 
        old_history = old_history[old_history.index(stop_revision) + 1:]
1787
 
    return old_history, new_history
1788
 
 
1789
 
 
1790
 
def show_branch_change(branch, output, old_revno, old_revision_id):
1791
 
    """Show the changes made to a branch.
1792
 
 
1793
 
    :param branch: The branch to show changes about.
1794
 
    :param output: A file-like object to write changes to.
1795
 
    :param old_revno: The revno of the old tip.
1796
 
    :param old_revision_id: The revision_id of the old tip.
1797
 
    """
1798
 
    new_revno, new_revision_id = branch.last_revision_info()
1799
 
    old_history, new_history = get_history_change(old_revision_id,
1800
 
                                                  new_revision_id,
1801
 
                                                  branch.repository)
1802
 
    if old_history == [] and new_history == []:
1803
 
        output.write('Nothing seems to have changed\n')
1804
 
        return
1805
 
 
1806
 
    log_format = log_formatter_registry.get_default(branch)
1807
 
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
1808
 
    if old_history != []:
1809
 
        output.write('*'*60)
1810
 
        output.write('\nRemoved Revisions:\n')
1811
 
        show_flat_log(branch.repository, old_history, old_revno, lf)
1812
 
        output.write('*'*60)
1813
 
        output.write('\n\n')
1814
 
    if new_history != []:
1815
 
        output.write('Added Revisions:\n')
1816
 
        start_revno = new_revno - len(new_history) + 1
1817
 
        show_log(branch, lf, None, verbose=False, direction='forward',
1818
 
                 start_revision=start_revno,)
1819
 
 
1820
 
 
1821
 
def show_flat_log(repository, history, last_revno, lf):
1822
 
    """Show a simple log of the specified history.
1823
 
 
1824
 
    :param repository: The repository to retrieve revisions from.
1825
 
    :param history: A list of revision_ids indicating the lefthand history.
1826
 
    :param last_revno: The revno of the last revision_id in the history.
1827
 
    :param lf: The log formatter to use.
1828
 
    """
1829
 
    start_revno = last_revno - len(history) + 1
1830
 
    revisions = repository.get_revisions(history)
1831
 
    for i, rev in enumerate(revisions):
1832
 
        lr = LogRevision(rev, i + last_revno, 0, None)
1833
 
        lf.log_revision(lr)
1834
 
 
1835
 
 
1836
 
def _get_info_for_log_files(revisionspec_list, file_list):
1837
 
    """Find file-ids and kinds given a list of files and a revision range.
1838
 
 
1839
 
    We search for files at the end of the range. If not found there,
1840
 
    we try the start of the range.
1841
 
 
1842
 
    :param revisionspec_list: revision range as parsed on the command line
1843
 
    :param file_list: the list of paths given on the command line;
1844
 
      the first of these can be a branch location or a file path,
1845
 
      the remainder must be file paths
1846
 
    :return: (branch, info_list, start_rev_info, end_rev_info) where
1847
 
      info_list is a list of (relative_path, file_id, kind) tuples where
1848
 
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
1849
 
    """
1850
 
    from builtins import _get_revision_range, safe_relpath_files
1851
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
1852
 
    # XXX: It's damn messy converting a list of paths to relative paths when
1853
 
    # those paths might be deleted ones, they might be on a case-insensitive
1854
 
    # filesystem and/or they might be in silly locations (like another branch).
1855
 
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
1856
 
    # file2 implicitly in the same dir as file1 or should its directory be
1857
 
    # taken from the current tree somehow?) For now, this solves the common
1858
 
    # case of running log in a nested directory, assuming paths beyond the
1859
 
    # first one haven't been deleted ...
1860
 
    if tree:
1861
 
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
1862
 
    else:
1863
 
        relpaths = [path] + file_list[1:]
1864
 
    info_list = []
1865
 
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
1866
 
        "log")
1867
 
    if relpaths in ([], [u'']):
1868
 
        return b, [], start_rev_info, end_rev_info
1869
 
    if start_rev_info is None and end_rev_info is None:
1870
 
        if tree is None:
1871
 
            tree = b.basis_tree()
1872
 
        tree1 = None
1873
 
        for fp in relpaths:
1874
 
            file_id = tree.path2id(fp)
1875
 
            kind = _get_kind_for_file_id(tree, file_id)
1876
 
            if file_id is None:
1877
 
                # go back to when time began
1878
 
                if tree1 is None:
1879
 
                    try:
1880
 
                        rev1 = b.get_rev_id(1)
1881
 
                    except errors.NoSuchRevision:
1882
 
                        # No history at all
1883
 
                        file_id = None
1884
 
                        kind = None
1885
 
                    else:
1886
 
                        tree1 = b.repository.revision_tree(rev1)
1887
 
                if tree1:
1888
 
                    file_id = tree1.path2id(fp)
1889
 
                    kind = _get_kind_for_file_id(tree1, file_id)
1890
 
            info_list.append((fp, file_id, kind))
1891
 
 
1892
 
    elif start_rev_info == end_rev_info:
1893
 
        # One revision given - file must exist in it
1894
 
        tree = b.repository.revision_tree(end_rev_info.rev_id)
1895
 
        for fp in relpaths:
1896
 
            file_id = tree.path2id(fp)
1897
 
            kind = _get_kind_for_file_id(tree, file_id)
1898
 
            info_list.append((fp, file_id, kind))
1899
 
 
1900
 
    else:
1901
 
        # Revision range given. Get the file-id from the end tree.
1902
 
        # If that fails, try the start tree.
1903
 
        rev_id = end_rev_info.rev_id
1904
 
        if rev_id is None:
1905
 
            tree = b.basis_tree()
1906
 
        else:
1907
 
            tree = b.repository.revision_tree(rev_id)
1908
 
        tree1 = None
1909
 
        for fp in relpaths:
1910
 
            file_id = tree.path2id(fp)
1911
 
            kind = _get_kind_for_file_id(tree, file_id)
1912
 
            if file_id is None:
1913
 
                if tree1 is None:
1914
 
                    rev_id = start_rev_info.rev_id
1915
 
                    if rev_id is None:
1916
 
                        rev1 = b.get_rev_id(1)
1917
 
                        tree1 = b.repository.revision_tree(rev1)
1918
 
                    else:
1919
 
                        tree1 = b.repository.revision_tree(rev_id)
1920
 
                file_id = tree1.path2id(fp)
1921
 
                kind = _get_kind_for_file_id(tree1, file_id)
1922
 
            info_list.append((fp, file_id, kind))
1923
 
    return b, info_list, start_rev_info, end_rev_info
1924
 
 
1925
 
 
1926
 
def _get_kind_for_file_id(tree, file_id):
1927
 
    """Return the kind of a file-id or None if it doesn't exist."""
1928
 
    if file_id is not None:
1929
 
        return tree.kind(file_id)
1930
 
    else:
1931
 
        return None
1932
 
 
1933
 
 
1934
992
properties_handler_registry = registry.Registry()
1935
993
 
1936
 
 
1937
994
# adapters which revision ids to log are filtered. When log is called, the
1938
995
# log_rev_iterator is adapted through each of these factory methods.
1939
996
# Plugins are welcome to mutate this list in any way they like - as long