~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

(robertc) Fix lp: urls behind an https proxy.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2011 Canonical Ltd
 
1
# Copyright (C) 2005-2010 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
73
73
    repository as _mod_repository,
74
74
    revision as _mod_revision,
75
75
    revisionspec,
 
76
    trace,
76
77
    tsort,
77
 
    i18n,
78
78
    )
79
79
""")
80
80
 
81
81
from bzrlib import (
82
 
    lazy_regex,
83
82
    registry,
84
83
    )
85
84
from bzrlib.osutils import (
86
85
    format_date,
87
86
    format_date_with_offset_in_original_timezone,
88
 
    get_diff_header_encoding,
89
87
    get_terminal_encoding,
 
88
    re_compile_checked,
90
89
    terminal_width,
91
90
    )
 
91
from bzrlib.symbol_versioning import (
 
92
    deprecated_function,
 
93
    deprecated_in,
 
94
    )
92
95
 
93
96
 
94
97
def find_touching_revisions(branch, file_id):
107
110
    revno = 1
108
111
    for revision_id in branch.revision_history():
109
112
        this_inv = branch.repository.get_inventory(revision_id)
110
 
        if this_inv.has_id(file_id):
 
113
        if file_id in this_inv:
111
114
            this_ie = this_inv[file_id]
112
115
            this_path = this_inv.id2path(file_id)
113
116
        else:
153
156
             end_revision=None,
154
157
             search=None,
155
158
             limit=None,
156
 
             show_diff=False,
157
 
             match=None):
 
159
             show_diff=False):
158
160
    """Write out human-readable log of commits to this branch.
159
161
 
160
162
    This function is being retained for backwards compatibility but
183
185
        if None or 0.
184
186
 
185
187
    :param show_diff: If True, output a diff after each revision.
186
 
 
187
 
    :param match: Dictionary of search lists to use when matching revision
188
 
      properties.
189
188
    """
190
189
    # Convert old-style parameters to new-style parameters
191
190
    if specific_fileid is not None:
219
218
# make_log_request_dict() below
220
219
_DEFAULT_REQUEST_PARAMS = {
221
220
    'direction': 'reverse',
222
 
    'levels': None,
 
221
    'levels': 1,
223
222
    'generate_tags': True,
224
223
    'exclude_common_ancestry': False,
225
224
    '_match_using_deltas': True,
228
227
 
229
228
def make_log_request_dict(direction='reverse', specific_fileids=None,
230
229
                          start_revision=None, end_revision=None, limit=None,
231
 
                          message_search=None, levels=None, generate_tags=True,
 
230
                          message_search=None, levels=1, generate_tags=True,
232
231
                          delta_type=None,
233
232
                          diff_type=None, _match_using_deltas=True,
234
 
                          exclude_common_ancestry=False, match=None,
235
 
                          signature=False,
 
233
                          exclude_common_ancestry=False,
236
234
                          ):
237
235
    """Convenience function for making a logging request dictionary.
238
236
 
259
257
      matching commit messages
260
258
 
261
259
    :param levels: the number of levels of revisions to
262
 
      generate; 1 for just the mainline; 0 for all levels, or None for
263
 
      a sensible default.
 
260
      generate; 1 for just the mainline; 0 for all levels.
264
261
 
265
262
    :param generate_tags: If True, include tags for matched revisions.
266
 
`
 
263
 
267
264
    :param delta_type: Either 'full', 'partial' or None.
268
265
      'full' means generate the complete delta - adds/deletes/modifies/etc;
269
266
      'partial' means filter the delta using specific_fileids;
281
278
 
282
279
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
283
280
      range operator or as a graph difference.
284
 
 
285
 
    :param signature: show digital signature information
286
 
 
287
 
    :param match: Dictionary of list of search strings to use when filtering
288
 
      revisions. Keys can be 'message', 'author', 'committer', 'bugs' or
289
 
      the empty string to match any of the preceding properties.
290
 
 
291
281
    """
292
 
    # Take care of old style message_search parameter
293
 
    if message_search:
294
 
        if match:
295
 
            if 'message' in match:
296
 
                match['message'].append(message_search)
297
 
            else:
298
 
                match['message'] = [message_search]
299
 
        else:
300
 
            match={ 'message': [message_search] }
301
282
    return {
302
283
        'direction': direction,
303
284
        'specific_fileids': specific_fileids,
304
285
        'start_revision': start_revision,
305
286
        'end_revision': end_revision,
306
287
        'limit': limit,
 
288
        'message_search': message_search,
307
289
        'levels': levels,
308
290
        'generate_tags': generate_tags,
309
291
        'delta_type': delta_type,
310
292
        'diff_type': diff_type,
311
293
        'exclude_common_ancestry': exclude_common_ancestry,
312
 
        'signature': signature,
313
 
        'match': match,
314
294
        # Add 'private' attributes for features that may be deprecated
315
295
        '_match_using_deltas': _match_using_deltas,
316
296
    }
318
298
 
319
299
def _apply_log_request_defaults(rqst):
320
300
    """Apply default values to a request dictionary."""
321
 
    result = _DEFAULT_REQUEST_PARAMS.copy()
 
301
    result = _DEFAULT_REQUEST_PARAMS
322
302
    if rqst:
323
303
        result.update(rqst)
324
304
    return result
325
305
 
326
306
 
327
 
def format_signature_validity(rev_id, repo):
328
 
    """get the signature validity
329
 
 
330
 
    :param rev_id: revision id to validate
331
 
    :param repo: repository of revision
332
 
    :return: human readable string to print to log
333
 
    """
334
 
    from bzrlib import gpg
335
 
 
336
 
    gpg_strategy = gpg.GPGStrategy(None)
337
 
    result = repo.verify_revision(rev_id, gpg_strategy)
338
 
    if result[0] == gpg.SIGNATURE_VALID:
339
 
        return "valid signature from {0}".format(result[1])
340
 
    if result[0] == gpg.SIGNATURE_KEY_MISSING:
341
 
        return "unknown key {0}".format(result[1])
342
 
    if result[0] == gpg.SIGNATURE_NOT_VALID:
343
 
        return "invalid signature!"
344
 
    if result[0] == gpg.SIGNATURE_NOT_SIGNED:
345
 
        return "no signature"
346
 
 
347
 
 
348
307
class LogGenerator(object):
349
308
    """A generator of log revisions."""
350
309
 
395
354
        # Tweak the LogRequest based on what the LogFormatter can handle.
396
355
        # (There's no point generating stuff if the formatter can't display it.)
397
356
        rqst = self.rqst
398
 
        if rqst['levels'] is None or lf.get_levels() > rqst['levels']:
399
 
            # user didn't specify levels, use whatever the LF can handle:
400
 
            rqst['levels'] = lf.get_levels()
401
 
 
 
357
        rqst['levels'] = lf.get_levels()
402
358
        if not getattr(lf, 'supports_tags', False):
403
359
            rqst['generate_tags'] = False
404
360
        if not getattr(lf, 'supports_delta', False):
405
361
            rqst['delta_type'] = None
406
362
        if not getattr(lf, 'supports_diff', False):
407
363
            rqst['diff_type'] = None
408
 
        if not getattr(lf, 'supports_signatures', False):
409
 
            rqst['signature'] = False
410
364
 
411
365
        # Find and print the interesting revisions
412
366
        generator = self._generator_factory(self.branch, rqst)
416
370
 
417
371
    def _generator_factory(self, branch, rqst):
418
372
        """Make the LogGenerator object to use.
419
 
 
 
373
        
420
374
        Subclasses may wish to override this.
421
375
        """
422
376
        return _DefaultLogGenerator(branch, rqst)
446
400
        levels = rqst.get('levels')
447
401
        limit = rqst.get('limit')
448
402
        diff_type = rqst.get('diff_type')
449
 
        show_signature = rqst.get('signature')
450
403
        log_count = 0
451
404
        revision_iterator = self._create_log_revision_iterator()
452
405
        for revs in revision_iterator:
458
411
                    diff = None
459
412
                else:
460
413
                    diff = self._format_diff(rev, rev_id, diff_type)
461
 
                if show_signature:
462
 
                    signature = format_signature_validity(rev_id,
463
 
                                                self.branch.repository)
464
 
                else:
465
 
                    signature = None
466
414
                yield LogRevision(rev, revno, merge_depth, delta,
467
 
                    self.rev_tag_dict.get(rev_id), diff, signature)
 
415
                    self.rev_tag_dict.get(rev_id), diff)
468
416
                if limit:
469
417
                    log_count += 1
470
418
                    if log_count >= limit:
484
432
        else:
485
433
            specific_files = None
486
434
        s = StringIO()
487
 
        path_encoding = get_diff_header_encoding()
488
435
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
489
 
            new_label='', path_encoding=path_encoding)
 
436
            new_label='')
490
437
        return s.getvalue()
491
438
 
492
439
    def _create_log_revision_iterator(self):
525
472
 
526
473
        # Apply the other filters
527
474
        return make_log_rev_iterator(self.branch, view_revisions,
528
 
            rqst.get('delta_type'), rqst.get('match'),
 
475
            rqst.get('delta_type'), rqst.get('message_search'),
529
476
            file_ids=rqst.get('specific_fileids'),
530
477
            direction=rqst.get('direction'))
531
478
 
544
491
            rqst.get('specific_fileids')[0], view_revisions,
545
492
            include_merges=rqst.get('levels') != 1)
546
493
        return make_log_rev_iterator(self.branch, view_revisions,
547
 
            rqst.get('delta_type'), rqst.get('match'))
 
494
            rqst.get('delta_type'), rqst.get('message_search'))
548
495
 
549
496
 
550
497
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
575
522
    elif not generate_merge_revisions:
576
523
        # If we only want to see linear revisions, we can iterate ...
577
524
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
578
 
                                             direction, exclude_common_ancestry)
 
525
                                             direction)
579
526
        if direction == 'forward':
580
527
            iter_revs = reversed(iter_revs)
581
528
    else:
592
539
        # It's the tip
593
540
        return [(br_rev_id, br_revno, 0)]
594
541
    else:
595
 
        revno_str = _compute_revno_str(branch, rev_id)
 
542
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
543
        revno_str = '.'.join(str(n) for n in revno)
596
544
        return [(rev_id, revno_str, 0)]
597
545
 
598
546
 
599
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction,
600
 
                             exclude_common_ancestry=False):
601
 
    result = _linear_view_revisions(
602
 
        branch, start_rev_id, end_rev_id,
603
 
        exclude_common_ancestry=exclude_common_ancestry)
 
547
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
 
548
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
604
549
    # If a start limit was given and it's not obviously an
605
550
    # ancestor of the end limit, check it before outputting anything
606
551
    if direction == 'forward' or (start_rev_id
627
572
    if delayed_graph_generation:
628
573
        try:
629
574
            for rev_id, revno, depth in  _linear_view_revisions(
630
 
                branch, start_rev_id, end_rev_id, exclude_common_ancestry):
 
575
                branch, start_rev_id, end_rev_id):
631
576
                if _has_merges(branch, rev_id):
632
577
                    # The end_rev_id can be nested down somewhere. We need an
633
578
                    # explicit ancestry check. There is an ambiguity here as we
678
623
    return len(parents) > 1
679
624
 
680
625
 
681
 
def _compute_revno_str(branch, rev_id):
682
 
    """Compute the revno string from a rev_id.
683
 
 
684
 
    :return: The revno string, or None if the revision is not in the supplied
685
 
        branch.
686
 
    """
687
 
    try:
688
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
689
 
    except errors.NoSuchRevision:
690
 
        # The revision must be outside of this branch
691
 
        return None
692
 
    else:
693
 
        return '.'.join(str(n) for n in revno)
694
 
 
695
 
 
696
626
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
697
627
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
698
628
    if start_rev_id and end_rev_id:
699
 
        try:
700
 
            start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
701
 
            end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
702
 
        except errors.NoSuchRevision:
703
 
            # one or both is not in the branch; not obvious
704
 
            return False
 
629
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
 
630
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
705
631
        if len(start_dotted) == 1 and len(end_dotted) == 1:
706
632
            # both on mainline
707
633
            return start_dotted[0] <= end_dotted[0]
717
643
    return True
718
644
 
719
645
 
720
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id,
721
 
                           exclude_common_ancestry=False):
 
646
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
722
647
    """Calculate a sequence of revisions to view, newest to oldest.
723
648
 
724
649
    :param start_rev_id: the lower revision-id
725
650
    :param end_rev_id: the upper revision-id
726
 
    :param exclude_common_ancestry: Whether the start_rev_id should be part of
727
 
        the iterated revisions.
728
651
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
729
652
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
730
 
        is not found walking the left-hand history
 
653
      is not found walking the left-hand history
731
654
    """
732
655
    br_revno, br_rev_id = branch.last_revision_info()
733
656
    repo = branch.repository
734
 
    graph = repo.get_graph()
735
657
    if start_rev_id is None and end_rev_id is None:
736
658
        cur_revno = br_revno
737
 
        for revision_id in graph.iter_lefthand_ancestry(br_rev_id,
738
 
            (_mod_revision.NULL_REVISION,)):
 
659
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
739
660
            yield revision_id, str(cur_revno), 0
740
661
            cur_revno -= 1
741
662
    else:
742
663
        if end_rev_id is None:
743
664
            end_rev_id = br_rev_id
744
665
        found_start = start_rev_id is None
745
 
        for revision_id in graph.iter_lefthand_ancestry(end_rev_id,
746
 
                (_mod_revision.NULL_REVISION,)):
747
 
            revno_str = _compute_revno_str(branch, revision_id)
 
666
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
 
667
            revno = branch.revision_id_to_dotted_revno(revision_id)
 
668
            revno_str = '.'.join(str(n) for n in revno)
748
669
            if not found_start and revision_id == start_rev_id:
749
 
                if not exclude_common_ancestry:
750
 
                    yield revision_id, revno_str, 0
 
670
                yield revision_id, revno_str, 0
751
671
                found_start = True
752
672
                break
753
673
            else:
801
721
            yield rev_id, '.'.join(map(str, revno)), merge_depth
802
722
 
803
723
 
 
724
@deprecated_function(deprecated_in((2, 2, 0)))
 
725
def calculate_view_revisions(branch, start_revision, end_revision, direction,
 
726
        specific_fileid, generate_merge_revisions):
 
727
    """Calculate the revisions to view.
 
728
 
 
729
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
730
             a list of the same tuples.
 
731
    """
 
732
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
 
733
        end_revision)
 
734
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
 
735
        direction, generate_merge_revisions or specific_fileid))
 
736
    if specific_fileid:
 
737
        view_revisions = _filter_revisions_touching_file_id(branch,
 
738
            specific_fileid, view_revisions,
 
739
            include_merges=generate_merge_revisions)
 
740
    return _rebase_merge_depth(view_revisions)
 
741
 
 
742
 
804
743
def _rebase_merge_depth(view_revisions):
805
744
    """Adjust depths upwards so the top level is 0."""
806
745
    # If either the first or last revision have a merge_depth of 0, we're done
850
789
    return log_rev_iterator
851
790
 
852
791
 
853
 
def _make_search_filter(branch, generate_delta, match, log_rev_iterator):
 
792
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
854
793
    """Create a filtered iterator of log_rev_iterator matching on a regex.
855
794
 
856
795
    :param branch: The branch being logged.
857
796
    :param generate_delta: Whether to generate a delta for each revision.
858
 
    :param match: A dictionary with properties as keys and lists of strings
859
 
        as values. To match, a revision may match any of the supplied strings
860
 
        within a single property but must match at least one string for each
861
 
        property.
 
797
    :param search: A user text search string.
862
798
    :param log_rev_iterator: An input iterator containing all revisions that
863
799
        could be displayed, in lists.
864
800
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
865
801
        delta).
866
802
    """
867
 
    if match is None:
 
803
    if search is None:
868
804
        return log_rev_iterator
869
 
    searchRE = [(k, [re.compile(x, re.IGNORECASE) for x in v])
870
 
                for (k,v) in match.iteritems()]
871
 
    return _filter_re(searchRE, log_rev_iterator)
872
 
 
873
 
 
874
 
def _filter_re(searchRE, log_rev_iterator):
 
805
    searchRE = re_compile_checked(search, re.IGNORECASE,
 
806
            'log message filter')
 
807
    return _filter_message_re(searchRE, log_rev_iterator)
 
808
 
 
809
 
 
810
def _filter_message_re(searchRE, log_rev_iterator):
875
811
    for revs in log_rev_iterator:
876
 
        new_revs = [rev for rev in revs if _match_filter(searchRE, rev[1])]
877
 
        if new_revs:
878
 
            yield new_revs
879
 
 
880
 
def _match_filter(searchRE, rev):
881
 
    strings = {
882
 
               'message': (rev.message,),
883
 
               'committer': (rev.committer,),
884
 
               'author': (rev.get_apparent_authors()),
885
 
               'bugs': list(rev.iter_bugs())
886
 
               }
887
 
    strings[''] = [item for inner_list in strings.itervalues()
888
 
                   for item in inner_list]
889
 
    for (k,v) in searchRE:
890
 
        if k in strings and not _match_any_filter(strings[k], v):
891
 
            return False
892
 
    return True
893
 
 
894
 
def _match_any_filter(strings, res):
895
 
    return any([filter(None, map(re.search, strings)) for re in res])
 
812
        new_revs = []
 
813
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
814
            if searchRE.search(rev.message):
 
815
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
 
816
        yield new_revs
 
817
 
896
818
 
897
819
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
898
820
    fileids=None, direction='reverse'):
971
893
 
972
894
def _update_fileids(delta, fileids, stop_on):
973
895
    """Update the set of file-ids to search based on file lifecycle events.
974
 
 
 
896
    
975
897
    :param fileids: a set of fileids to update
976
898
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
977
899
      fileids set once their add or remove entry is detected respectively
1018
940
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
1019
941
        delta).
1020
942
    """
 
943
    repository = branch.repository
1021
944
    num = 9
1022
945
    for batch in log_rev_iterator:
1023
946
        batch = iter(batch)
1140
1063
    cur_revno = branch_revno
1141
1064
    rev_nos = {}
1142
1065
    mainline_revs = []
1143
 
    graph = branch.repository.get_graph()
1144
 
    for revision_id in graph.iter_lefthand_ancestry(
1145
 
            branch_last_revision, (_mod_revision.NULL_REVISION,)):
 
1066
    for revision_id in branch.repository.iter_reverse_revision_history(
 
1067
                        branch_last_revision):
1146
1068
        if cur_revno < start_revno:
1147
1069
            # We have gone far enough, but we always add 1 more revision
1148
1070
            rev_nos[revision_id] = cur_revno
1162
1084
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1163
1085
 
1164
1086
 
 
1087
@deprecated_function(deprecated_in((2, 2, 0)))
 
1088
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
 
1089
    """Filter view_revisions based on revision ranges.
 
1090
 
 
1091
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1092
            tuples to be filtered.
 
1093
 
 
1094
    :param start_rev_id: If not NONE specifies the first revision to be logged.
 
1095
            If NONE then all revisions up to the end_rev_id are logged.
 
1096
 
 
1097
    :param end_rev_id: If not NONE specifies the last revision to be logged.
 
1098
            If NONE then all revisions up to the end of the log are logged.
 
1099
 
 
1100
    :return: The filtered view_revisions.
 
1101
    """
 
1102
    if start_rev_id or end_rev_id:
 
1103
        revision_ids = [r for r, n, d in view_revisions]
 
1104
        if start_rev_id:
 
1105
            start_index = revision_ids.index(start_rev_id)
 
1106
        else:
 
1107
            start_index = 0
 
1108
        if start_rev_id == end_rev_id:
 
1109
            end_index = start_index
 
1110
        else:
 
1111
            if end_rev_id:
 
1112
                end_index = revision_ids.index(end_rev_id)
 
1113
            else:
 
1114
                end_index = len(view_revisions) - 1
 
1115
        # To include the revisions merged into the last revision,
 
1116
        # extend end_rev_id down to, but not including, the next rev
 
1117
        # with the same or lesser merge_depth
 
1118
        end_merge_depth = view_revisions[end_index][2]
 
1119
        try:
 
1120
            for index in xrange(end_index+1, len(view_revisions)+1):
 
1121
                if view_revisions[index][2] <= end_merge_depth:
 
1122
                    end_index = index - 1
 
1123
                    break
 
1124
        except IndexError:
 
1125
            # if the search falls off the end then log to the end as well
 
1126
            end_index = len(view_revisions) - 1
 
1127
        view_revisions = view_revisions[start_index:end_index+1]
 
1128
    return view_revisions
 
1129
 
 
1130
 
1165
1131
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
1166
1132
    include_merges=True):
1167
1133
    r"""Return the list of revision ids which touch a given file id.
1170
1136
    This includes the revisions which directly change the file id,
1171
1137
    and the revisions which merge these changes. So if the
1172
1138
    revision graph is::
1173
 
 
1174
1139
        A-.
1175
1140
        |\ \
1176
1141
        B C E
1203
1168
    """
1204
1169
    # Lookup all possible text keys to determine which ones actually modified
1205
1170
    # the file.
1206
 
    graph = branch.repository.get_file_graph()
1207
 
    get_parent_map = graph.get_parent_map
1208
1171
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1209
1172
    next_keys = None
1210
1173
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1214
1177
    #       indexing layer. We might consider passing in hints as to the known
1215
1178
    #       access pattern (sparse/clustered, high success rate/low success
1216
1179
    #       rate). This particular access is clustered with a low success rate.
 
1180
    get_parent_map = branch.repository.texts.get_parent_map
1217
1181
    modified_text_revisions = set()
1218
1182
    chunk_size = 1000
1219
1183
    for start in xrange(0, len(text_keys), chunk_size):
1246
1210
    return result
1247
1211
 
1248
1212
 
 
1213
@deprecated_function(deprecated_in((2, 2, 0)))
 
1214
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
 
1215
                       include_merges=True):
 
1216
    """Produce an iterator of revisions to show
 
1217
    :return: an iterator of (revision_id, revno, merge_depth)
 
1218
    (if there is no revno for a revision, None is supplied)
 
1219
    """
 
1220
    if not include_merges:
 
1221
        revision_ids = mainline_revs[1:]
 
1222
        if direction == 'reverse':
 
1223
            revision_ids.reverse()
 
1224
        for revision_id in revision_ids:
 
1225
            yield revision_id, str(rev_nos[revision_id]), 0
 
1226
        return
 
1227
    graph = branch.repository.get_graph()
 
1228
    # This asks for all mainline revisions, which means we only have to spider
 
1229
    # sideways, rather than depth history. That said, its still size-of-history
 
1230
    # and should be addressed.
 
1231
    # mainline_revisions always includes an extra revision at the beginning, so
 
1232
    # don't request it.
 
1233
    parent_map = dict(((key, value) for key, value in
 
1234
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
 
1235
    # filter out ghosts; merge_sort errors on ghosts.
 
1236
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
 
1237
    merge_sorted_revisions = tsort.merge_sort(
 
1238
        rev_graph,
 
1239
        mainline_revs[-1],
 
1240
        mainline_revs,
 
1241
        generate_revno=True)
 
1242
 
 
1243
    if direction == 'forward':
 
1244
        # forward means oldest first.
 
1245
        merge_sorted_revisions = reverse_by_depth(merge_sorted_revisions)
 
1246
    elif direction != 'reverse':
 
1247
        raise ValueError('invalid direction %r' % direction)
 
1248
 
 
1249
    for (sequence, rev_id, merge_depth, revno, end_of_merge
 
1250
         ) in merge_sorted_revisions:
 
1251
        yield rev_id, '.'.join(map(str, revno)), merge_depth
 
1252
 
 
1253
 
1249
1254
def reverse_by_depth(merge_sorted_revisions, _depth=0):
1250
1255
    """Reverse revisions by depth.
1251
1256
 
1286
1291
    """
1287
1292
 
1288
1293
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1289
 
                 tags=None, diff=None, signature=None):
 
1294
                 tags=None, diff=None):
1290
1295
        self.rev = rev
1291
 
        if revno is None:
1292
 
            self.revno = None
1293
 
        else:
1294
 
            self.revno = str(revno)
 
1296
        self.revno = str(revno)
1295
1297
        self.merge_depth = merge_depth
1296
1298
        self.delta = delta
1297
1299
        self.tags = tags
1298
1300
        self.diff = diff
1299
 
        self.signature = signature
1300
1301
 
1301
1302
 
1302
1303
class LogFormatter(object):
1311
1312
    to indicate which LogRevision attributes it supports:
1312
1313
 
1313
1314
    - supports_delta must be True if this log formatter supports delta.
1314
 
      Otherwise the delta attribute may not be populated.  The 'delta_format'
1315
 
      attribute describes whether the 'short_status' format (1) or the long
1316
 
      one (2) should be used.
 
1315
        Otherwise the delta attribute may not be populated.  The 'delta_format'
 
1316
        attribute describes whether the 'short_status' format (1) or the long
 
1317
        one (2) should be used.
1317
1318
 
1318
1319
    - supports_merge_revisions must be True if this log formatter supports
1319
 
      merge revisions.  If not, then only mainline revisions will be passed
1320
 
      to the formatter.
 
1320
        merge revisions.  If not, then only mainline revisions will be passed
 
1321
        to the formatter.
1321
1322
 
1322
1323
    - preferred_levels is the number of levels this formatter defaults to.
1323
 
      The default value is zero meaning display all levels.
1324
 
      This value is only relevant if supports_merge_revisions is True.
 
1324
        The default value is zero meaning display all levels.
 
1325
        This value is only relevant if supports_merge_revisions is True.
1325
1326
 
1326
1327
    - supports_tags must be True if this log formatter supports tags.
1327
 
      Otherwise the tags attribute may not be populated.
 
1328
        Otherwise the tags attribute may not be populated.
1328
1329
 
1329
1330
    - supports_diff must be True if this log formatter supports diffs.
1330
 
      Otherwise the diff attribute may not be populated.
1331
 
 
1332
 
    - supports_signatures must be True if this log formatter supports GPG
1333
 
      signatures.
 
1331
        Otherwise the diff attribute may not be populated.
1334
1332
 
1335
1333
    Plugins can register functions to show custom revision properties using
1336
1334
    the properties_handler_registry. The registered function
1337
 
    must respect the following interface description::
1338
 
 
 
1335
    must respect the following interface description:
1339
1336
        def my_show_properties(properties_dict):
1340
1337
            # code that returns a dict {'name':'value'} of the properties
1341
1338
            # to be shown
1348
1345
        """Create a LogFormatter.
1349
1346
 
1350
1347
        :param to_file: the file to output to
1351
 
        :param to_exact_file: if set, gives an output stream to which
 
1348
        :param to_exact_file: if set, gives an output stream to which 
1352
1349
             non-Unicode diffs are written.
1353
1350
        :param show_ids: if True, revision-ids are to be displayed
1354
1351
        :param show_timezone: the timezone to use
1528
1525
    supports_delta = True
1529
1526
    supports_tags = True
1530
1527
    supports_diff = True
1531
 
    supports_signatures = True
1532
1528
 
1533
1529
    def __init__(self, *args, **kwargs):
1534
1530
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1554
1550
                self.merge_marker(revision)))
1555
1551
        if revision.tags:
1556
1552
            lines.append('tags: %s' % (', '.join(revision.tags)))
1557
 
        if self.show_ids or revision.revno is None:
 
1553
        if self.show_ids:
1558
1554
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
1559
 
        if self.show_ids:
1560
1555
            for parent_id in revision.rev.parent_ids:
1561
1556
                lines.append('parent: %s' % (parent_id,))
1562
1557
        lines.extend(self.custom_properties(revision.rev))
1573
1568
 
1574
1569
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1575
1570
 
1576
 
        if revision.signature is not None:
1577
 
            lines.append('signature: ' + revision.signature)
1578
 
 
1579
1571
        lines.append('message:')
1580
1572
        if not revision.rev.message:
1581
1573
            lines.append('  (no message)')
1590
1582
        if revision.delta is not None:
1591
1583
            # Use the standard status output to display changes
1592
1584
            from bzrlib.delta import report_delta
1593
 
            report_delta(to_file, revision.delta, short_status=False,
 
1585
            report_delta(to_file, revision.delta, short_status=False, 
1594
1586
                         show_ids=self.show_ids, indent=indent)
1595
1587
        if revision.diff is not None:
1596
1588
            to_file.write(indent + 'diff:\n')
1628
1620
        indent = '    ' * depth
1629
1621
        revno_width = self.revno_width_by_depth.get(depth)
1630
1622
        if revno_width is None:
1631
 
            if revision.revno is None or revision.revno.find('.') == -1:
 
1623
            if revision.revno.find('.') == -1:
1632
1624
                # mainline revno, e.g. 12345
1633
1625
                revno_width = 5
1634
1626
            else:
1642
1634
        if revision.tags:
1643
1635
            tags = ' {%s}' % (', '.join(revision.tags))
1644
1636
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1645
 
                revision.revno or "", self.short_author(revision.rev),
 
1637
                revision.revno, self.short_author(revision.rev),
1646
1638
                format_date(revision.rev.timestamp,
1647
1639
                            revision.rev.timezone or 0,
1648
1640
                            self.show_timezone, date_fmt="%Y-%m-%d",
1649
1641
                            show_offset=False),
1650
1642
                tags, self.merge_marker(revision)))
1651
1643
        self.show_properties(revision.rev, indent+offset)
1652
 
        if self.show_ids or revision.revno is None:
 
1644
        if self.show_ids:
1653
1645
            to_file.write(indent + offset + 'revision-id:%s\n'
1654
1646
                          % (revision.rev.revision_id,))
1655
1647
        if not revision.rev.message:
1662
1654
        if revision.delta is not None:
1663
1655
            # Use the standard status output to display changes
1664
1656
            from bzrlib.delta import report_delta
1665
 
            report_delta(to_file, revision.delta,
1666
 
                         short_status=self.delta_format==1,
 
1657
            report_delta(to_file, revision.delta, 
 
1658
                         short_status=self.delta_format==1, 
1667
1659
                         show_ids=self.show_ids, indent=indent + offset)
1668
1660
        if revision.diff is not None:
1669
1661
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1708
1700
 
1709
1701
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
1710
1702
        """Format log info into one string. Truncate tail of string
1711
 
 
1712
 
        :param revno:      revision number or None.
1713
 
                           Revision numbers counts from 1.
1714
 
        :param rev:        revision object
1715
 
        :param max_chars:  maximum length of resulting string
1716
 
        :param tags:       list of tags or None
1717
 
        :param prefix:     string to prefix each line
1718
 
        :return:           formatted truncated string
 
1703
        :param  revno:      revision number or None.
 
1704
                            Revision numbers counts from 1.
 
1705
        :param  rev:        revision object
 
1706
        :param  max_chars:  maximum length of resulting string
 
1707
        :param  tags:       list of tags or None
 
1708
        :param  prefix:     string to prefix each line
 
1709
        :return:            formatted truncated string
1719
1710
        """
1720
1711
        out = []
1721
1712
        if revno:
1722
1713
            # show revno only when is not None
1723
1714
            out.append("%s:" % revno)
1724
 
        if max_chars is not None:
1725
 
            out.append(self.truncate(self.short_author(rev), (max_chars+3)/4))
1726
 
        else:
1727
 
            out.append(self.short_author(rev))
 
1715
        out.append(self.truncate(self.short_author(rev), 20))
1728
1716
        out.append(self.date_string(rev))
1729
1717
        if len(rev.parent_ids) > 1:
1730
1718
            out.append('[merge]')
1849
1837
                              'The committer')
1850
1838
 
1851
1839
 
 
1840
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
 
1841
    # deprecated; for compatibility
 
1842
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
 
1843
    lf.show(revno, rev, delta)
 
1844
 
 
1845
 
1852
1846
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
1853
1847
                           log_format='long'):
1854
1848
    """Show the change in revision history comparing the old revision history to the new one.
1917
1911
    old_revisions = set()
1918
1912
    new_history = []
1919
1913
    new_revisions = set()
1920
 
    graph = repository.get_graph()
1921
 
    new_iter = graph.iter_lefthand_ancestry(new_revision_id)
1922
 
    old_iter = graph.iter_lefthand_ancestry(old_revision_id)
 
1914
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
 
1915
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
1923
1916
    stop_revision = None
1924
1917
    do_old = True
1925
1918
    do_new = True
2000
1993
        lf.log_revision(lr)
2001
1994
 
2002
1995
 
2003
 
def _get_info_for_log_files(revisionspec_list, file_list, add_cleanup):
 
1996
def _get_info_for_log_files(revisionspec_list, file_list):
2004
1997
    """Find file-ids and kinds given a list of files and a revision range.
2005
1998
 
2006
1999
    We search for files at the end of the range. If not found there,
2010
2003
    :param file_list: the list of paths given on the command line;
2011
2004
      the first of these can be a branch location or a file path,
2012
2005
      the remainder must be file paths
2013
 
    :param add_cleanup: When the branch returned is read locked,
2014
 
      an unlock call will be queued to the cleanup.
2015
2006
    :return: (branch, info_list, start_rev_info, end_rev_info) where
2016
2007
      info_list is a list of (relative_path, file_id, kind) tuples where
2017
2008
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
2018
2009
      branch will be read-locked.
2019
2010
    """
2020
 
    from builtins import _get_revision_range
 
2011
    from builtins import _get_revision_range, safe_relpath_files
2021
2012
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
2022
 
    add_cleanup(b.lock_read().unlock)
 
2013
    b.lock_read()
2023
2014
    # XXX: It's damn messy converting a list of paths to relative paths when
2024
2015
    # those paths might be deleted ones, they might be on a case-insensitive
2025
2016
    # filesystem and/or they might be in silly locations (like another branch).
2029
2020
    # case of running log in a nested directory, assuming paths beyond the
2030
2021
    # first one haven't been deleted ...
2031
2022
    if tree:
2032
 
        relpaths = [path] + tree.safe_relpath_files(file_list[1:])
 
2023
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
2033
2024
    else:
2034
2025
        relpaths = [path] + file_list[1:]
2035
2026
    info_list = []