~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: John Arbash Meinel
  • Date: 2006-09-20 14:51:03 UTC
  • mfrom: (0.8.23 version_info)
  • mto: This revision was merged to the branch mainline in revision 2028.
  • Revision ID: john@arbash-meinel.com-20060920145103-02725c6d6c886040
[merge] version-info plugin, and cleanup for layout in bzr

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2011 Canonical Ltd
 
1
# Copyright (C) 2005 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
 
18
18
 
42
42
 
43
43
In verbose mode we show a summary of what changed in each particular
44
44
revision.  Note that this is the delta for changes in that revision
45
 
relative to its left-most parent, not the delta relative to the last
 
45
relative to its mainline parent, not the delta relative to the last
46
46
logged revision.  So for example if you ask for a verbose log of
47
47
changes touching hello.c you will get a list of those revisions also
48
48
listing other things that were changed in the same revision, but not
49
49
all the changes since the previous revision that touched hello.c.
50
50
"""
51
51
 
52
 
import codecs
53
 
from cStringIO import StringIO
54
 
from itertools import (
55
 
    chain,
56
 
    izip,
57
 
    )
 
52
# TODO: option to show delta summaries for merged-in revisions
 
53
 
 
54
from itertools import izip
58
55
import re
59
 
import sys
60
 
from warnings import (
61
 
    warn,
62
 
    )
63
 
 
64
 
from bzrlib.lazy_import import lazy_import
65
 
lazy_import(globals(), """
66
 
 
67
 
from bzrlib import (
68
 
    bzrdir,
69
 
    config,
70
 
    diff,
71
 
    errors,
72
 
    foreign,
73
 
    repository as _mod_repository,
74
 
    revision as _mod_revision,
75
 
    revisionspec,
76
 
    tsort,
77
 
    )
78
 
""")
79
 
 
80
 
from bzrlib import (
81
 
    registry,
82
 
    )
83
 
from bzrlib.osutils import (
84
 
    format_date,
85
 
    format_date_with_offset_in_original_timezone,
86
 
    get_diff_header_encoding,
87
 
    get_terminal_encoding,
88
 
    terminal_width,
89
 
    )
90
 
from bzrlib.symbol_versioning import (
91
 
    deprecated_function,
92
 
    deprecated_in,
93
 
    )
 
56
 
 
57
import bzrlib.errors as errors
 
58
from bzrlib.trace import mutter
 
59
from bzrlib.tsort import merge_sort
94
60
 
95
61
 
96
62
def find_touching_revisions(branch, file_id):
108
74
    last_path = None
109
75
    revno = 1
110
76
    for revision_id in branch.revision_history():
111
 
        this_inv = branch.repository.get_inventory(revision_id)
 
77
        this_inv = branch.repository.get_revision_inventory(revision_id)
112
78
        if file_id in this_inv:
113
79
            this_ie = this_inv[file_id]
114
80
            this_path = this_inv.id2path(file_id)
137
103
        revno += 1
138
104
 
139
105
 
 
106
 
140
107
def _enumerate_history(branch):
141
108
    rh = []
142
109
    revno = 1
153
120
             direction='reverse',
154
121
             start_revision=None,
155
122
             end_revision=None,
156
 
             search=None,
157
 
             limit=None,
158
 
             show_diff=False):
 
123
             search=None):
159
124
    """Write out human-readable log of commits to this branch.
160
125
 
161
 
    This function is being retained for backwards compatibility but
162
 
    should not be extended with new parameters. Use the new Logger class
163
 
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
164
 
    make_log_request_dict function.
165
 
 
166
 
    :param lf: The LogFormatter object showing the output.
167
 
 
168
 
    :param specific_fileid: If not None, list only the commits affecting the
169
 
        specified file, rather than all commits.
170
 
 
171
 
    :param verbose: If True show added/changed/deleted/renamed files.
172
 
 
173
 
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
174
 
        earliest to latest.
175
 
 
176
 
    :param start_revision: If not None, only show revisions >= start_revision
177
 
 
178
 
    :param end_revision: If not None, only show revisions <= end_revision
179
 
 
180
 
    :param search: If not None, only show revisions with matching commit
181
 
        messages
182
 
 
183
 
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
184
 
        if None or 0.
185
 
 
186
 
    :param show_diff: If True, output a diff after each revision.
187
 
    """
188
 
    # Convert old-style parameters to new-style parameters
189
 
    if specific_fileid is not None:
190
 
        file_ids = [specific_fileid]
191
 
    else:
192
 
        file_ids = None
193
 
    if verbose:
194
 
        if file_ids:
195
 
            delta_type = 'partial'
196
 
        else:
197
 
            delta_type = 'full'
198
 
    else:
199
 
        delta_type = None
200
 
    if show_diff:
201
 
        if file_ids:
202
 
            diff_type = 'partial'
203
 
        else:
204
 
            diff_type = 'full'
205
 
    else:
206
 
        diff_type = None
207
 
 
208
 
    # Build the request and execute it
209
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
210
 
        start_revision=start_revision, end_revision=end_revision,
211
 
        limit=limit, message_search=search,
212
 
        delta_type=delta_type, diff_type=diff_type)
213
 
    Logger(branch, rqst).show(lf)
214
 
 
215
 
 
216
 
# Note: This needs to be kept this in sync with the defaults in
217
 
# make_log_request_dict() below
218
 
_DEFAULT_REQUEST_PARAMS = {
219
 
    'direction': 'reverse',
220
 
    'levels': 1,
221
 
    'generate_tags': True,
222
 
    'exclude_common_ancestry': False,
223
 
    '_match_using_deltas': True,
224
 
    }
225
 
 
226
 
 
227
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
228
 
                          start_revision=None, end_revision=None, limit=None,
229
 
                          message_search=None, levels=1, generate_tags=True,
230
 
                          delta_type=None,
231
 
                          diff_type=None, _match_using_deltas=True,
232
 
                          exclude_common_ancestry=False,
233
 
                          ):
234
 
    """Convenience function for making a logging request dictionary.
235
 
 
236
 
    Using this function may make code slightly safer by ensuring
237
 
    parameters have the correct names. It also provides a reference
238
 
    point for documenting the supported parameters.
239
 
 
240
 
    :param direction: 'reverse' (default) is latest to earliest;
241
 
      'forward' is earliest to latest.
242
 
 
243
 
    :param specific_fileids: If not None, only include revisions
244
 
      affecting the specified files, rather than all revisions.
245
 
 
246
 
    :param start_revision: If not None, only generate
247
 
      revisions >= start_revision
248
 
 
249
 
    :param end_revision: If not None, only generate
250
 
      revisions <= end_revision
251
 
 
252
 
    :param limit: If set, generate only 'limit' revisions, all revisions
253
 
      are shown if None or 0.
254
 
 
255
 
    :param message_search: If not None, only include revisions with
256
 
      matching commit messages
257
 
 
258
 
    :param levels: the number of levels of revisions to
259
 
      generate; 1 for just the mainline; 0 for all levels.
260
 
 
261
 
    :param generate_tags: If True, include tags for matched revisions.
262
 
 
263
 
    :param delta_type: Either 'full', 'partial' or None.
264
 
      'full' means generate the complete delta - adds/deletes/modifies/etc;
265
 
      'partial' means filter the delta using specific_fileids;
266
 
      None means do not generate any delta.
267
 
 
268
 
    :param diff_type: Either 'full', 'partial' or None.
269
 
      'full' means generate the complete diff - adds/deletes/modifies/etc;
270
 
      'partial' means filter the diff using specific_fileids;
271
 
      None means do not generate any diff.
272
 
 
273
 
    :param _match_using_deltas: a private parameter controlling the
274
 
      algorithm used for matching specific_fileids. This parameter
275
 
      may be removed in the future so bzrlib client code should NOT
276
 
      use it.
277
 
 
278
 
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
279
 
      range operator or as a graph difference.
280
 
    """
281
 
    return {
282
 
        'direction': direction,
283
 
        'specific_fileids': specific_fileids,
284
 
        'start_revision': start_revision,
285
 
        'end_revision': end_revision,
286
 
        'limit': limit,
287
 
        'message_search': message_search,
288
 
        'levels': levels,
289
 
        'generate_tags': generate_tags,
290
 
        'delta_type': delta_type,
291
 
        'diff_type': diff_type,
292
 
        'exclude_common_ancestry': exclude_common_ancestry,
293
 
        # Add 'private' attributes for features that may be deprecated
294
 
        '_match_using_deltas': _match_using_deltas,
295
 
    }
296
 
 
297
 
 
298
 
def _apply_log_request_defaults(rqst):
299
 
    """Apply default values to a request dictionary."""
300
 
    result = _DEFAULT_REQUEST_PARAMS.copy()
301
 
    if rqst:
302
 
        result.update(rqst)
303
 
    return result
304
 
 
305
 
 
306
 
class LogGenerator(object):
307
 
    """A generator of log revisions."""
308
 
 
309
 
    def iter_log_revisions(self):
310
 
        """Iterate over LogRevision objects.
311
 
 
312
 
        :return: An iterator yielding LogRevision objects.
313
 
        """
314
 
        raise NotImplementedError(self.iter_log_revisions)
315
 
 
316
 
 
317
 
class Logger(object):
318
 
    """An object that generates, formats and displays a log."""
319
 
 
320
 
    def __init__(self, branch, rqst):
321
 
        """Create a Logger.
322
 
 
323
 
        :param branch: the branch to log
324
 
        :param rqst: A dictionary specifying the query parameters.
325
 
          See make_log_request_dict() for supported values.
326
 
        """
327
 
        self.branch = branch
328
 
        self.rqst = _apply_log_request_defaults(rqst)
329
 
 
330
 
    def show(self, lf):
331
 
        """Display the log.
332
 
 
333
 
        :param lf: The LogFormatter object to send the output to.
334
 
        """
335
 
        if not isinstance(lf, LogFormatter):
336
 
            warn("not a LogFormatter instance: %r" % lf)
337
 
 
338
 
        self.branch.lock_read()
339
 
        try:
340
 
            if getattr(lf, 'begin_log', None):
341
 
                lf.begin_log()
342
 
            self._show_body(lf)
343
 
            if getattr(lf, 'end_log', None):
344
 
                lf.end_log()
345
 
        finally:
346
 
            self.branch.unlock()
347
 
 
348
 
    def _show_body(self, lf):
349
 
        """Show the main log output.
350
 
 
351
 
        Subclasses may wish to override this.
352
 
        """
353
 
        # Tweak the LogRequest based on what the LogFormatter can handle.
354
 
        # (There's no point generating stuff if the formatter can't display it.)
355
 
        rqst = self.rqst
356
 
        rqst['levels'] = lf.get_levels()
357
 
        if not getattr(lf, 'supports_tags', False):
358
 
            rqst['generate_tags'] = False
359
 
        if not getattr(lf, 'supports_delta', False):
360
 
            rqst['delta_type'] = None
361
 
        if not getattr(lf, 'supports_diff', False):
362
 
            rqst['diff_type'] = None
363
 
 
364
 
        # Find and print the interesting revisions
365
 
        generator = self._generator_factory(self.branch, rqst)
366
 
        for lr in generator.iter_log_revisions():
367
 
            lf.log_revision(lr)
368
 
        lf.show_advice()
369
 
 
370
 
    def _generator_factory(self, branch, rqst):
371
 
        """Make the LogGenerator object to use.
372
 
        
373
 
        Subclasses may wish to override this.
374
 
        """
375
 
        return _DefaultLogGenerator(branch, rqst)
376
 
 
377
 
 
378
 
class _StartNotLinearAncestor(Exception):
379
 
    """Raised when a start revision is not found walking left-hand history."""
380
 
 
381
 
 
382
 
class _DefaultLogGenerator(LogGenerator):
383
 
    """The default generator of log revisions."""
384
 
 
385
 
    def __init__(self, branch, rqst):
386
 
        self.branch = branch
387
 
        self.rqst = rqst
388
 
        if rqst.get('generate_tags') and branch.supports_tags():
389
 
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
390
 
        else:
391
 
            self.rev_tag_dict = {}
392
 
 
393
 
    def iter_log_revisions(self):
394
 
        """Iterate over LogRevision objects.
395
 
 
396
 
        :return: An iterator yielding LogRevision objects.
397
 
        """
398
 
        rqst = self.rqst
399
 
        levels = rqst.get('levels')
400
 
        limit = rqst.get('limit')
401
 
        diff_type = rqst.get('diff_type')
402
 
        log_count = 0
403
 
        revision_iterator = self._create_log_revision_iterator()
404
 
        for revs in revision_iterator:
405
 
            for (rev_id, revno, merge_depth), rev, delta in revs:
406
 
                # 0 levels means show everything; merge_depth counts from 0
407
 
                if levels != 0 and merge_depth >= levels:
408
 
                    continue
409
 
                if diff_type is None:
410
 
                    diff = None
411
 
                else:
412
 
                    diff = self._format_diff(rev, rev_id, diff_type)
413
 
                yield LogRevision(rev, revno, merge_depth, delta,
414
 
                    self.rev_tag_dict.get(rev_id), diff)
415
 
                if limit:
416
 
                    log_count += 1
417
 
                    if log_count >= limit:
418
 
                        return
419
 
 
420
 
    def _format_diff(self, rev, rev_id, diff_type):
421
 
        repo = self.branch.repository
422
 
        if len(rev.parent_ids) == 0:
423
 
            ancestor_id = _mod_revision.NULL_REVISION
424
 
        else:
425
 
            ancestor_id = rev.parent_ids[0]
426
 
        tree_1 = repo.revision_tree(ancestor_id)
427
 
        tree_2 = repo.revision_tree(rev_id)
428
 
        file_ids = self.rqst.get('specific_fileids')
429
 
        if diff_type == 'partial' and file_ids is not None:
430
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
431
 
        else:
432
 
            specific_files = None
433
 
        s = StringIO()
434
 
        path_encoding = get_diff_header_encoding()
435
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
436
 
            new_label='', path_encoding=path_encoding)
437
 
        return s.getvalue()
438
 
 
439
 
    def _create_log_revision_iterator(self):
440
 
        """Create a revision iterator for log.
441
 
 
442
 
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
443
 
            delta).
444
 
        """
445
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
446
 
            self.branch, self.rqst.get('start_revision'),
447
 
            self.rqst.get('end_revision'))
448
 
        if self.rqst.get('_match_using_deltas'):
449
 
            return self._log_revision_iterator_using_delta_matching()
450
 
        else:
451
 
            # We're using the per-file-graph algorithm. This scales really
452
 
            # well but only makes sense if there is a single file and it's
453
 
            # not a directory
454
 
            file_count = len(self.rqst.get('specific_fileids'))
455
 
            if file_count != 1:
456
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
457
 
                    "when logging %d files" % file_count)
458
 
            return self._log_revision_iterator_using_per_file_graph()
459
 
 
460
 
    def _log_revision_iterator_using_delta_matching(self):
461
 
        # Get the base revisions, filtering by the revision range
462
 
        rqst = self.rqst
463
 
        generate_merge_revisions = rqst.get('levels') != 1
464
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
465
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
466
 
        view_revisions = _calc_view_revisions(
467
 
            self.branch, self.start_rev_id, self.end_rev_id,
468
 
            rqst.get('direction'),
469
 
            generate_merge_revisions=generate_merge_revisions,
470
 
            delayed_graph_generation=delayed_graph_generation,
471
 
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
472
 
 
473
 
        # Apply the other filters
474
 
        return make_log_rev_iterator(self.branch, view_revisions,
475
 
            rqst.get('delta_type'), rqst.get('message_search'),
476
 
            file_ids=rqst.get('specific_fileids'),
477
 
            direction=rqst.get('direction'))
478
 
 
479
 
    def _log_revision_iterator_using_per_file_graph(self):
480
 
        # Get the base revisions, filtering by the revision range.
481
 
        # Note that we always generate the merge revisions because
482
 
        # filter_revisions_touching_file_id() requires them ...
483
 
        rqst = self.rqst
484
 
        view_revisions = _calc_view_revisions(
485
 
            self.branch, self.start_rev_id, self.end_rev_id,
486
 
            rqst.get('direction'), generate_merge_revisions=True,
487
 
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
488
 
        if not isinstance(view_revisions, list):
489
 
            view_revisions = list(view_revisions)
490
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
491
 
            rqst.get('specific_fileids')[0], view_revisions,
492
 
            include_merges=rqst.get('levels') != 1)
493
 
        return make_log_rev_iterator(self.branch, view_revisions,
494
 
            rqst.get('delta_type'), rqst.get('message_search'))
495
 
 
496
 
 
497
 
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
498
 
                         generate_merge_revisions,
499
 
                         delayed_graph_generation=False,
500
 
                         exclude_common_ancestry=False,
501
 
                         ):
502
 
    """Calculate the revisions to view.
503
 
 
504
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
505
 
             a list of the same tuples.
506
 
    """
507
 
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
508
 
        raise errors.BzrCommandError(
509
 
            '--exclude-common-ancestry requires two different revisions')
510
 
    if direction not in ('reverse', 'forward'):
511
 
        raise ValueError('invalid direction %r' % direction)
512
 
    br_revno, br_rev_id = branch.last_revision_info()
513
 
    if br_revno == 0:
514
 
        return []
515
 
 
516
 
    if (end_rev_id and start_rev_id == end_rev_id
517
 
        and (not generate_merge_revisions
518
 
             or not _has_merges(branch, end_rev_id))):
519
 
        # If a single revision is requested, check we can handle it
520
 
        iter_revs = _generate_one_revision(branch, end_rev_id, br_rev_id,
521
 
                                           br_revno)
522
 
    elif not generate_merge_revisions:
523
 
        # If we only want to see linear revisions, we can iterate ...
524
 
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
525
 
                                             direction, exclude_common_ancestry)
526
 
        if direction == 'forward':
527
 
            iter_revs = reversed(iter_revs)
528
 
    else:
529
 
        iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
530
 
                                            direction, delayed_graph_generation,
531
 
                                            exclude_common_ancestry)
532
 
        if direction == 'forward':
533
 
            iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
534
 
    return iter_revs
535
 
 
536
 
 
537
 
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
538
 
    if rev_id == br_rev_id:
539
 
        # It's the tip
540
 
        return [(br_rev_id, br_revno, 0)]
541
 
    else:
542
 
        revno_str = _compute_revno_str(branch, rev_id)
543
 
        return [(rev_id, revno_str, 0)]
544
 
 
545
 
 
546
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction,
547
 
                             exclude_common_ancestry=False):
548
 
    result = _linear_view_revisions(
549
 
        branch, start_rev_id, end_rev_id,
550
 
        exclude_common_ancestry=exclude_common_ancestry)
551
 
    # If a start limit was given and it's not obviously an
552
 
    # ancestor of the end limit, check it before outputting anything
553
 
    if direction == 'forward' or (start_rev_id
554
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
555
 
        try:
556
 
            result = list(result)
557
 
        except _StartNotLinearAncestor:
558
 
            raise errors.BzrCommandError('Start revision not found in'
559
 
                ' left-hand history of end revision.')
560
 
    return result
561
 
 
562
 
 
563
 
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
564
 
                            delayed_graph_generation,
565
 
                            exclude_common_ancestry=False):
566
 
    # On large trees, generating the merge graph can take 30-60 seconds
567
 
    # so we delay doing it until a merge is detected, incrementally
568
 
    # returning initial (non-merge) revisions while we can.
569
 
 
570
 
    # The above is only true for old formats (<= 0.92), for newer formats, a
571
 
    # couple of seconds only should be needed to load the whole graph and the
572
 
    # other graph operations needed are even faster than that -- vila 100201
573
 
    initial_revisions = []
574
 
    if delayed_graph_generation:
575
 
        try:
576
 
            for rev_id, revno, depth in  _linear_view_revisions(
577
 
                branch, start_rev_id, end_rev_id, exclude_common_ancestry):
578
 
                if _has_merges(branch, rev_id):
579
 
                    # The end_rev_id can be nested down somewhere. We need an
580
 
                    # explicit ancestry check. There is an ambiguity here as we
581
 
                    # may not raise _StartNotLinearAncestor for a revision that
582
 
                    # is an ancestor but not a *linear* one. But since we have
583
 
                    # loaded the graph to do the check (or calculate a dotted
584
 
                    # revno), we may as well accept to show the log...  We need
585
 
                    # the check only if start_rev_id is not None as all
586
 
                    # revisions have _mod_revision.NULL_REVISION as an ancestor
587
 
                    # -- vila 20100319
588
 
                    graph = branch.repository.get_graph()
589
 
                    if (start_rev_id is not None
590
 
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
591
 
                        raise _StartNotLinearAncestor()
592
 
                    # Since we collected the revisions so far, we need to
593
 
                    # adjust end_rev_id.
594
 
                    end_rev_id = rev_id
595
 
                    break
596
 
                else:
597
 
                    initial_revisions.append((rev_id, revno, depth))
598
 
            else:
599
 
                # No merged revisions found
600
 
                return initial_revisions
601
 
        except _StartNotLinearAncestor:
602
 
            # A merge was never detected so the lower revision limit can't
603
 
            # be nested down somewhere
604
 
            raise errors.BzrCommandError('Start revision not found in'
605
 
                ' history of end revision.')
606
 
 
607
 
    # We exit the loop above because we encounter a revision with merges, from
608
 
    # this revision, we need to switch to _graph_view_revisions.
609
 
 
610
 
    # A log including nested merges is required. If the direction is reverse,
611
 
    # we rebase the initial merge depths so that the development line is
612
 
    # shown naturally, i.e. just like it is for linear logging. We can easily
613
 
    # make forward the exact opposite display, but showing the merge revisions
614
 
    # indented at the end seems slightly nicer in that case.
615
 
    view_revisions = chain(iter(initial_revisions),
616
 
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
617
 
                              rebase_initial_depths=(direction == 'reverse'),
618
 
                              exclude_common_ancestry=exclude_common_ancestry))
619
 
    return view_revisions
620
 
 
621
 
 
622
 
def _has_merges(branch, rev_id):
623
 
    """Does a revision have multiple parents or not?"""
624
 
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
625
 
    return len(parents) > 1
626
 
 
627
 
 
628
 
def _compute_revno_str(branch, rev_id):
629
 
    """Compute the revno string from a rev_id.
630
 
 
631
 
    :return: The revno string, or None if the revision is not in the supplied
632
 
        branch.
633
 
    """
 
126
    lf
 
127
        LogFormatter object to show the output.
 
128
 
 
129
    specific_fileid
 
130
        If true, list only the commits affecting the specified
 
131
        file, rather than all commits.
 
132
 
 
133
    verbose
 
134
        If true show added/changed/deleted/renamed files.
 
135
 
 
136
    direction
 
137
        'reverse' (default) is latest to earliest;
 
138
        'forward' is earliest to latest.
 
139
 
 
140
    start_revision
 
141
        If not None, only show revisions >= start_revision
 
142
 
 
143
    end_revision
 
144
        If not None, only show revisions <= end_revision
 
145
    """
 
146
    branch.lock_read()
634
147
    try:
635
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
636
 
    except errors.NoSuchRevision:
637
 
        # The revision must be outside of this branch
638
 
        return None
639
 
    else:
640
 
        return '.'.join(str(n) for n in revno)
641
 
 
642
 
 
643
 
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
644
 
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
645
 
    if start_rev_id and end_rev_id:
646
 
        try:
647
 
            start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
648
 
            end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
649
 
        except errors.NoSuchRevision:
650
 
            # one or both is not in the branch; not obvious
651
 
            return False
652
 
        if len(start_dotted) == 1 and len(end_dotted) == 1:
653
 
            # both on mainline
654
 
            return start_dotted[0] <= end_dotted[0]
655
 
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
656
 
            start_dotted[0:1] == end_dotted[0:1]):
657
 
            # both on same development line
658
 
            return start_dotted[2] <= end_dotted[2]
659
 
        else:
660
 
            # not obvious
661
 
            return False
662
 
    # if either start or end is not specified then we use either the first or
663
 
    # the last revision and *they* are obvious ancestors.
664
 
    return True
665
 
 
666
 
 
667
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id,
668
 
                           exclude_common_ancestry=False):
669
 
    """Calculate a sequence of revisions to view, newest to oldest.
670
 
 
671
 
    :param start_rev_id: the lower revision-id
672
 
    :param end_rev_id: the upper revision-id
673
 
    :param exclude_common_ancestry: Whether the start_rev_id should be part of
674
 
        the iterated revisions.
675
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
676
 
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
677
 
        is not found walking the left-hand history
678
 
    """
679
 
    br_revno, br_rev_id = branch.last_revision_info()
680
 
    repo = branch.repository
681
 
    if start_rev_id is None and end_rev_id is None:
682
 
        cur_revno = br_revno
683
 
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
684
 
            yield revision_id, str(cur_revno), 0
685
 
            cur_revno -= 1
686
 
    else:
687
 
        if end_rev_id is None:
688
 
            end_rev_id = br_rev_id
689
 
        found_start = start_rev_id is None
690
 
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
691
 
            revno_str = _compute_revno_str(branch, revision_id)
692
 
            if not found_start and revision_id == start_rev_id:
693
 
                if not exclude_common_ancestry:
694
 
                    yield revision_id, revno_str, 0
695
 
                found_start = True
696
 
                break
697
 
            else:
698
 
                yield revision_id, revno_str, 0
699
 
        else:
700
 
            if not found_start:
701
 
                raise _StartNotLinearAncestor()
702
 
 
703
 
 
704
 
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
705
 
                          rebase_initial_depths=True,
706
 
                          exclude_common_ancestry=False):
707
 
    """Calculate revisions to view including merges, newest to oldest.
708
 
 
709
 
    :param branch: the branch
710
 
    :param start_rev_id: the lower revision-id
711
 
    :param end_rev_id: the upper revision-id
712
 
    :param rebase_initial_depth: should depths be rebased until a mainline
713
 
      revision is found?
714
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
715
 
    """
716
 
    if exclude_common_ancestry:
717
 
        stop_rule = 'with-merges-without-common-ancestry'
718
 
    else:
719
 
        stop_rule = 'with-merges'
720
 
    view_revisions = branch.iter_merge_sorted_revisions(
721
 
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
722
 
        stop_rule=stop_rule)
723
 
    if not rebase_initial_depths:
724
 
        for (rev_id, merge_depth, revno, end_of_merge
725
 
             ) in view_revisions:
726
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
727
 
    else:
728
 
        # We're following a development line starting at a merged revision.
729
 
        # We need to adjust depths down by the initial depth until we find
730
 
        # a depth less than it. Then we use that depth as the adjustment.
731
 
        # If and when we reach the mainline, depth adjustment ends.
732
 
        depth_adjustment = None
733
 
        for (rev_id, merge_depth, revno, end_of_merge
734
 
             ) in view_revisions:
735
 
            if depth_adjustment is None:
736
 
                depth_adjustment = merge_depth
737
 
            if depth_adjustment:
738
 
                if merge_depth < depth_adjustment:
739
 
                    # From now on we reduce the depth adjustement, this can be
740
 
                    # surprising for users. The alternative requires two passes
741
 
                    # which breaks the fast display of the first revision
742
 
                    # though.
743
 
                    depth_adjustment = merge_depth
744
 
                merge_depth -= depth_adjustment
745
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
746
 
 
747
 
 
748
 
@deprecated_function(deprecated_in((2, 2, 0)))
749
 
def calculate_view_revisions(branch, start_revision, end_revision, direction,
750
 
        specific_fileid, generate_merge_revisions):
751
 
    """Calculate the revisions to view.
752
 
 
753
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
754
 
             a list of the same tuples.
755
 
    """
756
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
757
 
        end_revision)
758
 
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
759
 
        direction, generate_merge_revisions or specific_fileid))
 
148
        _show_log(branch, lf, specific_fileid, verbose, direction,
 
149
                  start_revision, end_revision, search)
 
150
    finally:
 
151
        branch.unlock()
 
152
    
 
153
def _show_log(branch,
 
154
             lf,
 
155
             specific_fileid=None,
 
156
             verbose=False,
 
157
             direction='reverse',
 
158
             start_revision=None,
 
159
             end_revision=None,
 
160
             search=None):
 
161
    """Worker function for show_log - see show_log."""
 
162
    from bzrlib.osutils import format_date
 
163
    from bzrlib.errors import BzrCheckError
 
164
    
 
165
    from warnings import warn
 
166
 
 
167
    if not isinstance(lf, LogFormatter):
 
168
        warn("not a LogFormatter instance: %r" % lf)
 
169
 
760
170
    if specific_fileid:
761
 
        view_revisions = _filter_revisions_touching_file_id(branch,
762
 
            specific_fileid, view_revisions,
763
 
            include_merges=generate_merge_revisions)
764
 
    return _rebase_merge_depth(view_revisions)
765
 
 
766
 
 
767
 
def _rebase_merge_depth(view_revisions):
768
 
    """Adjust depths upwards so the top level is 0."""
769
 
    # If either the first or last revision have a merge_depth of 0, we're done
770
 
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
771
 
        min_depth = min([d for r,n,d in view_revisions])
772
 
        if min_depth != 0:
773
 
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
774
 
    return view_revisions
775
 
 
776
 
 
777
 
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
778
 
        file_ids=None, direction='reverse'):
779
 
    """Create a revision iterator for log.
780
 
 
781
 
    :param branch: The branch being logged.
782
 
    :param view_revisions: The revisions being viewed.
783
 
    :param generate_delta: Whether to generate a delta for each revision.
784
 
      Permitted values are None, 'full' and 'partial'.
785
 
    :param search: A user text search string.
786
 
    :param file_ids: If non empty, only revisions matching one or more of
787
 
      the file-ids are to be kept.
788
 
    :param direction: the direction in which view_revisions is sorted
789
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
790
 
        delta).
791
 
    """
792
 
    # Convert view_revisions into (view, None, None) groups to fit with
793
 
    # the standard interface here.
794
 
    if type(view_revisions) == list:
795
 
        # A single batch conversion is faster than many incremental ones.
796
 
        # As we have all the data, do a batch conversion.
797
 
        nones = [None] * len(view_revisions)
798
 
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
799
 
    else:
800
 
        def _convert():
801
 
            for view in view_revisions:
802
 
                yield (view, None, None)
803
 
        log_rev_iterator = iter([_convert()])
804
 
    for adapter in log_adapters:
805
 
        # It would be nicer if log adapters were first class objects
806
 
        # with custom parameters. This will do for now. IGC 20090127
807
 
        if adapter == _make_delta_filter:
808
 
            log_rev_iterator = adapter(branch, generate_delta,
809
 
                search, log_rev_iterator, file_ids, direction)
810
 
        else:
811
 
            log_rev_iterator = adapter(branch, generate_delta,
812
 
                search, log_rev_iterator)
813
 
    return log_rev_iterator
814
 
 
815
 
 
816
 
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
817
 
    """Create a filtered iterator of log_rev_iterator matching on a regex.
818
 
 
819
 
    :param branch: The branch being logged.
820
 
    :param generate_delta: Whether to generate a delta for each revision.
821
 
    :param search: A user text search string.
822
 
    :param log_rev_iterator: An input iterator containing all revisions that
823
 
        could be displayed, in lists.
824
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
825
 
        delta).
826
 
    """
827
 
    if search is None:
828
 
        return log_rev_iterator
829
 
    searchRE = re.compile(search, re.IGNORECASE)
830
 
    return _filter_message_re(searchRE, log_rev_iterator)
831
 
 
832
 
 
833
 
def _filter_message_re(searchRE, log_rev_iterator):
834
 
    for revs in log_rev_iterator:
835
 
        new_revs = []
836
 
        for (rev_id, revno, merge_depth), rev, delta in revs:
837
 
            if searchRE.search(rev.message):
838
 
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
839
 
        yield new_revs
840
 
 
841
 
 
842
 
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
843
 
    fileids=None, direction='reverse'):
844
 
    """Add revision deltas to a log iterator if needed.
845
 
 
846
 
    :param branch: The branch being logged.
847
 
    :param generate_delta: Whether to generate a delta for each revision.
848
 
      Permitted values are None, 'full' and 'partial'.
849
 
    :param search: A user text search string.
850
 
    :param log_rev_iterator: An input iterator containing all revisions that
851
 
        could be displayed, in lists.
852
 
    :param fileids: If non empty, only revisions matching one or more of
853
 
      the file-ids are to be kept.
854
 
    :param direction: the direction in which view_revisions is sorted
855
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
856
 
        delta).
857
 
    """
858
 
    if not generate_delta and not fileids:
859
 
        return log_rev_iterator
860
 
    return _generate_deltas(branch.repository, log_rev_iterator,
861
 
        generate_delta, fileids, direction)
862
 
 
863
 
 
864
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
865
 
    direction):
866
 
    """Create deltas for each batch of revisions in log_rev_iterator.
867
 
 
868
 
    If we're only generating deltas for the sake of filtering against
869
 
    file-ids, we stop generating deltas once all file-ids reach the
870
 
    appropriate life-cycle point. If we're receiving data newest to
871
 
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
872
 
    """
873
 
    check_fileids = fileids is not None and len(fileids) > 0
874
 
    if check_fileids:
875
 
        fileid_set = set(fileids)
876
 
        if direction == 'reverse':
877
 
            stop_on = 'add'
878
 
        else:
879
 
            stop_on = 'remove'
880
 
    else:
881
 
        fileid_set = None
882
 
    for revs in log_rev_iterator:
883
 
        # If we were matching against fileids and we've run out,
884
 
        # there's nothing left to do
885
 
        if check_fileids and not fileid_set:
886
 
            return
887
 
        revisions = [rev[1] for rev in revs]
888
 
        new_revs = []
889
 
        if delta_type == 'full' and not check_fileids:
890
 
            deltas = repository.get_deltas_for_revisions(revisions)
891
 
            for rev, delta in izip(revs, deltas):
892
 
                new_revs.append((rev[0], rev[1], delta))
893
 
        else:
894
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
895
 
            for rev, delta in izip(revs, deltas):
896
 
                if check_fileids:
897
 
                    if delta is None or not delta.has_changed():
898
 
                        continue
899
 
                    else:
900
 
                        _update_fileids(delta, fileid_set, stop_on)
901
 
                        if delta_type is None:
902
 
                            delta = None
903
 
                        elif delta_type == 'full':
904
 
                            # If the file matches all the time, rebuilding
905
 
                            # a full delta like this in addition to a partial
906
 
                            # one could be slow. However, it's likely that
907
 
                            # most revisions won't get this far, making it
908
 
                            # faster to filter on the partial deltas and
909
 
                            # build the occasional full delta than always
910
 
                            # building full deltas and filtering those.
911
 
                            rev_id = rev[0][0]
912
 
                            delta = repository.get_revision_delta(rev_id)
913
 
                new_revs.append((rev[0], rev[1], delta))
914
 
        yield new_revs
915
 
 
916
 
 
917
 
def _update_fileids(delta, fileids, stop_on):
918
 
    """Update the set of file-ids to search based on file lifecycle events.
919
 
    
920
 
    :param fileids: a set of fileids to update
921
 
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
922
 
      fileids set once their add or remove entry is detected respectively
923
 
    """
924
 
    if stop_on == 'add':
925
 
        for item in delta.added:
926
 
            if item[1] in fileids:
927
 
                fileids.remove(item[1])
928
 
    elif stop_on == 'delete':
929
 
        for item in delta.removed:
930
 
            if item[1] in fileids:
931
 
                fileids.remove(item[1])
932
 
 
933
 
 
934
 
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
935
 
    """Extract revision objects from the repository
936
 
 
937
 
    :param branch: The branch being logged.
938
 
    :param generate_delta: Whether to generate a delta for each revision.
939
 
    :param search: A user text search string.
940
 
    :param log_rev_iterator: An input iterator containing all revisions that
941
 
        could be displayed, in lists.
942
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
943
 
        delta).
944
 
    """
945
 
    repository = branch.repository
946
 
    for revs in log_rev_iterator:
947
 
        # r = revision_id, n = revno, d = merge depth
948
 
        revision_ids = [view[0] for view, _, _ in revs]
949
 
        revisions = repository.get_revisions(revision_ids)
950
 
        revs = [(rev[0], revision, rev[2]) for rev, revision in
951
 
            izip(revs, revisions)]
952
 
        yield revs
953
 
 
954
 
 
955
 
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
956
 
    """Group up a single large batch into smaller ones.
957
 
 
958
 
    :param branch: The branch being logged.
959
 
    :param generate_delta: Whether to generate a delta for each revision.
960
 
    :param search: A user text search string.
961
 
    :param log_rev_iterator: An input iterator containing all revisions that
962
 
        could be displayed, in lists.
963
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
964
 
        delta).
965
 
    """
966
 
    repository = branch.repository
967
 
    num = 9
968
 
    for batch in log_rev_iterator:
969
 
        batch = iter(batch)
970
 
        while True:
971
 
            step = [detail for _, detail in zip(range(num), batch)]
972
 
            if len(step) == 0:
973
 
                break
974
 
            yield step
975
 
            num = min(int(num * 1.5), 200)
976
 
 
977
 
 
978
 
def _get_revision_limits(branch, start_revision, end_revision):
979
 
    """Get and check revision limits.
980
 
 
981
 
    :param  branch: The branch containing the revisions.
982
 
 
983
 
    :param  start_revision: The first revision to be logged.
984
 
            For backwards compatibility this may be a mainline integer revno,
985
 
            but for merge revision support a RevisionInfo is expected.
986
 
 
987
 
    :param  end_revision: The last revision to be logged.
988
 
            For backwards compatibility this may be a mainline integer revno,
989
 
            but for merge revision support a RevisionInfo is expected.
990
 
 
991
 
    :return: (start_rev_id, end_rev_id) tuple.
992
 
    """
993
 
    branch_revno, branch_rev_id = branch.last_revision_info()
994
 
    start_rev_id = None
995
 
    if start_revision is None:
996
 
        start_revno = 1
997
 
    else:
998
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
999
 
            start_rev_id = start_revision.rev_id
1000
 
            start_revno = start_revision.revno or 1
1001
 
        else:
1002
 
            branch.check_real_revno(start_revision)
1003
 
            start_revno = start_revision
1004
 
            start_rev_id = branch.get_rev_id(start_revno)
1005
 
 
1006
 
    end_rev_id = None
1007
 
    if end_revision is None:
1008
 
        end_revno = branch_revno
1009
 
    else:
1010
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
1011
 
            end_rev_id = end_revision.rev_id
1012
 
            end_revno = end_revision.revno or branch_revno
1013
 
        else:
1014
 
            branch.check_real_revno(end_revision)
1015
 
            end_revno = end_revision
1016
 
            end_rev_id = branch.get_rev_id(end_revno)
1017
 
 
1018
 
    if branch_revno != 0:
1019
 
        if (start_rev_id == _mod_revision.NULL_REVISION
1020
 
            or end_rev_id == _mod_revision.NULL_REVISION):
1021
 
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
1022
 
        if start_revno > end_revno:
1023
 
            raise errors.BzrCommandError("Start revision must be older than "
1024
 
                                         "the end revision.")
1025
 
    return (start_rev_id, end_rev_id)
1026
 
 
1027
 
 
1028
 
def _get_mainline_revs(branch, start_revision, end_revision):
1029
 
    """Get the mainline revisions from the branch.
1030
 
 
1031
 
    Generates the list of mainline revisions for the branch.
1032
 
 
1033
 
    :param  branch: The branch containing the revisions.
1034
 
 
1035
 
    :param  start_revision: The first revision to be logged.
1036
 
            For backwards compatibility this may be a mainline integer revno,
1037
 
            but for merge revision support a RevisionInfo is expected.
1038
 
 
1039
 
    :param  end_revision: The last revision to be logged.
1040
 
            For backwards compatibility this may be a mainline integer revno,
1041
 
            but for merge revision support a RevisionInfo is expected.
1042
 
 
1043
 
    :return: A (mainline_revs, rev_nos, start_rev_id, end_rev_id) tuple.
1044
 
    """
1045
 
    branch_revno, branch_last_revision = branch.last_revision_info()
1046
 
    if branch_revno == 0:
1047
 
        return None, None, None, None
1048
 
 
1049
 
    # For mainline generation, map start_revision and end_revision to
1050
 
    # mainline revnos. If the revision is not on the mainline choose the
1051
 
    # appropriate extreme of the mainline instead - the extra will be
1052
 
    # filtered later.
1053
 
    # Also map the revisions to rev_ids, to be used in the later filtering
1054
 
    # stage.
1055
 
    start_rev_id = None
1056
 
    if start_revision is None:
1057
 
        start_revno = 1
1058
 
    else:
1059
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
1060
 
            start_rev_id = start_revision.rev_id
1061
 
            start_revno = start_revision.revno or 1
1062
 
        else:
1063
 
            branch.check_real_revno(start_revision)
1064
 
            start_revno = start_revision
1065
 
 
1066
 
    end_rev_id = None
1067
 
    if end_revision is None:
1068
 
        end_revno = branch_revno
1069
 
    else:
1070
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
1071
 
            end_rev_id = end_revision.rev_id
1072
 
            end_revno = end_revision.revno or branch_revno
1073
 
        else:
1074
 
            branch.check_real_revno(end_revision)
1075
 
            end_revno = end_revision
1076
 
 
1077
 
    if ((start_rev_id == _mod_revision.NULL_REVISION)
1078
 
        or (end_rev_id == _mod_revision.NULL_REVISION)):
1079
 
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
1080
 
    if start_revno > end_revno:
1081
 
        raise errors.BzrCommandError("Start revision must be older than "
1082
 
                                     "the end revision.")
1083
 
 
1084
 
    if end_revno < start_revno:
1085
 
        return None, None, None, None
1086
 
    cur_revno = branch_revno
1087
 
    rev_nos = {}
1088
 
    mainline_revs = []
1089
 
    for revision_id in branch.repository.iter_reverse_revision_history(
1090
 
                        branch_last_revision):
1091
 
        if cur_revno < start_revno:
1092
 
            # We have gone far enough, but we always add 1 more revision
1093
 
            rev_nos[revision_id] = cur_revno
1094
 
            mainline_revs.append(revision_id)
1095
 
            break
1096
 
        if cur_revno <= end_revno:
1097
 
            rev_nos[revision_id] = cur_revno
1098
 
            mainline_revs.append(revision_id)
1099
 
        cur_revno -= 1
1100
 
    else:
1101
 
        # We walked off the edge of all revisions, so we add a 'None' marker
1102
 
        mainline_revs.append(None)
1103
 
 
1104
 
    mainline_revs.reverse()
 
171
        mutter('get log for file_id %r', specific_fileid)
 
172
 
 
173
    if search is not None:
 
174
        import re
 
175
        searchRE = re.compile(search, re.IGNORECASE)
 
176
    else:
 
177
        searchRE = None
 
178
 
 
179
    which_revs = _enumerate_history(branch)
 
180
    
 
181
    if start_revision is None:
 
182
        start_revision = 1
 
183
    else:
 
184
        branch.check_real_revno(start_revision)
 
185
    
 
186
    if end_revision is None:
 
187
        end_revision = len(which_revs)
 
188
    else:
 
189
        branch.check_real_revno(end_revision)
 
190
 
 
191
    # list indexes are 0-based; revisions are 1-based
 
192
    cut_revs = which_revs[(start_revision-1):(end_revision)]
 
193
    if not cut_revs:
 
194
        return
 
195
 
 
196
    # convert the revision history to a dictionary:
 
197
    rev_nos = dict((k, v) for v, k in cut_revs)
1105
198
 
1106
199
    # override the mainline to look like the revision history.
1107
 
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1108
 
 
1109
 
 
1110
 
@deprecated_function(deprecated_in((2, 2, 0)))
1111
 
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1112
 
    """Filter view_revisions based on revision ranges.
1113
 
 
1114
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1115
 
            tuples to be filtered.
1116
 
 
1117
 
    :param start_rev_id: If not NONE specifies the first revision to be logged.
1118
 
            If NONE then all revisions up to the end_rev_id are logged.
1119
 
 
1120
 
    :param end_rev_id: If not NONE specifies the last revision to be logged.
1121
 
            If NONE then all revisions up to the end of the log are logged.
1122
 
 
1123
 
    :return: The filtered view_revisions.
1124
 
    """
1125
 
    if start_rev_id or end_rev_id:
 
200
    mainline_revs = [revision_id for index, revision_id in cut_revs]
 
201
    if cut_revs[0][0] == 1:
 
202
        mainline_revs.insert(0, None)
 
203
    else:
 
204
        mainline_revs.insert(0, which_revs[start_revision-2][1])
 
205
    if getattr(lf, 'show_merge', None) is not None:
 
206
        include_merges = True 
 
207
    else:
 
208
        include_merges = False 
 
209
    view_revisions = list(get_view_revisions(mainline_revs, rev_nos, branch,
 
210
                          direction, include_merges=include_merges))
 
211
 
 
212
    def iter_revisions():
 
213
        # r = revision, n = revno, d = merge depth
1126
214
        revision_ids = [r for r, n, d in view_revisions]
1127
 
        if start_rev_id:
1128
 
            start_index = revision_ids.index(start_rev_id)
1129
 
        else:
1130
 
            start_index = 0
1131
 
        if start_rev_id == end_rev_id:
1132
 
            end_index = start_index
1133
 
        else:
1134
 
            if end_rev_id:
1135
 
                end_index = revision_ids.index(end_rev_id)
1136
 
            else:
1137
 
                end_index = len(view_revisions) - 1
1138
 
        # To include the revisions merged into the last revision,
1139
 
        # extend end_rev_id down to, but not including, the next rev
1140
 
        # with the same or lesser merge_depth
1141
 
        end_merge_depth = view_revisions[end_index][2]
1142
 
        try:
1143
 
            for index in xrange(end_index+1, len(view_revisions)+1):
1144
 
                if view_revisions[index][2] <= end_merge_depth:
1145
 
                    end_index = index - 1
1146
 
                    break
1147
 
        except IndexError:
1148
 
            # if the search falls off the end then log to the end as well
1149
 
            end_index = len(view_revisions) - 1
1150
 
        view_revisions = view_revisions[start_index:end_index+1]
1151
 
    return view_revisions
1152
 
 
1153
 
 
1154
 
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
1155
 
    include_merges=True):
1156
 
    r"""Return the list of revision ids which touch a given file id.
1157
 
 
1158
 
    The function filters view_revisions and returns a subset.
1159
 
    This includes the revisions which directly change the file id,
1160
 
    and the revisions which merge these changes. So if the
1161
 
    revision graph is::
1162
 
        A-.
1163
 
        |\ \
1164
 
        B C E
1165
 
        |/ /
1166
 
        D |
1167
 
        |\|
1168
 
        | F
1169
 
        |/
1170
 
        G
1171
 
 
1172
 
    And 'C' changes a file, then both C and D will be returned. F will not be
1173
 
    returned even though it brings the changes to C into the branch starting
1174
 
    with E. (Note that if we were using F as the tip instead of G, then we
1175
 
    would see C, D, F.)
1176
 
 
1177
 
    This will also be restricted based on a subset of the mainline.
1178
 
 
1179
 
    :param branch: The branch where we can get text revision information.
1180
 
 
1181
 
    :param file_id: Filter out revisions that do not touch file_id.
1182
 
 
1183
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1184
 
        tuples. This is the list of revisions which will be filtered. It is
1185
 
        assumed that view_revisions is in merge_sort order (i.e. newest
1186
 
        revision first ).
1187
 
 
1188
 
    :param include_merges: include merge revisions in the result or not
1189
 
 
1190
 
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
1191
 
    """
1192
 
    # Lookup all possible text keys to determine which ones actually modified
1193
 
    # the file.
1194
 
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1195
 
    next_keys = None
1196
 
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1197
 
    # memory consumption. GraphIndex *does* like to look for a few keys in
1198
 
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
1199
 
    # TODO: This code needs to be re-evaluated periodically as we tune the
1200
 
    #       indexing layer. We might consider passing in hints as to the known
1201
 
    #       access pattern (sparse/clustered, high success rate/low success
1202
 
    #       rate). This particular access is clustered with a low success rate.
1203
 
    get_parent_map = branch.repository.texts.get_parent_map
1204
 
    modified_text_revisions = set()
1205
 
    chunk_size = 1000
1206
 
    for start in xrange(0, len(text_keys), chunk_size):
1207
 
        next_keys = text_keys[start:start + chunk_size]
1208
 
        # Only keep the revision_id portion of the key
1209
 
        modified_text_revisions.update(
1210
 
            [k[1] for k in get_parent_map(next_keys)])
1211
 
    del text_keys, next_keys
1212
 
 
1213
 
    result = []
1214
 
    # Track what revisions will merge the current revision, replace entries
1215
 
    # with 'None' when they have been added to result
1216
 
    current_merge_stack = [None]
1217
 
    for info in view_revisions:
1218
 
        rev_id, revno, depth = info
1219
 
        if depth == len(current_merge_stack):
1220
 
            current_merge_stack.append(info)
1221
 
        else:
1222
 
            del current_merge_stack[depth + 1:]
1223
 
            current_merge_stack[-1] = info
1224
 
 
1225
 
        if rev_id in modified_text_revisions:
1226
 
            # This needs to be logged, along with the extra revisions
1227
 
            for idx in xrange(len(current_merge_stack)):
1228
 
                node = current_merge_stack[idx]
1229
 
                if node is not None:
1230
 
                    if include_merges or node[2] == 0:
1231
 
                        result.append(node)
1232
 
                        current_merge_stack[idx] = None
1233
 
    return result
1234
 
 
1235
 
 
1236
 
@deprecated_function(deprecated_in((2, 2, 0)))
 
215
        zeros = set(r for r, n, d in view_revisions if d == 0)
 
216
        num = 9
 
217
        repository = branch.repository
 
218
        while revision_ids:
 
219
            cur_deltas = {}
 
220
            revisions = repository.get_revisions(revision_ids[:num])
 
221
            if verbose or specific_fileid:
 
222
                delta_revisions = [r for r in revisions if
 
223
                                   r.revision_id in zeros]
 
224
                deltas = repository.get_deltas_for_revisions(delta_revisions)
 
225
                cur_deltas = dict(izip((r.revision_id for r in 
 
226
                                        delta_revisions), deltas))
 
227
            for revision in revisions:
 
228
                # The delta value will be None unless
 
229
                # 1. verbose or specific_fileid is specified, and
 
230
                # 2. the revision is a mainline revision
 
231
                yield revision, cur_deltas.get(revision.revision_id)
 
232
            revision_ids  = revision_ids[num:]
 
233
            num = int(num * 1.5)
 
234
            
 
235
    # now we just print all the revisions
 
236
    for ((rev_id, revno, merge_depth), (rev, delta)) in \
 
237
         izip(view_revisions, iter_revisions()):
 
238
 
 
239
        if searchRE:
 
240
            if not searchRE.search(rev.message):
 
241
                continue
 
242
 
 
243
        if merge_depth == 0:
 
244
            # a mainline revision.
 
245
                
 
246
            if specific_fileid:
 
247
                if not delta.touches_file_id(specific_fileid):
 
248
                    continue
 
249
    
 
250
            if not verbose:
 
251
                # although we calculated it, throw it away without display
 
252
                delta = None
 
253
 
 
254
            lf.show(revno, rev, delta)
 
255
        else:
 
256
            lf.show_merge(rev, merge_depth)
 
257
 
 
258
 
1237
259
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
1238
260
                       include_merges=True):
1239
261
    """Produce an iterator of revisions to show
1240
262
    :return: an iterator of (revision_id, revno, merge_depth)
1241
263
    (if there is no revno for a revision, None is supplied)
1242
264
    """
1243
 
    if not include_merges:
 
265
    if include_merges is False:
1244
266
        revision_ids = mainline_revs[1:]
1245
267
        if direction == 'reverse':
1246
268
            revision_ids.reverse()
1247
269
        for revision_id in revision_ids:
1248
 
            yield revision_id, str(rev_nos[revision_id]), 0
 
270
            yield revision_id, rev_nos[revision_id], 0
1249
271
        return
1250
 
    graph = branch.repository.get_graph()
1251
 
    # This asks for all mainline revisions, which means we only have to spider
1252
 
    # sideways, rather than depth history. That said, its still size-of-history
1253
 
    # and should be addressed.
1254
 
    # mainline_revisions always includes an extra revision at the beginning, so
1255
 
    # don't request it.
1256
 
    parent_map = dict(((key, value) for key, value in
1257
 
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
1258
 
    # filter out ghosts; merge_sort errors on ghosts.
1259
 
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
1260
 
    merge_sorted_revisions = tsort.merge_sort(
1261
 
        rev_graph,
 
272
    merge_sorted_revisions = merge_sort(
 
273
        branch.repository.get_revision_graph(mainline_revs[-1]),
1262
274
        mainline_revs[-1],
1263
 
        mainline_revs,
1264
 
        generate_revno=True)
 
275
        mainline_revs)
1265
276
 
1266
277
    if direction == 'forward':
1267
278
        # forward means oldest first.
1269
280
    elif direction != 'reverse':
1270
281
        raise ValueError('invalid direction %r' % direction)
1271
282
 
1272
 
    for (sequence, rev_id, merge_depth, revno, end_of_merge
1273
 
         ) in merge_sorted_revisions:
1274
 
        yield rev_id, '.'.join(map(str, revno)), merge_depth
 
283
    revision_history = branch.revision_history()
 
284
 
 
285
    for sequence, rev_id, merge_depth, end_of_merge in merge_sorted_revisions:
 
286
        yield rev_id, rev_nos.get(rev_id), merge_depth
1275
287
 
1276
288
 
1277
289
def reverse_by_depth(merge_sorted_revisions, _depth=0):
1281
293
    revision of that depth.  There may be no topological justification for this,
1282
294
    but it looks much nicer.
1283
295
    """
1284
 
    # Add a fake revision at start so that we can always attach sub revisions
1285
 
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
1286
296
    zd_revisions = []
1287
297
    for val in merge_sorted_revisions:
1288
298
        if val[2] == _depth:
1289
 
            # Each revision at the current depth becomes a chunk grouping all
1290
 
            # higher depth revisions.
1291
299
            zd_revisions.append([val])
1292
300
        else:
 
301
            assert val[2] > _depth
1293
302
            zd_revisions[-1].append(val)
1294
303
    for revisions in zd_revisions:
1295
304
        if len(revisions) > 1:
1296
 
            # We have higher depth revisions, let reverse them locally
1297
305
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
1298
306
    zd_revisions.reverse()
1299
307
    result = []
1300
308
    for chunk in zd_revisions:
1301
309
        result.extend(chunk)
1302
 
    if _depth == 0:
1303
 
        # Top level call, get rid of the fake revisions that have been added
1304
 
        result = [r for r in result if r[0] is not None and r[1] is not None]
1305
310
    return result
1306
311
 
1307
312
 
1308
 
class LogRevision(object):
1309
 
    """A revision to be logged (by LogFormatter.log_revision).
1310
 
 
1311
 
    A simple wrapper for the attributes of a revision to be logged.
1312
 
    The attributes may or may not be populated, as determined by the
1313
 
    logging options and the log formatter capabilities.
1314
 
    """
1315
 
 
1316
 
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1317
 
                 tags=None, diff=None):
1318
 
        self.rev = rev
1319
 
        if revno is None:
1320
 
            self.revno = None
1321
 
        else:
1322
 
            self.revno = str(revno)
1323
 
        self.merge_depth = merge_depth
1324
 
        self.delta = delta
1325
 
        self.tags = tags
1326
 
        self.diff = diff
1327
 
 
1328
 
 
1329
313
class LogFormatter(object):
1330
 
    """Abstract class to display log messages.
1331
 
 
1332
 
    At a minimum, a derived class must implement the log_revision method.
1333
 
 
1334
 
    If the LogFormatter needs to be informed of the beginning or end of
1335
 
    a log it should implement the begin_log and/or end_log hook methods.
1336
 
 
1337
 
    A LogFormatter should define the following supports_XXX flags
1338
 
    to indicate which LogRevision attributes it supports:
1339
 
 
1340
 
    - supports_delta must be True if this log formatter supports delta.
1341
 
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1342
 
        attribute describes whether the 'short_status' format (1) or the long
1343
 
        one (2) should be used.
1344
 
 
1345
 
    - supports_merge_revisions must be True if this log formatter supports
1346
 
        merge revisions.  If not, then only mainline revisions will be passed
1347
 
        to the formatter.
1348
 
 
1349
 
    - preferred_levels is the number of levels this formatter defaults to.
1350
 
        The default value is zero meaning display all levels.
1351
 
        This value is only relevant if supports_merge_revisions is True.
1352
 
 
1353
 
    - supports_tags must be True if this log formatter supports tags.
1354
 
        Otherwise the tags attribute may not be populated.
1355
 
 
1356
 
    - supports_diff must be True if this log formatter supports diffs.
1357
 
        Otherwise the diff attribute may not be populated.
1358
 
 
1359
 
    Plugins can register functions to show custom revision properties using
1360
 
    the properties_handler_registry. The registered function
1361
 
    must respect the following interface description:
1362
 
        def my_show_properties(properties_dict):
1363
 
            # code that returns a dict {'name':'value'} of the properties
1364
 
            # to be shown
1365
 
    """
1366
 
    preferred_levels = 0
1367
 
 
1368
 
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1369
 
                 delta_format=None, levels=None, show_advice=False,
1370
 
                 to_exact_file=None, author_list_handler=None):
1371
 
        """Create a LogFormatter.
1372
 
 
1373
 
        :param to_file: the file to output to
1374
 
        :param to_exact_file: if set, gives an output stream to which 
1375
 
             non-Unicode diffs are written.
1376
 
        :param show_ids: if True, revision-ids are to be displayed
1377
 
        :param show_timezone: the timezone to use
1378
 
        :param delta_format: the level of delta information to display
1379
 
          or None to leave it to the formatter to decide
1380
 
        :param levels: the number of levels to display; None or -1 to
1381
 
          let the log formatter decide.
1382
 
        :param show_advice: whether to show advice at the end of the
1383
 
          log or not
1384
 
        :param author_list_handler: callable generating a list of
1385
 
          authors to display for a given revision
1386
 
        """
 
314
    """Abstract class to display log messages."""
 
315
 
 
316
    def __init__(self, to_file, show_ids=False, show_timezone='original'):
1387
317
        self.to_file = to_file
1388
 
        # 'exact' stream used to show diff, it should print content 'as is'
1389
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
1390
 
        if to_exact_file is not None:
1391
 
            self.to_exact_file = to_exact_file
1392
 
        else:
1393
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
1394
 
            # for code that expects to get diffs to pass in the exact file
1395
 
            # stream
1396
 
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1397
318
        self.show_ids = show_ids
1398
319
        self.show_timezone = show_timezone
1399
 
        if delta_format is None:
1400
 
            # Ensures backward compatibility
1401
 
            delta_format = 2 # long format
1402
 
        self.delta_format = delta_format
1403
 
        self.levels = levels
1404
 
        self._show_advice = show_advice
1405
 
        self._merge_count = 0
1406
 
        self._author_list_handler = author_list_handler
1407
 
 
1408
 
    def get_levels(self):
1409
 
        """Get the number of levels to display or 0 for all."""
1410
 
        if getattr(self, 'supports_merge_revisions', False):
1411
 
            if self.levels is None or self.levels == -1:
1412
 
                self.levels = self.preferred_levels
1413
 
        else:
1414
 
            self.levels = 1
1415
 
        return self.levels
1416
 
 
1417
 
    def log_revision(self, revision):
1418
 
        """Log a revision.
1419
 
 
1420
 
        :param  revision:   The LogRevision to be logged.
1421
 
        """
 
320
 
 
321
    def show(self, revno, rev, delta):
1422
322
        raise NotImplementedError('not implemented in abstract base')
1423
323
 
1424
 
    def show_advice(self):
1425
 
        """Output user advice, if any, when the log is completed."""
1426
 
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
1427
 
            advice_sep = self.get_advice_separator()
1428
 
            if advice_sep:
1429
 
                self.to_file.write(advice_sep)
1430
 
            self.to_file.write(
1431
 
                "Use --include-merges or -n0 to see merged revisions.\n")
1432
 
 
1433
 
    def get_advice_separator(self):
1434
 
        """Get the text separating the log from the closing advice."""
1435
 
        return ''
1436
 
 
1437
324
    def short_committer(self, rev):
1438
 
        name, address = config.parse_username(rev.committer)
1439
 
        if name:
1440
 
            return name
1441
 
        return address
1442
 
 
1443
 
    def short_author(self, rev):
1444
 
        return self.authors(rev, 'first', short=True, sep=', ')
1445
 
 
1446
 
    def authors(self, rev, who, short=False, sep=None):
1447
 
        """Generate list of authors, taking --authors option into account.
1448
 
 
1449
 
        The caller has to specify the name of a author list handler,
1450
 
        as provided by the author list registry, using the ``who``
1451
 
        argument.  That name only sets a default, though: when the
1452
 
        user selected a different author list generation using the
1453
 
        ``--authors`` command line switch, as represented by the
1454
 
        ``author_list_handler`` constructor argument, that value takes
1455
 
        precedence.
1456
 
 
1457
 
        :param rev: The revision for which to generate the list of authors.
1458
 
        :param who: Name of the default handler.
1459
 
        :param short: Whether to shorten names to either name or address.
1460
 
        :param sep: What separator to use for automatic concatenation.
1461
 
        """
1462
 
        if self._author_list_handler is not None:
1463
 
            # The user did specify --authors, which overrides the default
1464
 
            author_list_handler = self._author_list_handler
1465
 
        else:
1466
 
            # The user didn't specify --authors, so we use the caller's default
1467
 
            author_list_handler = author_list_registry.get(who)
1468
 
        names = author_list_handler(rev)
1469
 
        if short:
1470
 
            for i in range(len(names)):
1471
 
                name, address = config.parse_username(names[i])
1472
 
                if name:
1473
 
                    names[i] = name
1474
 
                else:
1475
 
                    names[i] = address
1476
 
        if sep is not None:
1477
 
            names = sep.join(names)
1478
 
        return names
1479
 
 
1480
 
    def merge_marker(self, revision):
1481
 
        """Get the merge marker to include in the output or '' if none."""
1482
 
        if len(revision.rev.parent_ids) > 1:
1483
 
            self._merge_count += 1
1484
 
            return ' [merge]'
1485
 
        else:
1486
 
            return ''
1487
 
 
1488
 
    def show_properties(self, revision, indent):
1489
 
        """Displays the custom properties returned by each registered handler.
1490
 
 
1491
 
        If a registered handler raises an error it is propagated.
1492
 
        """
1493
 
        for line in self.custom_properties(revision):
1494
 
            self.to_file.write("%s%s\n" % (indent, line))
1495
 
 
1496
 
    def custom_properties(self, revision):
1497
 
        """Format the custom properties returned by each registered handler.
1498
 
 
1499
 
        If a registered handler raises an error it is propagated.
1500
 
 
1501
 
        :return: a list of formatted lines (excluding trailing newlines)
1502
 
        """
1503
 
        lines = self._foreign_info_properties(revision)
1504
 
        for key, handler in properties_handler_registry.iteritems():
1505
 
            lines.extend(self._format_properties(handler(revision)))
1506
 
        return lines
1507
 
 
1508
 
    def _foreign_info_properties(self, rev):
1509
 
        """Custom log displayer for foreign revision identifiers.
1510
 
 
1511
 
        :param rev: Revision object.
1512
 
        """
1513
 
        # Revision comes directly from a foreign repository
1514
 
        if isinstance(rev, foreign.ForeignRevision):
1515
 
            return self._format_properties(
1516
 
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
1517
 
 
1518
 
        # Imported foreign revision revision ids always contain :
1519
 
        if not ":" in rev.revision_id:
1520
 
            return []
1521
 
 
1522
 
        # Revision was once imported from a foreign repository
1523
 
        try:
1524
 
            foreign_revid, mapping = \
1525
 
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
1526
 
        except errors.InvalidRevisionId:
1527
 
            return []
1528
 
 
1529
 
        return self._format_properties(
1530
 
            mapping.vcs.show_foreign_revid(foreign_revid))
1531
 
 
1532
 
    def _format_properties(self, properties):
1533
 
        lines = []
1534
 
        for key, value in properties.items():
1535
 
            lines.append(key + ': ' + value)
1536
 
        return lines
1537
 
 
1538
 
    def show_diff(self, to_file, diff, indent):
1539
 
        for l in diff.rstrip().split('\n'):
1540
 
            to_file.write(indent + '%s\n' % (l,))
1541
 
 
1542
 
 
1543
 
# Separator between revisions in long format
1544
 
_LONG_SEP = '-' * 60
1545
 
 
1546
 
 
 
325
        return re.sub('<.*@.*>', '', rev.committer).strip(' ')
 
326
    
 
327
    
1547
328
class LongLogFormatter(LogFormatter):
1548
 
 
1549
 
    supports_merge_revisions = True
1550
 
    preferred_levels = 1
1551
 
    supports_delta = True
1552
 
    supports_tags = True
1553
 
    supports_diff = True
1554
 
 
1555
 
    def __init__(self, *args, **kwargs):
1556
 
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1557
 
        if self.show_timezone == 'original':
1558
 
            self.date_string = self._date_string_original_timezone
1559
 
        else:
1560
 
            self.date_string = self._date_string_with_timezone
1561
 
 
1562
 
    def _date_string_with_timezone(self, rev):
1563
 
        return format_date(rev.timestamp, rev.timezone or 0,
1564
 
                           self.show_timezone)
1565
 
 
1566
 
    def _date_string_original_timezone(self, rev):
1567
 
        return format_date_with_offset_in_original_timezone(rev.timestamp,
1568
 
            rev.timezone or 0)
1569
 
 
1570
 
    def log_revision(self, revision):
1571
 
        """Log a revision, either merged or not."""
1572
 
        indent = '    ' * revision.merge_depth
1573
 
        lines = [_LONG_SEP]
1574
 
        if revision.revno is not None:
1575
 
            lines.append('revno: %s%s' % (revision.revno,
1576
 
                self.merge_marker(revision)))
1577
 
        if revision.tags:
1578
 
            lines.append('tags: %s' % (', '.join(revision.tags)))
1579
 
        if self.show_ids or revision.revno is None:
1580
 
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
 
329
    def show(self, revno, rev, delta):
 
330
        return self._show_helper(revno=revno, rev=rev, delta=delta)
 
331
 
 
332
    def show_merge(self, rev, merge_depth):
 
333
        return self._show_helper(rev=rev, indent='    '*merge_depth, merged=True, delta=None)
 
334
 
 
335
    def _show_helper(self, rev=None, revno=None, indent='', merged=False, delta=None):
 
336
        """Show a revision, either merged or not."""
 
337
        from bzrlib.osutils import format_date
 
338
        to_file = self.to_file
 
339
        print >>to_file,  indent+'-' * 60
 
340
        if revno is not None:
 
341
            print >>to_file,  'revno:', revno
 
342
        if merged:
 
343
            print >>to_file,  indent+'merged:', rev.revision_id
 
344
        elif self.show_ids:
 
345
            print >>to_file,  indent+'revision-id:', rev.revision_id
1581
346
        if self.show_ids:
1582
 
            for parent_id in revision.rev.parent_ids:
1583
 
                lines.append('parent: %s' % (parent_id,))
1584
 
        lines.extend(self.custom_properties(revision.rev))
1585
 
 
1586
 
        committer = revision.rev.committer
1587
 
        authors = self.authors(revision.rev, 'all')
1588
 
        if authors != [committer]:
1589
 
            lines.append('author: %s' % (", ".join(authors),))
1590
 
        lines.append('committer: %s' % (committer,))
1591
 
 
1592
 
        branch_nick = revision.rev.properties.get('branch-nick', None)
1593
 
        if branch_nick is not None:
1594
 
            lines.append('branch nick: %s' % (branch_nick,))
1595
 
 
1596
 
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1597
 
 
1598
 
        lines.append('message:')
1599
 
        if not revision.rev.message:
1600
 
            lines.append('  (no message)')
 
347
            for parent_id in rev.parent_ids:
 
348
                print >>to_file, indent+'parent:', parent_id
 
349
        print >>to_file,  indent+'committer:', rev.committer
 
350
        try:
 
351
            print >>to_file, indent+'branch nick: %s' % \
 
352
                rev.properties['branch-nick']
 
353
        except KeyError:
 
354
            pass
 
355
        date_str = format_date(rev.timestamp,
 
356
                               rev.timezone or 0,
 
357
                               self.show_timezone)
 
358
        print >>to_file,  indent+'timestamp: %s' % date_str
 
359
 
 
360
        print >>to_file,  indent+'message:'
 
361
        if not rev.message:
 
362
            print >>to_file,  indent+'  (no message)'
1601
363
        else:
1602
 
            message = revision.rev.message.rstrip('\r\n')
 
364
            message = rev.message.rstrip('\r\n')
1603
365
            for l in message.split('\n'):
1604
 
                lines.append('  %s' % (l,))
1605
 
 
1606
 
        # Dump the output, appending the delta and diff if requested
1607
 
        to_file = self.to_file
1608
 
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
1609
 
        if revision.delta is not None:
1610
 
            # Use the standard status output to display changes
1611
 
            from bzrlib.delta import report_delta
1612
 
            report_delta(to_file, revision.delta, short_status=False, 
1613
 
                         show_ids=self.show_ids, indent=indent)
1614
 
        if revision.diff is not None:
1615
 
            to_file.write(indent + 'diff:\n')
1616
 
            to_file.flush()
1617
 
            # Note: we explicitly don't indent the diff (relative to the
1618
 
            # revision information) so that the output can be fed to patch -p0
1619
 
            self.show_diff(self.to_exact_file, revision.diff, indent)
1620
 
            self.to_exact_file.flush()
1621
 
 
1622
 
    def get_advice_separator(self):
1623
 
        """Get the text separating the log from the closing advice."""
1624
 
        return '-' * 60 + '\n'
 
366
                print >>to_file,  indent+'  ' + l
 
367
        if delta is not None:
 
368
            delta.show(to_file, self.show_ids)
1625
369
 
1626
370
 
1627
371
class ShortLogFormatter(LogFormatter):
1628
 
 
1629
 
    supports_merge_revisions = True
1630
 
    preferred_levels = 1
1631
 
    supports_delta = True
1632
 
    supports_tags = True
1633
 
    supports_diff = True
1634
 
 
1635
 
    def __init__(self, *args, **kwargs):
1636
 
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
1637
 
        self.revno_width_by_depth = {}
1638
 
 
1639
 
    def log_revision(self, revision):
1640
 
        # We need two indents: one per depth and one for the information
1641
 
        # relative to that indent. Most mainline revnos are 5 chars or
1642
 
        # less while dotted revnos are typically 11 chars or less. Once
1643
 
        # calculated, we need to remember the offset for a given depth
1644
 
        # as we might be starting from a dotted revno in the first column
1645
 
        # and we want subsequent mainline revisions to line up.
1646
 
        depth = revision.merge_depth
1647
 
        indent = '    ' * depth
1648
 
        revno_width = self.revno_width_by_depth.get(depth)
1649
 
        if revno_width is None:
1650
 
            if revision.revno is None or revision.revno.find('.') == -1:
1651
 
                # mainline revno, e.g. 12345
1652
 
                revno_width = 5
1653
 
            else:
1654
 
                # dotted revno, e.g. 12345.10.55
1655
 
                revno_width = 11
1656
 
            self.revno_width_by_depth[depth] = revno_width
1657
 
        offset = ' ' * (revno_width + 1)
 
372
    def show(self, revno, rev, delta):
 
373
        from bzrlib.osutils import format_date
1658
374
 
1659
375
        to_file = self.to_file
1660
 
        tags = ''
1661
 
        if revision.tags:
1662
 
            tags = ' {%s}' % (', '.join(revision.tags))
1663
 
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1664
 
                revision.revno or "", self.short_author(revision.rev),
1665
 
                format_date(revision.rev.timestamp,
1666
 
                            revision.rev.timezone or 0,
 
376
        date_str = format_date(rev.timestamp, rev.timezone or 0,
 
377
                            self.show_timezone)
 
378
        print >>to_file, "%5d %s\t%s" % (revno, self.short_committer(rev),
 
379
                format_date(rev.timestamp, rev.timezone or 0,
1667
380
                            self.show_timezone, date_fmt="%Y-%m-%d",
1668
 
                            show_offset=False),
1669
 
                tags, self.merge_marker(revision)))
1670
 
        self.show_properties(revision.rev, indent+offset)
1671
 
        if self.show_ids or revision.revno is None:
1672
 
            to_file.write(indent + offset + 'revision-id:%s\n'
1673
 
                          % (revision.rev.revision_id,))
1674
 
        if not revision.rev.message:
1675
 
            to_file.write(indent + offset + '(no message)\n')
 
381
                           show_offset=False))
 
382
        if self.show_ids:
 
383
            print >>to_file,  '      revision-id:', rev.revision_id
 
384
        if not rev.message:
 
385
            print >>to_file,  '      (no message)'
1676
386
        else:
1677
 
            message = revision.rev.message.rstrip('\r\n')
 
387
            message = rev.message.rstrip('\r\n')
1678
388
            for l in message.split('\n'):
1679
 
                to_file.write(indent + offset + '%s\n' % (l,))
 
389
                print >>to_file,  '      ' + l
1680
390
 
1681
 
        if revision.delta is not None:
1682
 
            # Use the standard status output to display changes
1683
 
            from bzrlib.delta import report_delta
1684
 
            report_delta(to_file, revision.delta, 
1685
 
                         short_status=self.delta_format==1, 
1686
 
                         show_ids=self.show_ids, indent=indent + offset)
1687
 
        if revision.diff is not None:
1688
 
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1689
 
        to_file.write('\n')
 
391
        # TODO: Why not show the modified files in a shorter form as
 
392
        # well? rewrap them single lines of appropriate length
 
393
        if delta is not None:
 
394
            delta.show(to_file, self.show_ids)
 
395
        print >>to_file, ''
1690
396
 
1691
397
 
1692
398
class LineLogFormatter(LogFormatter):
1693
 
 
1694
 
    supports_merge_revisions = True
1695
 
    preferred_levels = 1
1696
 
    supports_tags = True
1697
 
 
1698
 
    def __init__(self, *args, **kwargs):
1699
 
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1700
 
        width = terminal_width()
1701
 
        if width is not None:
1702
 
            # we need one extra space for terminals that wrap on last char
1703
 
            width = width - 1
1704
 
        self._max_chars = width
1705
 
 
1706
399
    def truncate(self, str, max_len):
1707
 
        if max_len is None or len(str) <= max_len:
 
400
        if len(str) <= max_len:
1708
401
            return str
1709
 
        return str[:max_len-3] + '...'
 
402
        return str[:max_len-3]+'...'
1710
403
 
1711
404
    def date_string(self, rev):
1712
 
        return format_date(rev.timestamp, rev.timezone or 0,
 
405
        from bzrlib.osutils import format_date
 
406
        return format_date(rev.timestamp, rev.timezone or 0, 
1713
407
                           self.show_timezone, date_fmt="%Y-%m-%d",
1714
408
                           show_offset=False)
1715
409
 
1719
413
        else:
1720
414
            return rev.message
1721
415
 
1722
 
    def log_revision(self, revision):
1723
 
        indent = '  ' * revision.merge_depth
1724
 
        self.to_file.write(self.log_string(revision.revno, revision.rev,
1725
 
            self._max_chars, revision.tags, indent))
1726
 
        self.to_file.write('\n')
 
416
    def show(self, revno, rev, delta):
 
417
        from bzrlib.osutils import terminal_width
 
418
        print >> self.to_file, self.log_string(revno, rev, terminal_width()-1)
1727
419
 
1728
 
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
 
420
    def log_string(self, revno, rev, max_chars):
1729
421
        """Format log info into one string. Truncate tail of string
1730
 
        :param  revno:      revision number or None.
 
422
        :param  revno:      revision number (int) or None.
1731
423
                            Revision numbers counts from 1.
1732
 
        :param  rev:        revision object
 
424
        :param  rev:        revision info object
1733
425
        :param  max_chars:  maximum length of resulting string
1734
 
        :param  tags:       list of tags or None
1735
 
        :param  prefix:     string to prefix each line
1736
426
        :return:            formatted truncated string
1737
427
        """
1738
428
        out = []
1739
429
        if revno:
1740
430
            # show revno only when is not None
1741
 
            out.append("%s:" % revno)
1742
 
        out.append(self.truncate(self.short_author(rev), 20))
 
431
            out.append("%d:" % revno)
 
432
        out.append(self.truncate(self.short_committer(rev), 20))
1743
433
        out.append(self.date_string(rev))
1744
 
        if len(rev.parent_ids) > 1:
1745
 
            out.append('[merge]')
1746
 
        if tags:
1747
 
            tag_str = '{%s}' % (', '.join(tags))
1748
 
            out.append(tag_str)
1749
434
        out.append(rev.get_summary())
1750
 
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1751
 
 
1752
 
 
1753
 
class GnuChangelogLogFormatter(LogFormatter):
1754
 
 
1755
 
    supports_merge_revisions = True
1756
 
    supports_delta = True
1757
 
 
1758
 
    def log_revision(self, revision):
1759
 
        """Log a revision, either merged or not."""
1760
 
        to_file = self.to_file
1761
 
 
1762
 
        date_str = format_date(revision.rev.timestamp,
1763
 
                               revision.rev.timezone or 0,
1764
 
                               self.show_timezone,
1765
 
                               date_fmt='%Y-%m-%d',
1766
 
                               show_offset=False)
1767
 
        committer_str = self.authors(revision.rev, 'first', sep=', ')
1768
 
        committer_str = committer_str.replace(' <', '  <')
1769
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1770
 
 
1771
 
        if revision.delta is not None and revision.delta.has_changed():
1772
 
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1773
 
                path, = c[:1]
1774
 
                to_file.write('\t* %s:\n' % (path,))
1775
 
            for c in revision.delta.renamed:
1776
 
                oldpath,newpath = c[:2]
1777
 
                # For renamed files, show both the old and the new path
1778
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
1779
 
            to_file.write('\n')
1780
 
 
1781
 
        if not revision.rev.message:
1782
 
            to_file.write('\tNo commit message\n')
1783
 
        else:
1784
 
            message = revision.rev.message.rstrip('\r\n')
1785
 
            for l in message.split('\n'):
1786
 
                to_file.write('\t%s\n' % (l.lstrip(),))
1787
 
            to_file.write('\n')
 
435
        return self.truncate(" ".join(out).rstrip('\n'), max_chars)
1788
436
 
1789
437
 
1790
438
def line_log(rev, max_chars):
1791
439
    lf = LineLogFormatter(None)
1792
440
    return lf.log_string(None, rev, max_chars)
1793
441
 
1794
 
 
1795
 
class LogFormatterRegistry(registry.Registry):
1796
 
    """Registry for log formatters"""
1797
 
 
1798
 
    def make_formatter(self, name, *args, **kwargs):
1799
 
        """Construct a formatter from arguments.
1800
 
 
1801
 
        :param name: Name of the formatter to construct.  'short', 'long' and
1802
 
            'line' are built-in.
1803
 
        """
1804
 
        return self.get(name)(*args, **kwargs)
1805
 
 
1806
 
    def get_default(self, branch):
1807
 
        return self.get(branch.get_config().log_format())
1808
 
 
1809
 
 
1810
 
log_formatter_registry = LogFormatterRegistry()
1811
 
 
1812
 
 
1813
 
log_formatter_registry.register('short', ShortLogFormatter,
1814
 
                                'Moderately short log format')
1815
 
log_formatter_registry.register('long', LongLogFormatter,
1816
 
                                'Detailed log format')
1817
 
log_formatter_registry.register('line', LineLogFormatter,
1818
 
                                'Log format with one line per revision')
1819
 
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1820
 
                                'Format used by GNU ChangeLog files')
1821
 
 
 
442
FORMATTERS = {
 
443
              'long': LongLogFormatter,
 
444
              'short': ShortLogFormatter,
 
445
              'line': LineLogFormatter,
 
446
              }
1822
447
 
1823
448
def register_formatter(name, formatter):
1824
 
    log_formatter_registry.register(name, formatter)
1825
 
 
 
449
    FORMATTERS[name] = formatter
1826
450
 
1827
451
def log_formatter(name, *args, **kwargs):
1828
452
    """Construct a formatter from arguments.
1830
454
    name -- Name of the formatter to construct; currently 'long', 'short' and
1831
455
        'line' are supported.
1832
456
    """
 
457
    from bzrlib.errors import BzrCommandError
1833
458
    try:
1834
 
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
 
459
        return FORMATTERS[name](*args, **kwargs)
1835
460
    except KeyError:
1836
 
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
1837
 
 
1838
 
 
1839
 
def author_list_all(rev):
1840
 
    return rev.get_apparent_authors()[:]
1841
 
 
1842
 
 
1843
 
def author_list_first(rev):
1844
 
    lst = rev.get_apparent_authors()
1845
 
    try:
1846
 
        return [lst[0]]
1847
 
    except IndexError:
1848
 
        return []
1849
 
 
1850
 
 
1851
 
def author_list_committer(rev):
1852
 
    return [rev.committer]
1853
 
 
1854
 
 
1855
 
author_list_registry = registry.Registry()
1856
 
 
1857
 
author_list_registry.register('all', author_list_all,
1858
 
                              'All authors')
1859
 
 
1860
 
author_list_registry.register('first', author_list_first,
1861
 
                              'The first author')
1862
 
 
1863
 
author_list_registry.register('committer', author_list_committer,
1864
 
                              'The committer')
1865
 
 
 
461
        raise BzrCommandError("unknown log formatter: %r" % name)
1866
462
 
1867
463
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
1868
464
    # deprecated; for compatibility
1869
465
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
1870
466
    lf.show(revno, rev, delta)
1871
467
 
1872
 
 
1873
 
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
1874
 
                           log_format='long'):
 
468
def show_changed_revisions(branch, old_rh, new_rh, to_file=None, log_format='long'):
1875
469
    """Show the change in revision history comparing the old revision history to the new one.
1876
470
 
1877
471
    :param branch: The branch where the revisions exist
1880
474
    :param to_file: A file to write the results to. If None, stdout will be used
1881
475
    """
1882
476
    if to_file is None:
1883
 
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
1884
 
            errors='replace')
 
477
        import sys
 
478
        import codecs
 
479
        import bzrlib
 
480
        to_file = codecs.getwriter(bzrlib.user_encoding)(sys.stdout, errors='replace')
1885
481
    lf = log_formatter(log_format,
1886
482
                       show_ids=False,
1887
483
                       to_file=to_file,
1909
505
        to_file.write('\nRemoved Revisions:\n')
1910
506
        for i in range(base_idx, len(old_rh)):
1911
507
            rev = branch.repository.get_revision(old_rh[i])
1912
 
            lr = LogRevision(rev, i+1, 0, None)
1913
 
            lf.log_revision(lr)
 
508
            lf.show(i+1, rev, None)
1914
509
        to_file.write('*'*60)
1915
510
        to_file.write('\n\n')
1916
511
    if base_idx < len(new_rh):
1918
513
        show_log(branch,
1919
514
                 lf,
1920
515
                 None,
1921
 
                 verbose=False,
 
516
                 verbose=True,
1922
517
                 direction='forward',
1923
518
                 start_revision=base_idx+1,
1924
519
                 end_revision=len(new_rh),
1925
520
                 search=None)
1926
521
 
1927
 
 
1928
 
def get_history_change(old_revision_id, new_revision_id, repository):
1929
 
    """Calculate the uncommon lefthand history between two revisions.
1930
 
 
1931
 
    :param old_revision_id: The original revision id.
1932
 
    :param new_revision_id: The new revision id.
1933
 
    :param repository: The repository to use for the calculation.
1934
 
 
1935
 
    return old_history, new_history
1936
 
    """
1937
 
    old_history = []
1938
 
    old_revisions = set()
1939
 
    new_history = []
1940
 
    new_revisions = set()
1941
 
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
1942
 
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
1943
 
    stop_revision = None
1944
 
    do_old = True
1945
 
    do_new = True
1946
 
    while do_new or do_old:
1947
 
        if do_new:
1948
 
            try:
1949
 
                new_revision = new_iter.next()
1950
 
            except StopIteration:
1951
 
                do_new = False
1952
 
            else:
1953
 
                new_history.append(new_revision)
1954
 
                new_revisions.add(new_revision)
1955
 
                if new_revision in old_revisions:
1956
 
                    stop_revision = new_revision
1957
 
                    break
1958
 
        if do_old:
1959
 
            try:
1960
 
                old_revision = old_iter.next()
1961
 
            except StopIteration:
1962
 
                do_old = False
1963
 
            else:
1964
 
                old_history.append(old_revision)
1965
 
                old_revisions.add(old_revision)
1966
 
                if old_revision in new_revisions:
1967
 
                    stop_revision = old_revision
1968
 
                    break
1969
 
    new_history.reverse()
1970
 
    old_history.reverse()
1971
 
    if stop_revision is not None:
1972
 
        new_history = new_history[new_history.index(stop_revision) + 1:]
1973
 
        old_history = old_history[old_history.index(stop_revision) + 1:]
1974
 
    return old_history, new_history
1975
 
 
1976
 
 
1977
 
def show_branch_change(branch, output, old_revno, old_revision_id):
1978
 
    """Show the changes made to a branch.
1979
 
 
1980
 
    :param branch: The branch to show changes about.
1981
 
    :param output: A file-like object to write changes to.
1982
 
    :param old_revno: The revno of the old tip.
1983
 
    :param old_revision_id: The revision_id of the old tip.
1984
 
    """
1985
 
    new_revno, new_revision_id = branch.last_revision_info()
1986
 
    old_history, new_history = get_history_change(old_revision_id,
1987
 
                                                  new_revision_id,
1988
 
                                                  branch.repository)
1989
 
    if old_history == [] and new_history == []:
1990
 
        output.write('Nothing seems to have changed\n')
1991
 
        return
1992
 
 
1993
 
    log_format = log_formatter_registry.get_default(branch)
1994
 
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
1995
 
    if old_history != []:
1996
 
        output.write('*'*60)
1997
 
        output.write('\nRemoved Revisions:\n')
1998
 
        show_flat_log(branch.repository, old_history, old_revno, lf)
1999
 
        output.write('*'*60)
2000
 
        output.write('\n\n')
2001
 
    if new_history != []:
2002
 
        output.write('Added Revisions:\n')
2003
 
        start_revno = new_revno - len(new_history) + 1
2004
 
        show_log(branch, lf, None, verbose=False, direction='forward',
2005
 
                 start_revision=start_revno,)
2006
 
 
2007
 
 
2008
 
def show_flat_log(repository, history, last_revno, lf):
2009
 
    """Show a simple log of the specified history.
2010
 
 
2011
 
    :param repository: The repository to retrieve revisions from.
2012
 
    :param history: A list of revision_ids indicating the lefthand history.
2013
 
    :param last_revno: The revno of the last revision_id in the history.
2014
 
    :param lf: The log formatter to use.
2015
 
    """
2016
 
    start_revno = last_revno - len(history) + 1
2017
 
    revisions = repository.get_revisions(history)
2018
 
    for i, rev in enumerate(revisions):
2019
 
        lr = LogRevision(rev, i + last_revno, 0, None)
2020
 
        lf.log_revision(lr)
2021
 
 
2022
 
 
2023
 
def _get_info_for_log_files(revisionspec_list, file_list, add_cleanup):
2024
 
    """Find file-ids and kinds given a list of files and a revision range.
2025
 
 
2026
 
    We search for files at the end of the range. If not found there,
2027
 
    we try the start of the range.
2028
 
 
2029
 
    :param revisionspec_list: revision range as parsed on the command line
2030
 
    :param file_list: the list of paths given on the command line;
2031
 
      the first of these can be a branch location or a file path,
2032
 
      the remainder must be file paths
2033
 
    :param add_cleanup: When the branch returned is read locked,
2034
 
      an unlock call will be queued to the cleanup.
2035
 
    :return: (branch, info_list, start_rev_info, end_rev_info) where
2036
 
      info_list is a list of (relative_path, file_id, kind) tuples where
2037
 
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
2038
 
      branch will be read-locked.
2039
 
    """
2040
 
    from builtins import _get_revision_range
2041
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
2042
 
    add_cleanup(b.lock_read().unlock)
2043
 
    # XXX: It's damn messy converting a list of paths to relative paths when
2044
 
    # those paths might be deleted ones, they might be on a case-insensitive
2045
 
    # filesystem and/or they might be in silly locations (like another branch).
2046
 
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
2047
 
    # file2 implicitly in the same dir as file1 or should its directory be
2048
 
    # taken from the current tree somehow?) For now, this solves the common
2049
 
    # case of running log in a nested directory, assuming paths beyond the
2050
 
    # first one haven't been deleted ...
2051
 
    if tree:
2052
 
        relpaths = [path] + tree.safe_relpath_files(file_list[1:])
2053
 
    else:
2054
 
        relpaths = [path] + file_list[1:]
2055
 
    info_list = []
2056
 
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
2057
 
        "log")
2058
 
    if relpaths in ([], [u'']):
2059
 
        return b, [], start_rev_info, end_rev_info
2060
 
    if start_rev_info is None and end_rev_info is None:
2061
 
        if tree is None:
2062
 
            tree = b.basis_tree()
2063
 
        tree1 = None
2064
 
        for fp in relpaths:
2065
 
            file_id = tree.path2id(fp)
2066
 
            kind = _get_kind_for_file_id(tree, file_id)
2067
 
            if file_id is None:
2068
 
                # go back to when time began
2069
 
                if tree1 is None:
2070
 
                    try:
2071
 
                        rev1 = b.get_rev_id(1)
2072
 
                    except errors.NoSuchRevision:
2073
 
                        # No history at all
2074
 
                        file_id = None
2075
 
                        kind = None
2076
 
                    else:
2077
 
                        tree1 = b.repository.revision_tree(rev1)
2078
 
                if tree1:
2079
 
                    file_id = tree1.path2id(fp)
2080
 
                    kind = _get_kind_for_file_id(tree1, file_id)
2081
 
            info_list.append((fp, file_id, kind))
2082
 
 
2083
 
    elif start_rev_info == end_rev_info:
2084
 
        # One revision given - file must exist in it
2085
 
        tree = b.repository.revision_tree(end_rev_info.rev_id)
2086
 
        for fp in relpaths:
2087
 
            file_id = tree.path2id(fp)
2088
 
            kind = _get_kind_for_file_id(tree, file_id)
2089
 
            info_list.append((fp, file_id, kind))
2090
 
 
2091
 
    else:
2092
 
        # Revision range given. Get the file-id from the end tree.
2093
 
        # If that fails, try the start tree.
2094
 
        rev_id = end_rev_info.rev_id
2095
 
        if rev_id is None:
2096
 
            tree = b.basis_tree()
2097
 
        else:
2098
 
            tree = b.repository.revision_tree(rev_id)
2099
 
        tree1 = None
2100
 
        for fp in relpaths:
2101
 
            file_id = tree.path2id(fp)
2102
 
            kind = _get_kind_for_file_id(tree, file_id)
2103
 
            if file_id is None:
2104
 
                if tree1 is None:
2105
 
                    rev_id = start_rev_info.rev_id
2106
 
                    if rev_id is None:
2107
 
                        rev1 = b.get_rev_id(1)
2108
 
                        tree1 = b.repository.revision_tree(rev1)
2109
 
                    else:
2110
 
                        tree1 = b.repository.revision_tree(rev_id)
2111
 
                file_id = tree1.path2id(fp)
2112
 
                kind = _get_kind_for_file_id(tree1, file_id)
2113
 
            info_list.append((fp, file_id, kind))
2114
 
    return b, info_list, start_rev_info, end_rev_info
2115
 
 
2116
 
 
2117
 
def _get_kind_for_file_id(tree, file_id):
2118
 
    """Return the kind of a file-id or None if it doesn't exist."""
2119
 
    if file_id is not None:
2120
 
        return tree.kind(file_id)
2121
 
    else:
2122
 
        return None
2123
 
 
2124
 
 
2125
 
properties_handler_registry = registry.Registry()
2126
 
 
2127
 
# Use the properties handlers to print out bug information if available
2128
 
def _bugs_properties_handler(revision):
2129
 
    if revision.properties.has_key('bugs'):
2130
 
        bug_lines = revision.properties['bugs'].split('\n')
2131
 
        bug_rows = [line.split(' ', 1) for line in bug_lines]
2132
 
        fixed_bug_urls = [row[0] for row in bug_rows if
2133
 
                          len(row) > 1 and row[1] == 'fixed']
2134
 
 
2135
 
        if fixed_bug_urls:
2136
 
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
2137
 
    return {}
2138
 
 
2139
 
properties_handler_registry.register('bugs_properties_handler',
2140
 
                                     _bugs_properties_handler)
2141
 
 
2142
 
 
2143
 
# adapters which revision ids to log are filtered. When log is called, the
2144
 
# log_rev_iterator is adapted through each of these factory methods.
2145
 
# Plugins are welcome to mutate this list in any way they like - as long
2146
 
# as the overall behaviour is preserved. At this point there is no extensible
2147
 
# mechanism for getting parameters to each factory method, and until there is
2148
 
# this won't be considered a stable api.
2149
 
log_adapters = [
2150
 
    # core log logic
2151
 
    _make_batch_filter,
2152
 
    # read revision objects
2153
 
    _make_revision_objects,
2154
 
    # filter on log messages
2155
 
    _make_search_filter,
2156
 
    # generate deltas for things we will show
2157
 
    _make_delta_filter
2158
 
    ]