~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Alexander Belchenko
  • Date: 2006-07-30 16:43:12 UTC
  • mto: (1711.2.111 jam-integration)
  • mto: This revision was merged to the branch mainline in revision 1906.
  • Revision ID: bialix@ukr.net-20060730164312-b025fd3ff0cee59e
rename  gpl.txt => COPYING.txt

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007, 2009 Canonical Ltd
 
1
# Copyright (C) 2005 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
 
18
18
 
42
42
 
43
43
In verbose mode we show a summary of what changed in each particular
44
44
revision.  Note that this is the delta for changes in that revision
45
 
relative to its left-most parent, not the delta relative to the last
 
45
relative to its mainline parent, not the delta relative to the last
46
46
logged revision.  So for example if you ask for a verbose log of
47
47
changes touching hello.c you will get a list of those revisions also
48
48
listing other things that were changed in the same revision, but not
49
49
all the changes since the previous revision that touched hello.c.
50
50
"""
51
51
 
52
 
import codecs
53
 
from cStringIO import StringIO
54
 
from itertools import (
55
 
    chain,
56
 
    izip,
57
 
    )
 
52
# TODO: option to show delta summaries for merged-in revisions
 
53
 
 
54
from itertools import izip
58
55
import re
59
 
import sys
60
 
from warnings import (
61
 
    warn,
62
 
    )
63
 
 
64
 
from bzrlib.lazy_import import lazy_import
65
 
lazy_import(globals(), """
66
 
 
67
 
from bzrlib import (
68
 
    bzrdir,
69
 
    config,
70
 
    diff,
71
 
    errors,
72
 
    foreign,
73
 
    repository as _mod_repository,
74
 
    revision as _mod_revision,
75
 
    revisionspec,
76
 
    trace,
77
 
    tsort,
78
 
    )
79
 
""")
80
 
 
81
 
from bzrlib import (
82
 
    registry,
83
 
    )
84
 
from bzrlib.osutils import (
85
 
    format_date,
86
 
    format_date_with_offset_in_original_timezone,
87
 
    get_terminal_encoding,
88
 
    re_compile_checked,
89
 
    terminal_width,
90
 
    )
91
 
from bzrlib.symbol_versioning import (
92
 
    deprecated_function,
93
 
    deprecated_in,
94
 
    )
 
56
 
 
57
import bzrlib.errors as errors
 
58
from bzrlib.trace import mutter
 
59
from bzrlib.tsort import merge_sort
95
60
 
96
61
 
97
62
def find_touching_revisions(branch, file_id):
138
103
        revno += 1
139
104
 
140
105
 
 
106
 
141
107
def _enumerate_history(branch):
142
108
    rh = []
143
109
    revno = 1
154
120
             direction='reverse',
155
121
             start_revision=None,
156
122
             end_revision=None,
157
 
             search=None,
158
 
             limit=None,
159
 
             show_diff=False):
 
123
             search=None):
160
124
    """Write out human-readable log of commits to this branch.
161
125
 
162
 
    This function is being retained for backwards compatibility but
163
 
    should not be extended with new parameters. Use the new Logger class
164
 
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
165
 
    make_log_request_dict function.
166
 
 
167
 
    :param lf: The LogFormatter object showing the output.
168
 
 
169
 
    :param specific_fileid: If not None, list only the commits affecting the
170
 
        specified file, rather than all commits.
171
 
 
172
 
    :param verbose: If True show added/changed/deleted/renamed files.
173
 
 
174
 
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
175
 
        earliest to latest.
176
 
 
177
 
    :param start_revision: If not None, only show revisions >= start_revision
178
 
 
179
 
    :param end_revision: If not None, only show revisions <= end_revision
180
 
 
181
 
    :param search: If not None, only show revisions with matching commit
182
 
        messages
183
 
 
184
 
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
185
 
        if None or 0.
186
 
 
187
 
    :param show_diff: If True, output a diff after each revision.
188
 
    """
189
 
    # Convert old-style parameters to new-style parameters
190
 
    if specific_fileid is not None:
191
 
        file_ids = [specific_fileid]
192
 
    else:
193
 
        file_ids = None
194
 
    if verbose:
195
 
        if file_ids:
196
 
            delta_type = 'partial'
197
 
        else:
198
 
            delta_type = 'full'
199
 
    else:
200
 
        delta_type = None
201
 
    if show_diff:
202
 
        if file_ids:
203
 
            diff_type = 'partial'
204
 
        else:
205
 
            diff_type = 'full'
206
 
    else:
207
 
        diff_type = None
208
 
 
209
 
    # Build the request and execute it
210
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
211
 
        start_revision=start_revision, end_revision=end_revision,
212
 
        limit=limit, message_search=search,
213
 
        delta_type=delta_type, diff_type=diff_type)
214
 
    Logger(branch, rqst).show(lf)
215
 
 
216
 
 
217
 
# Note: This needs to be kept this in sync with the defaults in
218
 
# make_log_request_dict() below
219
 
_DEFAULT_REQUEST_PARAMS = {
220
 
    'direction': 'reverse',
221
 
    'levels': 1,
222
 
    'generate_tags': True,
223
 
    '_match_using_deltas': True,
224
 
    }
225
 
 
226
 
 
227
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
228
 
    start_revision=None, end_revision=None, limit=None,
229
 
    message_search=None, levels=1, generate_tags=True, delta_type=None,
230
 
    diff_type=None, _match_using_deltas=True):
231
 
    """Convenience function for making a logging request dictionary.
232
 
 
233
 
    Using this function may make code slightly safer by ensuring
234
 
    parameters have the correct names. It also provides a reference
235
 
    point for documenting the supported parameters.
236
 
 
237
 
    :param direction: 'reverse' (default) is latest to earliest;
238
 
      'forward' is earliest to latest.
239
 
 
240
 
    :param specific_fileids: If not None, only include revisions
241
 
      affecting the specified files, rather than all revisions.
242
 
 
243
 
    :param start_revision: If not None, only generate
244
 
      revisions >= start_revision
245
 
 
246
 
    :param end_revision: If not None, only generate
247
 
      revisions <= end_revision
248
 
 
249
 
    :param limit: If set, generate only 'limit' revisions, all revisions
250
 
      are shown if None or 0.
251
 
 
252
 
    :param message_search: If not None, only include revisions with
253
 
      matching commit messages
254
 
 
255
 
    :param levels: the number of levels of revisions to
256
 
      generate; 1 for just the mainline; 0 for all levels.
257
 
 
258
 
    :param generate_tags: If True, include tags for matched revisions.
259
 
 
260
 
    :param delta_type: Either 'full', 'partial' or None.
261
 
      'full' means generate the complete delta - adds/deletes/modifies/etc;
262
 
      'partial' means filter the delta using specific_fileids;
263
 
      None means do not generate any delta.
264
 
 
265
 
    :param diff_type: Either 'full', 'partial' or None.
266
 
      'full' means generate the complete diff - adds/deletes/modifies/etc;
267
 
      'partial' means filter the diff using specific_fileids;
268
 
      None means do not generate any diff.
269
 
 
270
 
    :param _match_using_deltas: a private parameter controlling the
271
 
      algorithm used for matching specific_fileids. This parameter
272
 
      may be removed in the future so bzrlib client code should NOT
273
 
      use it.
274
 
    """
275
 
    return {
276
 
        'direction': direction,
277
 
        'specific_fileids': specific_fileids,
278
 
        'start_revision': start_revision,
279
 
        'end_revision': end_revision,
280
 
        'limit': limit,
281
 
        'message_search': message_search,
282
 
        'levels': levels,
283
 
        'generate_tags': generate_tags,
284
 
        'delta_type': delta_type,
285
 
        'diff_type': diff_type,
286
 
        # Add 'private' attributes for features that may be deprecated
287
 
        '_match_using_deltas': _match_using_deltas,
288
 
    }
289
 
 
290
 
 
291
 
def _apply_log_request_defaults(rqst):
292
 
    """Apply default values to a request dictionary."""
293
 
    result = _DEFAULT_REQUEST_PARAMS
294
 
    if rqst:
295
 
        result.update(rqst)
296
 
    return result
297
 
 
298
 
 
299
 
class LogGenerator(object):
300
 
    """A generator of log revisions."""
301
 
 
302
 
    def iter_log_revisions(self):
303
 
        """Iterate over LogRevision objects.
304
 
 
305
 
        :return: An iterator yielding LogRevision objects.
306
 
        """
307
 
        raise NotImplementedError(self.iter_log_revisions)
308
 
 
309
 
 
310
 
class Logger(object):
311
 
    """An object that generates, formats and displays a log."""
312
 
 
313
 
    def __init__(self, branch, rqst):
314
 
        """Create a Logger.
315
 
 
316
 
        :param branch: the branch to log
317
 
        :param rqst: A dictionary specifying the query parameters.
318
 
          See make_log_request_dict() for supported values.
319
 
        """
320
 
        self.branch = branch
321
 
        self.rqst = _apply_log_request_defaults(rqst)
322
 
 
323
 
    def show(self, lf):
324
 
        """Display the log.
325
 
 
326
 
        :param lf: The LogFormatter object to send the output to.
327
 
        """
328
 
        if not isinstance(lf, LogFormatter):
329
 
            warn("not a LogFormatter instance: %r" % lf)
330
 
 
331
 
        self.branch.lock_read()
332
 
        try:
333
 
            if getattr(lf, 'begin_log', None):
334
 
                lf.begin_log()
335
 
            self._show_body(lf)
336
 
            if getattr(lf, 'end_log', None):
337
 
                lf.end_log()
338
 
        finally:
339
 
            self.branch.unlock()
340
 
 
341
 
    def _show_body(self, lf):
342
 
        """Show the main log output.
343
 
 
344
 
        Subclasses may wish to override this.
345
 
        """
346
 
        # Tweak the LogRequest based on what the LogFormatter can handle.
347
 
        # (There's no point generating stuff if the formatter can't display it.)
348
 
        rqst = self.rqst
349
 
        rqst['levels'] = lf.get_levels()
350
 
        if not getattr(lf, 'supports_tags', False):
351
 
            rqst['generate_tags'] = False
352
 
        if not getattr(lf, 'supports_delta', False):
353
 
            rqst['delta_type'] = None
354
 
        if not getattr(lf, 'supports_diff', False):
355
 
            rqst['diff_type'] = None
356
 
 
357
 
        # Find and print the interesting revisions
358
 
        generator = self._generator_factory(self.branch, rqst)
359
 
        for lr in generator.iter_log_revisions():
360
 
            lf.log_revision(lr)
361
 
        lf.show_advice()
362
 
 
363
 
    def _generator_factory(self, branch, rqst):
364
 
        """Make the LogGenerator object to use.
365
 
        
366
 
        Subclasses may wish to override this.
367
 
        """
368
 
        return _DefaultLogGenerator(branch, rqst)
369
 
 
370
 
 
371
 
class _StartNotLinearAncestor(Exception):
372
 
    """Raised when a start revision is not found walking left-hand history."""
373
 
 
374
 
 
375
 
class _DefaultLogGenerator(LogGenerator):
376
 
    """The default generator of log revisions."""
377
 
 
378
 
    def __init__(self, branch, rqst):
379
 
        self.branch = branch
380
 
        self.rqst = rqst
381
 
        if rqst.get('generate_tags') and branch.supports_tags():
382
 
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
383
 
        else:
384
 
            self.rev_tag_dict = {}
385
 
 
386
 
    def iter_log_revisions(self):
387
 
        """Iterate over LogRevision objects.
388
 
 
389
 
        :return: An iterator yielding LogRevision objects.
390
 
        """
391
 
        rqst = self.rqst
392
 
        levels = rqst.get('levels')
393
 
        limit = rqst.get('limit')
394
 
        diff_type = rqst.get('diff_type')
395
 
        log_count = 0
396
 
        revision_iterator = self._create_log_revision_iterator()
397
 
        for revs in revision_iterator:
398
 
            for (rev_id, revno, merge_depth), rev, delta in revs:
399
 
                # 0 levels means show everything; merge_depth counts from 0
400
 
                if levels != 0 and merge_depth >= levels:
401
 
                    continue
402
 
                if diff_type is None:
403
 
                    diff = None
404
 
                else:
405
 
                    diff = self._format_diff(rev, rev_id, diff_type)
406
 
                yield LogRevision(rev, revno, merge_depth, delta,
407
 
                    self.rev_tag_dict.get(rev_id), diff)
408
 
                if limit:
409
 
                    log_count += 1
410
 
                    if log_count >= limit:
411
 
                        return
412
 
 
413
 
    def _format_diff(self, rev, rev_id, diff_type):
414
 
        repo = self.branch.repository
415
 
        if len(rev.parent_ids) == 0:
416
 
            ancestor_id = _mod_revision.NULL_REVISION
417
 
        else:
418
 
            ancestor_id = rev.parent_ids[0]
419
 
        tree_1 = repo.revision_tree(ancestor_id)
420
 
        tree_2 = repo.revision_tree(rev_id)
421
 
        file_ids = self.rqst.get('specific_fileids')
422
 
        if diff_type == 'partial' and file_ids is not None:
423
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
424
 
        else:
425
 
            specific_files = None
426
 
        s = StringIO()
427
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
428
 
            new_label='')
429
 
        return s.getvalue()
430
 
 
431
 
    def _create_log_revision_iterator(self):
432
 
        """Create a revision iterator for log.
433
 
 
434
 
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
435
 
            delta).
436
 
        """
437
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
438
 
            self.branch, self.rqst.get('start_revision'),
439
 
            self.rqst.get('end_revision'))
440
 
        if self.rqst.get('_match_using_deltas'):
441
 
            return self._log_revision_iterator_using_delta_matching()
442
 
        else:
443
 
            # We're using the per-file-graph algorithm. This scales really
444
 
            # well but only makes sense if there is a single file and it's
445
 
            # not a directory
446
 
            file_count = len(self.rqst.get('specific_fileids'))
447
 
            if file_count != 1:
448
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
449
 
                    "when logging %d files" % file_count)
450
 
            return self._log_revision_iterator_using_per_file_graph()
451
 
 
452
 
    def _log_revision_iterator_using_delta_matching(self):
453
 
        # Get the base revisions, filtering by the revision range
454
 
        rqst = self.rqst
455
 
        generate_merge_revisions = rqst.get('levels') != 1
456
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
457
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
458
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
459
 
            self.end_rev_id, rqst.get('direction'), generate_merge_revisions,
460
 
            delayed_graph_generation=delayed_graph_generation)
461
 
 
462
 
        # Apply the other filters
463
 
        return make_log_rev_iterator(self.branch, view_revisions,
464
 
            rqst.get('delta_type'), rqst.get('message_search'),
465
 
            file_ids=rqst.get('specific_fileids'),
466
 
            direction=rqst.get('direction'))
467
 
 
468
 
    def _log_revision_iterator_using_per_file_graph(self):
469
 
        # Get the base revisions, filtering by the revision range.
470
 
        # Note that we always generate the merge revisions because
471
 
        # filter_revisions_touching_file_id() requires them ...
472
 
        rqst = self.rqst
473
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
474
 
            self.end_rev_id, rqst.get('direction'), True)
475
 
        if not isinstance(view_revisions, list):
476
 
            view_revisions = list(view_revisions)
477
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
478
 
            rqst.get('specific_fileids')[0], view_revisions,
479
 
            include_merges=rqst.get('levels') != 1)
480
 
        return make_log_rev_iterator(self.branch, view_revisions,
481
 
            rqst.get('delta_type'), rqst.get('message_search'))
482
 
 
483
 
 
484
 
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
485
 
    generate_merge_revisions, delayed_graph_generation=False):
486
 
    """Calculate the revisions to view.
487
 
 
488
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
489
 
             a list of the same tuples.
490
 
    """
491
 
    br_revno, br_rev_id = branch.last_revision_info()
492
 
    if br_revno == 0:
493
 
        return []
494
 
 
495
 
    # If a single revision is requested, check we can handle it
496
 
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
497
 
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
498
 
    if generate_single_revision:
499
 
        return _generate_one_revision(branch, end_rev_id, br_rev_id, br_revno)
500
 
 
501
 
    # If we only want to see linear revisions, we can iterate ...
502
 
    if not generate_merge_revisions:
503
 
        return _generate_flat_revisions(branch, start_rev_id, end_rev_id,
504
 
            direction)
505
 
    else:
506
 
        return _generate_all_revisions(branch, start_rev_id, end_rev_id,
507
 
            direction, delayed_graph_generation)
508
 
 
509
 
 
510
 
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
511
 
    if rev_id == br_rev_id:
512
 
        # It's the tip
513
 
        return [(br_rev_id, br_revno, 0)]
514
 
    else:
515
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
516
 
        revno_str = '.'.join(str(n) for n in revno)
517
 
        return [(rev_id, revno_str, 0)]
518
 
 
519
 
 
520
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
521
 
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
522
 
    # If a start limit was given and it's not obviously an
523
 
    # ancestor of the end limit, check it before outputting anything
524
 
    if direction == 'forward' or (start_rev_id
525
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
526
 
        try:
527
 
            result = list(result)
528
 
        except _StartNotLinearAncestor:
529
 
            raise errors.BzrCommandError('Start revision not found in'
530
 
                ' left-hand history of end revision.')
531
 
    if direction == 'forward':
532
 
        result = reversed(result)
533
 
    return result
534
 
 
535
 
 
536
 
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
537
 
    delayed_graph_generation):
538
 
    # On large trees, generating the merge graph can take 30-60 seconds
539
 
    # so we delay doing it until a merge is detected, incrementally
540
 
    # returning initial (non-merge) revisions while we can.
541
 
    initial_revisions = []
542
 
    if delayed_graph_generation:
543
 
        try:
544
 
            for rev_id, revno, depth in \
545
 
                _linear_view_revisions(branch, start_rev_id, end_rev_id):
546
 
                if _has_merges(branch, rev_id):
547
 
                    end_rev_id = rev_id
548
 
                    break
549
 
                else:
550
 
                    initial_revisions.append((rev_id, revno, depth))
551
 
            else:
552
 
                # No merged revisions found
553
 
                if direction == 'reverse':
554
 
                    return initial_revisions
555
 
                elif direction == 'forward':
556
 
                    return reversed(initial_revisions)
557
 
                else:
558
 
                    raise ValueError('invalid direction %r' % direction)
559
 
        except _StartNotLinearAncestor:
560
 
            # A merge was never detected so the lower revision limit can't
561
 
            # be nested down somewhere
562
 
            raise errors.BzrCommandError('Start revision not found in'
563
 
                ' history of end revision.')
564
 
 
565
 
    # A log including nested merges is required. If the direction is reverse,
566
 
    # we rebase the initial merge depths so that the development line is
567
 
    # shown naturally, i.e. just like it is for linear logging. We can easily
568
 
    # make forward the exact opposite display, but showing the merge revisions
569
 
    # indented at the end seems slightly nicer in that case.
570
 
    view_revisions = chain(iter(initial_revisions),
571
 
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
572
 
        rebase_initial_depths=direction == 'reverse'))
573
 
    if direction == 'reverse':
574
 
        return view_revisions
575
 
    elif direction == 'forward':
576
 
        # Forward means oldest first, adjusting for depth.
577
 
        view_revisions = reverse_by_depth(list(view_revisions))
578
 
        return _rebase_merge_depth(view_revisions)
579
 
    else:
580
 
        raise ValueError('invalid direction %r' % direction)
581
 
 
582
 
 
583
 
def _has_merges(branch, rev_id):
584
 
    """Does a revision have multiple parents or not?"""
585
 
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
586
 
    return len(parents) > 1
587
 
 
588
 
 
589
 
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
590
 
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
591
 
    if start_rev_id and end_rev_id:
592
 
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
593
 
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
594
 
        if len(start_dotted) == 1 and len(end_dotted) == 1:
595
 
            # both on mainline
596
 
            return start_dotted[0] <= end_dotted[0]
597
 
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
598
 
            start_dotted[0:1] == end_dotted[0:1]):
599
 
            # both on same development line
600
 
            return start_dotted[2] <= end_dotted[2]
601
 
        else:
602
 
            # not obvious
603
 
            return False
604
 
    # if either start or end is not specified then we use either the first or
605
 
    # the last revision and *they* are obvious ancestors.
606
 
    return True
607
 
 
608
 
 
609
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
610
 
    """Calculate a sequence of revisions to view, newest to oldest.
611
 
 
612
 
    :param start_rev_id: the lower revision-id
613
 
    :param end_rev_id: the upper revision-id
614
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
615
 
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
616
 
      is not found walking the left-hand history
617
 
    """
618
 
    br_revno, br_rev_id = branch.last_revision_info()
619
 
    repo = branch.repository
620
 
    if start_rev_id is None and end_rev_id is None:
621
 
        cur_revno = br_revno
622
 
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
623
 
            yield revision_id, str(cur_revno), 0
624
 
            cur_revno -= 1
625
 
    else:
626
 
        if end_rev_id is None:
627
 
            end_rev_id = br_rev_id
628
 
        found_start = start_rev_id is None
629
 
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
630
 
            revno = branch.revision_id_to_dotted_revno(revision_id)
631
 
            revno_str = '.'.join(str(n) for n in revno)
632
 
            if not found_start and revision_id == start_rev_id:
633
 
                yield revision_id, revno_str, 0
634
 
                found_start = True
635
 
                break
636
 
            else:
637
 
                yield revision_id, revno_str, 0
638
 
        else:
639
 
            if not found_start:
640
 
                raise _StartNotLinearAncestor()
641
 
 
642
 
 
643
 
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
644
 
    rebase_initial_depths=True):
645
 
    """Calculate revisions to view including merges, newest to oldest.
646
 
 
647
 
    :param branch: the branch
648
 
    :param start_rev_id: the lower revision-id
649
 
    :param end_rev_id: the upper revision-id
650
 
    :param rebase_initial_depth: should depths be rebased until a mainline
651
 
      revision is found?
652
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
653
 
    """
654
 
    view_revisions = branch.iter_merge_sorted_revisions(
655
 
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
656
 
        stop_rule="with-merges")
657
 
    if not rebase_initial_depths:
658
 
        for (rev_id, merge_depth, revno, end_of_merge
659
 
             ) in view_revisions:
660
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
661
 
    else:
662
 
        # We're following a development line starting at a merged revision.
663
 
        # We need to adjust depths down by the initial depth until we find
664
 
        # a depth less than it. Then we use that depth as the adjustment.
665
 
        # If and when we reach the mainline, depth adjustment ends.
666
 
        depth_adjustment = None
667
 
        for (rev_id, merge_depth, revno, end_of_merge
668
 
             ) in view_revisions:
669
 
            if depth_adjustment is None:
670
 
                depth_adjustment = merge_depth
671
 
            if depth_adjustment:
672
 
                if merge_depth < depth_adjustment:
673
 
                    # From now on we reduce the depth adjustement, this can be
674
 
                    # surprising for users. The alternative requires two passes
675
 
                    # which breaks the fast display of the first revision
676
 
                    # though.
677
 
                    depth_adjustment = merge_depth
678
 
                merge_depth -= depth_adjustment
679
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
680
 
 
681
 
 
682
 
@deprecated_function(deprecated_in((2, 2, 0)))
683
 
def calculate_view_revisions(branch, start_revision, end_revision, direction,
684
 
        specific_fileid, generate_merge_revisions):
685
 
    """Calculate the revisions to view.
686
 
 
687
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
688
 
             a list of the same tuples.
689
 
    """
690
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
691
 
        end_revision)
692
 
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
693
 
        direction, generate_merge_revisions or specific_fileid))
 
126
    lf
 
127
        LogFormatter object to show the output.
 
128
 
 
129
    specific_fileid
 
130
        If true, list only the commits affecting the specified
 
131
        file, rather than all commits.
 
132
 
 
133
    verbose
 
134
        If true show added/changed/deleted/renamed files.
 
135
 
 
136
    direction
 
137
        'reverse' (default) is latest to earliest;
 
138
        'forward' is earliest to latest.
 
139
 
 
140
    start_revision
 
141
        If not None, only show revisions >= start_revision
 
142
 
 
143
    end_revision
 
144
        If not None, only show revisions <= end_revision
 
145
    """
 
146
    branch.lock_read()
 
147
    try:
 
148
        _show_log(branch, lf, specific_fileid, verbose, direction,
 
149
                  start_revision, end_revision, search)
 
150
    finally:
 
151
        branch.unlock()
 
152
    
 
153
def _show_log(branch,
 
154
             lf,
 
155
             specific_fileid=None,
 
156
             verbose=False,
 
157
             direction='reverse',
 
158
             start_revision=None,
 
159
             end_revision=None,
 
160
             search=None):
 
161
    """Worker function for show_log - see show_log."""
 
162
    from bzrlib.osutils import format_date
 
163
    from bzrlib.errors import BzrCheckError
 
164
    
 
165
    from warnings import warn
 
166
 
 
167
    if not isinstance(lf, LogFormatter):
 
168
        warn("not a LogFormatter instance: %r" % lf)
 
169
 
694
170
    if specific_fileid:
695
 
        view_revisions = _filter_revisions_touching_file_id(branch,
696
 
            specific_fileid, view_revisions,
697
 
            include_merges=generate_merge_revisions)
698
 
    return _rebase_merge_depth(view_revisions)
699
 
 
700
 
 
701
 
def _rebase_merge_depth(view_revisions):
702
 
    """Adjust depths upwards so the top level is 0."""
703
 
    # If either the first or last revision have a merge_depth of 0, we're done
704
 
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
705
 
        min_depth = min([d for r,n,d in view_revisions])
706
 
        if min_depth != 0:
707
 
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
708
 
    return view_revisions
709
 
 
710
 
 
711
 
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
712
 
        file_ids=None, direction='reverse'):
713
 
    """Create a revision iterator for log.
714
 
 
715
 
    :param branch: The branch being logged.
716
 
    :param view_revisions: The revisions being viewed.
717
 
    :param generate_delta: Whether to generate a delta for each revision.
718
 
      Permitted values are None, 'full' and 'partial'.
719
 
    :param search: A user text search string.
720
 
    :param file_ids: If non empty, only revisions matching one or more of
721
 
      the file-ids are to be kept.
722
 
    :param direction: the direction in which view_revisions is sorted
723
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
724
 
        delta).
725
 
    """
726
 
    # Convert view_revisions into (view, None, None) groups to fit with
727
 
    # the standard interface here.
728
 
    if type(view_revisions) == list:
729
 
        # A single batch conversion is faster than many incremental ones.
730
 
        # As we have all the data, do a batch conversion.
731
 
        nones = [None] * len(view_revisions)
732
 
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
733
 
    else:
734
 
        def _convert():
735
 
            for view in view_revisions:
736
 
                yield (view, None, None)
737
 
        log_rev_iterator = iter([_convert()])
738
 
    for adapter in log_adapters:
739
 
        # It would be nicer if log adapters were first class objects
740
 
        # with custom parameters. This will do for now. IGC 20090127
741
 
        if adapter == _make_delta_filter:
742
 
            log_rev_iterator = adapter(branch, generate_delta,
743
 
                search, log_rev_iterator, file_ids, direction)
744
 
        else:
745
 
            log_rev_iterator = adapter(branch, generate_delta,
746
 
                search, log_rev_iterator)
747
 
    return log_rev_iterator
748
 
 
749
 
 
750
 
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
751
 
    """Create a filtered iterator of log_rev_iterator matching on a regex.
752
 
 
753
 
    :param branch: The branch being logged.
754
 
    :param generate_delta: Whether to generate a delta for each revision.
755
 
    :param search: A user text search string.
756
 
    :param log_rev_iterator: An input iterator containing all revisions that
757
 
        could be displayed, in lists.
758
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
759
 
        delta).
760
 
    """
761
 
    if search is None:
762
 
        return log_rev_iterator
763
 
    searchRE = re_compile_checked(search, re.IGNORECASE,
764
 
            'log message filter')
765
 
    return _filter_message_re(searchRE, log_rev_iterator)
766
 
 
767
 
 
768
 
def _filter_message_re(searchRE, log_rev_iterator):
769
 
    for revs in log_rev_iterator:
770
 
        new_revs = []
771
 
        for (rev_id, revno, merge_depth), rev, delta in revs:
772
 
            if searchRE.search(rev.message):
773
 
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
774
 
        yield new_revs
775
 
 
776
 
 
777
 
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
778
 
    fileids=None, direction='reverse'):
779
 
    """Add revision deltas to a log iterator if needed.
780
 
 
781
 
    :param branch: The branch being logged.
782
 
    :param generate_delta: Whether to generate a delta for each revision.
783
 
      Permitted values are None, 'full' and 'partial'.
784
 
    :param search: A user text search string.
785
 
    :param log_rev_iterator: An input iterator containing all revisions that
786
 
        could be displayed, in lists.
787
 
    :param fileids: If non empty, only revisions matching one or more of
788
 
      the file-ids are to be kept.
789
 
    :param direction: the direction in which view_revisions is sorted
790
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
791
 
        delta).
792
 
    """
793
 
    if not generate_delta and not fileids:
794
 
        return log_rev_iterator
795
 
    return _generate_deltas(branch.repository, log_rev_iterator,
796
 
        generate_delta, fileids, direction)
797
 
 
798
 
 
799
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
800
 
    direction):
801
 
    """Create deltas for each batch of revisions in log_rev_iterator.
802
 
 
803
 
    If we're only generating deltas for the sake of filtering against
804
 
    file-ids, we stop generating deltas once all file-ids reach the
805
 
    appropriate life-cycle point. If we're receiving data newest to
806
 
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
807
 
    """
808
 
    check_fileids = fileids is not None and len(fileids) > 0
809
 
    if check_fileids:
810
 
        fileid_set = set(fileids)
811
 
        if direction == 'reverse':
812
 
            stop_on = 'add'
813
 
        else:
814
 
            stop_on = 'remove'
815
 
    else:
816
 
        fileid_set = None
817
 
    for revs in log_rev_iterator:
818
 
        # If we were matching against fileids and we've run out,
819
 
        # there's nothing left to do
820
 
        if check_fileids and not fileid_set:
821
 
            return
822
 
        revisions = [rev[1] for rev in revs]
823
 
        new_revs = []
824
 
        if delta_type == 'full' and not check_fileids:
825
 
            deltas = repository.get_deltas_for_revisions(revisions)
826
 
            for rev, delta in izip(revs, deltas):
827
 
                new_revs.append((rev[0], rev[1], delta))
828
 
        else:
829
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
830
 
            for rev, delta in izip(revs, deltas):
831
 
                if check_fileids:
832
 
                    if delta is None or not delta.has_changed():
833
 
                        continue
834
 
                    else:
835
 
                        _update_fileids(delta, fileid_set, stop_on)
836
 
                        if delta_type is None:
837
 
                            delta = None
838
 
                        elif delta_type == 'full':
839
 
                            # If the file matches all the time, rebuilding
840
 
                            # a full delta like this in addition to a partial
841
 
                            # one could be slow. However, it's likely that
842
 
                            # most revisions won't get this far, making it
843
 
                            # faster to filter on the partial deltas and
844
 
                            # build the occasional full delta than always
845
 
                            # building full deltas and filtering those.
846
 
                            rev_id = rev[0][0]
847
 
                            delta = repository.get_revision_delta(rev_id)
848
 
                new_revs.append((rev[0], rev[1], delta))
849
 
        yield new_revs
850
 
 
851
 
 
852
 
def _update_fileids(delta, fileids, stop_on):
853
 
    """Update the set of file-ids to search based on file lifecycle events.
854
 
    
855
 
    :param fileids: a set of fileids to update
856
 
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
857
 
      fileids set once their add or remove entry is detected respectively
858
 
    """
859
 
    if stop_on == 'add':
860
 
        for item in delta.added:
861
 
            if item[1] in fileids:
862
 
                fileids.remove(item[1])
863
 
    elif stop_on == 'delete':
864
 
        for item in delta.removed:
865
 
            if item[1] in fileids:
866
 
                fileids.remove(item[1])
867
 
 
868
 
 
869
 
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
870
 
    """Extract revision objects from the repository
871
 
 
872
 
    :param branch: The branch being logged.
873
 
    :param generate_delta: Whether to generate a delta for each revision.
874
 
    :param search: A user text search string.
875
 
    :param log_rev_iterator: An input iterator containing all revisions that
876
 
        could be displayed, in lists.
877
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
878
 
        delta).
879
 
    """
880
 
    repository = branch.repository
881
 
    for revs in log_rev_iterator:
882
 
        # r = revision_id, n = revno, d = merge depth
883
 
        revision_ids = [view[0] for view, _, _ in revs]
884
 
        revisions = repository.get_revisions(revision_ids)
885
 
        revs = [(rev[0], revision, rev[2]) for rev, revision in
886
 
            izip(revs, revisions)]
887
 
        yield revs
888
 
 
889
 
 
890
 
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
891
 
    """Group up a single large batch into smaller ones.
892
 
 
893
 
    :param branch: The branch being logged.
894
 
    :param generate_delta: Whether to generate a delta for each revision.
895
 
    :param search: A user text search string.
896
 
    :param log_rev_iterator: An input iterator containing all revisions that
897
 
        could be displayed, in lists.
898
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
899
 
        delta).
900
 
    """
901
 
    repository = branch.repository
902
 
    num = 9
903
 
    for batch in log_rev_iterator:
904
 
        batch = iter(batch)
905
 
        while True:
906
 
            step = [detail for _, detail in zip(range(num), batch)]
907
 
            if len(step) == 0:
908
 
                break
909
 
            yield step
910
 
            num = min(int(num * 1.5), 200)
911
 
 
912
 
 
913
 
def _get_revision_limits(branch, start_revision, end_revision):
914
 
    """Get and check revision limits.
915
 
 
916
 
    :param  branch: The branch containing the revisions.
917
 
 
918
 
    :param  start_revision: The first revision to be logged.
919
 
            For backwards compatibility this may be a mainline integer revno,
920
 
            but for merge revision support a RevisionInfo is expected.
921
 
 
922
 
    :param  end_revision: The last revision to be logged.
923
 
            For backwards compatibility this may be a mainline integer revno,
924
 
            but for merge revision support a RevisionInfo is expected.
925
 
 
926
 
    :return: (start_rev_id, end_rev_id) tuple.
927
 
    """
928
 
    branch_revno, branch_rev_id = branch.last_revision_info()
929
 
    start_rev_id = None
930
 
    if start_revision is None:
931
 
        start_revno = 1
932
 
    else:
933
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
934
 
            start_rev_id = start_revision.rev_id
935
 
            start_revno = start_revision.revno or 1
936
 
        else:
937
 
            branch.check_real_revno(start_revision)
938
 
            start_revno = start_revision
939
 
            start_rev_id = branch.get_rev_id(start_revno)
940
 
 
941
 
    end_rev_id = None
942
 
    if end_revision is None:
943
 
        end_revno = branch_revno
944
 
    else:
945
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
946
 
            end_rev_id = end_revision.rev_id
947
 
            end_revno = end_revision.revno or branch_revno
948
 
        else:
949
 
            branch.check_real_revno(end_revision)
950
 
            end_revno = end_revision
951
 
            end_rev_id = branch.get_rev_id(end_revno)
952
 
 
953
 
    if branch_revno != 0:
954
 
        if (start_rev_id == _mod_revision.NULL_REVISION
955
 
            or end_rev_id == _mod_revision.NULL_REVISION):
956
 
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
957
 
        if start_revno > end_revno:
958
 
            raise errors.BzrCommandError("Start revision must be older than "
959
 
                                         "the end revision.")
960
 
    return (start_rev_id, end_rev_id)
961
 
 
962
 
 
963
 
def _get_mainline_revs(branch, start_revision, end_revision):
964
 
    """Get the mainline revisions from the branch.
965
 
 
966
 
    Generates the list of mainline revisions for the branch.
967
 
 
968
 
    :param  branch: The branch containing the revisions.
969
 
 
970
 
    :param  start_revision: The first revision to be logged.
971
 
            For backwards compatibility this may be a mainline integer revno,
972
 
            but for merge revision support a RevisionInfo is expected.
973
 
 
974
 
    :param  end_revision: The last revision to be logged.
975
 
            For backwards compatibility this may be a mainline integer revno,
976
 
            but for merge revision support a RevisionInfo is expected.
977
 
 
978
 
    :return: A (mainline_revs, rev_nos, start_rev_id, end_rev_id) tuple.
979
 
    """
980
 
    branch_revno, branch_last_revision = branch.last_revision_info()
981
 
    if branch_revno == 0:
982
 
        return None, None, None, None
983
 
 
984
 
    # For mainline generation, map start_revision and end_revision to
985
 
    # mainline revnos. If the revision is not on the mainline choose the
986
 
    # appropriate extreme of the mainline instead - the extra will be
987
 
    # filtered later.
988
 
    # Also map the revisions to rev_ids, to be used in the later filtering
989
 
    # stage.
990
 
    start_rev_id = None
991
 
    if start_revision is None:
992
 
        start_revno = 1
993
 
    else:
994
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
995
 
            start_rev_id = start_revision.rev_id
996
 
            start_revno = start_revision.revno or 1
997
 
        else:
998
 
            branch.check_real_revno(start_revision)
999
 
            start_revno = start_revision
1000
 
 
1001
 
    end_rev_id = None
1002
 
    if end_revision is None:
1003
 
        end_revno = branch_revno
1004
 
    else:
1005
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
1006
 
            end_rev_id = end_revision.rev_id
1007
 
            end_revno = end_revision.revno or branch_revno
1008
 
        else:
1009
 
            branch.check_real_revno(end_revision)
1010
 
            end_revno = end_revision
1011
 
 
1012
 
    if ((start_rev_id == _mod_revision.NULL_REVISION)
1013
 
        or (end_rev_id == _mod_revision.NULL_REVISION)):
1014
 
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
1015
 
    if start_revno > end_revno:
1016
 
        raise errors.BzrCommandError("Start revision must be older than "
1017
 
                                     "the end revision.")
1018
 
 
1019
 
    if end_revno < start_revno:
1020
 
        return None, None, None, None
1021
 
    cur_revno = branch_revno
1022
 
    rev_nos = {}
1023
 
    mainline_revs = []
1024
 
    for revision_id in branch.repository.iter_reverse_revision_history(
1025
 
                        branch_last_revision):
1026
 
        if cur_revno < start_revno:
1027
 
            # We have gone far enough, but we always add 1 more revision
1028
 
            rev_nos[revision_id] = cur_revno
1029
 
            mainline_revs.append(revision_id)
1030
 
            break
1031
 
        if cur_revno <= end_revno:
1032
 
            rev_nos[revision_id] = cur_revno
1033
 
            mainline_revs.append(revision_id)
1034
 
        cur_revno -= 1
1035
 
    else:
1036
 
        # We walked off the edge of all revisions, so we add a 'None' marker
1037
 
        mainline_revs.append(None)
1038
 
 
1039
 
    mainline_revs.reverse()
 
171
        mutter('get log for file_id %r', specific_fileid)
 
172
 
 
173
    if search is not None:
 
174
        import re
 
175
        searchRE = re.compile(search, re.IGNORECASE)
 
176
    else:
 
177
        searchRE = None
 
178
 
 
179
    which_revs = _enumerate_history(branch)
 
180
    
 
181
    if start_revision is None:
 
182
        start_revision = 1
 
183
    else:
 
184
        branch.check_real_revno(start_revision)
 
185
    
 
186
    if end_revision is None:
 
187
        end_revision = len(which_revs)
 
188
    else:
 
189
        branch.check_real_revno(end_revision)
 
190
 
 
191
    # list indexes are 0-based; revisions are 1-based
 
192
    cut_revs = which_revs[(start_revision-1):(end_revision)]
 
193
    if not cut_revs:
 
194
        return
 
195
 
 
196
    # convert the revision history to a dictionary:
 
197
    rev_nos = dict((k, v) for v, k in cut_revs)
1040
198
 
1041
199
    # override the mainline to look like the revision history.
1042
 
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1043
 
 
1044
 
 
1045
 
@deprecated_function(deprecated_in((2, 2, 0)))
1046
 
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1047
 
    """Filter view_revisions based on revision ranges.
1048
 
 
1049
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1050
 
            tuples to be filtered.
1051
 
 
1052
 
    :param start_rev_id: If not NONE specifies the first revision to be logged.
1053
 
            If NONE then all revisions up to the end_rev_id are logged.
1054
 
 
1055
 
    :param end_rev_id: If not NONE specifies the last revision to be logged.
1056
 
            If NONE then all revisions up to the end of the log are logged.
1057
 
 
1058
 
    :return: The filtered view_revisions.
1059
 
    """
1060
 
    if start_rev_id or end_rev_id:
 
200
    mainline_revs = [revision_id for index, revision_id in cut_revs]
 
201
    if cut_revs[0][0] == 1:
 
202
        mainline_revs.insert(0, None)
 
203
    else:
 
204
        mainline_revs.insert(0, which_revs[start_revision-2][1])
 
205
    if getattr(lf, 'show_merge', None) is not None:
 
206
        include_merges = True 
 
207
    else:
 
208
        include_merges = False 
 
209
    view_revisions = list(get_view_revisions(mainline_revs, rev_nos, branch,
 
210
                          direction, include_merges=include_merges))
 
211
 
 
212
    def iter_revisions():
 
213
        # r = revision, n = revno, d = merge depth
1061
214
        revision_ids = [r for r, n, d in view_revisions]
1062
 
        if start_rev_id:
1063
 
            start_index = revision_ids.index(start_rev_id)
1064
 
        else:
1065
 
            start_index = 0
1066
 
        if start_rev_id == end_rev_id:
1067
 
            end_index = start_index
1068
 
        else:
1069
 
            if end_rev_id:
1070
 
                end_index = revision_ids.index(end_rev_id)
1071
 
            else:
1072
 
                end_index = len(view_revisions) - 1
1073
 
        # To include the revisions merged into the last revision,
1074
 
        # extend end_rev_id down to, but not including, the next rev
1075
 
        # with the same or lesser merge_depth
1076
 
        end_merge_depth = view_revisions[end_index][2]
1077
 
        try:
1078
 
            for index in xrange(end_index+1, len(view_revisions)+1):
1079
 
                if view_revisions[index][2] <= end_merge_depth:
1080
 
                    end_index = index - 1
1081
 
                    break
1082
 
        except IndexError:
1083
 
            # if the search falls off the end then log to the end as well
1084
 
            end_index = len(view_revisions) - 1
1085
 
        view_revisions = view_revisions[start_index:end_index+1]
1086
 
    return view_revisions
1087
 
 
1088
 
 
1089
 
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
1090
 
    include_merges=True):
1091
 
    r"""Return the list of revision ids which touch a given file id.
1092
 
 
1093
 
    The function filters view_revisions and returns a subset.
1094
 
    This includes the revisions which directly change the file id,
1095
 
    and the revisions which merge these changes. So if the
1096
 
    revision graph is::
1097
 
        A-.
1098
 
        |\ \
1099
 
        B C E
1100
 
        |/ /
1101
 
        D |
1102
 
        |\|
1103
 
        | F
1104
 
        |/
1105
 
        G
1106
 
 
1107
 
    And 'C' changes a file, then both C and D will be returned. F will not be
1108
 
    returned even though it brings the changes to C into the branch starting
1109
 
    with E. (Note that if we were using F as the tip instead of G, then we
1110
 
    would see C, D, F.)
1111
 
 
1112
 
    This will also be restricted based on a subset of the mainline.
1113
 
 
1114
 
    :param branch: The branch where we can get text revision information.
1115
 
 
1116
 
    :param file_id: Filter out revisions that do not touch file_id.
1117
 
 
1118
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1119
 
        tuples. This is the list of revisions which will be filtered. It is
1120
 
        assumed that view_revisions is in merge_sort order (i.e. newest
1121
 
        revision first ).
1122
 
 
1123
 
    :param include_merges: include merge revisions in the result or not
1124
 
 
1125
 
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
1126
 
    """
1127
 
    # Lookup all possible text keys to determine which ones actually modified
1128
 
    # the file.
1129
 
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1130
 
    next_keys = None
1131
 
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1132
 
    # memory consumption. GraphIndex *does* like to look for a few keys in
1133
 
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
1134
 
    # TODO: This code needs to be re-evaluated periodically as we tune the
1135
 
    #       indexing layer. We might consider passing in hints as to the known
1136
 
    #       access pattern (sparse/clustered, high success rate/low success
1137
 
    #       rate). This particular access is clustered with a low success rate.
1138
 
    get_parent_map = branch.repository.texts.get_parent_map
1139
 
    modified_text_revisions = set()
1140
 
    chunk_size = 1000
1141
 
    for start in xrange(0, len(text_keys), chunk_size):
1142
 
        next_keys = text_keys[start:start + chunk_size]
1143
 
        # Only keep the revision_id portion of the key
1144
 
        modified_text_revisions.update(
1145
 
            [k[1] for k in get_parent_map(next_keys)])
1146
 
    del text_keys, next_keys
1147
 
 
1148
 
    result = []
1149
 
    # Track what revisions will merge the current revision, replace entries
1150
 
    # with 'None' when they have been added to result
1151
 
    current_merge_stack = [None]
1152
 
    for info in view_revisions:
1153
 
        rev_id, revno, depth = info
1154
 
        if depth == len(current_merge_stack):
1155
 
            current_merge_stack.append(info)
1156
 
        else:
1157
 
            del current_merge_stack[depth + 1:]
1158
 
            current_merge_stack[-1] = info
1159
 
 
1160
 
        if rev_id in modified_text_revisions:
1161
 
            # This needs to be logged, along with the extra revisions
1162
 
            for idx in xrange(len(current_merge_stack)):
1163
 
                node = current_merge_stack[idx]
1164
 
                if node is not None:
1165
 
                    if include_merges or node[2] == 0:
1166
 
                        result.append(node)
1167
 
                        current_merge_stack[idx] = None
1168
 
    return result
1169
 
 
1170
 
 
1171
 
@deprecated_function(deprecated_in((2, 2, 0)))
 
215
        zeros = set(r for r, n, d in view_revisions if d == 0)
 
216
        num = 9
 
217
        repository = branch.repository
 
218
        while revision_ids:
 
219
            cur_deltas = {}
 
220
            revisions = repository.get_revisions(revision_ids[:num])
 
221
            if verbose or specific_fileid:
 
222
                delta_revisions = [r for r in revisions if
 
223
                                   r.revision_id in zeros]
 
224
                deltas = repository.get_deltas_for_revisions(delta_revisions)
 
225
                cur_deltas = dict(izip((r.revision_id for r in 
 
226
                                        delta_revisions), deltas))
 
227
            for revision in revisions:
 
228
                # The delta value will be None unless
 
229
                # 1. verbose or specific_fileid is specified, and
 
230
                # 2. the revision is a mainline revision
 
231
                yield revision, cur_deltas.get(revision.revision_id)
 
232
            revision_ids  = revision_ids[num:]
 
233
            num = int(num * 1.5)
 
234
            
 
235
    # now we just print all the revisions
 
236
    for ((rev_id, revno, merge_depth), (rev, delta)) in \
 
237
         izip(view_revisions, iter_revisions()):
 
238
 
 
239
        if searchRE:
 
240
            if not searchRE.search(rev.message):
 
241
                continue
 
242
 
 
243
        if merge_depth == 0:
 
244
            # a mainline revision.
 
245
                
 
246
            if specific_fileid:
 
247
                if not delta.touches_file_id(specific_fileid):
 
248
                    continue
 
249
    
 
250
            if not verbose:
 
251
                # although we calculated it, throw it away without display
 
252
                delta = None
 
253
 
 
254
            lf.show(revno, rev, delta)
 
255
        else:
 
256
            lf.show_merge(rev, merge_depth)
 
257
 
 
258
 
1172
259
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
1173
260
                       include_merges=True):
1174
261
    """Produce an iterator of revisions to show
1175
262
    :return: an iterator of (revision_id, revno, merge_depth)
1176
263
    (if there is no revno for a revision, None is supplied)
1177
264
    """
1178
 
    if not include_merges:
 
265
    if include_merges is False:
1179
266
        revision_ids = mainline_revs[1:]
1180
267
        if direction == 'reverse':
1181
268
            revision_ids.reverse()
1182
269
        for revision_id in revision_ids:
1183
 
            yield revision_id, str(rev_nos[revision_id]), 0
 
270
            yield revision_id, rev_nos[revision_id], 0
1184
271
        return
1185
 
    graph = branch.repository.get_graph()
1186
 
    # This asks for all mainline revisions, which means we only have to spider
1187
 
    # sideways, rather than depth history. That said, its still size-of-history
1188
 
    # and should be addressed.
1189
 
    # mainline_revisions always includes an extra revision at the beginning, so
1190
 
    # don't request it.
1191
 
    parent_map = dict(((key, value) for key, value in
1192
 
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
1193
 
    # filter out ghosts; merge_sort errors on ghosts.
1194
 
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
1195
 
    merge_sorted_revisions = tsort.merge_sort(
1196
 
        rev_graph,
 
272
    merge_sorted_revisions = merge_sort(
 
273
        branch.repository.get_revision_graph(mainline_revs[-1]),
1197
274
        mainline_revs[-1],
1198
 
        mainline_revs,
1199
 
        generate_revno=True)
 
275
        mainline_revs)
1200
276
 
1201
277
    if direction == 'forward':
1202
278
        # forward means oldest first.
1204
280
    elif direction != 'reverse':
1205
281
        raise ValueError('invalid direction %r' % direction)
1206
282
 
1207
 
    for (sequence, rev_id, merge_depth, revno, end_of_merge
1208
 
         ) in merge_sorted_revisions:
1209
 
        yield rev_id, '.'.join(map(str, revno)), merge_depth
 
283
    revision_history = branch.revision_history()
 
284
 
 
285
    for sequence, rev_id, merge_depth, end_of_merge in merge_sorted_revisions:
 
286
        yield rev_id, rev_nos.get(rev_id), merge_depth
1210
287
 
1211
288
 
1212
289
def reverse_by_depth(merge_sorted_revisions, _depth=0):
1216
293
    revision of that depth.  There may be no topological justification for this,
1217
294
    but it looks much nicer.
1218
295
    """
1219
 
    # Add a fake revision at start so that we can always attach sub revisions
1220
 
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
1221
296
    zd_revisions = []
1222
297
    for val in merge_sorted_revisions:
1223
298
        if val[2] == _depth:
1224
 
            # Each revision at the current depth becomes a chunk grouping all
1225
 
            # higher depth revisions.
1226
299
            zd_revisions.append([val])
1227
300
        else:
 
301
            assert val[2] > _depth
1228
302
            zd_revisions[-1].append(val)
1229
303
    for revisions in zd_revisions:
1230
304
        if len(revisions) > 1:
1231
 
            # We have higher depth revisions, let reverse them locally
1232
305
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
1233
306
    zd_revisions.reverse()
1234
307
    result = []
1235
308
    for chunk in zd_revisions:
1236
309
        result.extend(chunk)
1237
 
    if _depth == 0:
1238
 
        # Top level call, get rid of the fake revisions that have been added
1239
 
        result = [r for r in result if r[0] is not None and r[1] is not None]
1240
310
    return result
1241
311
 
1242
312
 
1243
 
class LogRevision(object):
1244
 
    """A revision to be logged (by LogFormatter.log_revision).
1245
 
 
1246
 
    A simple wrapper for the attributes of a revision to be logged.
1247
 
    The attributes may or may not be populated, as determined by the
1248
 
    logging options and the log formatter capabilities.
1249
 
    """
1250
 
 
1251
 
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1252
 
                 tags=None, diff=None):
1253
 
        self.rev = rev
1254
 
        self.revno = str(revno)
1255
 
        self.merge_depth = merge_depth
1256
 
        self.delta = delta
1257
 
        self.tags = tags
1258
 
        self.diff = diff
1259
 
 
1260
 
 
1261
313
class LogFormatter(object):
1262
 
    """Abstract class to display log messages.
1263
 
 
1264
 
    At a minimum, a derived class must implement the log_revision method.
1265
 
 
1266
 
    If the LogFormatter needs to be informed of the beginning or end of
1267
 
    a log it should implement the begin_log and/or end_log hook methods.
1268
 
 
1269
 
    A LogFormatter should define the following supports_XXX flags
1270
 
    to indicate which LogRevision attributes it supports:
1271
 
 
1272
 
    - supports_delta must be True if this log formatter supports delta.
1273
 
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1274
 
        attribute describes whether the 'short_status' format (1) or the long
1275
 
        one (2) should be used.
1276
 
 
1277
 
    - supports_merge_revisions must be True if this log formatter supports
1278
 
        merge revisions.  If not, then only mainline revisions will be passed
1279
 
        to the formatter.
1280
 
 
1281
 
    - preferred_levels is the number of levels this formatter defaults to.
1282
 
        The default value is zero meaning display all levels.
1283
 
        This value is only relevant if supports_merge_revisions is True.
1284
 
 
1285
 
    - supports_tags must be True if this log formatter supports tags.
1286
 
        Otherwise the tags attribute may not be populated.
1287
 
 
1288
 
    - supports_diff must be True if this log formatter supports diffs.
1289
 
        Otherwise the diff attribute may not be populated.
1290
 
 
1291
 
    Plugins can register functions to show custom revision properties using
1292
 
    the properties_handler_registry. The registered function
1293
 
    must respect the following interface description:
1294
 
        def my_show_properties(properties_dict):
1295
 
            # code that returns a dict {'name':'value'} of the properties
1296
 
            # to be shown
1297
 
    """
1298
 
    preferred_levels = 0
1299
 
 
1300
 
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1301
 
                 delta_format=None, levels=None, show_advice=False,
1302
 
                 to_exact_file=None):
1303
 
        """Create a LogFormatter.
1304
 
 
1305
 
        :param to_file: the file to output to
1306
 
        :param to_exact_file: if set, gives an output stream to which 
1307
 
             non-Unicode diffs are written.
1308
 
        :param show_ids: if True, revision-ids are to be displayed
1309
 
        :param show_timezone: the timezone to use
1310
 
        :param delta_format: the level of delta information to display
1311
 
          or None to leave it to the formatter to decide
1312
 
        :param levels: the number of levels to display; None or -1 to
1313
 
          let the log formatter decide.
1314
 
        :param show_advice: whether to show advice at the end of the
1315
 
          log or not
1316
 
        """
 
314
    """Abstract class to display log messages."""
 
315
 
 
316
    def __init__(self, to_file, show_ids=False, show_timezone='original'):
1317
317
        self.to_file = to_file
1318
 
        # 'exact' stream used to show diff, it should print content 'as is'
1319
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
1320
 
        if to_exact_file is not None:
1321
 
            self.to_exact_file = to_exact_file
1322
 
        else:
1323
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
1324
 
            # for code that expects to get diffs to pass in the exact file
1325
 
            # stream
1326
 
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1327
318
        self.show_ids = show_ids
1328
319
        self.show_timezone = show_timezone
1329
 
        if delta_format is None:
1330
 
            # Ensures backward compatibility
1331
 
            delta_format = 2 # long format
1332
 
        self.delta_format = delta_format
1333
 
        self.levels = levels
1334
 
        self._show_advice = show_advice
1335
 
        self._merge_count = 0
1336
 
 
1337
 
    def get_levels(self):
1338
 
        """Get the number of levels to display or 0 for all."""
1339
 
        if getattr(self, 'supports_merge_revisions', False):
1340
 
            if self.levels is None or self.levels == -1:
1341
 
                self.levels = self.preferred_levels
1342
 
        else:
1343
 
            self.levels = 1
1344
 
        return self.levels
1345
 
 
1346
 
    def log_revision(self, revision):
1347
 
        """Log a revision.
1348
 
 
1349
 
        :param  revision:   The LogRevision to be logged.
1350
 
        """
 
320
 
 
321
    def show(self, revno, rev, delta):
1351
322
        raise NotImplementedError('not implemented in abstract base')
1352
323
 
1353
 
    def show_advice(self):
1354
 
        """Output user advice, if any, when the log is completed."""
1355
 
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
1356
 
            advice_sep = self.get_advice_separator()
1357
 
            if advice_sep:
1358
 
                self.to_file.write(advice_sep)
1359
 
            self.to_file.write(
1360
 
                "Use --include-merges or -n0 to see merged revisions.\n")
1361
 
 
1362
 
    def get_advice_separator(self):
1363
 
        """Get the text separating the log from the closing advice."""
1364
 
        return ''
1365
 
 
1366
324
    def short_committer(self, rev):
1367
 
        name, address = config.parse_username(rev.committer)
1368
 
        if name:
1369
 
            return name
1370
 
        return address
1371
 
 
1372
 
    def short_author(self, rev):
1373
 
        name, address = config.parse_username(rev.get_apparent_authors()[0])
1374
 
        if name:
1375
 
            return name
1376
 
        return address
1377
 
 
1378
 
    def merge_marker(self, revision):
1379
 
        """Get the merge marker to include in the output or '' if none."""
1380
 
        if len(revision.rev.parent_ids) > 1:
1381
 
            self._merge_count += 1
1382
 
            return ' [merge]'
1383
 
        else:
1384
 
            return ''
1385
 
 
1386
 
    def show_properties(self, revision, indent):
1387
 
        """Displays the custom properties returned by each registered handler.
1388
 
 
1389
 
        If a registered handler raises an error it is propagated.
1390
 
        """
1391
 
        for line in self.custom_properties(revision):
1392
 
            self.to_file.write("%s%s\n" % (indent, line))
1393
 
 
1394
 
    def custom_properties(self, revision):
1395
 
        """Format the custom properties returned by each registered handler.
1396
 
 
1397
 
        If a registered handler raises an error it is propagated.
1398
 
 
1399
 
        :return: a list of formatted lines (excluding trailing newlines)
1400
 
        """
1401
 
        lines = self._foreign_info_properties(revision)
1402
 
        for key, handler in properties_handler_registry.iteritems():
1403
 
            lines.extend(self._format_properties(handler(revision)))
1404
 
        return lines
1405
 
 
1406
 
    def _foreign_info_properties(self, rev):
1407
 
        """Custom log displayer for foreign revision identifiers.
1408
 
 
1409
 
        :param rev: Revision object.
1410
 
        """
1411
 
        # Revision comes directly from a foreign repository
1412
 
        if isinstance(rev, foreign.ForeignRevision):
1413
 
            return rev.mapping.vcs.show_foreign_revid(rev.foreign_revid)
1414
 
 
1415
 
        # Imported foreign revision revision ids always contain :
1416
 
        if not ":" in rev.revision_id:
1417
 
            return []
1418
 
 
1419
 
        # Revision was once imported from a foreign repository
1420
 
        try:
1421
 
            foreign_revid, mapping = \
1422
 
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
1423
 
        except errors.InvalidRevisionId:
1424
 
            return []
1425
 
 
1426
 
        return self._format_properties(
1427
 
            mapping.vcs.show_foreign_revid(foreign_revid))
1428
 
 
1429
 
    def _format_properties(self, properties):
1430
 
        lines = []
1431
 
        for key, value in properties.items():
1432
 
            lines.append(key + ': ' + value)
1433
 
        return lines
1434
 
 
1435
 
    def show_diff(self, to_file, diff, indent):
1436
 
        for l in diff.rstrip().split('\n'):
1437
 
            to_file.write(indent + '%s\n' % (l,))
1438
 
 
1439
 
 
1440
 
# Separator between revisions in long format
1441
 
_LONG_SEP = '-' * 60
1442
 
 
1443
 
 
 
325
        return re.sub('<.*@.*>', '', rev.committer).strip(' ')
 
326
    
 
327
    
1444
328
class LongLogFormatter(LogFormatter):
1445
 
 
1446
 
    supports_merge_revisions = True
1447
 
    preferred_levels = 1
1448
 
    supports_delta = True
1449
 
    supports_tags = True
1450
 
    supports_diff = True
1451
 
 
1452
 
    def __init__(self, *args, **kwargs):
1453
 
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1454
 
        if self.show_timezone == 'original':
1455
 
            self.date_string = self._date_string_original_timezone
1456
 
        else:
1457
 
            self.date_string = self._date_string_with_timezone
1458
 
 
1459
 
    def _date_string_with_timezone(self, rev):
1460
 
        return format_date(rev.timestamp, rev.timezone or 0,
1461
 
                           self.show_timezone)
1462
 
 
1463
 
    def _date_string_original_timezone(self, rev):
1464
 
        return format_date_with_offset_in_original_timezone(rev.timestamp,
1465
 
            rev.timezone or 0)
1466
 
 
1467
 
    def log_revision(self, revision):
1468
 
        """Log a revision, either merged or not."""
1469
 
        indent = '    ' * revision.merge_depth
1470
 
        lines = [_LONG_SEP]
1471
 
        if revision.revno is not None:
1472
 
            lines.append('revno: %s%s' % (revision.revno,
1473
 
                self.merge_marker(revision)))
1474
 
        if revision.tags:
1475
 
            lines.append('tags: %s' % (', '.join(revision.tags)))
 
329
    def show(self, revno, rev, delta):
 
330
        return self._show_helper(revno=revno, rev=rev, delta=delta)
 
331
 
 
332
    def show_merge(self, rev, merge_depth):
 
333
        return self._show_helper(rev=rev, indent='    '*merge_depth, merged=True, delta=None)
 
334
 
 
335
    def _show_helper(self, rev=None, revno=None, indent='', merged=False, delta=None):
 
336
        """Show a revision, either merged or not."""
 
337
        from bzrlib.osutils import format_date
 
338
        to_file = self.to_file
 
339
        print >>to_file,  indent+'-' * 60
 
340
        if revno is not None:
 
341
            print >>to_file,  'revno:', revno
 
342
        if merged:
 
343
            print >>to_file,  indent+'merged:', rev.revision_id
 
344
        elif self.show_ids:
 
345
            print >>to_file,  indent+'revision-id:', rev.revision_id
1476
346
        if self.show_ids:
1477
 
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
1478
 
            for parent_id in revision.rev.parent_ids:
1479
 
                lines.append('parent: %s' % (parent_id,))
1480
 
        lines.extend(self.custom_properties(revision.rev))
1481
 
 
1482
 
        committer = revision.rev.committer
1483
 
        authors = revision.rev.get_apparent_authors()
1484
 
        if authors != [committer]:
1485
 
            lines.append('author: %s' % (", ".join(authors),))
1486
 
        lines.append('committer: %s' % (committer,))
1487
 
 
1488
 
        branch_nick = revision.rev.properties.get('branch-nick', None)
1489
 
        if branch_nick is not None:
1490
 
            lines.append('branch nick: %s' % (branch_nick,))
1491
 
 
1492
 
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1493
 
 
1494
 
        lines.append('message:')
1495
 
        if not revision.rev.message:
1496
 
            lines.append('  (no message)')
 
347
            for parent_id in rev.parent_ids:
 
348
                print >>to_file, indent+'parent:', parent_id
 
349
        print >>to_file,  indent+'committer:', rev.committer
 
350
        try:
 
351
            print >>to_file, indent+'branch nick: %s' % \
 
352
                rev.properties['branch-nick']
 
353
        except KeyError:
 
354
            pass
 
355
        date_str = format_date(rev.timestamp,
 
356
                               rev.timezone or 0,
 
357
                               self.show_timezone)
 
358
        print >>to_file,  indent+'timestamp: %s' % date_str
 
359
 
 
360
        print >>to_file,  indent+'message:'
 
361
        if not rev.message:
 
362
            print >>to_file,  indent+'  (no message)'
1497
363
        else:
1498
 
            message = revision.rev.message.rstrip('\r\n')
 
364
            message = rev.message.rstrip('\r\n')
1499
365
            for l in message.split('\n'):
1500
 
                lines.append('  %s' % (l,))
1501
 
 
1502
 
        # Dump the output, appending the delta and diff if requested
1503
 
        to_file = self.to_file
1504
 
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
1505
 
        if revision.delta is not None:
1506
 
            # We don't respect delta_format for compatibility
1507
 
            revision.delta.show(to_file, self.show_ids, indent=indent,
1508
 
                                short_status=False)
1509
 
        if revision.diff is not None:
1510
 
            to_file.write(indent + 'diff:\n')
1511
 
            to_file.flush()
1512
 
            # Note: we explicitly don't indent the diff (relative to the
1513
 
            # revision information) so that the output can be fed to patch -p0
1514
 
            self.show_diff(self.to_exact_file, revision.diff, indent)
1515
 
            self.to_exact_file.flush()
1516
 
 
1517
 
    def get_advice_separator(self):
1518
 
        """Get the text separating the log from the closing advice."""
1519
 
        return '-' * 60 + '\n'
 
366
                print >>to_file,  indent+'  ' + l
 
367
        if delta != None:
 
368
            delta.show(to_file, self.show_ids)
1520
369
 
1521
370
 
1522
371
class ShortLogFormatter(LogFormatter):
1523
 
 
1524
 
    supports_merge_revisions = True
1525
 
    preferred_levels = 1
1526
 
    supports_delta = True
1527
 
    supports_tags = True
1528
 
    supports_diff = True
1529
 
 
1530
 
    def __init__(self, *args, **kwargs):
1531
 
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
1532
 
        self.revno_width_by_depth = {}
1533
 
 
1534
 
    def log_revision(self, revision):
1535
 
        # We need two indents: one per depth and one for the information
1536
 
        # relative to that indent. Most mainline revnos are 5 chars or
1537
 
        # less while dotted revnos are typically 11 chars or less. Once
1538
 
        # calculated, we need to remember the offset for a given depth
1539
 
        # as we might be starting from a dotted revno in the first column
1540
 
        # and we want subsequent mainline revisions to line up.
1541
 
        depth = revision.merge_depth
1542
 
        indent = '    ' * depth
1543
 
        revno_width = self.revno_width_by_depth.get(depth)
1544
 
        if revno_width is None:
1545
 
            if revision.revno.find('.') == -1:
1546
 
                # mainline revno, e.g. 12345
1547
 
                revno_width = 5
1548
 
            else:
1549
 
                # dotted revno, e.g. 12345.10.55
1550
 
                revno_width = 11
1551
 
            self.revno_width_by_depth[depth] = revno_width
1552
 
        offset = ' ' * (revno_width + 1)
 
372
    def show(self, revno, rev, delta):
 
373
        from bzrlib.osutils import format_date
1553
374
 
1554
375
        to_file = self.to_file
1555
 
        tags = ''
1556
 
        if revision.tags:
1557
 
            tags = ' {%s}' % (', '.join(revision.tags))
1558
 
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1559
 
                revision.revno, self.short_author(revision.rev),
1560
 
                format_date(revision.rev.timestamp,
1561
 
                            revision.rev.timezone or 0,
 
376
        date_str = format_date(rev.timestamp, rev.timezone or 0,
 
377
                            self.show_timezone)
 
378
        print >>to_file, "%5d %s\t%s" % (revno, self.short_committer(rev),
 
379
                format_date(rev.timestamp, rev.timezone or 0,
1562
380
                            self.show_timezone, date_fmt="%Y-%m-%d",
1563
 
                            show_offset=False),
1564
 
                tags, self.merge_marker(revision)))
1565
 
        self.show_properties(revision.rev, indent+offset)
 
381
                           show_offset=False))
1566
382
        if self.show_ids:
1567
 
            to_file.write(indent + offset + 'revision-id:%s\n'
1568
 
                          % (revision.rev.revision_id,))
1569
 
        if not revision.rev.message:
1570
 
            to_file.write(indent + offset + '(no message)\n')
 
383
            print >>to_file,  '      revision-id:', rev.revision_id
 
384
        if not rev.message:
 
385
            print >>to_file,  '      (no message)'
1571
386
        else:
1572
 
            message = revision.rev.message.rstrip('\r\n')
 
387
            message = rev.message.rstrip('\r\n')
1573
388
            for l in message.split('\n'):
1574
 
                to_file.write(indent + offset + '%s\n' % (l,))
 
389
                print >>to_file,  '      ' + l
1575
390
 
1576
 
        if revision.delta is not None:
1577
 
            revision.delta.show(to_file, self.show_ids, indent=indent + offset,
1578
 
                                short_status=self.delta_format==1)
1579
 
        if revision.diff is not None:
1580
 
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1581
 
        to_file.write('\n')
 
391
        # TODO: Why not show the modified files in a shorter form as
 
392
        # well? rewrap them single lines of appropriate length
 
393
        if delta != None:
 
394
            delta.show(to_file, self.show_ids)
 
395
        print >>to_file, ''
1582
396
 
1583
397
 
1584
398
class LineLogFormatter(LogFormatter):
1585
 
 
1586
 
    supports_merge_revisions = True
1587
 
    preferred_levels = 1
1588
 
    supports_tags = True
1589
 
 
1590
 
    def __init__(self, *args, **kwargs):
1591
 
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1592
 
        width = terminal_width()
1593
 
        if width is not None:
1594
 
            # we need one extra space for terminals that wrap on last char
1595
 
            width = width - 1
1596
 
        self._max_chars = width
1597
 
 
1598
399
    def truncate(self, str, max_len):
1599
 
        if max_len is None or len(str) <= max_len:
 
400
        if len(str) <= max_len:
1600
401
            return str
1601
 
        return str[:max_len-3] + '...'
 
402
        return str[:max_len-3]+'...'
1602
403
 
1603
404
    def date_string(self, rev):
1604
 
        return format_date(rev.timestamp, rev.timezone or 0,
 
405
        from bzrlib.osutils import format_date
 
406
        return format_date(rev.timestamp, rev.timezone or 0, 
1605
407
                           self.show_timezone, date_fmt="%Y-%m-%d",
1606
408
                           show_offset=False)
1607
409
 
1611
413
        else:
1612
414
            return rev.message
1613
415
 
1614
 
    def log_revision(self, revision):
1615
 
        indent = '  ' * revision.merge_depth
1616
 
        self.to_file.write(self.log_string(revision.revno, revision.rev,
1617
 
            self._max_chars, revision.tags, indent))
1618
 
        self.to_file.write('\n')
 
416
    def show(self, revno, rev, delta):
 
417
        from bzrlib.osutils import terminal_width
 
418
        print >> self.to_file, self.log_string(revno, rev, terminal_width()-1)
1619
419
 
1620
 
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
 
420
    def log_string(self, revno, rev, max_chars):
1621
421
        """Format log info into one string. Truncate tail of string
1622
 
        :param  revno:      revision number or None.
 
422
        :param  revno:      revision number (int) or None.
1623
423
                            Revision numbers counts from 1.
1624
 
        :param  rev:        revision object
 
424
        :param  rev:        revision info object
1625
425
        :param  max_chars:  maximum length of resulting string
1626
 
        :param  tags:       list of tags or None
1627
 
        :param  prefix:     string to prefix each line
1628
426
        :return:            formatted truncated string
1629
427
        """
1630
428
        out = []
1631
429
        if revno:
1632
430
            # show revno only when is not None
1633
 
            out.append("%s:" % revno)
1634
 
        out.append(self.truncate(self.short_author(rev), 20))
 
431
            out.append("%d:" % revno)
 
432
        out.append(self.truncate(self.short_committer(rev), 20))
1635
433
        out.append(self.date_string(rev))
1636
 
        if len(rev.parent_ids) > 1:
1637
 
            out.append('[merge]')
1638
 
        if tags:
1639
 
            tag_str = '{%s}' % (', '.join(tags))
1640
 
            out.append(tag_str)
1641
434
        out.append(rev.get_summary())
1642
 
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1643
 
 
1644
 
 
1645
 
class GnuChangelogLogFormatter(LogFormatter):
1646
 
 
1647
 
    supports_merge_revisions = True
1648
 
    supports_delta = True
1649
 
 
1650
 
    def log_revision(self, revision):
1651
 
        """Log a revision, either merged or not."""
1652
 
        to_file = self.to_file
1653
 
 
1654
 
        date_str = format_date(revision.rev.timestamp,
1655
 
                               revision.rev.timezone or 0,
1656
 
                               self.show_timezone,
1657
 
                               date_fmt='%Y-%m-%d',
1658
 
                               show_offset=False)
1659
 
        committer_str = revision.rev.committer.replace (' <', '  <')
1660
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1661
 
 
1662
 
        if revision.delta is not None and revision.delta.has_changed():
1663
 
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1664
 
                path, = c[:1]
1665
 
                to_file.write('\t* %s:\n' % (path,))
1666
 
            for c in revision.delta.renamed:
1667
 
                oldpath,newpath = c[:2]
1668
 
                # For renamed files, show both the old and the new path
1669
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
1670
 
            to_file.write('\n')
1671
 
 
1672
 
        if not revision.rev.message:
1673
 
            to_file.write('\tNo commit message\n')
1674
 
        else:
1675
 
            message = revision.rev.message.rstrip('\r\n')
1676
 
            for l in message.split('\n'):
1677
 
                to_file.write('\t%s\n' % (l.lstrip(),))
1678
 
            to_file.write('\n')
 
435
        return self.truncate(" ".join(out).rstrip('\n'), max_chars)
1679
436
 
1680
437
 
1681
438
def line_log(rev, max_chars):
1682
439
    lf = LineLogFormatter(None)
1683
440
    return lf.log_string(None, rev, max_chars)
1684
441
 
1685
 
 
1686
 
class LogFormatterRegistry(registry.Registry):
1687
 
    """Registry for log formatters"""
1688
 
 
1689
 
    def make_formatter(self, name, *args, **kwargs):
1690
 
        """Construct a formatter from arguments.
1691
 
 
1692
 
        :param name: Name of the formatter to construct.  'short', 'long' and
1693
 
            'line' are built-in.
1694
 
        """
1695
 
        return self.get(name)(*args, **kwargs)
1696
 
 
1697
 
    def get_default(self, branch):
1698
 
        return self.get(branch.get_config().log_format())
1699
 
 
1700
 
 
1701
 
log_formatter_registry = LogFormatterRegistry()
1702
 
 
1703
 
 
1704
 
log_formatter_registry.register('short', ShortLogFormatter,
1705
 
                                'Moderately short log format')
1706
 
log_formatter_registry.register('long', LongLogFormatter,
1707
 
                                'Detailed log format')
1708
 
log_formatter_registry.register('line', LineLogFormatter,
1709
 
                                'Log format with one line per revision')
1710
 
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1711
 
                                'Format used by GNU ChangeLog files')
1712
 
 
 
442
FORMATTERS = {
 
443
              'long': LongLogFormatter,
 
444
              'short': ShortLogFormatter,
 
445
              'line': LineLogFormatter,
 
446
              }
1713
447
 
1714
448
def register_formatter(name, formatter):
1715
 
    log_formatter_registry.register(name, formatter)
1716
 
 
 
449
    FORMATTERS[name] = formatter
1717
450
 
1718
451
def log_formatter(name, *args, **kwargs):
1719
452
    """Construct a formatter from arguments.
1721
454
    name -- Name of the formatter to construct; currently 'long', 'short' and
1722
455
        'line' are supported.
1723
456
    """
 
457
    from bzrlib.errors import BzrCommandError
1724
458
    try:
1725
 
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
 
459
        return FORMATTERS[name](*args, **kwargs)
1726
460
    except KeyError:
1727
 
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
1728
 
 
 
461
        raise BzrCommandError("unknown log formatter: %r" % name)
1729
462
 
1730
463
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
1731
464
    # deprecated; for compatibility
1732
465
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
1733
466
    lf.show(revno, rev, delta)
1734
467
 
1735
 
 
1736
 
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
1737
 
                           log_format='long'):
 
468
def show_changed_revisions(branch, old_rh, new_rh, to_file=None, log_format='long'):
1738
469
    """Show the change in revision history comparing the old revision history to the new one.
1739
470
 
1740
471
    :param branch: The branch where the revisions exist
1743
474
    :param to_file: A file to write the results to. If None, stdout will be used
1744
475
    """
1745
476
    if to_file is None:
1746
 
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
1747
 
            errors='replace')
 
477
        import sys
 
478
        import codecs
 
479
        import bzrlib
 
480
        to_file = codecs.getwriter(bzrlib.user_encoding)(sys.stdout, errors='replace')
1748
481
    lf = log_formatter(log_format,
1749
482
                       show_ids=False,
1750
483
                       to_file=to_file,
1772
505
        to_file.write('\nRemoved Revisions:\n')
1773
506
        for i in range(base_idx, len(old_rh)):
1774
507
            rev = branch.repository.get_revision(old_rh[i])
1775
 
            lr = LogRevision(rev, i+1, 0, None)
1776
 
            lf.log_revision(lr)
 
508
            lf.show(i+1, rev, None)
1777
509
        to_file.write('*'*60)
1778
510
        to_file.write('\n\n')
1779
511
    if base_idx < len(new_rh):
1781
513
        show_log(branch,
1782
514
                 lf,
1783
515
                 None,
1784
 
                 verbose=False,
 
516
                 verbose=True,
1785
517
                 direction='forward',
1786
518
                 start_revision=base_idx+1,
1787
519
                 end_revision=len(new_rh),
1788
520
                 search=None)
1789
521
 
1790
 
 
1791
 
def get_history_change(old_revision_id, new_revision_id, repository):
1792
 
    """Calculate the uncommon lefthand history between two revisions.
1793
 
 
1794
 
    :param old_revision_id: The original revision id.
1795
 
    :param new_revision_id: The new revision id.
1796
 
    :param repository: The repository to use for the calculation.
1797
 
 
1798
 
    return old_history, new_history
1799
 
    """
1800
 
    old_history = []
1801
 
    old_revisions = set()
1802
 
    new_history = []
1803
 
    new_revisions = set()
1804
 
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
1805
 
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
1806
 
    stop_revision = None
1807
 
    do_old = True
1808
 
    do_new = True
1809
 
    while do_new or do_old:
1810
 
        if do_new:
1811
 
            try:
1812
 
                new_revision = new_iter.next()
1813
 
            except StopIteration:
1814
 
                do_new = False
1815
 
            else:
1816
 
                new_history.append(new_revision)
1817
 
                new_revisions.add(new_revision)
1818
 
                if new_revision in old_revisions:
1819
 
                    stop_revision = new_revision
1820
 
                    break
1821
 
        if do_old:
1822
 
            try:
1823
 
                old_revision = old_iter.next()
1824
 
            except StopIteration:
1825
 
                do_old = False
1826
 
            else:
1827
 
                old_history.append(old_revision)
1828
 
                old_revisions.add(old_revision)
1829
 
                if old_revision in new_revisions:
1830
 
                    stop_revision = old_revision
1831
 
                    break
1832
 
    new_history.reverse()
1833
 
    old_history.reverse()
1834
 
    if stop_revision is not None:
1835
 
        new_history = new_history[new_history.index(stop_revision) + 1:]
1836
 
        old_history = old_history[old_history.index(stop_revision) + 1:]
1837
 
    return old_history, new_history
1838
 
 
1839
 
 
1840
 
def show_branch_change(branch, output, old_revno, old_revision_id):
1841
 
    """Show the changes made to a branch.
1842
 
 
1843
 
    :param branch: The branch to show changes about.
1844
 
    :param output: A file-like object to write changes to.
1845
 
    :param old_revno: The revno of the old tip.
1846
 
    :param old_revision_id: The revision_id of the old tip.
1847
 
    """
1848
 
    new_revno, new_revision_id = branch.last_revision_info()
1849
 
    old_history, new_history = get_history_change(old_revision_id,
1850
 
                                                  new_revision_id,
1851
 
                                                  branch.repository)
1852
 
    if old_history == [] and new_history == []:
1853
 
        output.write('Nothing seems to have changed\n')
1854
 
        return
1855
 
 
1856
 
    log_format = log_formatter_registry.get_default(branch)
1857
 
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
1858
 
    if old_history != []:
1859
 
        output.write('*'*60)
1860
 
        output.write('\nRemoved Revisions:\n')
1861
 
        show_flat_log(branch.repository, old_history, old_revno, lf)
1862
 
        output.write('*'*60)
1863
 
        output.write('\n\n')
1864
 
    if new_history != []:
1865
 
        output.write('Added Revisions:\n')
1866
 
        start_revno = new_revno - len(new_history) + 1
1867
 
        show_log(branch, lf, None, verbose=False, direction='forward',
1868
 
                 start_revision=start_revno,)
1869
 
 
1870
 
 
1871
 
def show_flat_log(repository, history, last_revno, lf):
1872
 
    """Show a simple log of the specified history.
1873
 
 
1874
 
    :param repository: The repository to retrieve revisions from.
1875
 
    :param history: A list of revision_ids indicating the lefthand history.
1876
 
    :param last_revno: The revno of the last revision_id in the history.
1877
 
    :param lf: The log formatter to use.
1878
 
    """
1879
 
    start_revno = last_revno - len(history) + 1
1880
 
    revisions = repository.get_revisions(history)
1881
 
    for i, rev in enumerate(revisions):
1882
 
        lr = LogRevision(rev, i + last_revno, 0, None)
1883
 
        lf.log_revision(lr)
1884
 
 
1885
 
 
1886
 
def _get_info_for_log_files(revisionspec_list, file_list):
1887
 
    """Find file-ids and kinds given a list of files and a revision range.
1888
 
 
1889
 
    We search for files at the end of the range. If not found there,
1890
 
    we try the start of the range.
1891
 
 
1892
 
    :param revisionspec_list: revision range as parsed on the command line
1893
 
    :param file_list: the list of paths given on the command line;
1894
 
      the first of these can be a branch location or a file path,
1895
 
      the remainder must be file paths
1896
 
    :return: (branch, info_list, start_rev_info, end_rev_info) where
1897
 
      info_list is a list of (relative_path, file_id, kind) tuples where
1898
 
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
1899
 
      branch will be read-locked.
1900
 
    """
1901
 
    from builtins import _get_revision_range, safe_relpath_files
1902
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
1903
 
    b.lock_read()
1904
 
    # XXX: It's damn messy converting a list of paths to relative paths when
1905
 
    # those paths might be deleted ones, they might be on a case-insensitive
1906
 
    # filesystem and/or they might be in silly locations (like another branch).
1907
 
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
1908
 
    # file2 implicitly in the same dir as file1 or should its directory be
1909
 
    # taken from the current tree somehow?) For now, this solves the common
1910
 
    # case of running log in a nested directory, assuming paths beyond the
1911
 
    # first one haven't been deleted ...
1912
 
    if tree:
1913
 
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
1914
 
    else:
1915
 
        relpaths = [path] + file_list[1:]
1916
 
    info_list = []
1917
 
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
1918
 
        "log")
1919
 
    if relpaths in ([], [u'']):
1920
 
        return b, [], start_rev_info, end_rev_info
1921
 
    if start_rev_info is None and end_rev_info is None:
1922
 
        if tree is None:
1923
 
            tree = b.basis_tree()
1924
 
        tree1 = None
1925
 
        for fp in relpaths:
1926
 
            file_id = tree.path2id(fp)
1927
 
            kind = _get_kind_for_file_id(tree, file_id)
1928
 
            if file_id is None:
1929
 
                # go back to when time began
1930
 
                if tree1 is None:
1931
 
                    try:
1932
 
                        rev1 = b.get_rev_id(1)
1933
 
                    except errors.NoSuchRevision:
1934
 
                        # No history at all
1935
 
                        file_id = None
1936
 
                        kind = None
1937
 
                    else:
1938
 
                        tree1 = b.repository.revision_tree(rev1)
1939
 
                if tree1:
1940
 
                    file_id = tree1.path2id(fp)
1941
 
                    kind = _get_kind_for_file_id(tree1, file_id)
1942
 
            info_list.append((fp, file_id, kind))
1943
 
 
1944
 
    elif start_rev_info == end_rev_info:
1945
 
        # One revision given - file must exist in it
1946
 
        tree = b.repository.revision_tree(end_rev_info.rev_id)
1947
 
        for fp in relpaths:
1948
 
            file_id = tree.path2id(fp)
1949
 
            kind = _get_kind_for_file_id(tree, file_id)
1950
 
            info_list.append((fp, file_id, kind))
1951
 
 
1952
 
    else:
1953
 
        # Revision range given. Get the file-id from the end tree.
1954
 
        # If that fails, try the start tree.
1955
 
        rev_id = end_rev_info.rev_id
1956
 
        if rev_id is None:
1957
 
            tree = b.basis_tree()
1958
 
        else:
1959
 
            tree = b.repository.revision_tree(rev_id)
1960
 
        tree1 = None
1961
 
        for fp in relpaths:
1962
 
            file_id = tree.path2id(fp)
1963
 
            kind = _get_kind_for_file_id(tree, file_id)
1964
 
            if file_id is None:
1965
 
                if tree1 is None:
1966
 
                    rev_id = start_rev_info.rev_id
1967
 
                    if rev_id is None:
1968
 
                        rev1 = b.get_rev_id(1)
1969
 
                        tree1 = b.repository.revision_tree(rev1)
1970
 
                    else:
1971
 
                        tree1 = b.repository.revision_tree(rev_id)
1972
 
                file_id = tree1.path2id(fp)
1973
 
                kind = _get_kind_for_file_id(tree1, file_id)
1974
 
            info_list.append((fp, file_id, kind))
1975
 
    return b, info_list, start_rev_info, end_rev_info
1976
 
 
1977
 
 
1978
 
def _get_kind_for_file_id(tree, file_id):
1979
 
    """Return the kind of a file-id or None if it doesn't exist."""
1980
 
    if file_id is not None:
1981
 
        return tree.kind(file_id)
1982
 
    else:
1983
 
        return None
1984
 
 
1985
 
 
1986
 
properties_handler_registry = registry.Registry()
1987
 
 
1988
 
# Use the properties handlers to print out bug information if available
1989
 
def _bugs_properties_handler(revision):
1990
 
    if revision.properties.has_key('bugs'):
1991
 
        bug_lines = revision.properties['bugs'].split('\n')
1992
 
        bug_rows = [line.split(' ', 1) for line in bug_lines]
1993
 
        fixed_bug_urls = [row[0] for row in bug_rows if
1994
 
                          len(row) > 1 and row[1] == 'fixed']
1995
 
        
1996
 
        if fixed_bug_urls:
1997
 
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
1998
 
    return {}
1999
 
 
2000
 
properties_handler_registry.register('bugs_properties_handler',
2001
 
                                     _bugs_properties_handler)
2002
 
 
2003
 
 
2004
 
# adapters which revision ids to log are filtered. When log is called, the
2005
 
# log_rev_iterator is adapted through each of these factory methods.
2006
 
# Plugins are welcome to mutate this list in any way they like - as long
2007
 
# as the overall behaviour is preserved. At this point there is no extensible
2008
 
# mechanism for getting parameters to each factory method, and until there is
2009
 
# this won't be considered a stable api.
2010
 
log_adapters = [
2011
 
    # core log logic
2012
 
    _make_batch_filter,
2013
 
    # read revision objects
2014
 
    _make_revision_objects,
2015
 
    # filter on log messages
2016
 
    _make_search_filter,
2017
 
    # generate deltas for things we will show
2018
 
    _make_delta_filter
2019
 
    ]