~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

[merge] sftp fixes

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007, 2009 Canonical Ltd
2
 
#
 
1
# Copyright (C) 2005 Canonical Ltd
 
2
 
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
#
 
7
 
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
#
 
12
 
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
 
18
18
 
42
42
 
43
43
In verbose mode we show a summary of what changed in each particular
44
44
revision.  Note that this is the delta for changes in that revision
45
 
relative to its left-most parent, not the delta relative to the last
 
45
relative to its mainline parent, not the delta relative to the last
46
46
logged revision.  So for example if you ask for a verbose log of
47
47
changes touching hello.c you will get a list of those revisions also
48
48
listing other things that were changed in the same revision, but not
49
49
all the changes since the previous revision that touched hello.c.
50
50
"""
51
51
 
52
 
import codecs
53
 
from cStringIO import StringIO
54
 
from itertools import (
55
 
    chain,
56
 
    izip,
57
 
    )
 
52
 
 
53
import bzrlib.errors as errors
 
54
from bzrlib.tree import EmptyTree
 
55
from bzrlib.delta import compare_trees
 
56
from bzrlib.trace import mutter
58
57
import re
59
 
import sys
60
 
from warnings import (
61
 
    warn,
62
 
    )
63
 
 
64
 
from bzrlib.lazy_import import lazy_import
65
 
lazy_import(globals(), """
66
 
 
67
 
from bzrlib import (
68
 
    bzrdir,
69
 
    config,
70
 
    diff,
71
 
    errors,
72
 
    foreign,
73
 
    repository as _mod_repository,
74
 
    revision as _mod_revision,
75
 
    revisionspec,
76
 
    trace,
77
 
    tsort,
78
 
    )
79
 
""")
80
 
 
81
 
from bzrlib import (
82
 
    registry,
83
 
    )
84
 
from bzrlib.osutils import (
85
 
    format_date,
86
 
    get_terminal_encoding,
87
 
    re_compile_checked,
88
 
    terminal_width,
89
 
    )
90
58
 
91
59
 
92
60
def find_touching_revisions(branch, file_id):
104
72
    last_path = None
105
73
    revno = 1
106
74
    for revision_id in branch.revision_history():
107
 
        this_inv = branch.repository.get_revision_inventory(revision_id)
 
75
        this_inv = branch.get_revision_inventory(revision_id)
108
76
        if file_id in this_inv:
109
77
            this_ie = this_inv[file_id]
110
78
            this_path = this_inv.id2path(file_id)
133
101
        revno += 1
134
102
 
135
103
 
 
104
 
136
105
def _enumerate_history(branch):
137
106
    rh = []
138
107
    revno = 1
142
111
    return rh
143
112
 
144
113
 
 
114
def _get_revision_delta(branch, revno):
 
115
    """Return the delta for a mainline revision.
 
116
    
 
117
    This is used to show summaries in verbose logs, and also for finding 
 
118
    revisions which touch a given file."""
 
119
    # XXX: What are we supposed to do when showing a summary for something 
 
120
    # other than a mainline revision.  The delta to it's first parent, or
 
121
    # (more useful) the delta to a nominated other revision.
 
122
    return branch.get_revision_delta(revno)
 
123
 
 
124
 
145
125
def show_log(branch,
146
126
             lf,
147
127
             specific_fileid=None,
149
129
             direction='reverse',
150
130
             start_revision=None,
151
131
             end_revision=None,
152
 
             search=None,
153
 
             limit=None,
154
 
             show_diff=False):
 
132
             search=None):
155
133
    """Write out human-readable log of commits to this branch.
156
134
 
157
 
    This function is being retained for backwards compatibility but
158
 
    should not be extended with new parameters. Use the new Logger class
159
 
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
160
 
    make_log_request_dict function.
161
 
 
162
 
    :param lf: The LogFormatter object showing the output.
163
 
 
164
 
    :param specific_fileid: If not None, list only the commits affecting the
165
 
        specified file, rather than all commits.
166
 
 
167
 
    :param verbose: If True show added/changed/deleted/renamed files.
168
 
 
169
 
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
170
 
        earliest to latest.
171
 
 
172
 
    :param start_revision: If not None, only show revisions >= start_revision
173
 
 
174
 
    :param end_revision: If not None, only show revisions <= end_revision
175
 
 
176
 
    :param search: If not None, only show revisions with matching commit
177
 
        messages
178
 
 
179
 
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
180
 
        if None or 0.
181
 
 
182
 
    :param show_diff: If True, output a diff after each revision.
183
 
    """
184
 
    # Convert old-style parameters to new-style parameters
185
 
    if specific_fileid is not None:
186
 
        file_ids = [specific_fileid]
187
 
    else:
188
 
        file_ids = None
189
 
    if verbose:
190
 
        if file_ids:
191
 
            delta_type = 'partial'
192
 
        else:
193
 
            delta_type = 'full'
194
 
    else:
195
 
        delta_type = None
196
 
    if show_diff:
197
 
        if file_ids:
198
 
            diff_type = 'partial'
199
 
        else:
200
 
            diff_type = 'full'
201
 
    else:
202
 
        diff_type = None
203
 
 
204
 
    # Build the request and execute it
205
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
206
 
        start_revision=start_revision, end_revision=end_revision,
207
 
        limit=limit, message_search=search,
208
 
        delta_type=delta_type, diff_type=diff_type)
209
 
    Logger(branch, rqst).show(lf)
210
 
 
211
 
 
212
 
# Note: This needs to be kept this in sync with the defaults in
213
 
# make_log_request_dict() below
214
 
_DEFAULT_REQUEST_PARAMS = {
215
 
    'direction': 'reverse',
216
 
    'levels': 1,
217
 
    'generate_tags': True,
218
 
    '_match_using_deltas': True,
219
 
    }
220
 
 
221
 
 
222
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
223
 
    start_revision=None, end_revision=None, limit=None,
224
 
    message_search=None, levels=1, generate_tags=True, delta_type=None,
225
 
    diff_type=None, _match_using_deltas=True):
226
 
    """Convenience function for making a logging request dictionary.
227
 
 
228
 
    Using this function may make code slightly safer by ensuring
229
 
    parameters have the correct names. It also provides a reference
230
 
    point for documenting the supported parameters.
231
 
 
232
 
    :param direction: 'reverse' (default) is latest to earliest;
233
 
      'forward' is earliest to latest.
234
 
 
235
 
    :param specific_fileids: If not None, only include revisions
236
 
      affecting the specified files, rather than all revisions.
237
 
 
238
 
    :param start_revision: If not None, only generate
239
 
      revisions >= start_revision
240
 
 
241
 
    :param end_revision: If not None, only generate
242
 
      revisions <= end_revision
243
 
 
244
 
    :param limit: If set, generate only 'limit' revisions, all revisions
245
 
      are shown if None or 0.
246
 
 
247
 
    :param message_search: If not None, only include revisions with
248
 
      matching commit messages
249
 
 
250
 
    :param levels: the number of levels of revisions to
251
 
      generate; 1 for just the mainline; 0 for all levels.
252
 
 
253
 
    :param generate_tags: If True, include tags for matched revisions.
254
 
 
255
 
    :param delta_type: Either 'full', 'partial' or None.
256
 
      'full' means generate the complete delta - adds/deletes/modifies/etc;
257
 
      'partial' means filter the delta using specific_fileids;
258
 
      None means do not generate any delta.
259
 
 
260
 
    :param diff_type: Either 'full', 'partial' or None.
261
 
      'full' means generate the complete diff - adds/deletes/modifies/etc;
262
 
      'partial' means filter the diff using specific_fileids;
263
 
      None means do not generate any diff.
264
 
 
265
 
    :param _match_using_deltas: a private parameter controlling the
266
 
      algorithm used for matching specific_fileids. This parameter
267
 
      may be removed in the future so bzrlib client code should NOT
268
 
      use it.
269
 
    """
270
 
    return {
271
 
        'direction': direction,
272
 
        'specific_fileids': specific_fileids,
273
 
        'start_revision': start_revision,
274
 
        'end_revision': end_revision,
275
 
        'limit': limit,
276
 
        'message_search': message_search,
277
 
        'levels': levels,
278
 
        'generate_tags': generate_tags,
279
 
        'delta_type': delta_type,
280
 
        'diff_type': diff_type,
281
 
        # Add 'private' attributes for features that may be deprecated
282
 
        '_match_using_deltas': _match_using_deltas,
283
 
    }
284
 
 
285
 
 
286
 
def _apply_log_request_defaults(rqst):
287
 
    """Apply default values to a request dictionary."""
288
 
    result = _DEFAULT_REQUEST_PARAMS
289
 
    if rqst:
290
 
        result.update(rqst)
291
 
    return result
292
 
 
293
 
 
294
 
class LogGenerator(object):
295
 
    """A generator of log revisions."""
296
 
 
297
 
    def iter_log_revisions(self):
298
 
        """Iterate over LogRevision objects.
299
 
 
300
 
        :return: An iterator yielding LogRevision objects.
301
 
        """
302
 
        raise NotImplementedError(self.iter_log_revisions)
303
 
 
304
 
 
305
 
class Logger(object):
306
 
    """An object the generates, formats and displays a log."""
307
 
 
308
 
    def __init__(self, branch, rqst):
309
 
        """Create a Logger.
310
 
 
311
 
        :param branch: the branch to log
312
 
        :param rqst: A dictionary specifying the query parameters.
313
 
          See make_log_request_dict() for supported values.
314
 
        """
315
 
        self.branch = branch
316
 
        self.rqst = _apply_log_request_defaults(rqst)
317
 
 
318
 
    def show(self, lf):
319
 
        """Display the log.
320
 
 
321
 
        :param lf: The LogFormatter object to send the output to.
322
 
        """
323
 
        if not isinstance(lf, LogFormatter):
324
 
            warn("not a LogFormatter instance: %r" % lf)
325
 
 
326
 
        self.branch.lock_read()
327
 
        try:
328
 
            if getattr(lf, 'begin_log', None):
329
 
                lf.begin_log()
330
 
            self._show_body(lf)
331
 
            if getattr(lf, 'end_log', None):
332
 
                lf.end_log()
333
 
        finally:
334
 
            self.branch.unlock()
335
 
 
336
 
    def _show_body(self, lf):
337
 
        """Show the main log output.
338
 
 
339
 
        Subclasses may wish to override this.
340
 
        """
341
 
        # Tweak the LogRequest based on what the LogFormatter can handle.
342
 
        # (There's no point generating stuff if the formatter can't display it.)
343
 
        rqst = self.rqst
344
 
        rqst['levels'] = lf.get_levels()
345
 
        if not getattr(lf, 'supports_tags', False):
346
 
            rqst['generate_tags'] = False
347
 
        if not getattr(lf, 'supports_delta', False):
348
 
            rqst['delta_type'] = None
349
 
        if not getattr(lf, 'supports_diff', False):
350
 
            rqst['diff_type'] = None
351
 
 
352
 
        # Find and print the interesting revisions
353
 
        generator = self._generator_factory(self.branch, rqst)
354
 
        for lr in generator.iter_log_revisions():
355
 
            lf.log_revision(lr)
356
 
        lf.show_advice()
357
 
 
358
 
    def _generator_factory(self, branch, rqst):
359
 
        """Make the LogGenerator object to use.
360
 
        
361
 
        Subclasses may wish to override this.
362
 
        """
363
 
        return _DefaultLogGenerator(branch, rqst)
364
 
 
365
 
 
366
 
class _StartNotLinearAncestor(Exception):
367
 
    """Raised when a start revision is not found walking left-hand history."""
368
 
 
369
 
 
370
 
class _DefaultLogGenerator(LogGenerator):
371
 
    """The default generator of log revisions."""
372
 
 
373
 
    def __init__(self, branch, rqst):
374
 
        self.branch = branch
375
 
        self.rqst = rqst
376
 
        if rqst.get('generate_tags') and branch.supports_tags():
377
 
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
378
 
        else:
379
 
            self.rev_tag_dict = {}
380
 
 
381
 
    def iter_log_revisions(self):
382
 
        """Iterate over LogRevision objects.
383
 
 
384
 
        :return: An iterator yielding LogRevision objects.
385
 
        """
386
 
        rqst = self.rqst
387
 
        log_count = 0
388
 
        revision_iterator = self._create_log_revision_iterator()
389
 
        for revs in revision_iterator:
390
 
            for (rev_id, revno, merge_depth), rev, delta in revs:
391
 
                # 0 levels means show everything; merge_depth counts from 0
392
 
                levels = rqst.get('levels')
393
 
                if levels != 0 and merge_depth >= levels:
394
 
                    continue
395
 
                diff = self._format_diff(rev, rev_id)
396
 
                yield LogRevision(rev, revno, merge_depth, delta,
397
 
                    self.rev_tag_dict.get(rev_id), diff)
398
 
                limit = rqst.get('limit')
399
 
                if limit:
400
 
                    log_count += 1
401
 
                    if log_count >= limit:
402
 
                        return
403
 
 
404
 
    def _format_diff(self, rev, rev_id):
405
 
        diff_type = self.rqst.get('diff_type')
406
 
        if diff_type is None:
407
 
            return None
408
 
        repo = self.branch.repository
409
 
        if len(rev.parent_ids) == 0:
410
 
            ancestor_id = _mod_revision.NULL_REVISION
411
 
        else:
412
 
            ancestor_id = rev.parent_ids[0]
413
 
        tree_1 = repo.revision_tree(ancestor_id)
414
 
        tree_2 = repo.revision_tree(rev_id)
415
 
        file_ids = self.rqst.get('specific_fileids')
416
 
        if diff_type == 'partial' and file_ids is not None:
417
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
418
 
        else:
419
 
            specific_files = None
420
 
        s = StringIO()
421
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
422
 
            new_label='')
423
 
        return s.getvalue()
424
 
 
425
 
    def _create_log_revision_iterator(self):
426
 
        """Create a revision iterator for log.
427
 
 
428
 
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
429
 
            delta).
430
 
        """
431
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
432
 
            self.branch, self.rqst.get('start_revision'),
433
 
            self.rqst.get('end_revision'))
434
 
        if self.rqst.get('_match_using_deltas'):
435
 
            return self._log_revision_iterator_using_delta_matching()
436
 
        else:
437
 
            # We're using the per-file-graph algorithm. This scales really
438
 
            # well but only makes sense if there is a single file and it's
439
 
            # not a directory
440
 
            file_count = len(self.rqst.get('specific_fileids'))
441
 
            if file_count != 1:
442
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
443
 
                    "when logging %d files" % file_count)
444
 
            return self._log_revision_iterator_using_per_file_graph()
445
 
 
446
 
    def _log_revision_iterator_using_delta_matching(self):
447
 
        # Get the base revisions, filtering by the revision range
448
 
        rqst = self.rqst
449
 
        generate_merge_revisions = rqst.get('levels') != 1
450
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
451
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
452
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
453
 
            self.end_rev_id, rqst.get('direction'), generate_merge_revisions,
454
 
            delayed_graph_generation=delayed_graph_generation)
455
 
 
456
 
        # Apply the other filters
457
 
        return make_log_rev_iterator(self.branch, view_revisions,
458
 
            rqst.get('delta_type'), rqst.get('message_search'),
459
 
            file_ids=rqst.get('specific_fileids'),
460
 
            direction=rqst.get('direction'))
461
 
 
462
 
    def _log_revision_iterator_using_per_file_graph(self):
463
 
        # Get the base revisions, filtering by the revision range.
464
 
        # Note that we always generate the merge revisions because
465
 
        # filter_revisions_touching_file_id() requires them ...
466
 
        rqst = self.rqst
467
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
468
 
            self.end_rev_id, rqst.get('direction'), True)
469
 
        if not isinstance(view_revisions, list):
470
 
            view_revisions = list(view_revisions)
471
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
472
 
            rqst.get('specific_fileids')[0], view_revisions,
473
 
            include_merges=rqst.get('levels') != 1)
474
 
        return make_log_rev_iterator(self.branch, view_revisions,
475
 
            rqst.get('delta_type'), rqst.get('message_search'))
476
 
 
477
 
 
478
 
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
479
 
    generate_merge_revisions, delayed_graph_generation=False):
480
 
    """Calculate the revisions to view.
481
 
 
482
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
483
 
             a list of the same tuples.
484
 
    """
485
 
    br_revno, br_rev_id = branch.last_revision_info()
486
 
    if br_revno == 0:
487
 
        return []
488
 
 
489
 
    # If a single revision is requested, check we can handle it
490
 
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
491
 
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
492
 
    if generate_single_revision:
493
 
        return _generate_one_revision(branch, end_rev_id, br_rev_id, br_revno)
494
 
 
495
 
    # If we only want to see linear revisions, we can iterate ...
496
 
    if not generate_merge_revisions:
497
 
        return _generate_flat_revisions(branch, start_rev_id, end_rev_id,
498
 
            direction)
499
 
    else:
500
 
        return _generate_all_revisions(branch, start_rev_id, end_rev_id,
501
 
            direction, delayed_graph_generation)
502
 
 
503
 
 
504
 
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
505
 
    if rev_id == br_rev_id:
506
 
        # It's the tip
507
 
        return [(br_rev_id, br_revno, 0)]
508
 
    else:
509
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
510
 
        revno_str = '.'.join(str(n) for n in revno)
511
 
        return [(rev_id, revno_str, 0)]
512
 
 
513
 
 
514
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
515
 
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
516
 
    # If a start limit was given and it's not obviously an
517
 
    # ancestor of the end limit, check it before outputting anything
518
 
    if direction == 'forward' or (start_rev_id
519
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
520
 
        try:
521
 
            result = list(result)
522
 
        except _StartNotLinearAncestor:
523
 
            raise errors.BzrCommandError('Start revision not found in'
524
 
                ' left-hand history of end revision.')
525
 
    if direction == 'forward':
526
 
        result = reversed(result)
527
 
    return result
528
 
 
529
 
 
530
 
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
531
 
    delayed_graph_generation):
532
 
    # On large trees, generating the merge graph can take 30-60 seconds
533
 
    # so we delay doing it until a merge is detected, incrementally
534
 
    # returning initial (non-merge) revisions while we can.
535
 
    initial_revisions = []
536
 
    if delayed_graph_generation:
537
 
        try:
538
 
            for rev_id, revno, depth in \
539
 
                _linear_view_revisions(branch, start_rev_id, end_rev_id):
540
 
                if _has_merges(branch, rev_id):
541
 
                    end_rev_id = rev_id
542
 
                    break
543
 
                else:
544
 
                    initial_revisions.append((rev_id, revno, depth))
545
 
            else:
546
 
                # No merged revisions found
547
 
                if direction == 'reverse':
548
 
                    return initial_revisions
549
 
                elif direction == 'forward':
550
 
                    return reversed(initial_revisions)
551
 
                else:
552
 
                    raise ValueError('invalid direction %r' % direction)
553
 
        except _StartNotLinearAncestor:
554
 
            # A merge was never detected so the lower revision limit can't
555
 
            # be nested down somewhere
556
 
            raise errors.BzrCommandError('Start revision not found in'
557
 
                ' history of end revision.')
558
 
 
559
 
    # A log including nested merges is required. If the direction is reverse,
560
 
    # we rebase the initial merge depths so that the development line is
561
 
    # shown naturally, i.e. just like it is for linear logging. We can easily
562
 
    # make forward the exact opposite display, but showing the merge revisions
563
 
    # indented at the end seems slightly nicer in that case.
564
 
    view_revisions = chain(iter(initial_revisions),
565
 
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
566
 
        rebase_initial_depths=direction == 'reverse'))
 
135
    lf
 
136
        LogFormatter object to show the output.
 
137
 
 
138
    specific_fileid
 
139
        If true, list only the commits affecting the specified
 
140
        file, rather than all commits.
 
141
 
 
142
    verbose
 
143
        If true show added/changed/deleted/renamed files.
 
144
 
 
145
    direction
 
146
        'reverse' (default) is latest to earliest;
 
147
        'forward' is earliest to latest.
 
148
 
 
149
    start_revision
 
150
        If not None, only show revisions >= start_revision
 
151
 
 
152
    end_revision
 
153
        If not None, only show revisions <= end_revision
 
154
    """
 
155
    branch.lock_read()
 
156
    try:
 
157
        _show_log(branch, lf, specific_fileid, verbose, direction,
 
158
                  start_revision, end_revision, search)
 
159
    finally:
 
160
        branch.unlock()
 
161
    
 
162
def _show_log(branch,
 
163
             lf,
 
164
             specific_fileid=None,
 
165
             verbose=False,
 
166
             direction='reverse',
 
167
             start_revision=None,
 
168
             end_revision=None,
 
169
             search=None):
 
170
    """Worker function for show_log - see show_log."""
 
171
    from bzrlib.osutils import format_date
 
172
    from bzrlib.errors import BzrCheckError
 
173
    from bzrlib.textui import show_status
 
174
    
 
175
    from warnings import warn
 
176
 
 
177
    if not isinstance(lf, LogFormatter):
 
178
        warn("not a LogFormatter instance: %r" % lf)
 
179
 
 
180
    if specific_fileid:
 
181
        mutter('get log for file_id %r', specific_fileid)
 
182
 
 
183
    if search is not None:
 
184
        import re
 
185
        searchRE = re.compile(search, re.IGNORECASE)
 
186
    else:
 
187
        searchRE = None
 
188
 
 
189
    which_revs = _enumerate_history(branch)
 
190
    
 
191
    if start_revision is None:
 
192
        start_revision = 1
 
193
    else:
 
194
        branch.check_real_revno(start_revision)
 
195
    
 
196
    if end_revision is None:
 
197
        end_revision = len(which_revs)
 
198
    else:
 
199
        branch.check_real_revno(end_revision)
 
200
 
 
201
    # list indexes are 0-based; revisions are 1-based
 
202
    cut_revs = which_revs[(start_revision-1):(end_revision)]
 
203
 
567
204
    if direction == 'reverse':
568
 
        return view_revisions
 
205
        cut_revs.reverse()
569
206
    elif direction == 'forward':
570
 
        # Forward means oldest first, adjusting for depth.
571
 
        view_revisions = reverse_by_depth(list(view_revisions))
572
 
        return _rebase_merge_depth(view_revisions)
 
207
        pass
573
208
    else:
574
209
        raise ValueError('invalid direction %r' % direction)
575
210
 
576
 
 
577
 
def _has_merges(branch, rev_id):
578
 
    """Does a revision have multiple parents or not?"""
579
 
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
580
 
    return len(parents) > 1
581
 
 
582
 
 
583
 
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
584
 
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
585
 
    if start_rev_id and end_rev_id:
586
 
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
587
 
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
588
 
        if len(start_dotted) == 1 and len(end_dotted) == 1:
589
 
            # both on mainline
590
 
            return start_dotted[0] <= end_dotted[0]
591
 
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
592
 
            start_dotted[0:1] == end_dotted[0:1]):
593
 
            # both on same development line
594
 
            return start_dotted[2] <= end_dotted[2]
595
 
        else:
596
 
            # not obvious
597
 
            return False
598
 
    return True
599
 
 
600
 
 
601
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
602
 
    """Calculate a sequence of revisions to view, newest to oldest.
603
 
 
604
 
    :param start_rev_id: the lower revision-id
605
 
    :param end_rev_id: the upper revision-id
606
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
607
 
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
608
 
      is not found walking the left-hand history
609
 
    """
610
 
    br_revno, br_rev_id = branch.last_revision_info()
611
 
    repo = branch.repository
612
 
    if start_rev_id is None and end_rev_id is None:
613
 
        cur_revno = br_revno
614
 
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
615
 
            yield revision_id, str(cur_revno), 0
616
 
            cur_revno -= 1
617
 
    else:
618
 
        if end_rev_id is None:
619
 
            end_rev_id = br_rev_id
620
 
        found_start = start_rev_id is None
621
 
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
622
 
            revno = branch.revision_id_to_dotted_revno(revision_id)
623
 
            revno_str = '.'.join(str(n) for n in revno)
624
 
            if not found_start and revision_id == start_rev_id:
625
 
                yield revision_id, revno_str, 0
626
 
                found_start = True
627
 
                break
 
211
    revision_history = branch.revision_history()
 
212
    for revno, rev_id in cut_revs:
 
213
        if verbose or specific_fileid:
 
214
            delta = _get_revision_delta(branch, revno)
 
215
            
 
216
        if specific_fileid:
 
217
            if not delta.touches_file_id(specific_fileid):
 
218
                continue
 
219
 
 
220
        if not verbose:
 
221
            # although we calculated it, throw it away without display
 
222
            delta = None
 
223
 
 
224
        rev = branch.get_revision(rev_id)
 
225
 
 
226
        if searchRE:
 
227
            if not searchRE.search(rev.message):
 
228
                continue
 
229
 
 
230
        lf.show(revno, rev, delta)
 
231
        if hasattr(lf, 'show_merge'):
 
232
            if revno == 1:
 
233
                excludes = set()
628
234
            else:
629
 
                yield revision_id, revno_str, 0
630
 
        else:
631
 
            if not found_start:
632
 
                raise _StartNotLinearAncestor()
633
 
 
634
 
 
635
 
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
636
 
    rebase_initial_depths=True):
637
 
    """Calculate revisions to view including merges, newest to oldest.
638
 
 
639
 
    :param branch: the branch
640
 
    :param start_rev_id: the lower revision-id
641
 
    :param end_rev_id: the upper revision-id
642
 
    :param rebase_initial_depth: should depths be rebased until a mainline
643
 
      revision is found?
644
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
645
 
    """
646
 
    view_revisions = branch.iter_merge_sorted_revisions(
647
 
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
648
 
        stop_rule="with-merges")
649
 
    if not rebase_initial_depths:
650
 
        for (rev_id, merge_depth, revno, end_of_merge
651
 
             ) in view_revisions:
652
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
653
 
    else:
654
 
        # We're following a development line starting at a merged revision.
655
 
        # We need to adjust depths down by the initial depth until we find
656
 
        # a depth less than it. Then we use that depth as the adjustment.
657
 
        # If and when we reach the mainline, depth adjustment ends.
658
 
        depth_adjustment = None
659
 
        for (rev_id, merge_depth, revno, end_of_merge
660
 
             ) in view_revisions:
661
 
            if depth_adjustment is None:
662
 
                depth_adjustment = merge_depth
663
 
            if depth_adjustment:
664
 
                if merge_depth < depth_adjustment:
665
 
                    depth_adjustment = merge_depth
666
 
                merge_depth -= depth_adjustment
667
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
668
 
 
669
 
 
670
 
def calculate_view_revisions(branch, start_revision, end_revision, direction,
671
 
        specific_fileid, generate_merge_revisions):
672
 
    """Calculate the revisions to view.
673
 
 
674
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
675
 
             a list of the same tuples.
676
 
    """
677
 
    # This method is no longer called by the main code path.
678
 
    # It is retained for API compatibility and may be deprecated
679
 
    # soon. IGC 20090116
680
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
681
 
        end_revision)
682
 
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
683
 
        direction, generate_merge_revisions or specific_fileid))
684
 
    if specific_fileid:
685
 
        view_revisions = _filter_revisions_touching_file_id(branch,
686
 
            specific_fileid, view_revisions,
687
 
            include_merges=generate_merge_revisions)
688
 
    return _rebase_merge_depth(view_revisions)
689
 
 
690
 
 
691
 
def _rebase_merge_depth(view_revisions):
692
 
    """Adjust depths upwards so the top level is 0."""
693
 
    # If either the first or last revision have a merge_depth of 0, we're done
694
 
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
695
 
        min_depth = min([d for r,n,d in view_revisions])
696
 
        if min_depth != 0:
697
 
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
698
 
    return view_revisions
699
 
 
700
 
 
701
 
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
702
 
        file_ids=None, direction='reverse'):
703
 
    """Create a revision iterator for log.
704
 
 
705
 
    :param branch: The branch being logged.
706
 
    :param view_revisions: The revisions being viewed.
707
 
    :param generate_delta: Whether to generate a delta for each revision.
708
 
      Permitted values are None, 'full' and 'partial'.
709
 
    :param search: A user text search string.
710
 
    :param file_ids: If non empty, only revisions matching one or more of
711
 
      the file-ids are to be kept.
712
 
    :param direction: the direction in which view_revisions is sorted
713
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
714
 
        delta).
715
 
    """
716
 
    # Convert view_revisions into (view, None, None) groups to fit with
717
 
    # the standard interface here.
718
 
    if type(view_revisions) == list:
719
 
        # A single batch conversion is faster than many incremental ones.
720
 
        # As we have all the data, do a batch conversion.
721
 
        nones = [None] * len(view_revisions)
722
 
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
723
 
    else:
724
 
        def _convert():
725
 
            for view in view_revisions:
726
 
                yield (view, None, None)
727
 
        log_rev_iterator = iter([_convert()])
728
 
    for adapter in log_adapters:
729
 
        # It would be nicer if log adapters were first class objects
730
 
        # with custom parameters. This will do for now. IGC 20090127
731
 
        if adapter == _make_delta_filter:
732
 
            log_rev_iterator = adapter(branch, generate_delta,
733
 
                search, log_rev_iterator, file_ids, direction)
734
 
        else:
735
 
            log_rev_iterator = adapter(branch, generate_delta,
736
 
                search, log_rev_iterator)
737
 
    return log_rev_iterator
738
 
 
739
 
 
740
 
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
741
 
    """Create a filtered iterator of log_rev_iterator matching on a regex.
742
 
 
743
 
    :param branch: The branch being logged.
744
 
    :param generate_delta: Whether to generate a delta for each revision.
745
 
    :param search: A user text search string.
746
 
    :param log_rev_iterator: An input iterator containing all revisions that
747
 
        could be displayed, in lists.
748
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
749
 
        delta).
750
 
    """
751
 
    if search is None:
752
 
        return log_rev_iterator
753
 
    searchRE = re_compile_checked(search, re.IGNORECASE,
754
 
            'log message filter')
755
 
    return _filter_message_re(searchRE, log_rev_iterator)
756
 
 
757
 
 
758
 
def _filter_message_re(searchRE, log_rev_iterator):
759
 
    for revs in log_rev_iterator:
760
 
        new_revs = []
761
 
        for (rev_id, revno, merge_depth), rev, delta in revs:
762
 
            if searchRE.search(rev.message):
763
 
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
764
 
        yield new_revs
765
 
 
766
 
 
767
 
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
768
 
    fileids=None, direction='reverse'):
769
 
    """Add revision deltas to a log iterator if needed.
770
 
 
771
 
    :param branch: The branch being logged.
772
 
    :param generate_delta: Whether to generate a delta for each revision.
773
 
      Permitted values are None, 'full' and 'partial'.
774
 
    :param search: A user text search string.
775
 
    :param log_rev_iterator: An input iterator containing all revisions that
776
 
        could be displayed, in lists.
777
 
    :param fileids: If non empty, only revisions matching one or more of
778
 
      the file-ids are to be kept.
779
 
    :param direction: the direction in which view_revisions is sorted
780
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
781
 
        delta).
782
 
    """
783
 
    if not generate_delta and not fileids:
784
 
        return log_rev_iterator
785
 
    return _generate_deltas(branch.repository, log_rev_iterator,
786
 
        generate_delta, fileids, direction)
787
 
 
788
 
 
789
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
790
 
    direction):
791
 
    """Create deltas for each batch of revisions in log_rev_iterator.
792
 
 
793
 
    If we're only generating deltas for the sake of filtering against
794
 
    file-ids, we stop generating deltas once all file-ids reach the
795
 
    appropriate life-cycle point. If we're receiving data newest to
796
 
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
797
 
    """
798
 
    check_fileids = fileids is not None and len(fileids) > 0
799
 
    if check_fileids:
800
 
        fileid_set = set(fileids)
801
 
        if direction == 'reverse':
802
 
            stop_on = 'add'
803
 
        else:
804
 
            stop_on = 'remove'
805
 
    else:
806
 
        fileid_set = None
807
 
    for revs in log_rev_iterator:
808
 
        # If we were matching against fileids and we've run out,
809
 
        # there's nothing left to do
810
 
        if check_fileids and not fileid_set:
811
 
            return
812
 
        revisions = [rev[1] for rev in revs]
813
 
        new_revs = []
814
 
        if delta_type == 'full' and not check_fileids:
815
 
            deltas = repository.get_deltas_for_revisions(revisions)
816
 
            for rev, delta in izip(revs, deltas):
817
 
                new_revs.append((rev[0], rev[1], delta))
818
 
        else:
819
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
820
 
            for rev, delta in izip(revs, deltas):
821
 
                if check_fileids:
822
 
                    if delta is None or not delta.has_changed():
823
 
                        continue
824
 
                    else:
825
 
                        _update_fileids(delta, fileid_set, stop_on)
826
 
                        if delta_type is None:
827
 
                            delta = None
828
 
                        elif delta_type == 'full':
829
 
                            # If the file matches all the time, rebuilding
830
 
                            # a full delta like this in addition to a partial
831
 
                            # one could be slow. However, it's likely that
832
 
                            # most revisions won't get this far, making it
833
 
                            # faster to filter on the partial deltas and
834
 
                            # build the occasional full delta than always
835
 
                            # building full deltas and filtering those.
836
 
                            rev_id = rev[0][0]
837
 
                            delta = repository.get_revision_delta(rev_id)
838
 
                new_revs.append((rev[0], rev[1], delta))
839
 
        yield new_revs
840
 
 
841
 
 
842
 
def _update_fileids(delta, fileids, stop_on):
843
 
    """Update the set of file-ids to search based on file lifecycle events.
 
235
                # revno is 1 based, so -2 to get back 1 less.
 
236
                excludes = set(branch.get_ancestry(revision_history[revno - 2]))
 
237
            pending = list(rev.parent_ids)
 
238
            while pending:
 
239
                rev_id = pending.pop()
 
240
                if rev_id in excludes:
 
241
                    continue
 
242
                # prevent showing merged revs twice if they multi-path.
 
243
                excludes.add(rev_id)
 
244
                try:
 
245
                    rev = branch.get_revision(rev_id)
 
246
                except errors.NoSuchRevision:
 
247
                    continue
 
248
                pending.extend(rev.parent_ids)
 
249
                lf.show_merge(rev)
 
250
 
 
251
 
 
252
def deltas_for_log_dummy(branch, which_revs):
 
253
    """Return all the revisions without intermediate deltas.
 
254
 
 
255
    Useful for log commands that won't need the delta information.
 
256
    """
844
257
    
845
 
    :param fileids: a set of fileids to update
846
 
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
847
 
      fileids set once their add or remove entry is detected respectively
848
 
    """
849
 
    if stop_on == 'add':
850
 
        for item in delta.added:
851
 
            if item[1] in fileids:
852
 
                fileids.remove(item[1])
853
 
    elif stop_on == 'delete':
854
 
        for item in delta.removed:
855
 
            if item[1] in fileids:
856
 
                fileids.remove(item[1])
857
 
 
858
 
 
859
 
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
860
 
    """Extract revision objects from the repository
861
 
 
862
 
    :param branch: The branch being logged.
863
 
    :param generate_delta: Whether to generate a delta for each revision.
864
 
    :param search: A user text search string.
865
 
    :param log_rev_iterator: An input iterator containing all revisions that
866
 
        could be displayed, in lists.
867
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
868
 
        delta).
869
 
    """
870
 
    repository = branch.repository
871
 
    for revs in log_rev_iterator:
872
 
        # r = revision_id, n = revno, d = merge depth
873
 
        revision_ids = [view[0] for view, _, _ in revs]
874
 
        revisions = repository.get_revisions(revision_ids)
875
 
        revs = [(rev[0], revision, rev[2]) for rev, revision in
876
 
            izip(revs, revisions)]
877
 
        yield revs
878
 
 
879
 
 
880
 
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
881
 
    """Group up a single large batch into smaller ones.
882
 
 
883
 
    :param branch: The branch being logged.
884
 
    :param generate_delta: Whether to generate a delta for each revision.
885
 
    :param search: A user text search string.
886
 
    :param log_rev_iterator: An input iterator containing all revisions that
887
 
        could be displayed, in lists.
888
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
889
 
        delta).
890
 
    """
891
 
    repository = branch.repository
892
 
    num = 9
893
 
    for batch in log_rev_iterator:
894
 
        batch = iter(batch)
895
 
        while True:
896
 
            step = [detail for _, detail in zip(range(num), batch)]
897
 
            if len(step) == 0:
898
 
                break
899
 
            yield step
900
 
            num = min(int(num * 1.5), 200)
901
 
 
902
 
 
903
 
def _get_revision_limits(branch, start_revision, end_revision):
904
 
    """Get and check revision limits.
905
 
 
906
 
    :param  branch: The branch containing the revisions.
907
 
 
908
 
    :param  start_revision: The first revision to be logged.
909
 
            For backwards compatibility this may be a mainline integer revno,
910
 
            but for merge revision support a RevisionInfo is expected.
911
 
 
912
 
    :param  end_revision: The last revision to be logged.
913
 
            For backwards compatibility this may be a mainline integer revno,
914
 
            but for merge revision support a RevisionInfo is expected.
915
 
 
916
 
    :return: (start_rev_id, end_rev_id) tuple.
917
 
    """
918
 
    branch_revno, branch_rev_id = branch.last_revision_info()
919
 
    start_rev_id = None
920
 
    if start_revision is None:
921
 
        start_revno = 1
922
 
    else:
923
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
924
 
            start_rev_id = start_revision.rev_id
925
 
            start_revno = start_revision.revno or 1
926
 
        else:
927
 
            branch.check_real_revno(start_revision)
928
 
            start_revno = start_revision
929
 
            start_rev_id = branch.get_rev_id(start_revno)
930
 
 
931
 
    end_rev_id = None
932
 
    if end_revision is None:
933
 
        end_revno = branch_revno
934
 
    else:
935
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
936
 
            end_rev_id = end_revision.rev_id
937
 
            end_revno = end_revision.revno or branch_revno
938
 
        else:
939
 
            branch.check_real_revno(end_revision)
940
 
            end_revno = end_revision
941
 
            end_rev_id = branch.get_rev_id(end_revno)
942
 
 
943
 
    if branch_revno != 0:
944
 
        if (start_rev_id == _mod_revision.NULL_REVISION
945
 
            or end_rev_id == _mod_revision.NULL_REVISION):
946
 
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
947
 
        if start_revno > end_revno:
948
 
            raise errors.BzrCommandError("Start revision must be older than "
949
 
                                         "the end revision.")
950
 
    return (start_rev_id, end_rev_id)
951
 
 
952
 
 
953
 
def _get_mainline_revs(branch, start_revision, end_revision):
954
 
    """Get the mainline revisions from the branch.
955
 
 
956
 
    Generates the list of mainline revisions for the branch.
957
 
 
958
 
    :param  branch: The branch containing the revisions.
959
 
 
960
 
    :param  start_revision: The first revision to be logged.
961
 
            For backwards compatibility this may be a mainline integer revno,
962
 
            but for merge revision support a RevisionInfo is expected.
963
 
 
964
 
    :param  end_revision: The last revision to be logged.
965
 
            For backwards compatibility this may be a mainline integer revno,
966
 
            but for merge revision support a RevisionInfo is expected.
967
 
 
968
 
    :return: A (mainline_revs, rev_nos, start_rev_id, end_rev_id) tuple.
969
 
    """
970
 
    branch_revno, branch_last_revision = branch.last_revision_info()
971
 
    if branch_revno == 0:
972
 
        return None, None, None, None
973
 
 
974
 
    # For mainline generation, map start_revision and end_revision to
975
 
    # mainline revnos. If the revision is not on the mainline choose the
976
 
    # appropriate extreme of the mainline instead - the extra will be
977
 
    # filtered later.
978
 
    # Also map the revisions to rev_ids, to be used in the later filtering
979
 
    # stage.
980
 
    start_rev_id = None
981
 
    if start_revision is None:
982
 
        start_revno = 1
983
 
    else:
984
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
985
 
            start_rev_id = start_revision.rev_id
986
 
            start_revno = start_revision.revno or 1
987
 
        else:
988
 
            branch.check_real_revno(start_revision)
989
 
            start_revno = start_revision
990
 
 
991
 
    end_rev_id = None
992
 
    if end_revision is None:
993
 
        end_revno = branch_revno
994
 
    else:
995
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
996
 
            end_rev_id = end_revision.rev_id
997
 
            end_revno = end_revision.revno or branch_revno
998
 
        else:
999
 
            branch.check_real_revno(end_revision)
1000
 
            end_revno = end_revision
1001
 
 
1002
 
    if ((start_rev_id == _mod_revision.NULL_REVISION)
1003
 
        or (end_rev_id == _mod_revision.NULL_REVISION)):
1004
 
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
1005
 
    if start_revno > end_revno:
1006
 
        raise errors.BzrCommandError("Start revision must be older than "
1007
 
                                     "the end revision.")
1008
 
 
1009
 
    if end_revno < start_revno:
1010
 
        return None, None, None, None
1011
 
    cur_revno = branch_revno
1012
 
    rev_nos = {}
1013
 
    mainline_revs = []
1014
 
    for revision_id in branch.repository.iter_reverse_revision_history(
1015
 
                        branch_last_revision):
1016
 
        if cur_revno < start_revno:
1017
 
            # We have gone far enough, but we always add 1 more revision
1018
 
            rev_nos[revision_id] = cur_revno
1019
 
            mainline_revs.append(revision_id)
1020
 
            break
1021
 
        if cur_revno <= end_revno:
1022
 
            rev_nos[revision_id] = cur_revno
1023
 
            mainline_revs.append(revision_id)
1024
 
        cur_revno -= 1
1025
 
    else:
1026
 
        # We walked off the edge of all revisions, so we add a 'None' marker
1027
 
        mainline_revs.append(None)
1028
 
 
1029
 
    mainline_revs.reverse()
1030
 
 
1031
 
    # override the mainline to look like the revision history.
1032
 
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1033
 
 
1034
 
 
1035
 
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1036
 
    """Filter view_revisions based on revision ranges.
1037
 
 
1038
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1039
 
            tuples to be filtered.
1040
 
 
1041
 
    :param start_rev_id: If not NONE specifies the first revision to be logged.
1042
 
            If NONE then all revisions up to the end_rev_id are logged.
1043
 
 
1044
 
    :param end_rev_id: If not NONE specifies the last revision to be logged.
1045
 
            If NONE then all revisions up to the end of the log are logged.
1046
 
 
1047
 
    :return: The filtered view_revisions.
1048
 
    """
1049
 
    # This method is no longer called by the main code path.
1050
 
    # It may be removed soon. IGC 20090127
1051
 
    if start_rev_id or end_rev_id:
1052
 
        revision_ids = [r for r, n, d in view_revisions]
1053
 
        if start_rev_id:
1054
 
            start_index = revision_ids.index(start_rev_id)
1055
 
        else:
1056
 
            start_index = 0
1057
 
        if start_rev_id == end_rev_id:
1058
 
            end_index = start_index
1059
 
        else:
1060
 
            if end_rev_id:
1061
 
                end_index = revision_ids.index(end_rev_id)
 
258
    for revno, revision_id in which_revs:
 
259
        yield revno, branch.get_revision(revision_id), None
 
260
 
 
261
 
 
262
def deltas_for_log_reverse(branch, which_revs):
 
263
    """Compute deltas for display in latest-to-earliest order.
 
264
 
 
265
    branch
 
266
        Branch to traverse
 
267
 
 
268
    which_revs
 
269
        Sequence of (revno, revision_id) for the subset of history to examine
 
270
 
 
271
    returns 
 
272
        Sequence of (revno, rev, delta)
 
273
 
 
274
    The delta is from the given revision to the next one in the
 
275
    sequence, which makes sense if the log is being displayed from
 
276
    newest to oldest.
 
277
    """
 
278
    last_revno = last_revision_id = last_tree = None
 
279
    for revno, revision_id in which_revs:
 
280
        this_tree = branch.revision_tree(revision_id)
 
281
        this_revision = branch.get_revision(revision_id)
 
282
        
 
283
        if last_revno:
 
284
            yield last_revno, last_revision, compare_trees(this_tree, last_tree, False)
 
285
 
 
286
        this_tree = EmptyTree(branch.get_root_id())
 
287
 
 
288
        last_revno = revno
 
289
        last_revision = this_revision
 
290
        last_tree = this_tree
 
291
 
 
292
    if last_revno:
 
293
        if last_revno == 1:
 
294
            this_tree = EmptyTree(branch.get_root_id())
 
295
        else:
 
296
            this_revno = last_revno - 1
 
297
            this_revision_id = branch.revision_history()[this_revno]
 
298
            this_tree = branch.revision_tree(this_revision_id)
 
299
        yield last_revno, last_revision, compare_trees(this_tree, last_tree, False)
 
300
 
 
301
 
 
302
def deltas_for_log_forward(branch, which_revs):
 
303
    """Compute deltas for display in forward log.
 
304
 
 
305
    Given a sequence of (revno, revision_id) pairs, return
 
306
    (revno, rev, delta).
 
307
 
 
308
    The delta is from the given revision to the next one in the
 
309
    sequence, which makes sense if the log is being displayed from
 
310
    newest to oldest.
 
311
    """
 
312
    last_revno = last_revision_id = last_tree = None
 
313
    prev_tree = EmptyTree(branch.get_root_id())
 
314
 
 
315
    for revno, revision_id in which_revs:
 
316
        this_tree = branch.revision_tree(revision_id)
 
317
        this_revision = branch.get_revision(revision_id)
 
318
 
 
319
        if not last_revno:
 
320
            if revno == 1:
 
321
                last_tree = EmptyTree(branch.get_root_id())
1062
322
            else:
1063
 
                end_index = len(view_revisions) - 1
1064
 
        # To include the revisions merged into the last revision,
1065
 
        # extend end_rev_id down to, but not including, the next rev
1066
 
        # with the same or lesser merge_depth
1067
 
        end_merge_depth = view_revisions[end_index][2]
1068
 
        try:
1069
 
            for index in xrange(end_index+1, len(view_revisions)+1):
1070
 
                if view_revisions[index][2] <= end_merge_depth:
1071
 
                    end_index = index - 1
1072
 
                    break
1073
 
        except IndexError:
1074
 
            # if the search falls off the end then log to the end as well
1075
 
            end_index = len(view_revisions) - 1
1076
 
        view_revisions = view_revisions[start_index:end_index+1]
1077
 
    return view_revisions
1078
 
 
1079
 
 
1080
 
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
1081
 
    include_merges=True):
1082
 
    r"""Return the list of revision ids which touch a given file id.
1083
 
 
1084
 
    The function filters view_revisions and returns a subset.
1085
 
    This includes the revisions which directly change the file id,
1086
 
    and the revisions which merge these changes. So if the
1087
 
    revision graph is::
1088
 
        A-.
1089
 
        |\ \
1090
 
        B C E
1091
 
        |/ /
1092
 
        D |
1093
 
        |\|
1094
 
        | F
1095
 
        |/
1096
 
        G
1097
 
 
1098
 
    And 'C' changes a file, then both C and D will be returned. F will not be
1099
 
    returned even though it brings the changes to C into the branch starting
1100
 
    with E. (Note that if we were using F as the tip instead of G, then we
1101
 
    would see C, D, F.)
1102
 
 
1103
 
    This will also be restricted based on a subset of the mainline.
1104
 
 
1105
 
    :param branch: The branch where we can get text revision information.
1106
 
 
1107
 
    :param file_id: Filter out revisions that do not touch file_id.
1108
 
 
1109
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1110
 
        tuples. This is the list of revisions which will be filtered. It is
1111
 
        assumed that view_revisions is in merge_sort order (i.e. newest
1112
 
        revision first ).
1113
 
 
1114
 
    :param include_merges: include merge revisions in the result or not
1115
 
 
1116
 
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
1117
 
    """
1118
 
    # Lookup all possible text keys to determine which ones actually modified
1119
 
    # the file.
1120
 
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1121
 
    next_keys = None
1122
 
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1123
 
    # memory consumption. GraphIndex *does* like to look for a few keys in
1124
 
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
1125
 
    # TODO: This code needs to be re-evaluated periodically as we tune the
1126
 
    #       indexing layer. We might consider passing in hints as to the known
1127
 
    #       access pattern (sparse/clustered, high success rate/low success
1128
 
    #       rate). This particular access is clustered with a low success rate.
1129
 
    get_parent_map = branch.repository.texts.get_parent_map
1130
 
    modified_text_revisions = set()
1131
 
    chunk_size = 1000
1132
 
    for start in xrange(0, len(text_keys), chunk_size):
1133
 
        next_keys = text_keys[start:start + chunk_size]
1134
 
        # Only keep the revision_id portion of the key
1135
 
        modified_text_revisions.update(
1136
 
            [k[1] for k in get_parent_map(next_keys)])
1137
 
    del text_keys, next_keys
1138
 
 
1139
 
    result = []
1140
 
    # Track what revisions will merge the current revision, replace entries
1141
 
    # with 'None' when they have been added to result
1142
 
    current_merge_stack = [None]
1143
 
    for info in view_revisions:
1144
 
        rev_id, revno, depth = info
1145
 
        if depth == len(current_merge_stack):
1146
 
            current_merge_stack.append(info)
1147
 
        else:
1148
 
            del current_merge_stack[depth + 1:]
1149
 
            current_merge_stack[-1] = info
1150
 
 
1151
 
        if rev_id in modified_text_revisions:
1152
 
            # This needs to be logged, along with the extra revisions
1153
 
            for idx in xrange(len(current_merge_stack)):
1154
 
                node = current_merge_stack[idx]
1155
 
                if node is not None:
1156
 
                    if include_merges or node[2] == 0:
1157
 
                        result.append(node)
1158
 
                        current_merge_stack[idx] = None
1159
 
    return result
1160
 
 
1161
 
 
1162
 
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
1163
 
                       include_merges=True):
1164
 
    """Produce an iterator of revisions to show
1165
 
    :return: an iterator of (revision_id, revno, merge_depth)
1166
 
    (if there is no revno for a revision, None is supplied)
1167
 
    """
1168
 
    # This method is no longer called by the main code path.
1169
 
    # It is retained for API compatibility and may be deprecated
1170
 
    # soon. IGC 20090127
1171
 
    if not include_merges:
1172
 
        revision_ids = mainline_revs[1:]
1173
 
        if direction == 'reverse':
1174
 
            revision_ids.reverse()
1175
 
        for revision_id in revision_ids:
1176
 
            yield revision_id, str(rev_nos[revision_id]), 0
1177
 
        return
1178
 
    graph = branch.repository.get_graph()
1179
 
    # This asks for all mainline revisions, which means we only have to spider
1180
 
    # sideways, rather than depth history. That said, its still size-of-history
1181
 
    # and should be addressed.
1182
 
    # mainline_revisions always includes an extra revision at the beginning, so
1183
 
    # don't request it.
1184
 
    parent_map = dict(((key, value) for key, value in
1185
 
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
1186
 
    # filter out ghosts; merge_sort errors on ghosts.
1187
 
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
1188
 
    merge_sorted_revisions = tsort.merge_sort(
1189
 
        rev_graph,
1190
 
        mainline_revs[-1],
1191
 
        mainline_revs,
1192
 
        generate_revno=True)
1193
 
 
1194
 
    if direction == 'forward':
1195
 
        # forward means oldest first.
1196
 
        merge_sorted_revisions = reverse_by_depth(merge_sorted_revisions)
1197
 
    elif direction != 'reverse':
1198
 
        raise ValueError('invalid direction %r' % direction)
1199
 
 
1200
 
    for (sequence, rev_id, merge_depth, revno, end_of_merge
1201
 
         ) in merge_sorted_revisions:
1202
 
        yield rev_id, '.'.join(map(str, revno)), merge_depth
1203
 
 
1204
 
 
1205
 
def reverse_by_depth(merge_sorted_revisions, _depth=0):
1206
 
    """Reverse revisions by depth.
1207
 
 
1208
 
    Revisions with a different depth are sorted as a group with the previous
1209
 
    revision of that depth.  There may be no topological justification for this,
1210
 
    but it looks much nicer.
1211
 
    """
1212
 
    # Add a fake revision at start so that we can always attach sub revisions
1213
 
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
1214
 
    zd_revisions = []
1215
 
    for val in merge_sorted_revisions:
1216
 
        if val[2] == _depth:
1217
 
            # Each revision at the current depth becomes a chunk grouping all
1218
 
            # higher depth revisions.
1219
 
            zd_revisions.append([val])
1220
 
        else:
1221
 
            zd_revisions[-1].append(val)
1222
 
    for revisions in zd_revisions:
1223
 
        if len(revisions) > 1:
1224
 
            # We have higher depth revisions, let reverse them locally
1225
 
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
1226
 
    zd_revisions.reverse()
1227
 
    result = []
1228
 
    for chunk in zd_revisions:
1229
 
        result.extend(chunk)
1230
 
    if _depth == 0:
1231
 
        # Top level call, get rid of the fake revisions that have been added
1232
 
        result = [r for r in result if r[0] is not None and r[1] is not None]
1233
 
    return result
1234
 
 
1235
 
 
1236
 
class LogRevision(object):
1237
 
    """A revision to be logged (by LogFormatter.log_revision).
1238
 
 
1239
 
    A simple wrapper for the attributes of a revision to be logged.
1240
 
    The attributes may or may not be populated, as determined by the
1241
 
    logging options and the log formatter capabilities.
1242
 
    """
1243
 
 
1244
 
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1245
 
                 tags=None, diff=None):
1246
 
        self.rev = rev
1247
 
        self.revno = str(revno)
1248
 
        self.merge_depth = merge_depth
1249
 
        self.delta = delta
1250
 
        self.tags = tags
1251
 
        self.diff = diff
 
323
                last_revno = revno - 1
 
324
                last_revision_id = branch.revision_history()[last_revno]
 
325
                last_tree = branch.revision_tree(last_revision_id)
 
326
 
 
327
        yield revno, this_revision, compare_trees(last_tree, this_tree, False)
 
328
 
 
329
        last_revno = revno
 
330
        last_revision = this_revision
 
331
        last_tree = this_tree
1252
332
 
1253
333
 
1254
334
class LogFormatter(object):
1255
 
    """Abstract class to display log messages.
1256
 
 
1257
 
    At a minimum, a derived class must implement the log_revision method.
1258
 
 
1259
 
    If the LogFormatter needs to be informed of the beginning or end of
1260
 
    a log it should implement the begin_log and/or end_log hook methods.
1261
 
 
1262
 
    A LogFormatter should define the following supports_XXX flags
1263
 
    to indicate which LogRevision attributes it supports:
1264
 
 
1265
 
    - supports_delta must be True if this log formatter supports delta.
1266
 
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1267
 
        attribute describes whether the 'short_status' format (1) or the long
1268
 
        one (2) should be used.
1269
 
 
1270
 
    - supports_merge_revisions must be True if this log formatter supports
1271
 
        merge revisions.  If not, then only mainline revisions will be passed
1272
 
        to the formatter.
1273
 
 
1274
 
    - preferred_levels is the number of levels this formatter defaults to.
1275
 
        The default value is zero meaning display all levels.
1276
 
        This value is only relevant if supports_merge_revisions is True.
1277
 
 
1278
 
    - supports_tags must be True if this log formatter supports tags.
1279
 
        Otherwise the tags attribute may not be populated.
1280
 
 
1281
 
    - supports_diff must be True if this log formatter supports diffs.
1282
 
        Otherwise the diff attribute may not be populated.
1283
 
 
1284
 
    Plugins can register functions to show custom revision properties using
1285
 
    the properties_handler_registry. The registered function
1286
 
    must respect the following interface description:
1287
 
        def my_show_properties(properties_dict):
1288
 
            # code that returns a dict {'name':'value'} of the properties
1289
 
            # to be shown
1290
 
    """
1291
 
    preferred_levels = 0
1292
 
 
1293
 
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1294
 
                 delta_format=None, levels=None, show_advice=False):
1295
 
        """Create a LogFormatter.
1296
 
 
1297
 
        :param to_file: the file to output to
1298
 
        :param show_ids: if True, revision-ids are to be displayed
1299
 
        :param show_timezone: the timezone to use
1300
 
        :param delta_format: the level of delta information to display
1301
 
          or None to leave it to the formatter to decide
1302
 
        :param levels: the number of levels to display; None or -1 to
1303
 
          let the log formatter decide.
1304
 
        :param show_advice: whether to show advice at the end of the
1305
 
          log or not
1306
 
        """
 
335
    """Abstract class to display log messages."""
 
336
    def __init__(self, to_file, show_ids=False, show_timezone='original'):
1307
337
        self.to_file = to_file
1308
 
        # 'exact' stream used to show diff, it should print content 'as is'
1309
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
1310
 
        self.to_exact_file = getattr(to_file, 'stream', to_file)
1311
338
        self.show_ids = show_ids
1312
339
        self.show_timezone = show_timezone
1313
 
        if delta_format is None:
1314
 
            # Ensures backward compatibility
1315
 
            delta_format = 2 # long format
1316
 
        self.delta_format = delta_format
1317
 
        self.levels = levels
1318
 
        self._show_advice = show_advice
1319
 
        self._merge_count = 0
1320
 
 
1321
 
    def get_levels(self):
1322
 
        """Get the number of levels to display or 0 for all."""
1323
 
        if getattr(self, 'supports_merge_revisions', False):
1324
 
            if self.levels is None or self.levels == -1:
1325
 
                self.levels = self.preferred_levels
1326
 
        else:
1327
 
            self.levels = 1
1328
 
        return self.levels
1329
 
 
1330
 
    def log_revision(self, revision):
1331
 
        """Log a revision.
1332
 
 
1333
 
        :param  revision:   The LogRevision to be logged.
1334
 
        """
 
340
 
 
341
 
 
342
    def show(self, revno, rev, delta):
1335
343
        raise NotImplementedError('not implemented in abstract base')
1336
344
 
1337
 
    def show_advice(self):
1338
 
        """Output user advice, if any, when the log is completed."""
1339
 
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
1340
 
            advice_sep = self.get_advice_separator()
1341
 
            if advice_sep:
1342
 
                self.to_file.write(advice_sep)
1343
 
            self.to_file.write(
1344
 
                "Use --include-merges or -n0 to see merged revisions.\n")
1345
 
 
1346
 
    def get_advice_separator(self):
1347
 
        """Get the text separating the log from the closing advice."""
1348
 
        return ''
1349
 
 
1350
345
    def short_committer(self, rev):
1351
 
        name, address = config.parse_username(rev.committer)
1352
 
        if name:
1353
 
            return name
1354
 
        return address
1355
 
 
1356
 
    def short_author(self, rev):
1357
 
        name, address = config.parse_username(rev.get_apparent_authors()[0])
1358
 
        if name:
1359
 
            return name
1360
 
        return address
1361
 
 
1362
 
    def merge_marker(self, revision):
1363
 
        """Get the merge marker to include in the output or '' if none."""
1364
 
        if len(revision.rev.parent_ids) > 1:
1365
 
            self._merge_count += 1
1366
 
            return ' [merge]'
1367
 
        else:
1368
 
            return ''
1369
 
 
1370
 
    def show_foreign_info(self, rev, indent):
1371
 
        """Custom log displayer for foreign revision identifiers.
1372
 
 
1373
 
        :param rev: Revision object.
1374
 
        """
1375
 
        # Revision comes directly from a foreign repository
1376
 
        if isinstance(rev, foreign.ForeignRevision):
1377
 
            self._write_properties(indent, rev.mapping.vcs.show_foreign_revid(
1378
 
                rev.foreign_revid))
1379
 
            return
1380
 
 
1381
 
        # Imported foreign revision revision ids always contain :
1382
 
        if not ":" in rev.revision_id:
1383
 
            return
1384
 
 
1385
 
        # Revision was once imported from a foreign repository
1386
 
        try:
1387
 
            foreign_revid, mapping = \
1388
 
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
1389
 
        except errors.InvalidRevisionId:
1390
 
            return
1391
 
 
1392
 
        self._write_properties(indent, 
1393
 
            mapping.vcs.show_foreign_revid(foreign_revid))
1394
 
 
1395
 
    def show_properties(self, revision, indent):
1396
 
        """Displays the custom properties returned by each registered handler.
1397
 
 
1398
 
        If a registered handler raises an error it is propagated.
1399
 
        """
1400
 
        for key, handler in properties_handler_registry.iteritems():
1401
 
            self._write_properties(indent, handler(revision))
1402
 
 
1403
 
    def _write_properties(self, indent, properties):
1404
 
        for key, value in properties.items():
1405
 
            self.to_file.write(indent + key + ': ' + value + '\n')
1406
 
 
1407
 
    def show_diff(self, to_file, diff, indent):
1408
 
        for l in diff.rstrip().split('\n'):
1409
 
            to_file.write(indent + '%s\n' % (l,))
1410
 
 
1411
 
 
 
346
        return re.sub('<.*@.*>', '', rev.committer).strip(' ')
 
347
    
 
348
    
1412
349
class LongLogFormatter(LogFormatter):
1413
 
 
1414
 
    supports_merge_revisions = True
1415
 
    preferred_levels = 1
1416
 
    supports_delta = True
1417
 
    supports_tags = True
1418
 
    supports_diff = True
1419
 
 
1420
 
    def log_revision(self, revision):
1421
 
        """Log a revision, either merged or not."""
1422
 
        indent = '    ' * revision.merge_depth
 
350
    def show(self, revno, rev, delta):
 
351
        return self._show_helper(revno=revno, rev=rev)
 
352
 
 
353
    def show_merge(self, rev):
 
354
        return self._show_helper(rev=rev, indent='    ', merged=True)
 
355
 
 
356
    def _show_helper(self, rev=None, revno=None, indent='', merged=False):
 
357
        from osutils import format_date
 
358
 
1423
359
        to_file = self.to_file
1424
 
        to_file.write(indent + '-' * 60 + '\n')
1425
 
        if revision.revno is not None:
1426
 
            to_file.write(indent + 'revno: %s%s\n' % (revision.revno,
1427
 
                self.merge_marker(revision)))
1428
 
        if revision.tags:
1429
 
            to_file.write(indent + 'tags: %s\n' % (', '.join(revision.tags)))
 
360
 
 
361
 
 
362
        print >>to_file,  indent+'-' * 60
 
363
        if revno is not None:
 
364
            print >>to_file,  'revno:', revno
 
365
        if merged:
 
366
            print >>to_file,  indent+'merged:', rev.revision_id
 
367
        elif self.show_ids:
 
368
            print >>to_file,  indent+'revision-id:', rev.revision_id
1430
369
        if self.show_ids:
1431
 
            to_file.write(indent + 'revision-id: ' + revision.rev.revision_id)
1432
 
            to_file.write('\n')
1433
 
            for parent_id in revision.rev.parent_ids:
1434
 
                to_file.write(indent + 'parent: %s\n' % (parent_id,))
1435
 
        self.show_foreign_info(revision.rev, indent)
1436
 
        self.show_properties(revision.rev, indent)
1437
 
 
1438
 
        committer = revision.rev.committer
1439
 
        authors = revision.rev.get_apparent_authors()
1440
 
        if authors != [committer]:
1441
 
            to_file.write(indent + 'author: %s\n' % (", ".join(authors),))
1442
 
        to_file.write(indent + 'committer: %s\n' % (committer,))
1443
 
 
1444
 
        branch_nick = revision.rev.properties.get('branch-nick', None)
1445
 
        if branch_nick is not None:
1446
 
            to_file.write(indent + 'branch nick: %s\n' % (branch_nick,))
1447
 
 
1448
 
        date_str = format_date(revision.rev.timestamp,
1449
 
                               revision.rev.timezone or 0,
 
370
            for parent_id in rev.parent_ids:
 
371
                print >>to_file, indent+'parent:', parent_id
 
372
            
 
373
        print >>to_file,  indent+'committer:', rev.committer
 
374
        try:
 
375
            print >>to_file, indent+'branch nick: %s' % \
 
376
                rev.properties['branch-nick']
 
377
        except KeyError:
 
378
            pass
 
379
 
 
380
        date_str = format_date(rev.timestamp,
 
381
                               rev.timezone or 0,
1450
382
                               self.show_timezone)
1451
 
        to_file.write(indent + 'timestamp: %s\n' % (date_str,))
 
383
        print >>to_file,  indent+'timestamp: %s' % date_str
1452
384
 
1453
 
        to_file.write(indent + 'message:\n')
1454
 
        if not revision.rev.message:
1455
 
            to_file.write(indent + '  (no message)\n')
 
385
        print >>to_file,  indent+'message:'
 
386
        if not rev.message:
 
387
            print >>to_file,  indent+'  (no message)'
1456
388
        else:
1457
 
            message = revision.rev.message.rstrip('\r\n')
1458
 
            for l in message.split('\n'):
1459
 
                to_file.write(indent + '  %s\n' % (l,))
1460
 
        if revision.delta is not None:
1461
 
            # We don't respect delta_format for compatibility
1462
 
            revision.delta.show(to_file, self.show_ids, indent=indent,
1463
 
                                short_status=False)
1464
 
        if revision.diff is not None:
1465
 
            to_file.write(indent + 'diff:\n')
1466
 
            # Note: we explicitly don't indent the diff (relative to the
1467
 
            # revision information) so that the output can be fed to patch -p0
1468
 
            self.show_diff(self.to_exact_file, revision.diff, indent)
1469
 
 
1470
 
    def get_advice_separator(self):
1471
 
        """Get the text separating the log from the closing advice."""
1472
 
        return '-' * 60 + '\n'
 
389
            for l in rev.message.split('\n'):
 
390
                print >>to_file,  indent+'  ' + l
1473
391
 
1474
392
 
1475
393
class ShortLogFormatter(LogFormatter):
1476
 
 
1477
 
    supports_merge_revisions = True
1478
 
    preferred_levels = 1
1479
 
    supports_delta = True
1480
 
    supports_tags = True
1481
 
    supports_diff = True
1482
 
 
1483
 
    def __init__(self, *args, **kwargs):
1484
 
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
1485
 
        self.revno_width_by_depth = {}
1486
 
 
1487
 
    def log_revision(self, revision):
1488
 
        # We need two indents: one per depth and one for the information
1489
 
        # relative to that indent. Most mainline revnos are 5 chars or
1490
 
        # less while dotted revnos are typically 11 chars or less. Once
1491
 
        # calculated, we need to remember the offset for a given depth
1492
 
        # as we might be starting from a dotted revno in the first column
1493
 
        # and we want subsequent mainline revisions to line up.
1494
 
        depth = revision.merge_depth
1495
 
        indent = '    ' * depth
1496
 
        revno_width = self.revno_width_by_depth.get(depth)
1497
 
        if revno_width is None:
1498
 
            if revision.revno.find('.') == -1:
1499
 
                # mainline revno, e.g. 12345
1500
 
                revno_width = 5
1501
 
            else:
1502
 
                # dotted revno, e.g. 12345.10.55
1503
 
                revno_width = 11
1504
 
            self.revno_width_by_depth[depth] = revno_width
1505
 
        offset = ' ' * (revno_width + 1)
 
394
    def show(self, revno, rev, delta):
 
395
        from bzrlib.osutils import format_date
1506
396
 
1507
397
        to_file = self.to_file
1508
 
        tags = ''
1509
 
        if revision.tags:
1510
 
            tags = ' {%s}' % (', '.join(revision.tags))
1511
 
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1512
 
                revision.revno, self.short_author(revision.rev),
1513
 
                format_date(revision.rev.timestamp,
1514
 
                            revision.rev.timezone or 0,
 
398
        date_str = format_date(rev.timestamp, rev.timezone or 0,
 
399
                            self.show_timezone)
 
400
        print >>to_file, "%5d %s\t%s" % (revno, self.short_committer(rev),
 
401
                format_date(rev.timestamp, rev.timezone or 0,
1515
402
                            self.show_timezone, date_fmt="%Y-%m-%d",
1516
 
                            show_offset=False),
1517
 
                tags, self.merge_marker(revision)))
1518
 
        self.show_foreign_info(revision.rev, indent+offset)
1519
 
        self.show_properties(revision.rev, indent+offset)
 
403
                           show_offset=False))
1520
404
        if self.show_ids:
1521
 
            to_file.write(indent + offset + 'revision-id:%s\n'
1522
 
                          % (revision.rev.revision_id,))
1523
 
        if not revision.rev.message:
1524
 
            to_file.write(indent + offset + '(no message)\n')
 
405
            print >>to_file,  '      revision-id:', rev.revision_id
 
406
        if not rev.message:
 
407
            print >>to_file,  '      (no message)'
1525
408
        else:
1526
 
            message = revision.rev.message.rstrip('\r\n')
1527
 
            for l in message.split('\n'):
1528
 
                to_file.write(indent + offset + '%s\n' % (l,))
1529
 
 
1530
 
        if revision.delta is not None:
1531
 
            revision.delta.show(to_file, self.show_ids, indent=indent + offset,
1532
 
                                short_status=self.delta_format==1)
1533
 
        if revision.diff is not None:
1534
 
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1535
 
        to_file.write('\n')
1536
 
 
 
409
            for l in rev.message.split('\n'):
 
410
                print >>to_file,  '      ' + l
 
411
 
 
412
        # TODO: Why not show the modified files in a shorter form as
 
413
        # well? rewrap them single lines of appropriate length
 
414
        if delta != None:
 
415
            delta.show(to_file, self.show_ids)
 
416
        print
1537
417
 
1538
418
class LineLogFormatter(LogFormatter):
1539
 
 
1540
 
    supports_merge_revisions = True
1541
 
    preferred_levels = 1
1542
 
    supports_tags = True
1543
 
 
1544
 
    def __init__(self, *args, **kwargs):
1545
 
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1546
 
        self._max_chars = terminal_width() - 1
1547
 
 
1548
419
    def truncate(self, str, max_len):
1549
420
        if len(str) <= max_len:
1550
421
            return str
1551
422
        return str[:max_len-3]+'...'
1552
423
 
1553
424
    def date_string(self, rev):
1554
 
        return format_date(rev.timestamp, rev.timezone or 0,
 
425
        from bzrlib.osutils import format_date
 
426
        return format_date(rev.timestamp, rev.timezone or 0, 
1555
427
                           self.show_timezone, date_fmt="%Y-%m-%d",
1556
428
                           show_offset=False)
1557
429
 
1561
433
        else:
1562
434
            return rev.message
1563
435
 
1564
 
    def log_revision(self, revision):
1565
 
        indent = '  ' * revision.merge_depth
1566
 
        self.to_file.write(self.log_string(revision.revno, revision.rev,
1567
 
            self._max_chars, revision.tags, indent))
1568
 
        self.to_file.write('\n')
 
436
    def show(self, revno, rev, delta):
 
437
        print >> self.to_file, self.log_string(rev, 79) 
1569
438
 
1570
 
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
1571
 
        """Format log info into one string. Truncate tail of string
1572
 
        :param  revno:      revision number or None.
1573
 
                            Revision numbers counts from 1.
1574
 
        :param  rev:        revision object
1575
 
        :param  max_chars:  maximum length of resulting string
1576
 
        :param  tags:       list of tags or None
1577
 
        :param  prefix:     string to prefix each line
1578
 
        :return:            formatted truncated string
1579
 
        """
1580
 
        out = []
1581
 
        if revno:
1582
 
            # show revno only when is not None
1583
 
            out.append("%s:" % revno)
1584
 
        out.append(self.truncate(self.short_author(rev), 20))
 
439
    def log_string(self, rev, max_chars):
 
440
        out = [self.truncate(self.short_committer(rev), 20)]
1585
441
        out.append(self.date_string(rev))
1586
 
        if len(rev.parent_ids) > 1:
1587
 
            out.append('[merge]')
1588
 
        if tags:
1589
 
            tag_str = '{%s}' % (', '.join(tags))
1590
 
            out.append(tag_str)
1591
 
        out.append(rev.get_summary())
1592
 
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1593
 
 
1594
 
 
1595
 
class GnuChangelogLogFormatter(LogFormatter):
1596
 
 
1597
 
    supports_merge_revisions = True
1598
 
    supports_delta = True
1599
 
 
1600
 
    def log_revision(self, revision):
1601
 
        """Log a revision, either merged or not."""
1602
 
        to_file = self.to_file
1603
 
 
1604
 
        date_str = format_date(revision.rev.timestamp,
1605
 
                               revision.rev.timezone or 0,
1606
 
                               self.show_timezone,
1607
 
                               date_fmt='%Y-%m-%d',
1608
 
                               show_offset=False)
1609
 
        committer_str = revision.rev.committer.replace (' <', '  <')
1610
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1611
 
 
1612
 
        if revision.delta is not None and revision.delta.has_changed():
1613
 
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1614
 
                path, = c[:1]
1615
 
                to_file.write('\t* %s:\n' % (path,))
1616
 
            for c in revision.delta.renamed:
1617
 
                oldpath,newpath = c[:2]
1618
 
                # For renamed files, show both the old and the new path
1619
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
1620
 
            to_file.write('\n')
1621
 
 
1622
 
        if not revision.rev.message:
1623
 
            to_file.write('\tNo commit message\n')
1624
 
        else:
1625
 
            message = revision.rev.message.rstrip('\r\n')
1626
 
            for l in message.split('\n'):
1627
 
                to_file.write('\t%s\n' % (l.lstrip(),))
1628
 
            to_file.write('\n')
1629
 
 
 
442
        out.append(self.message(rev).replace('\n', ' '))
 
443
        return self.truncate(" ".join(out).rstrip('\n'), max_chars)
1630
444
 
1631
445
def line_log(rev, max_chars):
1632
446
    lf = LineLogFormatter(None)
1633
 
    return lf.log_string(None, rev, max_chars)
1634
 
 
1635
 
 
1636
 
class LogFormatterRegistry(registry.Registry):
1637
 
    """Registry for log formatters"""
1638
 
 
1639
 
    def make_formatter(self, name, *args, **kwargs):
1640
 
        """Construct a formatter from arguments.
1641
 
 
1642
 
        :param name: Name of the formatter to construct.  'short', 'long' and
1643
 
            'line' are built-in.
1644
 
        """
1645
 
        return self.get(name)(*args, **kwargs)
1646
 
 
1647
 
    def get_default(self, branch):
1648
 
        return self.get(branch.get_config().log_format())
1649
 
 
1650
 
 
1651
 
log_formatter_registry = LogFormatterRegistry()
1652
 
 
1653
 
 
1654
 
log_formatter_registry.register('short', ShortLogFormatter,
1655
 
                                'Moderately short log format')
1656
 
log_formatter_registry.register('long', LongLogFormatter,
1657
 
                                'Detailed log format')
1658
 
log_formatter_registry.register('line', LineLogFormatter,
1659
 
                                'Log format with one line per revision')
1660
 
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1661
 
                                'Format used by GNU ChangeLog files')
1662
 
 
1663
 
 
1664
 
def register_formatter(name, formatter):
1665
 
    log_formatter_registry.register(name, formatter)
 
447
    return lf.log_string(rev, max_chars)
 
448
 
 
449
FORMATTERS = {'long': LongLogFormatter,
 
450
              'short': ShortLogFormatter,
 
451
              'line': LineLogFormatter,
 
452
              }
1666
453
 
1667
454
 
1668
455
def log_formatter(name, *args, **kwargs):
1671
458
    name -- Name of the formatter to construct; currently 'long', 'short' and
1672
459
        'line' are supported.
1673
460
    """
 
461
    from bzrlib.errors import BzrCommandError
1674
462
    try:
1675
 
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
1676
 
    except KeyError:
1677
 
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
1678
 
 
 
463
        return FORMATTERS[name](*args, **kwargs)
 
464
    except IndexError:
 
465
        raise BzrCommandError("unknown log formatter: %r" % name)
1679
466
 
1680
467
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
1681
 
    # deprecated; for compatibility
 
468
    # deprecated; for compatability
1682
469
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
1683
470
    lf.show(revno, rev, delta)
1684
471
 
1685
 
 
1686
 
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
1687
 
                           log_format='long'):
 
472
def show_changed_revisions(branch, old_rh, new_rh, to_file=None, log_format='long'):
1688
473
    """Show the change in revision history comparing the old revision history to the new one.
1689
474
 
1690
475
    :param branch: The branch where the revisions exist
1693
478
    :param to_file: A file to write the results to. If None, stdout will be used
1694
479
    """
1695
480
    if to_file is None:
1696
 
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
1697
 
            errors='replace')
 
481
        import sys
 
482
        import codecs
 
483
        import bzrlib
 
484
        to_file = codecs.getwriter(bzrlib.user_encoding)(sys.stdout, errors='replace')
1698
485
    lf = log_formatter(log_format,
1699
486
                       show_ids=False,
1700
487
                       to_file=to_file,
1721
508
        to_file.write('*'*60)
1722
509
        to_file.write('\nRemoved Revisions:\n')
1723
510
        for i in range(base_idx, len(old_rh)):
1724
 
            rev = branch.repository.get_revision(old_rh[i])
1725
 
            lr = LogRevision(rev, i+1, 0, None)
1726
 
            lf.log_revision(lr)
 
511
            rev = branch.get_revision(old_rh[i])
 
512
            lf.show(i+1, rev, None)
1727
513
        to_file.write('*'*60)
1728
514
        to_file.write('\n\n')
1729
515
    if base_idx < len(new_rh):
1731
517
        show_log(branch,
1732
518
                 lf,
1733
519
                 None,
1734
 
                 verbose=False,
 
520
                 verbose=True,
1735
521
                 direction='forward',
1736
522
                 start_revision=base_idx+1,
1737
523
                 end_revision=len(new_rh),
1738
524
                 search=None)
1739
525
 
1740
 
 
1741
 
def get_history_change(old_revision_id, new_revision_id, repository):
1742
 
    """Calculate the uncommon lefthand history between two revisions.
1743
 
 
1744
 
    :param old_revision_id: The original revision id.
1745
 
    :param new_revision_id: The new revision id.
1746
 
    :param repository: The repository to use for the calculation.
1747
 
 
1748
 
    return old_history, new_history
1749
 
    """
1750
 
    old_history = []
1751
 
    old_revisions = set()
1752
 
    new_history = []
1753
 
    new_revisions = set()
1754
 
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
1755
 
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
1756
 
    stop_revision = None
1757
 
    do_old = True
1758
 
    do_new = True
1759
 
    while do_new or do_old:
1760
 
        if do_new:
1761
 
            try:
1762
 
                new_revision = new_iter.next()
1763
 
            except StopIteration:
1764
 
                do_new = False
1765
 
            else:
1766
 
                new_history.append(new_revision)
1767
 
                new_revisions.add(new_revision)
1768
 
                if new_revision in old_revisions:
1769
 
                    stop_revision = new_revision
1770
 
                    break
1771
 
        if do_old:
1772
 
            try:
1773
 
                old_revision = old_iter.next()
1774
 
            except StopIteration:
1775
 
                do_old = False
1776
 
            else:
1777
 
                old_history.append(old_revision)
1778
 
                old_revisions.add(old_revision)
1779
 
                if old_revision in new_revisions:
1780
 
                    stop_revision = old_revision
1781
 
                    break
1782
 
    new_history.reverse()
1783
 
    old_history.reverse()
1784
 
    if stop_revision is not None:
1785
 
        new_history = new_history[new_history.index(stop_revision) + 1:]
1786
 
        old_history = old_history[old_history.index(stop_revision) + 1:]
1787
 
    return old_history, new_history
1788
 
 
1789
 
 
1790
 
def show_branch_change(branch, output, old_revno, old_revision_id):
1791
 
    """Show the changes made to a branch.
1792
 
 
1793
 
    :param branch: The branch to show changes about.
1794
 
    :param output: A file-like object to write changes to.
1795
 
    :param old_revno: The revno of the old tip.
1796
 
    :param old_revision_id: The revision_id of the old tip.
1797
 
    """
1798
 
    new_revno, new_revision_id = branch.last_revision_info()
1799
 
    old_history, new_history = get_history_change(old_revision_id,
1800
 
                                                  new_revision_id,
1801
 
                                                  branch.repository)
1802
 
    if old_history == [] and new_history == []:
1803
 
        output.write('Nothing seems to have changed\n')
1804
 
        return
1805
 
 
1806
 
    log_format = log_formatter_registry.get_default(branch)
1807
 
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
1808
 
    if old_history != []:
1809
 
        output.write('*'*60)
1810
 
        output.write('\nRemoved Revisions:\n')
1811
 
        show_flat_log(branch.repository, old_history, old_revno, lf)
1812
 
        output.write('*'*60)
1813
 
        output.write('\n\n')
1814
 
    if new_history != []:
1815
 
        output.write('Added Revisions:\n')
1816
 
        start_revno = new_revno - len(new_history) + 1
1817
 
        show_log(branch, lf, None, verbose=False, direction='forward',
1818
 
                 start_revision=start_revno,)
1819
 
 
1820
 
 
1821
 
def show_flat_log(repository, history, last_revno, lf):
1822
 
    """Show a simple log of the specified history.
1823
 
 
1824
 
    :param repository: The repository to retrieve revisions from.
1825
 
    :param history: A list of revision_ids indicating the lefthand history.
1826
 
    :param last_revno: The revno of the last revision_id in the history.
1827
 
    :param lf: The log formatter to use.
1828
 
    """
1829
 
    start_revno = last_revno - len(history) + 1
1830
 
    revisions = repository.get_revisions(history)
1831
 
    for i, rev in enumerate(revisions):
1832
 
        lr = LogRevision(rev, i + last_revno, 0, None)
1833
 
        lf.log_revision(lr)
1834
 
 
1835
 
 
1836
 
def _get_info_for_log_files(revisionspec_list, file_list):
1837
 
    """Find file-ids and kinds given a list of files and a revision range.
1838
 
 
1839
 
    We search for files at the end of the range. If not found there,
1840
 
    we try the start of the range.
1841
 
 
1842
 
    :param revisionspec_list: revision range as parsed on the command line
1843
 
    :param file_list: the list of paths given on the command line;
1844
 
      the first of these can be a branch location or a file path,
1845
 
      the remainder must be file paths
1846
 
    :return: (branch, info_list, start_rev_info, end_rev_info) where
1847
 
      info_list is a list of (relative_path, file_id, kind) tuples where
1848
 
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
1849
 
      branch will be read-locked.
1850
 
    """
1851
 
    from builtins import _get_revision_range, safe_relpath_files
1852
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
1853
 
    b.lock_read()
1854
 
    # XXX: It's damn messy converting a list of paths to relative paths when
1855
 
    # those paths might be deleted ones, they might be on a case-insensitive
1856
 
    # filesystem and/or they might be in silly locations (like another branch).
1857
 
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
1858
 
    # file2 implicitly in the same dir as file1 or should its directory be
1859
 
    # taken from the current tree somehow?) For now, this solves the common
1860
 
    # case of running log in a nested directory, assuming paths beyond the
1861
 
    # first one haven't been deleted ...
1862
 
    if tree:
1863
 
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
1864
 
    else:
1865
 
        relpaths = [path] + file_list[1:]
1866
 
    info_list = []
1867
 
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
1868
 
        "log")
1869
 
    if relpaths in ([], [u'']):
1870
 
        return b, [], start_rev_info, end_rev_info
1871
 
    if start_rev_info is None and end_rev_info is None:
1872
 
        if tree is None:
1873
 
            tree = b.basis_tree()
1874
 
        tree1 = None
1875
 
        for fp in relpaths:
1876
 
            file_id = tree.path2id(fp)
1877
 
            kind = _get_kind_for_file_id(tree, file_id)
1878
 
            if file_id is None:
1879
 
                # go back to when time began
1880
 
                if tree1 is None:
1881
 
                    try:
1882
 
                        rev1 = b.get_rev_id(1)
1883
 
                    except errors.NoSuchRevision:
1884
 
                        # No history at all
1885
 
                        file_id = None
1886
 
                        kind = None
1887
 
                    else:
1888
 
                        tree1 = b.repository.revision_tree(rev1)
1889
 
                if tree1:
1890
 
                    file_id = tree1.path2id(fp)
1891
 
                    kind = _get_kind_for_file_id(tree1, file_id)
1892
 
            info_list.append((fp, file_id, kind))
1893
 
 
1894
 
    elif start_rev_info == end_rev_info:
1895
 
        # One revision given - file must exist in it
1896
 
        tree = b.repository.revision_tree(end_rev_info.rev_id)
1897
 
        for fp in relpaths:
1898
 
            file_id = tree.path2id(fp)
1899
 
            kind = _get_kind_for_file_id(tree, file_id)
1900
 
            info_list.append((fp, file_id, kind))
1901
 
 
1902
 
    else:
1903
 
        # Revision range given. Get the file-id from the end tree.
1904
 
        # If that fails, try the start tree.
1905
 
        rev_id = end_rev_info.rev_id
1906
 
        if rev_id is None:
1907
 
            tree = b.basis_tree()
1908
 
        else:
1909
 
            tree = b.repository.revision_tree(rev_id)
1910
 
        tree1 = None
1911
 
        for fp in relpaths:
1912
 
            file_id = tree.path2id(fp)
1913
 
            kind = _get_kind_for_file_id(tree, file_id)
1914
 
            if file_id is None:
1915
 
                if tree1 is None:
1916
 
                    rev_id = start_rev_info.rev_id
1917
 
                    if rev_id is None:
1918
 
                        rev1 = b.get_rev_id(1)
1919
 
                        tree1 = b.repository.revision_tree(rev1)
1920
 
                    else:
1921
 
                        tree1 = b.repository.revision_tree(rev_id)
1922
 
                file_id = tree1.path2id(fp)
1923
 
                kind = _get_kind_for_file_id(tree1, file_id)
1924
 
            info_list.append((fp, file_id, kind))
1925
 
    return b, info_list, start_rev_info, end_rev_info
1926
 
 
1927
 
 
1928
 
def _get_kind_for_file_id(tree, file_id):
1929
 
    """Return the kind of a file-id or None if it doesn't exist."""
1930
 
    if file_id is not None:
1931
 
        return tree.kind(file_id)
1932
 
    else:
1933
 
        return None
1934
 
 
1935
 
 
1936
 
properties_handler_registry = registry.Registry()
1937
 
 
1938
 
 
1939
 
# adapters which revision ids to log are filtered. When log is called, the
1940
 
# log_rev_iterator is adapted through each of these factory methods.
1941
 
# Plugins are welcome to mutate this list in any way they like - as long
1942
 
# as the overall behaviour is preserved. At this point there is no extensible
1943
 
# mechanism for getting parameters to each factory method, and until there is
1944
 
# this won't be considered a stable api.
1945
 
log_adapters = [
1946
 
    # core log logic
1947
 
    _make_batch_filter,
1948
 
    # read revision objects
1949
 
    _make_revision_objects,
1950
 
    # filter on log messages
1951
 
    _make_search_filter,
1952
 
    # generate deltas for things we will show
1953
 
    _make_delta_filter
1954
 
    ]