~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: mbp at sourcefrog
  • Date: 2005-03-26 03:10:07 UTC
  • Revision ID: mbp@sourcefrog.net-20050326031007-ae4809099d7e6eca
update for release 0.0.1

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007, 2009 Canonical Ltd
2
 
#
3
 
# This program is free software; you can redistribute it and/or modify
4
 
# it under the terms of the GNU General Public License as published by
5
 
# the Free Software Foundation; either version 2 of the License, or
6
 
# (at your option) any later version.
7
 
#
8
 
# This program is distributed in the hope that it will be useful,
9
 
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
 
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
 
# GNU General Public License for more details.
12
 
#
13
 
# You should have received a copy of the GNU General Public License
14
 
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
 
 
17
 
 
18
 
 
19
 
"""Code to show logs of changes.
20
 
 
21
 
Various flavors of log can be produced:
22
 
 
23
 
* for one file, or the whole tree, and (not done yet) for
24
 
  files in a given directory
25
 
 
26
 
* in "verbose" mode with a description of what changed from one
27
 
  version to the next
28
 
 
29
 
* with file-ids and revision-ids shown
30
 
 
31
 
Logs are actually written out through an abstract LogFormatter
32
 
interface, which allows for different preferred formats.  Plugins can
33
 
register formats too.
34
 
 
35
 
Logs can be produced in either forward (oldest->newest) or reverse
36
 
(newest->oldest) order.
37
 
 
38
 
Logs can be filtered to show only revisions matching a particular
39
 
search string, or within a particular range of revisions.  The range
40
 
can be given as date/times, which are reduced to revisions before
41
 
calling in here.
42
 
 
43
 
In verbose mode we show a summary of what changed in each particular
44
 
revision.  Note that this is the delta for changes in that revision
45
 
relative to its left-most parent, not the delta relative to the last
46
 
logged revision.  So for example if you ask for a verbose log of
47
 
changes touching hello.c you will get a list of those revisions also
48
 
listing other things that were changed in the same revision, but not
49
 
all the changes since the previous revision that touched hello.c.
50
 
"""
51
 
 
52
 
import codecs
53
 
from cStringIO import StringIO
54
 
from itertools import (
55
 
    chain,
56
 
    izip,
57
 
    )
58
 
import re
59
 
import sys
60
 
from warnings import (
61
 
    warn,
62
 
    )
63
 
 
64
 
from bzrlib.lazy_import import lazy_import
65
 
lazy_import(globals(), """
66
 
 
67
 
from bzrlib import (
68
 
    bzrdir,
69
 
    config,
70
 
    diff,
71
 
    errors,
72
 
    foreign,
73
 
    repository as _mod_repository,
74
 
    revision as _mod_revision,
75
 
    revisionspec,
76
 
    trace,
77
 
    tsort,
78
 
    )
79
 
""")
80
 
 
81
 
from bzrlib import (
82
 
    registry,
83
 
    )
84
 
from bzrlib.osutils import (
85
 
    format_date,
86
 
    get_terminal_encoding,
87
 
    re_compile_checked,
88
 
    terminal_width,
89
 
    )
90
 
 
91
 
 
92
 
def find_touching_revisions(branch, file_id):
93
 
    """Yield a description of revisions which affect the file_id.
94
 
 
95
 
    Each returned element is (revno, revision_id, description)
96
 
 
97
 
    This is the list of revisions where the file is either added,
98
 
    modified, renamed or deleted.
99
 
 
100
 
    TODO: Perhaps some way to limit this to only particular revisions,
101
 
    or to traverse a non-mainline set of revisions?
102
 
    """
103
 
    last_ie = None
104
 
    last_path = None
105
 
    revno = 1
106
 
    for revision_id in branch.revision_history():
107
 
        this_inv = branch.repository.get_revision_inventory(revision_id)
108
 
        if file_id in this_inv:
109
 
            this_ie = this_inv[file_id]
110
 
            this_path = this_inv.id2path(file_id)
111
 
        else:
112
 
            this_ie = this_path = None
113
 
 
114
 
        # now we know how it was last time, and how it is in this revision.
115
 
        # are those two states effectively the same or not?
116
 
 
117
 
        if not this_ie and not last_ie:
118
 
            # not present in either
119
 
            pass
120
 
        elif this_ie and not last_ie:
121
 
            yield revno, revision_id, "added " + this_path
122
 
        elif not this_ie and last_ie:
123
 
            # deleted here
124
 
            yield revno, revision_id, "deleted " + last_path
125
 
        elif this_path != last_path:
126
 
            yield revno, revision_id, ("renamed %s => %s" % (last_path, this_path))
127
 
        elif (this_ie.text_size != last_ie.text_size
128
 
              or this_ie.text_sha1 != last_ie.text_sha1):
129
 
            yield revno, revision_id, "modified " + this_path
130
 
 
131
 
        last_ie = this_ie
132
 
        last_path = this_path
133
 
        revno += 1
134
 
 
135
 
 
136
 
def _enumerate_history(branch):
137
 
    rh = []
138
 
    revno = 1
139
 
    for rev_id in branch.revision_history():
140
 
        rh.append((revno, rev_id))
141
 
        revno += 1
142
 
    return rh
143
 
 
144
 
 
145
 
def show_log(branch,
146
 
             lf,
147
 
             specific_fileid=None,
148
 
             verbose=False,
149
 
             direction='reverse',
150
 
             start_revision=None,
151
 
             end_revision=None,
152
 
             search=None,
153
 
             limit=None,
154
 
             show_diff=False):
155
 
    """Write out human-readable log of commits to this branch.
156
 
 
157
 
    This function is being retained for backwards compatibility but
158
 
    should not be extended with new parameters. Use the new Logger class
159
 
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
160
 
    make_log_request_dict function.
161
 
 
162
 
    :param lf: The LogFormatter object showing the output.
163
 
 
164
 
    :param specific_fileid: If not None, list only the commits affecting the
165
 
        specified file, rather than all commits.
166
 
 
167
 
    :param verbose: If True show added/changed/deleted/renamed files.
168
 
 
169
 
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
170
 
        earliest to latest.
171
 
 
172
 
    :param start_revision: If not None, only show revisions >= start_revision
173
 
 
174
 
    :param end_revision: If not None, only show revisions <= end_revision
175
 
 
176
 
    :param search: If not None, only show revisions with matching commit
177
 
        messages
178
 
 
179
 
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
180
 
        if None or 0.
181
 
 
182
 
    :param show_diff: If True, output a diff after each revision.
183
 
    """
184
 
    # Convert old-style parameters to new-style parameters
185
 
    if specific_fileid is not None:
186
 
        file_ids = [specific_fileid]
187
 
    else:
188
 
        file_ids = None
189
 
    if verbose:
190
 
        if file_ids:
191
 
            delta_type = 'partial'
192
 
        else:
193
 
            delta_type = 'full'
194
 
    else:
195
 
        delta_type = None
196
 
    if show_diff:
197
 
        if file_ids:
198
 
            diff_type = 'partial'
199
 
        else:
200
 
            diff_type = 'full'
201
 
    else:
202
 
        diff_type = None
203
 
 
204
 
    # Build the request and execute it
205
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
206
 
        start_revision=start_revision, end_revision=end_revision,
207
 
        limit=limit, message_search=search,
208
 
        delta_type=delta_type, diff_type=diff_type)
209
 
    Logger(branch, rqst).show(lf)
210
 
 
211
 
 
212
 
# Note: This needs to be kept this in sync with the defaults in
213
 
# make_log_request_dict() below
214
 
_DEFAULT_REQUEST_PARAMS = {
215
 
    'direction': 'reverse',
216
 
    'levels': 1,
217
 
    'generate_tags': True,
218
 
    '_match_using_deltas': True,
219
 
    }
220
 
 
221
 
 
222
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
223
 
    start_revision=None, end_revision=None, limit=None,
224
 
    message_search=None, levels=1, generate_tags=True, delta_type=None,
225
 
    diff_type=None, _match_using_deltas=True):
226
 
    """Convenience function for making a logging request dictionary.
227
 
 
228
 
    Using this function may make code slightly safer by ensuring
229
 
    parameters have the correct names. It also provides a reference
230
 
    point for documenting the supported parameters.
231
 
 
232
 
    :param direction: 'reverse' (default) is latest to earliest;
233
 
      'forward' is earliest to latest.
234
 
 
235
 
    :param specific_fileids: If not None, only include revisions
236
 
      affecting the specified files, rather than all revisions.
237
 
 
238
 
    :param start_revision: If not None, only generate
239
 
      revisions >= start_revision
240
 
 
241
 
    :param end_revision: If not None, only generate
242
 
      revisions <= end_revision
243
 
 
244
 
    :param limit: If set, generate only 'limit' revisions, all revisions
245
 
      are shown if None or 0.
246
 
 
247
 
    :param message_search: If not None, only include revisions with
248
 
      matching commit messages
249
 
 
250
 
    :param levels: the number of levels of revisions to
251
 
      generate; 1 for just the mainline; 0 for all levels.
252
 
 
253
 
    :param generate_tags: If True, include tags for matched revisions.
254
 
 
255
 
    :param delta_type: Either 'full', 'partial' or None.
256
 
      'full' means generate the complete delta - adds/deletes/modifies/etc;
257
 
      'partial' means filter the delta using specific_fileids;
258
 
      None means do not generate any delta.
259
 
 
260
 
    :param diff_type: Either 'full', 'partial' or None.
261
 
      'full' means generate the complete diff - adds/deletes/modifies/etc;
262
 
      'partial' means filter the diff using specific_fileids;
263
 
      None means do not generate any diff.
264
 
 
265
 
    :param _match_using_deltas: a private parameter controlling the
266
 
      algorithm used for matching specific_fileids. This parameter
267
 
      may be removed in the future so bzrlib client code should NOT
268
 
      use it.
269
 
    """
270
 
    return {
271
 
        'direction': direction,
272
 
        'specific_fileids': specific_fileids,
273
 
        'start_revision': start_revision,
274
 
        'end_revision': end_revision,
275
 
        'limit': limit,
276
 
        'message_search': message_search,
277
 
        'levels': levels,
278
 
        'generate_tags': generate_tags,
279
 
        'delta_type': delta_type,
280
 
        'diff_type': diff_type,
281
 
        # Add 'private' attributes for features that may be deprecated
282
 
        '_match_using_deltas': _match_using_deltas,
283
 
    }
284
 
 
285
 
 
286
 
def _apply_log_request_defaults(rqst):
287
 
    """Apply default values to a request dictionary."""
288
 
    result = _DEFAULT_REQUEST_PARAMS
289
 
    if rqst:
290
 
        result.update(rqst)
291
 
    return result
292
 
 
293
 
 
294
 
class LogGenerator(object):
295
 
    """A generator of log revisions."""
296
 
 
297
 
    def iter_log_revisions(self):
298
 
        """Iterate over LogRevision objects.
299
 
 
300
 
        :return: An iterator yielding LogRevision objects.
301
 
        """
302
 
        raise NotImplementedError(self.iter_log_revisions)
303
 
 
304
 
 
305
 
class Logger(object):
306
 
    """An object the generates, formats and displays a log."""
307
 
 
308
 
    def __init__(self, branch, rqst):
309
 
        """Create a Logger.
310
 
 
311
 
        :param branch: the branch to log
312
 
        :param rqst: A dictionary specifying the query parameters.
313
 
          See make_log_request_dict() for supported values.
314
 
        """
315
 
        self.branch = branch
316
 
        self.rqst = _apply_log_request_defaults(rqst)
317
 
 
318
 
    def show(self, lf):
319
 
        """Display the log.
320
 
 
321
 
        :param lf: The LogFormatter object to send the output to.
322
 
        """
323
 
        if not isinstance(lf, LogFormatter):
324
 
            warn("not a LogFormatter instance: %r" % lf)
325
 
 
326
 
        self.branch.lock_read()
327
 
        try:
328
 
            if getattr(lf, 'begin_log', None):
329
 
                lf.begin_log()
330
 
            self._show_body(lf)
331
 
            if getattr(lf, 'end_log', None):
332
 
                lf.end_log()
333
 
        finally:
334
 
            self.branch.unlock()
335
 
 
336
 
    def _show_body(self, lf):
337
 
        """Show the main log output.
338
 
 
339
 
        Subclasses may wish to override this.
340
 
        """
341
 
        # Tweak the LogRequest based on what the LogFormatter can handle.
342
 
        # (There's no point generating stuff if the formatter can't display it.)
343
 
        rqst = self.rqst
344
 
        rqst['levels'] = lf.get_levels()
345
 
        if not getattr(lf, 'supports_tags', False):
346
 
            rqst['generate_tags'] = False
347
 
        if not getattr(lf, 'supports_delta', False):
348
 
            rqst['delta_type'] = None
349
 
        if not getattr(lf, 'supports_diff', False):
350
 
            rqst['diff_type'] = None
351
 
 
352
 
        # Find and print the interesting revisions
353
 
        generator = self._generator_factory(self.branch, rqst)
354
 
        for lr in generator.iter_log_revisions():
355
 
            lf.log_revision(lr)
356
 
        lf.show_advice()
357
 
 
358
 
    def _generator_factory(self, branch, rqst):
359
 
        """Make the LogGenerator object to use.
360
 
        
361
 
        Subclasses may wish to override this.
362
 
        """
363
 
        return _DefaultLogGenerator(branch, rqst)
364
 
 
365
 
 
366
 
class _StartNotLinearAncestor(Exception):
367
 
    """Raised when a start revision is not found walking left-hand history."""
368
 
 
369
 
 
370
 
class _DefaultLogGenerator(LogGenerator):
371
 
    """The default generator of log revisions."""
372
 
 
373
 
    def __init__(self, branch, rqst):
374
 
        self.branch = branch
375
 
        self.rqst = rqst
376
 
        if rqst.get('generate_tags') and branch.supports_tags():
377
 
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
378
 
        else:
379
 
            self.rev_tag_dict = {}
380
 
 
381
 
    def iter_log_revisions(self):
382
 
        """Iterate over LogRevision objects.
383
 
 
384
 
        :return: An iterator yielding LogRevision objects.
385
 
        """
386
 
        rqst = self.rqst
387
 
        log_count = 0
388
 
        revision_iterator = self._create_log_revision_iterator()
389
 
        for revs in revision_iterator:
390
 
            for (rev_id, revno, merge_depth), rev, delta in revs:
391
 
                # 0 levels means show everything; merge_depth counts from 0
392
 
                levels = rqst.get('levels')
393
 
                if levels != 0 and merge_depth >= levels:
394
 
                    continue
395
 
                diff = self._format_diff(rev, rev_id)
396
 
                yield LogRevision(rev, revno, merge_depth, delta,
397
 
                    self.rev_tag_dict.get(rev_id), diff)
398
 
                limit = rqst.get('limit')
399
 
                if limit:
400
 
                    log_count += 1
401
 
                    if log_count >= limit:
402
 
                        return
403
 
 
404
 
    def _format_diff(self, rev, rev_id):
405
 
        diff_type = self.rqst.get('diff_type')
406
 
        if diff_type is None:
407
 
            return None
408
 
        repo = self.branch.repository
409
 
        if len(rev.parent_ids) == 0:
410
 
            ancestor_id = _mod_revision.NULL_REVISION
411
 
        else:
412
 
            ancestor_id = rev.parent_ids[0]
413
 
        tree_1 = repo.revision_tree(ancestor_id)
414
 
        tree_2 = repo.revision_tree(rev_id)
415
 
        file_ids = self.rqst.get('specific_fileids')
416
 
        if diff_type == 'partial' and file_ids is not None:
417
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
418
 
        else:
419
 
            specific_files = None
420
 
        s = StringIO()
421
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
422
 
            new_label='')
423
 
        return s.getvalue()
424
 
 
425
 
    def _create_log_revision_iterator(self):
426
 
        """Create a revision iterator for log.
427
 
 
428
 
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
429
 
            delta).
430
 
        """
431
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
432
 
            self.branch, self.rqst.get('start_revision'),
433
 
            self.rqst.get('end_revision'))
434
 
        if self.rqst.get('_match_using_deltas'):
435
 
            return self._log_revision_iterator_using_delta_matching()
436
 
        else:
437
 
            # We're using the per-file-graph algorithm. This scales really
438
 
            # well but only makes sense if there is a single file and it's
439
 
            # not a directory
440
 
            file_count = len(self.rqst.get('specific_fileids'))
441
 
            if file_count != 1:
442
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
443
 
                    "when logging %d files" % file_count)
444
 
            return self._log_revision_iterator_using_per_file_graph()
445
 
 
446
 
    def _log_revision_iterator_using_delta_matching(self):
447
 
        # Get the base revisions, filtering by the revision range
448
 
        rqst = self.rqst
449
 
        generate_merge_revisions = rqst.get('levels') != 1
450
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
451
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
452
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
453
 
            self.end_rev_id, rqst.get('direction'), generate_merge_revisions,
454
 
            delayed_graph_generation=delayed_graph_generation)
455
 
 
456
 
        # Apply the other filters
457
 
        return make_log_rev_iterator(self.branch, view_revisions,
458
 
            rqst.get('delta_type'), rqst.get('message_search'),
459
 
            file_ids=rqst.get('specific_fileids'),
460
 
            direction=rqst.get('direction'))
461
 
 
462
 
    def _log_revision_iterator_using_per_file_graph(self):
463
 
        # Get the base revisions, filtering by the revision range.
464
 
        # Note that we always generate the merge revisions because
465
 
        # filter_revisions_touching_file_id() requires them ...
466
 
        rqst = self.rqst
467
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
468
 
            self.end_rev_id, rqst.get('direction'), True)
469
 
        if not isinstance(view_revisions, list):
470
 
            view_revisions = list(view_revisions)
471
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
472
 
            rqst.get('specific_fileids')[0], view_revisions,
473
 
            include_merges=rqst.get('levels') != 1)
474
 
        return make_log_rev_iterator(self.branch, view_revisions,
475
 
            rqst.get('delta_type'), rqst.get('message_search'))
476
 
 
477
 
 
478
 
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
479
 
    generate_merge_revisions, delayed_graph_generation=False):
480
 
    """Calculate the revisions to view.
481
 
 
482
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
483
 
             a list of the same tuples.
484
 
    """
485
 
    br_revno, br_rev_id = branch.last_revision_info()
486
 
    if br_revno == 0:
487
 
        return []
488
 
 
489
 
    # If a single revision is requested, check we can handle it
490
 
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
491
 
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
492
 
    if generate_single_revision:
493
 
        return _generate_one_revision(branch, end_rev_id, br_rev_id, br_revno)
494
 
 
495
 
    # If we only want to see linear revisions, we can iterate ...
496
 
    if not generate_merge_revisions:
497
 
        return _generate_flat_revisions(branch, start_rev_id, end_rev_id,
498
 
            direction)
499
 
    else:
500
 
        return _generate_all_revisions(branch, start_rev_id, end_rev_id,
501
 
            direction, delayed_graph_generation)
502
 
 
503
 
 
504
 
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
505
 
    if rev_id == br_rev_id:
506
 
        # It's the tip
507
 
        return [(br_rev_id, br_revno, 0)]
508
 
    else:
509
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
510
 
        revno_str = '.'.join(str(n) for n in revno)
511
 
        return [(rev_id, revno_str, 0)]
512
 
 
513
 
 
514
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
515
 
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
516
 
    # If a start limit was given and it's not obviously an
517
 
    # ancestor of the end limit, check it before outputting anything
518
 
    if direction == 'forward' or (start_rev_id
519
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
520
 
        try:
521
 
            result = list(result)
522
 
        except _StartNotLinearAncestor:
523
 
            raise errors.BzrCommandError('Start revision not found in'
524
 
                ' left-hand history of end revision.')
525
 
    if direction == 'forward':
526
 
        result = reversed(result)
527
 
    return result
528
 
 
529
 
 
530
 
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
531
 
    delayed_graph_generation):
532
 
    # On large trees, generating the merge graph can take 30-60 seconds
533
 
    # so we delay doing it until a merge is detected, incrementally
534
 
    # returning initial (non-merge) revisions while we can.
535
 
    initial_revisions = []
536
 
    if delayed_graph_generation:
537
 
        try:
538
 
            for rev_id, revno, depth in \
539
 
                _linear_view_revisions(branch, start_rev_id, end_rev_id):
540
 
                if _has_merges(branch, rev_id):
541
 
                    end_rev_id = rev_id
542
 
                    break
543
 
                else:
544
 
                    initial_revisions.append((rev_id, revno, depth))
545
 
            else:
546
 
                # No merged revisions found
547
 
                if direction == 'reverse':
548
 
                    return initial_revisions
549
 
                elif direction == 'forward':
550
 
                    return reversed(initial_revisions)
551
 
                else:
552
 
                    raise ValueError('invalid direction %r' % direction)
553
 
        except _StartNotLinearAncestor:
554
 
            # A merge was never detected so the lower revision limit can't
555
 
            # be nested down somewhere
556
 
            raise errors.BzrCommandError('Start revision not found in'
557
 
                ' history of end revision.')
558
 
 
559
 
    # A log including nested merges is required. If the direction is reverse,
560
 
    # we rebase the initial merge depths so that the development line is
561
 
    # shown naturally, i.e. just like it is for linear logging. We can easily
562
 
    # make forward the exact opposite display, but showing the merge revisions
563
 
    # indented at the end seems slightly nicer in that case.
564
 
    view_revisions = chain(iter(initial_revisions),
565
 
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
566
 
        rebase_initial_depths=direction == 'reverse'))
567
 
    if direction == 'reverse':
568
 
        return view_revisions
569
 
    elif direction == 'forward':
570
 
        # Forward means oldest first, adjusting for depth.
571
 
        view_revisions = reverse_by_depth(list(view_revisions))
572
 
        return _rebase_merge_depth(view_revisions)
573
 
    else:
574
 
        raise ValueError('invalid direction %r' % direction)
575
 
 
576
 
 
577
 
def _has_merges(branch, rev_id):
578
 
    """Does a revision have multiple parents or not?"""
579
 
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
580
 
    return len(parents) > 1
581
 
 
582
 
 
583
 
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
584
 
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
585
 
    if start_rev_id and end_rev_id:
586
 
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
587
 
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
588
 
        if len(start_dotted) == 1 and len(end_dotted) == 1:
589
 
            # both on mainline
590
 
            return start_dotted[0] <= end_dotted[0]
591
 
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
592
 
            start_dotted[0:1] == end_dotted[0:1]):
593
 
            # both on same development line
594
 
            return start_dotted[2] <= end_dotted[2]
595
 
        else:
596
 
            # not obvious
597
 
            return False
598
 
    return True
599
 
 
600
 
 
601
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
602
 
    """Calculate a sequence of revisions to view, newest to oldest.
603
 
 
604
 
    :param start_rev_id: the lower revision-id
605
 
    :param end_rev_id: the upper revision-id
606
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
607
 
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
608
 
      is not found walking the left-hand history
609
 
    """
610
 
    br_revno, br_rev_id = branch.last_revision_info()
611
 
    repo = branch.repository
612
 
    if start_rev_id is None and end_rev_id is None:
613
 
        cur_revno = br_revno
614
 
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
615
 
            yield revision_id, str(cur_revno), 0
616
 
            cur_revno -= 1
617
 
    else:
618
 
        if end_rev_id is None:
619
 
            end_rev_id = br_rev_id
620
 
        found_start = start_rev_id is None
621
 
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
622
 
            revno = branch.revision_id_to_dotted_revno(revision_id)
623
 
            revno_str = '.'.join(str(n) for n in revno)
624
 
            if not found_start and revision_id == start_rev_id:
625
 
                yield revision_id, revno_str, 0
626
 
                found_start = True
627
 
                break
628
 
            else:
629
 
                yield revision_id, revno_str, 0
630
 
        else:
631
 
            if not found_start:
632
 
                raise _StartNotLinearAncestor()
633
 
 
634
 
 
635
 
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
636
 
    rebase_initial_depths=True):
637
 
    """Calculate revisions to view including merges, newest to oldest.
638
 
 
639
 
    :param branch: the branch
640
 
    :param start_rev_id: the lower revision-id
641
 
    :param end_rev_id: the upper revision-id
642
 
    :param rebase_initial_depth: should depths be rebased until a mainline
643
 
      revision is found?
644
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
645
 
    """
646
 
    view_revisions = branch.iter_merge_sorted_revisions(
647
 
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
648
 
        stop_rule="with-merges")
649
 
    if not rebase_initial_depths:
650
 
        for (rev_id, merge_depth, revno, end_of_merge
651
 
             ) in view_revisions:
652
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
653
 
    else:
654
 
        # We're following a development line starting at a merged revision.
655
 
        # We need to adjust depths down by the initial depth until we find
656
 
        # a depth less than it. Then we use that depth as the adjustment.
657
 
        # If and when we reach the mainline, depth adjustment ends.
658
 
        depth_adjustment = None
659
 
        for (rev_id, merge_depth, revno, end_of_merge
660
 
             ) in view_revisions:
661
 
            if depth_adjustment is None:
662
 
                depth_adjustment = merge_depth
663
 
            if depth_adjustment:
664
 
                if merge_depth < depth_adjustment:
665
 
                    depth_adjustment = merge_depth
666
 
                merge_depth -= depth_adjustment
667
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
668
 
 
669
 
 
670
 
def calculate_view_revisions(branch, start_revision, end_revision, direction,
671
 
        specific_fileid, generate_merge_revisions):
672
 
    """Calculate the revisions to view.
673
 
 
674
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
675
 
             a list of the same tuples.
676
 
    """
677
 
    # This method is no longer called by the main code path.
678
 
    # It is retained for API compatibility and may be deprecated
679
 
    # soon. IGC 20090116
680
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
681
 
        end_revision)
682
 
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
683
 
        direction, generate_merge_revisions or specific_fileid))
684
 
    if specific_fileid:
685
 
        view_revisions = _filter_revisions_touching_file_id(branch,
686
 
            specific_fileid, view_revisions,
687
 
            include_merges=generate_merge_revisions)
688
 
    return _rebase_merge_depth(view_revisions)
689
 
 
690
 
 
691
 
def _rebase_merge_depth(view_revisions):
692
 
    """Adjust depths upwards so the top level is 0."""
693
 
    # If either the first or last revision have a merge_depth of 0, we're done
694
 
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
695
 
        min_depth = min([d for r,n,d in view_revisions])
696
 
        if min_depth != 0:
697
 
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
698
 
    return view_revisions
699
 
 
700
 
 
701
 
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
702
 
        file_ids=None, direction='reverse'):
703
 
    """Create a revision iterator for log.
704
 
 
705
 
    :param branch: The branch being logged.
706
 
    :param view_revisions: The revisions being viewed.
707
 
    :param generate_delta: Whether to generate a delta for each revision.
708
 
      Permitted values are None, 'full' and 'partial'.
709
 
    :param search: A user text search string.
710
 
    :param file_ids: If non empty, only revisions matching one or more of
711
 
      the file-ids are to be kept.
712
 
    :param direction: the direction in which view_revisions is sorted
713
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
714
 
        delta).
715
 
    """
716
 
    # Convert view_revisions into (view, None, None) groups to fit with
717
 
    # the standard interface here.
718
 
    if type(view_revisions) == list:
719
 
        # A single batch conversion is faster than many incremental ones.
720
 
        # As we have all the data, do a batch conversion.
721
 
        nones = [None] * len(view_revisions)
722
 
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
723
 
    else:
724
 
        def _convert():
725
 
            for view in view_revisions:
726
 
                yield (view, None, None)
727
 
        log_rev_iterator = iter([_convert()])
728
 
    for adapter in log_adapters:
729
 
        # It would be nicer if log adapters were first class objects
730
 
        # with custom parameters. This will do for now. IGC 20090127
731
 
        if adapter == _make_delta_filter:
732
 
            log_rev_iterator = adapter(branch, generate_delta,
733
 
                search, log_rev_iterator, file_ids, direction)
734
 
        else:
735
 
            log_rev_iterator = adapter(branch, generate_delta,
736
 
                search, log_rev_iterator)
737
 
    return log_rev_iterator
738
 
 
739
 
 
740
 
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
741
 
    """Create a filtered iterator of log_rev_iterator matching on a regex.
742
 
 
743
 
    :param branch: The branch being logged.
744
 
    :param generate_delta: Whether to generate a delta for each revision.
745
 
    :param search: A user text search string.
746
 
    :param log_rev_iterator: An input iterator containing all revisions that
747
 
        could be displayed, in lists.
748
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
749
 
        delta).
750
 
    """
751
 
    if search is None:
752
 
        return log_rev_iterator
753
 
    searchRE = re_compile_checked(search, re.IGNORECASE,
754
 
            'log message filter')
755
 
    return _filter_message_re(searchRE, log_rev_iterator)
756
 
 
757
 
 
758
 
def _filter_message_re(searchRE, log_rev_iterator):
759
 
    for revs in log_rev_iterator:
760
 
        new_revs = []
761
 
        for (rev_id, revno, merge_depth), rev, delta in revs:
762
 
            if searchRE.search(rev.message):
763
 
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
764
 
        yield new_revs
765
 
 
766
 
 
767
 
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
768
 
    fileids=None, direction='reverse'):
769
 
    """Add revision deltas to a log iterator if needed.
770
 
 
771
 
    :param branch: The branch being logged.
772
 
    :param generate_delta: Whether to generate a delta for each revision.
773
 
      Permitted values are None, 'full' and 'partial'.
774
 
    :param search: A user text search string.
775
 
    :param log_rev_iterator: An input iterator containing all revisions that
776
 
        could be displayed, in lists.
777
 
    :param fileids: If non empty, only revisions matching one or more of
778
 
      the file-ids are to be kept.
779
 
    :param direction: the direction in which view_revisions is sorted
780
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
781
 
        delta).
782
 
    """
783
 
    if not generate_delta and not fileids:
784
 
        return log_rev_iterator
785
 
    return _generate_deltas(branch.repository, log_rev_iterator,
786
 
        generate_delta, fileids, direction)
787
 
 
788
 
 
789
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
790
 
    direction):
791
 
    """Create deltas for each batch of revisions in log_rev_iterator.
792
 
 
793
 
    If we're only generating deltas for the sake of filtering against
794
 
    file-ids, we stop generating deltas once all file-ids reach the
795
 
    appropriate life-cycle point. If we're receiving data newest to
796
 
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
797
 
    """
798
 
    check_fileids = fileids is not None and len(fileids) > 0
799
 
    if check_fileids:
800
 
        fileid_set = set(fileids)
801
 
        if direction == 'reverse':
802
 
            stop_on = 'add'
803
 
        else:
804
 
            stop_on = 'remove'
805
 
    else:
806
 
        fileid_set = None
807
 
    for revs in log_rev_iterator:
808
 
        # If we were matching against fileids and we've run out,
809
 
        # there's nothing left to do
810
 
        if check_fileids and not fileid_set:
811
 
            return
812
 
        revisions = [rev[1] for rev in revs]
813
 
        new_revs = []
814
 
        if delta_type == 'full' and not check_fileids:
815
 
            deltas = repository.get_deltas_for_revisions(revisions)
816
 
            for rev, delta in izip(revs, deltas):
817
 
                new_revs.append((rev[0], rev[1], delta))
818
 
        else:
819
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
820
 
            for rev, delta in izip(revs, deltas):
821
 
                if check_fileids:
822
 
                    if delta is None or not delta.has_changed():
823
 
                        continue
824
 
                    else:
825
 
                        _update_fileids(delta, fileid_set, stop_on)
826
 
                        if delta_type is None:
827
 
                            delta = None
828
 
                        elif delta_type == 'full':
829
 
                            # If the file matches all the time, rebuilding
830
 
                            # a full delta like this in addition to a partial
831
 
                            # one could be slow. However, it's likely that
832
 
                            # most revisions won't get this far, making it
833
 
                            # faster to filter on the partial deltas and
834
 
                            # build the occasional full delta than always
835
 
                            # building full deltas and filtering those.
836
 
                            rev_id = rev[0][0]
837
 
                            delta = repository.get_revision_delta(rev_id)
838
 
                new_revs.append((rev[0], rev[1], delta))
839
 
        yield new_revs
840
 
 
841
 
 
842
 
def _update_fileids(delta, fileids, stop_on):
843
 
    """Update the set of file-ids to search based on file lifecycle events.
844
 
    
845
 
    :param fileids: a set of fileids to update
846
 
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
847
 
      fileids set once their add or remove entry is detected respectively
848
 
    """
849
 
    if stop_on == 'add':
850
 
        for item in delta.added:
851
 
            if item[1] in fileids:
852
 
                fileids.remove(item[1])
853
 
    elif stop_on == 'delete':
854
 
        for item in delta.removed:
855
 
            if item[1] in fileids:
856
 
                fileids.remove(item[1])
857
 
 
858
 
 
859
 
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
860
 
    """Extract revision objects from the repository
861
 
 
862
 
    :param branch: The branch being logged.
863
 
    :param generate_delta: Whether to generate a delta for each revision.
864
 
    :param search: A user text search string.
865
 
    :param log_rev_iterator: An input iterator containing all revisions that
866
 
        could be displayed, in lists.
867
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
868
 
        delta).
869
 
    """
870
 
    repository = branch.repository
871
 
    for revs in log_rev_iterator:
872
 
        # r = revision_id, n = revno, d = merge depth
873
 
        revision_ids = [view[0] for view, _, _ in revs]
874
 
        revisions = repository.get_revisions(revision_ids)
875
 
        revs = [(rev[0], revision, rev[2]) for rev, revision in
876
 
            izip(revs, revisions)]
877
 
        yield revs
878
 
 
879
 
 
880
 
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
881
 
    """Group up a single large batch into smaller ones.
882
 
 
883
 
    :param branch: The branch being logged.
884
 
    :param generate_delta: Whether to generate a delta for each revision.
885
 
    :param search: A user text search string.
886
 
    :param log_rev_iterator: An input iterator containing all revisions that
887
 
        could be displayed, in lists.
888
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
889
 
        delta).
890
 
    """
891
 
    repository = branch.repository
892
 
    num = 9
893
 
    for batch in log_rev_iterator:
894
 
        batch = iter(batch)
895
 
        while True:
896
 
            step = [detail for _, detail in zip(range(num), batch)]
897
 
            if len(step) == 0:
898
 
                break
899
 
            yield step
900
 
            num = min(int(num * 1.5), 200)
901
 
 
902
 
 
903
 
def _get_revision_limits(branch, start_revision, end_revision):
904
 
    """Get and check revision limits.
905
 
 
906
 
    :param  branch: The branch containing the revisions.
907
 
 
908
 
    :param  start_revision: The first revision to be logged.
909
 
            For backwards compatibility this may be a mainline integer revno,
910
 
            but for merge revision support a RevisionInfo is expected.
911
 
 
912
 
    :param  end_revision: The last revision to be logged.
913
 
            For backwards compatibility this may be a mainline integer revno,
914
 
            but for merge revision support a RevisionInfo is expected.
915
 
 
916
 
    :return: (start_rev_id, end_rev_id) tuple.
917
 
    """
918
 
    branch_revno, branch_rev_id = branch.last_revision_info()
919
 
    start_rev_id = None
920
 
    if start_revision is None:
921
 
        start_revno = 1
922
 
    else:
923
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
924
 
            start_rev_id = start_revision.rev_id
925
 
            start_revno = start_revision.revno or 1
926
 
        else:
927
 
            branch.check_real_revno(start_revision)
928
 
            start_revno = start_revision
929
 
            start_rev_id = branch.get_rev_id(start_revno)
930
 
 
931
 
    end_rev_id = None
932
 
    if end_revision is None:
933
 
        end_revno = branch_revno
934
 
    else:
935
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
936
 
            end_rev_id = end_revision.rev_id
937
 
            end_revno = end_revision.revno or branch_revno
938
 
        else:
939
 
            branch.check_real_revno(end_revision)
940
 
            end_revno = end_revision
941
 
            end_rev_id = branch.get_rev_id(end_revno)
942
 
 
943
 
    if branch_revno != 0:
944
 
        if (start_rev_id == _mod_revision.NULL_REVISION
945
 
            or end_rev_id == _mod_revision.NULL_REVISION):
946
 
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
947
 
        if start_revno > end_revno:
948
 
            raise errors.BzrCommandError("Start revision must be older than "
949
 
                                         "the end revision.")
950
 
    return (start_rev_id, end_rev_id)
951
 
 
952
 
 
953
 
def _get_mainline_revs(branch, start_revision, end_revision):
954
 
    """Get the mainline revisions from the branch.
955
 
 
956
 
    Generates the list of mainline revisions for the branch.
957
 
 
958
 
    :param  branch: The branch containing the revisions.
959
 
 
960
 
    :param  start_revision: The first revision to be logged.
961
 
            For backwards compatibility this may be a mainline integer revno,
962
 
            but for merge revision support a RevisionInfo is expected.
963
 
 
964
 
    :param  end_revision: The last revision to be logged.
965
 
            For backwards compatibility this may be a mainline integer revno,
966
 
            but for merge revision support a RevisionInfo is expected.
967
 
 
968
 
    :return: A (mainline_revs, rev_nos, start_rev_id, end_rev_id) tuple.
969
 
    """
970
 
    branch_revno, branch_last_revision = branch.last_revision_info()
971
 
    if branch_revno == 0:
972
 
        return None, None, None, None
973
 
 
974
 
    # For mainline generation, map start_revision and end_revision to
975
 
    # mainline revnos. If the revision is not on the mainline choose the
976
 
    # appropriate extreme of the mainline instead - the extra will be
977
 
    # filtered later.
978
 
    # Also map the revisions to rev_ids, to be used in the later filtering
979
 
    # stage.
980
 
    start_rev_id = None
981
 
    if start_revision is None:
982
 
        start_revno = 1
983
 
    else:
984
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
985
 
            start_rev_id = start_revision.rev_id
986
 
            start_revno = start_revision.revno or 1
987
 
        else:
988
 
            branch.check_real_revno(start_revision)
989
 
            start_revno = start_revision
990
 
 
991
 
    end_rev_id = None
992
 
    if end_revision is None:
993
 
        end_revno = branch_revno
994
 
    else:
995
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
996
 
            end_rev_id = end_revision.rev_id
997
 
            end_revno = end_revision.revno or branch_revno
998
 
        else:
999
 
            branch.check_real_revno(end_revision)
1000
 
            end_revno = end_revision
1001
 
 
1002
 
    if ((start_rev_id == _mod_revision.NULL_REVISION)
1003
 
        or (end_rev_id == _mod_revision.NULL_REVISION)):
1004
 
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
1005
 
    if start_revno > end_revno:
1006
 
        raise errors.BzrCommandError("Start revision must be older than "
1007
 
                                     "the end revision.")
1008
 
 
1009
 
    if end_revno < start_revno:
1010
 
        return None, None, None, None
1011
 
    cur_revno = branch_revno
1012
 
    rev_nos = {}
1013
 
    mainline_revs = []
1014
 
    for revision_id in branch.repository.iter_reverse_revision_history(
1015
 
                        branch_last_revision):
1016
 
        if cur_revno < start_revno:
1017
 
            # We have gone far enough, but we always add 1 more revision
1018
 
            rev_nos[revision_id] = cur_revno
1019
 
            mainline_revs.append(revision_id)
1020
 
            break
1021
 
        if cur_revno <= end_revno:
1022
 
            rev_nos[revision_id] = cur_revno
1023
 
            mainline_revs.append(revision_id)
1024
 
        cur_revno -= 1
1025
 
    else:
1026
 
        # We walked off the edge of all revisions, so we add a 'None' marker
1027
 
        mainline_revs.append(None)
1028
 
 
1029
 
    mainline_revs.reverse()
1030
 
 
1031
 
    # override the mainline to look like the revision history.
1032
 
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1033
 
 
1034
 
 
1035
 
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1036
 
    """Filter view_revisions based on revision ranges.
1037
 
 
1038
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1039
 
            tuples to be filtered.
1040
 
 
1041
 
    :param start_rev_id: If not NONE specifies the first revision to be logged.
1042
 
            If NONE then all revisions up to the end_rev_id are logged.
1043
 
 
1044
 
    :param end_rev_id: If not NONE specifies the last revision to be logged.
1045
 
            If NONE then all revisions up to the end of the log are logged.
1046
 
 
1047
 
    :return: The filtered view_revisions.
1048
 
    """
1049
 
    # This method is no longer called by the main code path.
1050
 
    # It may be removed soon. IGC 20090127
1051
 
    if start_rev_id or end_rev_id:
1052
 
        revision_ids = [r for r, n, d in view_revisions]
1053
 
        if start_rev_id:
1054
 
            start_index = revision_ids.index(start_rev_id)
1055
 
        else:
1056
 
            start_index = 0
1057
 
        if start_rev_id == end_rev_id:
1058
 
            end_index = start_index
1059
 
        else:
1060
 
            if end_rev_id:
1061
 
                end_index = revision_ids.index(end_rev_id)
1062
 
            else:
1063
 
                end_index = len(view_revisions) - 1
1064
 
        # To include the revisions merged into the last revision,
1065
 
        # extend end_rev_id down to, but not including, the next rev
1066
 
        # with the same or lesser merge_depth
1067
 
        end_merge_depth = view_revisions[end_index][2]
1068
 
        try:
1069
 
            for index in xrange(end_index+1, len(view_revisions)+1):
1070
 
                if view_revisions[index][2] <= end_merge_depth:
1071
 
                    end_index = index - 1
1072
 
                    break
1073
 
        except IndexError:
1074
 
            # if the search falls off the end then log to the end as well
1075
 
            end_index = len(view_revisions) - 1
1076
 
        view_revisions = view_revisions[start_index:end_index+1]
1077
 
    return view_revisions
1078
 
 
1079
 
 
1080
 
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
1081
 
    include_merges=True):
1082
 
    r"""Return the list of revision ids which touch a given file id.
1083
 
 
1084
 
    The function filters view_revisions and returns a subset.
1085
 
    This includes the revisions which directly change the file id,
1086
 
    and the revisions which merge these changes. So if the
1087
 
    revision graph is::
1088
 
        A-.
1089
 
        |\ \
1090
 
        B C E
1091
 
        |/ /
1092
 
        D |
1093
 
        |\|
1094
 
        | F
1095
 
        |/
1096
 
        G
1097
 
 
1098
 
    And 'C' changes a file, then both C and D will be returned. F will not be
1099
 
    returned even though it brings the changes to C into the branch starting
1100
 
    with E. (Note that if we were using F as the tip instead of G, then we
1101
 
    would see C, D, F.)
1102
 
 
1103
 
    This will also be restricted based on a subset of the mainline.
1104
 
 
1105
 
    :param branch: The branch where we can get text revision information.
1106
 
 
1107
 
    :param file_id: Filter out revisions that do not touch file_id.
1108
 
 
1109
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1110
 
        tuples. This is the list of revisions which will be filtered. It is
1111
 
        assumed that view_revisions is in merge_sort order (i.e. newest
1112
 
        revision first ).
1113
 
 
1114
 
    :param include_merges: include merge revisions in the result or not
1115
 
 
1116
 
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
1117
 
    """
1118
 
    # Lookup all possible text keys to determine which ones actually modified
1119
 
    # the file.
1120
 
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1121
 
    next_keys = None
1122
 
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1123
 
    # memory consumption. GraphIndex *does* like to look for a few keys in
1124
 
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
1125
 
    # TODO: This code needs to be re-evaluated periodically as we tune the
1126
 
    #       indexing layer. We might consider passing in hints as to the known
1127
 
    #       access pattern (sparse/clustered, high success rate/low success
1128
 
    #       rate). This particular access is clustered with a low success rate.
1129
 
    get_parent_map = branch.repository.texts.get_parent_map
1130
 
    modified_text_revisions = set()
1131
 
    chunk_size = 1000
1132
 
    for start in xrange(0, len(text_keys), chunk_size):
1133
 
        next_keys = text_keys[start:start + chunk_size]
1134
 
        # Only keep the revision_id portion of the key
1135
 
        modified_text_revisions.update(
1136
 
            [k[1] for k in get_parent_map(next_keys)])
1137
 
    del text_keys, next_keys
1138
 
 
1139
 
    result = []
1140
 
    # Track what revisions will merge the current revision, replace entries
1141
 
    # with 'None' when they have been added to result
1142
 
    current_merge_stack = [None]
1143
 
    for info in view_revisions:
1144
 
        rev_id, revno, depth = info
1145
 
        if depth == len(current_merge_stack):
1146
 
            current_merge_stack.append(info)
1147
 
        else:
1148
 
            del current_merge_stack[depth + 1:]
1149
 
            current_merge_stack[-1] = info
1150
 
 
1151
 
        if rev_id in modified_text_revisions:
1152
 
            # This needs to be logged, along with the extra revisions
1153
 
            for idx in xrange(len(current_merge_stack)):
1154
 
                node = current_merge_stack[idx]
1155
 
                if node is not None:
1156
 
                    if include_merges or node[2] == 0:
1157
 
                        result.append(node)
1158
 
                        current_merge_stack[idx] = None
1159
 
    return result
1160
 
 
1161
 
 
1162
 
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
1163
 
                       include_merges=True):
1164
 
    """Produce an iterator of revisions to show
1165
 
    :return: an iterator of (revision_id, revno, merge_depth)
1166
 
    (if there is no revno for a revision, None is supplied)
1167
 
    """
1168
 
    # This method is no longer called by the main code path.
1169
 
    # It is retained for API compatibility and may be deprecated
1170
 
    # soon. IGC 20090127
1171
 
    if not include_merges:
1172
 
        revision_ids = mainline_revs[1:]
1173
 
        if direction == 'reverse':
1174
 
            revision_ids.reverse()
1175
 
        for revision_id in revision_ids:
1176
 
            yield revision_id, str(rev_nos[revision_id]), 0
1177
 
        return
1178
 
    graph = branch.repository.get_graph()
1179
 
    # This asks for all mainline revisions, which means we only have to spider
1180
 
    # sideways, rather than depth history. That said, its still size-of-history
1181
 
    # and should be addressed.
1182
 
    # mainline_revisions always includes an extra revision at the beginning, so
1183
 
    # don't request it.
1184
 
    parent_map = dict(((key, value) for key, value in
1185
 
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
1186
 
    # filter out ghosts; merge_sort errors on ghosts.
1187
 
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
1188
 
    merge_sorted_revisions = tsort.merge_sort(
1189
 
        rev_graph,
1190
 
        mainline_revs[-1],
1191
 
        mainline_revs,
1192
 
        generate_revno=True)
1193
 
 
1194
 
    if direction == 'forward':
1195
 
        # forward means oldest first.
1196
 
        merge_sorted_revisions = reverse_by_depth(merge_sorted_revisions)
1197
 
    elif direction != 'reverse':
1198
 
        raise ValueError('invalid direction %r' % direction)
1199
 
 
1200
 
    for (sequence, rev_id, merge_depth, revno, end_of_merge
1201
 
         ) in merge_sorted_revisions:
1202
 
        yield rev_id, '.'.join(map(str, revno)), merge_depth
1203
 
 
1204
 
 
1205
 
def reverse_by_depth(merge_sorted_revisions, _depth=0):
1206
 
    """Reverse revisions by depth.
1207
 
 
1208
 
    Revisions with a different depth are sorted as a group with the previous
1209
 
    revision of that depth.  There may be no topological justification for this,
1210
 
    but it looks much nicer.
1211
 
    """
1212
 
    # Add a fake revision at start so that we can always attach sub revisions
1213
 
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
1214
 
    zd_revisions = []
1215
 
    for val in merge_sorted_revisions:
1216
 
        if val[2] == _depth:
1217
 
            # Each revision at the current depth becomes a chunk grouping all
1218
 
            # higher depth revisions.
1219
 
            zd_revisions.append([val])
1220
 
        else:
1221
 
            zd_revisions[-1].append(val)
1222
 
    for revisions in zd_revisions:
1223
 
        if len(revisions) > 1:
1224
 
            # We have higher depth revisions, let reverse them locally
1225
 
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
1226
 
    zd_revisions.reverse()
1227
 
    result = []
1228
 
    for chunk in zd_revisions:
1229
 
        result.extend(chunk)
1230
 
    if _depth == 0:
1231
 
        # Top level call, get rid of the fake revisions that have been added
1232
 
        result = [r for r in result if r[0] is not None and r[1] is not None]
1233
 
    return result
1234
 
 
1235
 
 
1236
 
class LogRevision(object):
1237
 
    """A revision to be logged (by LogFormatter.log_revision).
1238
 
 
1239
 
    A simple wrapper for the attributes of a revision to be logged.
1240
 
    The attributes may or may not be populated, as determined by the
1241
 
    logging options and the log formatter capabilities.
1242
 
    """
1243
 
 
1244
 
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1245
 
                 tags=None, diff=None):
1246
 
        self.rev = rev
1247
 
        self.revno = str(revno)
1248
 
        self.merge_depth = merge_depth
1249
 
        self.delta = delta
1250
 
        self.tags = tags
1251
 
        self.diff = diff
1252
 
 
1253
 
 
1254
 
class LogFormatter(object):
1255
 
    """Abstract class to display log messages.
1256
 
 
1257
 
    At a minimum, a derived class must implement the log_revision method.
1258
 
 
1259
 
    If the LogFormatter needs to be informed of the beginning or end of
1260
 
    a log it should implement the begin_log and/or end_log hook methods.
1261
 
 
1262
 
    A LogFormatter should define the following supports_XXX flags
1263
 
    to indicate which LogRevision attributes it supports:
1264
 
 
1265
 
    - supports_delta must be True if this log formatter supports delta.
1266
 
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1267
 
        attribute describes whether the 'short_status' format (1) or the long
1268
 
        one (2) should be used.
1269
 
 
1270
 
    - supports_merge_revisions must be True if this log formatter supports
1271
 
        merge revisions.  If not, then only mainline revisions will be passed
1272
 
        to the formatter.
1273
 
 
1274
 
    - preferred_levels is the number of levels this formatter defaults to.
1275
 
        The default value is zero meaning display all levels.
1276
 
        This value is only relevant if supports_merge_revisions is True.
1277
 
 
1278
 
    - supports_tags must be True if this log formatter supports tags.
1279
 
        Otherwise the tags attribute may not be populated.
1280
 
 
1281
 
    - supports_diff must be True if this log formatter supports diffs.
1282
 
        Otherwise the diff attribute may not be populated.
1283
 
 
1284
 
    Plugins can register functions to show custom revision properties using
1285
 
    the properties_handler_registry. The registered function
1286
 
    must respect the following interface description:
1287
 
        def my_show_properties(properties_dict):
1288
 
            # code that returns a dict {'name':'value'} of the properties
1289
 
            # to be shown
1290
 
    """
1291
 
    preferred_levels = 0
1292
 
 
1293
 
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1294
 
                 delta_format=None, levels=None, show_advice=False):
1295
 
        """Create a LogFormatter.
1296
 
 
1297
 
        :param to_file: the file to output to
1298
 
        :param show_ids: if True, revision-ids are to be displayed
1299
 
        :param show_timezone: the timezone to use
1300
 
        :param delta_format: the level of delta information to display
1301
 
          or None to leave it to the formatter to decide
1302
 
        :param levels: the number of levels to display; None or -1 to
1303
 
          let the log formatter decide.
1304
 
        :param show_advice: whether to show advice at the end of the
1305
 
          log or not
1306
 
        """
1307
 
        self.to_file = to_file
1308
 
        # 'exact' stream used to show diff, it should print content 'as is'
1309
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
1310
 
        self.to_exact_file = getattr(to_file, 'stream', to_file)
1311
 
        self.show_ids = show_ids
1312
 
        self.show_timezone = show_timezone
1313
 
        if delta_format is None:
1314
 
            # Ensures backward compatibility
1315
 
            delta_format = 2 # long format
1316
 
        self.delta_format = delta_format
1317
 
        self.levels = levels
1318
 
        self._show_advice = show_advice
1319
 
        self._merge_count = 0
1320
 
 
1321
 
    def get_levels(self):
1322
 
        """Get the number of levels to display or 0 for all."""
1323
 
        if getattr(self, 'supports_merge_revisions', False):
1324
 
            if self.levels is None or self.levels == -1:
1325
 
                self.levels = self.preferred_levels
1326
 
        else:
1327
 
            self.levels = 1
1328
 
        return self.levels
1329
 
 
1330
 
    def log_revision(self, revision):
1331
 
        """Log a revision.
1332
 
 
1333
 
        :param  revision:   The LogRevision to be logged.
1334
 
        """
1335
 
        raise NotImplementedError('not implemented in abstract base')
1336
 
 
1337
 
    def show_advice(self):
1338
 
        """Output user advice, if any, when the log is completed."""
1339
 
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
1340
 
            advice_sep = self.get_advice_separator()
1341
 
            if advice_sep:
1342
 
                self.to_file.write(advice_sep)
1343
 
            self.to_file.write(
1344
 
                "Use --include-merges or -n0 to see merged revisions.\n")
1345
 
 
1346
 
    def get_advice_separator(self):
1347
 
        """Get the text separating the log from the closing advice."""
1348
 
        return ''
1349
 
 
1350
 
    def short_committer(self, rev):
1351
 
        name, address = config.parse_username(rev.committer)
1352
 
        if name:
1353
 
            return name
1354
 
        return address
1355
 
 
1356
 
    def short_author(self, rev):
1357
 
        name, address = config.parse_username(rev.get_apparent_authors()[0])
1358
 
        if name:
1359
 
            return name
1360
 
        return address
1361
 
 
1362
 
    def merge_marker(self, revision):
1363
 
        """Get the merge marker to include in the output or '' if none."""
1364
 
        if len(revision.rev.parent_ids) > 1:
1365
 
            self._merge_count += 1
1366
 
            return ' [merge]'
1367
 
        else:
1368
 
            return ''
1369
 
 
1370
 
    def show_foreign_info(self, rev, indent):
1371
 
        """Custom log displayer for foreign revision identifiers.
1372
 
 
1373
 
        :param rev: Revision object.
1374
 
        """
1375
 
        # Revision comes directly from a foreign repository
1376
 
        if isinstance(rev, foreign.ForeignRevision):
1377
 
            self._write_properties(indent, rev.mapping.vcs.show_foreign_revid(
1378
 
                rev.foreign_revid))
1379
 
            return
1380
 
 
1381
 
        # Imported foreign revision revision ids always contain :
1382
 
        if not ":" in rev.revision_id:
1383
 
            return
1384
 
 
1385
 
        # Revision was once imported from a foreign repository
1386
 
        try:
1387
 
            foreign_revid, mapping = \
1388
 
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
1389
 
        except errors.InvalidRevisionId:
1390
 
            return
1391
 
 
1392
 
        self._write_properties(indent, 
1393
 
            mapping.vcs.show_foreign_revid(foreign_revid))
1394
 
 
1395
 
    def show_properties(self, revision, indent):
1396
 
        """Displays the custom properties returned by each registered handler.
1397
 
 
1398
 
        If a registered handler raises an error it is propagated.
1399
 
        """
1400
 
        for key, handler in properties_handler_registry.iteritems():
1401
 
            self._write_properties(indent, handler(revision))
1402
 
 
1403
 
    def _write_properties(self, indent, properties):
1404
 
        for key, value in properties.items():
1405
 
            self.to_file.write(indent + key + ': ' + value + '\n')
1406
 
 
1407
 
    def show_diff(self, to_file, diff, indent):
1408
 
        for l in diff.rstrip().split('\n'):
1409
 
            to_file.write(indent + '%s\n' % (l,))
1410
 
 
1411
 
 
1412
 
class LongLogFormatter(LogFormatter):
1413
 
 
1414
 
    supports_merge_revisions = True
1415
 
    preferred_levels = 1
1416
 
    supports_delta = True
1417
 
    supports_tags = True
1418
 
    supports_diff = True
1419
 
 
1420
 
    def log_revision(self, revision):
1421
 
        """Log a revision, either merged or not."""
1422
 
        indent = '    ' * revision.merge_depth
1423
 
        to_file = self.to_file
1424
 
        to_file.write(indent + '-' * 60 + '\n')
1425
 
        if revision.revno is not None:
1426
 
            to_file.write(indent + 'revno: %s%s\n' % (revision.revno,
1427
 
                self.merge_marker(revision)))
1428
 
        if revision.tags:
1429
 
            to_file.write(indent + 'tags: %s\n' % (', '.join(revision.tags)))
1430
 
        if self.show_ids:
1431
 
            to_file.write(indent + 'revision-id: ' + revision.rev.revision_id)
1432
 
            to_file.write('\n')
1433
 
            for parent_id in revision.rev.parent_ids:
1434
 
                to_file.write(indent + 'parent: %s\n' % (parent_id,))
1435
 
        self.show_foreign_info(revision.rev, indent)
1436
 
        self.show_properties(revision.rev, indent)
1437
 
 
1438
 
        committer = revision.rev.committer
1439
 
        authors = revision.rev.get_apparent_authors()
1440
 
        if authors != [committer]:
1441
 
            to_file.write(indent + 'author: %s\n' % (", ".join(authors),))
1442
 
        to_file.write(indent + 'committer: %s\n' % (committer,))
1443
 
 
1444
 
        branch_nick = revision.rev.properties.get('branch-nick', None)
1445
 
        if branch_nick is not None:
1446
 
            to_file.write(indent + 'branch nick: %s\n' % (branch_nick,))
1447
 
 
1448
 
        date_str = format_date(revision.rev.timestamp,
1449
 
                               revision.rev.timezone or 0,
1450
 
                               self.show_timezone)
1451
 
        to_file.write(indent + 'timestamp: %s\n' % (date_str,))
1452
 
 
1453
 
        to_file.write(indent + 'message:\n')
1454
 
        if not revision.rev.message:
1455
 
            to_file.write(indent + '  (no message)\n')
1456
 
        else:
1457
 
            message = revision.rev.message.rstrip('\r\n')
1458
 
            for l in message.split('\n'):
1459
 
                to_file.write(indent + '  %s\n' % (l,))
1460
 
        if revision.delta is not None:
1461
 
            # We don't respect delta_format for compatibility
1462
 
            revision.delta.show(to_file, self.show_ids, indent=indent,
1463
 
                                short_status=False)
1464
 
        if revision.diff is not None:
1465
 
            to_file.write(indent + 'diff:\n')
1466
 
            # Note: we explicitly don't indent the diff (relative to the
1467
 
            # revision information) so that the output can be fed to patch -p0
1468
 
            self.show_diff(self.to_exact_file, revision.diff, indent)
1469
 
 
1470
 
    def get_advice_separator(self):
1471
 
        """Get the text separating the log from the closing advice."""
1472
 
        return '-' * 60 + '\n'
1473
 
 
1474
 
 
1475
 
class ShortLogFormatter(LogFormatter):
1476
 
 
1477
 
    supports_merge_revisions = True
1478
 
    preferred_levels = 1
1479
 
    supports_delta = True
1480
 
    supports_tags = True
1481
 
    supports_diff = True
1482
 
 
1483
 
    def __init__(self, *args, **kwargs):
1484
 
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
1485
 
        self.revno_width_by_depth = {}
1486
 
 
1487
 
    def log_revision(self, revision):
1488
 
        # We need two indents: one per depth and one for the information
1489
 
        # relative to that indent. Most mainline revnos are 5 chars or
1490
 
        # less while dotted revnos are typically 11 chars or less. Once
1491
 
        # calculated, we need to remember the offset for a given depth
1492
 
        # as we might be starting from a dotted revno in the first column
1493
 
        # and we want subsequent mainline revisions to line up.
1494
 
        depth = revision.merge_depth
1495
 
        indent = '    ' * depth
1496
 
        revno_width = self.revno_width_by_depth.get(depth)
1497
 
        if revno_width is None:
1498
 
            if revision.revno.find('.') == -1:
1499
 
                # mainline revno, e.g. 12345
1500
 
                revno_width = 5
1501
 
            else:
1502
 
                # dotted revno, e.g. 12345.10.55
1503
 
                revno_width = 11
1504
 
            self.revno_width_by_depth[depth] = revno_width
1505
 
        offset = ' ' * (revno_width + 1)
1506
 
 
1507
 
        to_file = self.to_file
1508
 
        tags = ''
1509
 
        if revision.tags:
1510
 
            tags = ' {%s}' % (', '.join(revision.tags))
1511
 
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1512
 
                revision.revno, self.short_author(revision.rev),
1513
 
                format_date(revision.rev.timestamp,
1514
 
                            revision.rev.timezone or 0,
1515
 
                            self.show_timezone, date_fmt="%Y-%m-%d",
1516
 
                            show_offset=False),
1517
 
                tags, self.merge_marker(revision)))
1518
 
        self.show_foreign_info(revision.rev, indent+offset)
1519
 
        self.show_properties(revision.rev, indent+offset)
1520
 
        if self.show_ids:
1521
 
            to_file.write(indent + offset + 'revision-id:%s\n'
1522
 
                          % (revision.rev.revision_id,))
1523
 
        if not revision.rev.message:
1524
 
            to_file.write(indent + offset + '(no message)\n')
1525
 
        else:
1526
 
            message = revision.rev.message.rstrip('\r\n')
1527
 
            for l in message.split('\n'):
1528
 
                to_file.write(indent + offset + '%s\n' % (l,))
1529
 
 
1530
 
        if revision.delta is not None:
1531
 
            revision.delta.show(to_file, self.show_ids, indent=indent + offset,
1532
 
                                short_status=self.delta_format==1)
1533
 
        if revision.diff is not None:
1534
 
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1535
 
        to_file.write('\n')
1536
 
 
1537
 
 
1538
 
class LineLogFormatter(LogFormatter):
1539
 
 
1540
 
    supports_merge_revisions = True
1541
 
    preferred_levels = 1
1542
 
    supports_tags = True
1543
 
 
1544
 
    def __init__(self, *args, **kwargs):
1545
 
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1546
 
        self._max_chars = terminal_width() - 1
1547
 
 
1548
 
    def truncate(self, str, max_len):
1549
 
        if len(str) <= max_len:
1550
 
            return str
1551
 
        return str[:max_len-3]+'...'
1552
 
 
1553
 
    def date_string(self, rev):
1554
 
        return format_date(rev.timestamp, rev.timezone or 0,
1555
 
                           self.show_timezone, date_fmt="%Y-%m-%d",
1556
 
                           show_offset=False)
1557
 
 
1558
 
    def message(self, rev):
1559
 
        if not rev.message:
1560
 
            return '(no message)'
1561
 
        else:
1562
 
            return rev.message
1563
 
 
1564
 
    def log_revision(self, revision):
1565
 
        indent = '  ' * revision.merge_depth
1566
 
        self.to_file.write(self.log_string(revision.revno, revision.rev,
1567
 
            self._max_chars, revision.tags, indent))
1568
 
        self.to_file.write('\n')
1569
 
 
1570
 
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
1571
 
        """Format log info into one string. Truncate tail of string
1572
 
        :param  revno:      revision number or None.
1573
 
                            Revision numbers counts from 1.
1574
 
        :param  rev:        revision object
1575
 
        :param  max_chars:  maximum length of resulting string
1576
 
        :param  tags:       list of tags or None
1577
 
        :param  prefix:     string to prefix each line
1578
 
        :return:            formatted truncated string
1579
 
        """
1580
 
        out = []
1581
 
        if revno:
1582
 
            # show revno only when is not None
1583
 
            out.append("%s:" % revno)
1584
 
        out.append(self.truncate(self.short_author(rev), 20))
1585
 
        out.append(self.date_string(rev))
1586
 
        if len(rev.parent_ids) > 1:
1587
 
            out.append('[merge]')
1588
 
        if tags:
1589
 
            tag_str = '{%s}' % (', '.join(tags))
1590
 
            out.append(tag_str)
1591
 
        out.append(rev.get_summary())
1592
 
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1593
 
 
1594
 
 
1595
 
class GnuChangelogLogFormatter(LogFormatter):
1596
 
 
1597
 
    supports_merge_revisions = True
1598
 
    supports_delta = True
1599
 
 
1600
 
    def log_revision(self, revision):
1601
 
        """Log a revision, either merged or not."""
1602
 
        to_file = self.to_file
1603
 
 
1604
 
        date_str = format_date(revision.rev.timestamp,
1605
 
                               revision.rev.timezone or 0,
1606
 
                               self.show_timezone,
1607
 
                               date_fmt='%Y-%m-%d',
1608
 
                               show_offset=False)
1609
 
        committer_str = revision.rev.committer.replace (' <', '  <')
1610
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1611
 
 
1612
 
        if revision.delta is not None and revision.delta.has_changed():
1613
 
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1614
 
                path, = c[:1]
1615
 
                to_file.write('\t* %s:\n' % (path,))
1616
 
            for c in revision.delta.renamed:
1617
 
                oldpath,newpath = c[:2]
1618
 
                # For renamed files, show both the old and the new path
1619
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
1620
 
            to_file.write('\n')
1621
 
 
1622
 
        if not revision.rev.message:
1623
 
            to_file.write('\tNo commit message\n')
1624
 
        else:
1625
 
            message = revision.rev.message.rstrip('\r\n')
1626
 
            for l in message.split('\n'):
1627
 
                to_file.write('\t%s\n' % (l.lstrip(),))
1628
 
            to_file.write('\n')
1629
 
 
1630
 
 
1631
 
def line_log(rev, max_chars):
1632
 
    lf = LineLogFormatter(None)
1633
 
    return lf.log_string(None, rev, max_chars)
1634
 
 
1635
 
 
1636
 
class LogFormatterRegistry(registry.Registry):
1637
 
    """Registry for log formatters"""
1638
 
 
1639
 
    def make_formatter(self, name, *args, **kwargs):
1640
 
        """Construct a formatter from arguments.
1641
 
 
1642
 
        :param name: Name of the formatter to construct.  'short', 'long' and
1643
 
            'line' are built-in.
1644
 
        """
1645
 
        return self.get(name)(*args, **kwargs)
1646
 
 
1647
 
    def get_default(self, branch):
1648
 
        return self.get(branch.get_config().log_format())
1649
 
 
1650
 
 
1651
 
log_formatter_registry = LogFormatterRegistry()
1652
 
 
1653
 
 
1654
 
log_formatter_registry.register('short', ShortLogFormatter,
1655
 
                                'Moderately short log format')
1656
 
log_formatter_registry.register('long', LongLogFormatter,
1657
 
                                'Detailed log format')
1658
 
log_formatter_registry.register('line', LineLogFormatter,
1659
 
                                'Log format with one line per revision')
1660
 
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1661
 
                                'Format used by GNU ChangeLog files')
1662
 
 
1663
 
 
1664
 
def register_formatter(name, formatter):
1665
 
    log_formatter_registry.register(name, formatter)
1666
 
 
1667
 
 
1668
 
def log_formatter(name, *args, **kwargs):
1669
 
    """Construct a formatter from arguments.
1670
 
 
1671
 
    name -- Name of the formatter to construct; currently 'long', 'short' and
1672
 
        'line' are supported.
1673
 
    """
1674
 
    try:
1675
 
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
1676
 
    except KeyError:
1677
 
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
1678
 
 
1679
 
 
1680
 
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
1681
 
    # deprecated; for compatibility
1682
 
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
1683
 
    lf.show(revno, rev, delta)
1684
 
 
1685
 
 
1686
 
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
1687
 
                           log_format='long'):
1688
 
    """Show the change in revision history comparing the old revision history to the new one.
1689
 
 
1690
 
    :param branch: The branch where the revisions exist
1691
 
    :param old_rh: The old revision history
1692
 
    :param new_rh: The new revision history
1693
 
    :param to_file: A file to write the results to. If None, stdout will be used
1694
 
    """
1695
 
    if to_file is None:
1696
 
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
1697
 
            errors='replace')
1698
 
    lf = log_formatter(log_format,
1699
 
                       show_ids=False,
1700
 
                       to_file=to_file,
1701
 
                       show_timezone='original')
1702
 
 
1703
 
    # This is the first index which is different between
1704
 
    # old and new
1705
 
    base_idx = None
1706
 
    for i in xrange(max(len(new_rh),
1707
 
                        len(old_rh))):
1708
 
        if (len(new_rh) <= i
1709
 
            or len(old_rh) <= i
1710
 
            or new_rh[i] != old_rh[i]):
1711
 
            base_idx = i
1712
 
            break
1713
 
 
1714
 
    if base_idx is None:
1715
 
        to_file.write('Nothing seems to have changed\n')
1716
 
        return
1717
 
    ## TODO: It might be nice to do something like show_log
1718
 
    ##       and show the merged entries. But since this is the
1719
 
    ##       removed revisions, it shouldn't be as important
1720
 
    if base_idx < len(old_rh):
1721
 
        to_file.write('*'*60)
1722
 
        to_file.write('\nRemoved Revisions:\n')
1723
 
        for i in range(base_idx, len(old_rh)):
1724
 
            rev = branch.repository.get_revision(old_rh[i])
1725
 
            lr = LogRevision(rev, i+1, 0, None)
1726
 
            lf.log_revision(lr)
1727
 
        to_file.write('*'*60)
1728
 
        to_file.write('\n\n')
1729
 
    if base_idx < len(new_rh):
1730
 
        to_file.write('Added Revisions:\n')
1731
 
        show_log(branch,
1732
 
                 lf,
1733
 
                 None,
1734
 
                 verbose=False,
1735
 
                 direction='forward',
1736
 
                 start_revision=base_idx+1,
1737
 
                 end_revision=len(new_rh),
1738
 
                 search=None)
1739
 
 
1740
 
 
1741
 
def get_history_change(old_revision_id, new_revision_id, repository):
1742
 
    """Calculate the uncommon lefthand history between two revisions.
1743
 
 
1744
 
    :param old_revision_id: The original revision id.
1745
 
    :param new_revision_id: The new revision id.
1746
 
    :param repository: The repository to use for the calculation.
1747
 
 
1748
 
    return old_history, new_history
1749
 
    """
1750
 
    old_history = []
1751
 
    old_revisions = set()
1752
 
    new_history = []
1753
 
    new_revisions = set()
1754
 
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
1755
 
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
1756
 
    stop_revision = None
1757
 
    do_old = True
1758
 
    do_new = True
1759
 
    while do_new or do_old:
1760
 
        if do_new:
1761
 
            try:
1762
 
                new_revision = new_iter.next()
1763
 
            except StopIteration:
1764
 
                do_new = False
1765
 
            else:
1766
 
                new_history.append(new_revision)
1767
 
                new_revisions.add(new_revision)
1768
 
                if new_revision in old_revisions:
1769
 
                    stop_revision = new_revision
1770
 
                    break
1771
 
        if do_old:
1772
 
            try:
1773
 
                old_revision = old_iter.next()
1774
 
            except StopIteration:
1775
 
                do_old = False
1776
 
            else:
1777
 
                old_history.append(old_revision)
1778
 
                old_revisions.add(old_revision)
1779
 
                if old_revision in new_revisions:
1780
 
                    stop_revision = old_revision
1781
 
                    break
1782
 
    new_history.reverse()
1783
 
    old_history.reverse()
1784
 
    if stop_revision is not None:
1785
 
        new_history = new_history[new_history.index(stop_revision) + 1:]
1786
 
        old_history = old_history[old_history.index(stop_revision) + 1:]
1787
 
    return old_history, new_history
1788
 
 
1789
 
 
1790
 
def show_branch_change(branch, output, old_revno, old_revision_id):
1791
 
    """Show the changes made to a branch.
1792
 
 
1793
 
    :param branch: The branch to show changes about.
1794
 
    :param output: A file-like object to write changes to.
1795
 
    :param old_revno: The revno of the old tip.
1796
 
    :param old_revision_id: The revision_id of the old tip.
1797
 
    """
1798
 
    new_revno, new_revision_id = branch.last_revision_info()
1799
 
    old_history, new_history = get_history_change(old_revision_id,
1800
 
                                                  new_revision_id,
1801
 
                                                  branch.repository)
1802
 
    if old_history == [] and new_history == []:
1803
 
        output.write('Nothing seems to have changed\n')
1804
 
        return
1805
 
 
1806
 
    log_format = log_formatter_registry.get_default(branch)
1807
 
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
1808
 
    if old_history != []:
1809
 
        output.write('*'*60)
1810
 
        output.write('\nRemoved Revisions:\n')
1811
 
        show_flat_log(branch.repository, old_history, old_revno, lf)
1812
 
        output.write('*'*60)
1813
 
        output.write('\n\n')
1814
 
    if new_history != []:
1815
 
        output.write('Added Revisions:\n')
1816
 
        start_revno = new_revno - len(new_history) + 1
1817
 
        show_log(branch, lf, None, verbose=False, direction='forward',
1818
 
                 start_revision=start_revno,)
1819
 
 
1820
 
 
1821
 
def show_flat_log(repository, history, last_revno, lf):
1822
 
    """Show a simple log of the specified history.
1823
 
 
1824
 
    :param repository: The repository to retrieve revisions from.
1825
 
    :param history: A list of revision_ids indicating the lefthand history.
1826
 
    :param last_revno: The revno of the last revision_id in the history.
1827
 
    :param lf: The log formatter to use.
1828
 
    """
1829
 
    start_revno = last_revno - len(history) + 1
1830
 
    revisions = repository.get_revisions(history)
1831
 
    for i, rev in enumerate(revisions):
1832
 
        lr = LogRevision(rev, i + last_revno, 0, None)
1833
 
        lf.log_revision(lr)
1834
 
 
1835
 
 
1836
 
def _get_info_for_log_files(revisionspec_list, file_list):
1837
 
    """Find file-ids and kinds given a list of files and a revision range.
1838
 
 
1839
 
    We search for files at the end of the range. If not found there,
1840
 
    we try the start of the range.
1841
 
 
1842
 
    :param revisionspec_list: revision range as parsed on the command line
1843
 
    :param file_list: the list of paths given on the command line;
1844
 
      the first of these can be a branch location or a file path,
1845
 
      the remainder must be file paths
1846
 
    :return: (branch, info_list, start_rev_info, end_rev_info) where
1847
 
      info_list is a list of (relative_path, file_id, kind) tuples where
1848
 
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
1849
 
      branch will be read-locked.
1850
 
    """
1851
 
    from builtins import _get_revision_range, safe_relpath_files
1852
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
1853
 
    b.lock_read()
1854
 
    # XXX: It's damn messy converting a list of paths to relative paths when
1855
 
    # those paths might be deleted ones, they might be on a case-insensitive
1856
 
    # filesystem and/or they might be in silly locations (like another branch).
1857
 
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
1858
 
    # file2 implicitly in the same dir as file1 or should its directory be
1859
 
    # taken from the current tree somehow?) For now, this solves the common
1860
 
    # case of running log in a nested directory, assuming paths beyond the
1861
 
    # first one haven't been deleted ...
1862
 
    if tree:
1863
 
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
1864
 
    else:
1865
 
        relpaths = [path] + file_list[1:]
1866
 
    info_list = []
1867
 
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
1868
 
        "log")
1869
 
    if relpaths in ([], [u'']):
1870
 
        return b, [], start_rev_info, end_rev_info
1871
 
    if start_rev_info is None and end_rev_info is None:
1872
 
        if tree is None:
1873
 
            tree = b.basis_tree()
1874
 
        tree1 = None
1875
 
        for fp in relpaths:
1876
 
            file_id = tree.path2id(fp)
1877
 
            kind = _get_kind_for_file_id(tree, file_id)
1878
 
            if file_id is None:
1879
 
                # go back to when time began
1880
 
                if tree1 is None:
1881
 
                    try:
1882
 
                        rev1 = b.get_rev_id(1)
1883
 
                    except errors.NoSuchRevision:
1884
 
                        # No history at all
1885
 
                        file_id = None
1886
 
                        kind = None
1887
 
                    else:
1888
 
                        tree1 = b.repository.revision_tree(rev1)
1889
 
                if tree1:
1890
 
                    file_id = tree1.path2id(fp)
1891
 
                    kind = _get_kind_for_file_id(tree1, file_id)
1892
 
            info_list.append((fp, file_id, kind))
1893
 
 
1894
 
    elif start_rev_info == end_rev_info:
1895
 
        # One revision given - file must exist in it
1896
 
        tree = b.repository.revision_tree(end_rev_info.rev_id)
1897
 
        for fp in relpaths:
1898
 
            file_id = tree.path2id(fp)
1899
 
            kind = _get_kind_for_file_id(tree, file_id)
1900
 
            info_list.append((fp, file_id, kind))
1901
 
 
1902
 
    else:
1903
 
        # Revision range given. Get the file-id from the end tree.
1904
 
        # If that fails, try the start tree.
1905
 
        rev_id = end_rev_info.rev_id
1906
 
        if rev_id is None:
1907
 
            tree = b.basis_tree()
1908
 
        else:
1909
 
            tree = b.repository.revision_tree(rev_id)
1910
 
        tree1 = None
1911
 
        for fp in relpaths:
1912
 
            file_id = tree.path2id(fp)
1913
 
            kind = _get_kind_for_file_id(tree, file_id)
1914
 
            if file_id is None:
1915
 
                if tree1 is None:
1916
 
                    rev_id = start_rev_info.rev_id
1917
 
                    if rev_id is None:
1918
 
                        rev1 = b.get_rev_id(1)
1919
 
                        tree1 = b.repository.revision_tree(rev1)
1920
 
                    else:
1921
 
                        tree1 = b.repository.revision_tree(rev_id)
1922
 
                file_id = tree1.path2id(fp)
1923
 
                kind = _get_kind_for_file_id(tree1, file_id)
1924
 
            info_list.append((fp, file_id, kind))
1925
 
    return b, info_list, start_rev_info, end_rev_info
1926
 
 
1927
 
 
1928
 
def _get_kind_for_file_id(tree, file_id):
1929
 
    """Return the kind of a file-id or None if it doesn't exist."""
1930
 
    if file_id is not None:
1931
 
        return tree.kind(file_id)
1932
 
    else:
1933
 
        return None
1934
 
 
1935
 
 
1936
 
properties_handler_registry = registry.Registry()
1937
 
 
1938
 
 
1939
 
# adapters which revision ids to log are filtered. When log is called, the
1940
 
# log_rev_iterator is adapted through each of these factory methods.
1941
 
# Plugins are welcome to mutate this list in any way they like - as long
1942
 
# as the overall behaviour is preserved. At this point there is no extensible
1943
 
# mechanism for getting parameters to each factory method, and until there is
1944
 
# this won't be considered a stable api.
1945
 
log_adapters = [
1946
 
    # core log logic
1947
 
    _make_batch_filter,
1948
 
    # read revision objects
1949
 
    _make_revision_objects,
1950
 
    # filter on log messages
1951
 
    _make_search_filter,
1952
 
    # generate deltas for things we will show
1953
 
    _make_delta_filter
1954
 
    ]