~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Martin Pool
  • Date: 2005-05-11 06:05:28 UTC
  • Revision ID: mbp@sourcefrog.net-20050511060528-b2b35cafa4e1785d
- Interpret arguments to bzr status
- Handle giving a non-default branch to bzr status
- bzr status docs

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
2
 
#
 
1
# Copyright (C) 2005 Canonical Ltd
 
2
 
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
#
 
7
 
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
#
 
12
 
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
 
 
17
 
 
18
 
 
19
 
"""Code to show logs of changes.
20
 
 
21
 
Various flavors of log can be produced:
22
 
 
23
 
* for one file, or the whole tree, and (not done yet) for
24
 
  files in a given directory
25
 
 
26
 
* in "verbose" mode with a description of what changed from one
27
 
  version to the next
28
 
 
29
 
* with file-ids and revision-ids shown
30
 
 
31
 
Logs are actually written out through an abstract LogFormatter
32
 
interface, which allows for different preferred formats.  Plugins can
33
 
register formats too.
34
 
 
35
 
Logs can be produced in either forward (oldest->newest) or reverse
36
 
(newest->oldest) order.
37
 
 
38
 
Logs can be filtered to show only revisions matching a particular
39
 
search string, or within a particular range of revisions.  The range
40
 
can be given as date/times, which are reduced to revisions before
41
 
calling in here.
42
 
 
43
 
In verbose mode we show a summary of what changed in each particular
44
 
revision.  Note that this is the delta for changes in that revision
45
 
relative to its left-most parent, not the delta relative to the last
46
 
logged revision.  So for example if you ask for a verbose log of
47
 
changes touching hello.c you will get a list of those revisions also
48
 
listing other things that were changed in the same revision, but not
49
 
all the changes since the previous revision that touched hello.c.
50
 
"""
51
 
 
52
 
import codecs
53
 
from cStringIO import StringIO
54
 
from itertools import (
55
 
    chain,
56
 
    izip,
57
 
    )
58
 
import re
59
 
import sys
60
 
from warnings import (
61
 
    warn,
62
 
    )
63
 
 
64
 
from bzrlib.lazy_import import lazy_import
65
 
lazy_import(globals(), """
66
 
 
67
 
from bzrlib import (
68
 
    bzrdir,
69
 
    config,
70
 
    diff,
71
 
    errors,
72
 
    foreign,
73
 
    repository as _mod_repository,
74
 
    revision as _mod_revision,
75
 
    revisionspec,
76
 
    trace,
77
 
    tsort,
78
 
    )
79
 
""")
80
 
 
81
 
from bzrlib import (
82
 
    registry,
83
 
    )
84
 
from bzrlib.osutils import (
85
 
    format_date,
86
 
    format_date_with_offset_in_original_timezone,
87
 
    get_terminal_encoding,
88
 
    re_compile_checked,
89
 
    terminal_width,
90
 
    )
91
 
from bzrlib.symbol_versioning import (
92
 
    deprecated_function,
93
 
    deprecated_in,
94
 
    )
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
16
 
 
17
 
95
18
 
96
19
 
97
20
def find_touching_revisions(branch, file_id):
102
25
    This is the list of revisions where the file is either added,
103
26
    modified, renamed or deleted.
104
27
 
 
28
    Revisions are returned in chronological order.
 
29
 
105
30
    TODO: Perhaps some way to limit this to only particular revisions,
106
 
    or to traverse a non-mainline set of revisions?
 
31
    or to traverse a non-branch set of revisions?
 
32
 
 
33
    TODO: If a directory is given, then by default look for all
 
34
    changes under that directory.
107
35
    """
108
36
    last_ie = None
109
37
    last_path = None
110
38
    revno = 1
111
39
    for revision_id in branch.revision_history():
112
 
        this_inv = branch.repository.get_inventory(revision_id)
 
40
        this_inv = branch.get_revision_inventory(revision_id)
113
41
        if file_id in this_inv:
114
42
            this_ie = this_inv[file_id]
115
43
            this_path = this_inv.id2path(file_id)
138
66
        revno += 1
139
67
 
140
68
 
141
 
def _enumerate_history(branch):
142
 
    rh = []
143
 
    revno = 1
144
 
    for rev_id in branch.revision_history():
145
 
        rh.append((revno, rev_id))
146
 
        revno += 1
147
 
    return rh
148
 
 
149
 
 
150
69
def show_log(branch,
151
 
             lf,
152
 
             specific_fileid=None,
 
70
             filename=None,
 
71
             show_timezone='original',
153
72
             verbose=False,
154
 
             direction='reverse',
155
 
             start_revision=None,
156
 
             end_revision=None,
157
 
             search=None,
158
 
             limit=None,
159
 
             show_diff=False):
 
73
             show_ids=False,
 
74
             to_file=None):
160
75
    """Write out human-readable log of commits to this branch.
161
76
 
162
 
    This function is being retained for backwards compatibility but
163
 
    should not be extended with new parameters. Use the new Logger class
164
 
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
165
 
    make_log_request_dict function.
166
 
 
167
 
    :param lf: The LogFormatter object showing the output.
168
 
 
169
 
    :param specific_fileid: If not None, list only the commits affecting the
170
 
        specified file, rather than all commits.
171
 
 
172
 
    :param verbose: If True show added/changed/deleted/renamed files.
173
 
 
174
 
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
175
 
        earliest to latest.
176
 
 
177
 
    :param start_revision: If not None, only show revisions >= start_revision
178
 
 
179
 
    :param end_revision: If not None, only show revisions <= end_revision
180
 
 
181
 
    :param search: If not None, only show revisions with matching commit
182
 
        messages
183
 
 
184
 
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
185
 
        if None or 0.
186
 
 
187
 
    :param show_diff: If True, output a diff after each revision.
 
77
    filename
 
78
        If true, list only the commits affecting the specified
 
79
        file, rather than all commits.
 
80
 
 
81
    show_timezone
 
82
        'original' (committer's timezone),
 
83
        'utc' (universal time), or
 
84
        'local' (local user's timezone)
 
85
 
 
86
    verbose
 
87
        If true show added/changed/deleted/renamed files.
 
88
 
 
89
    show_ids
 
90
        If true, show revision and file ids.
 
91
 
 
92
    to_file
 
93
        File to send log to; by default stdout.
188
94
    """
189
 
    # Convert old-style parameters to new-style parameters
190
 
    if specific_fileid is not None:
191
 
        file_ids = [specific_fileid]
 
95
    from osutils import format_date
 
96
    from errors import BzrCheckError
 
97
    from diff import compare_trees
 
98
    from textui import show_status
 
99
 
 
100
    if to_file == None:
 
101
        import sys
 
102
        to_file = sys.stdout
 
103
 
 
104
    if filename:
 
105
        file_id = branch.read_working_inventory().path2id(filename)
 
106
        def which_revs():
 
107
            for revno, revid, why in find_touching_revisions(branch, file_id):
 
108
                yield revno, revid
192
109
    else:
193
 
        file_ids = None
 
110
        def which_revs():
 
111
            for i, revid in enumerate(branch.revision_history()):
 
112
                yield i+1, revid
 
113
        
 
114
    branch._need_readlock()
 
115
    precursor = None
194
116
    if verbose:
195
 
        if file_ids:
196
 
            delta_type = 'partial'
197
 
        else:
198
 
            delta_type = 'full'
199
 
    else:
200
 
        delta_type = None
201
 
    if show_diff:
202
 
        if file_ids:
203
 
            diff_type = 'partial'
204
 
        else:
205
 
            diff_type = 'full'
206
 
    else:
207
 
        diff_type = None
208
 
 
209
 
    # Build the request and execute it
210
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
211
 
        start_revision=start_revision, end_revision=end_revision,
212
 
        limit=limit, message_search=search,
213
 
        delta_type=delta_type, diff_type=diff_type)
214
 
    Logger(branch, rqst).show(lf)
215
 
 
216
 
 
217
 
# Note: This needs to be kept this in sync with the defaults in
218
 
# make_log_request_dict() below
219
 
_DEFAULT_REQUEST_PARAMS = {
220
 
    'direction': 'reverse',
221
 
    'levels': 1,
222
 
    'generate_tags': True,
223
 
    '_match_using_deltas': True,
224
 
    }
225
 
 
226
 
 
227
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
228
 
    start_revision=None, end_revision=None, limit=None,
229
 
    message_search=None, levels=1, generate_tags=True, delta_type=None,
230
 
    diff_type=None, _match_using_deltas=True):
231
 
    """Convenience function for making a logging request dictionary.
232
 
 
233
 
    Using this function may make code slightly safer by ensuring
234
 
    parameters have the correct names. It also provides a reference
235
 
    point for documenting the supported parameters.
236
 
 
237
 
    :param direction: 'reverse' (default) is latest to earliest;
238
 
      'forward' is earliest to latest.
239
 
 
240
 
    :param specific_fileids: If not None, only include revisions
241
 
      affecting the specified files, rather than all revisions.
242
 
 
243
 
    :param start_revision: If not None, only generate
244
 
      revisions >= start_revision
245
 
 
246
 
    :param end_revision: If not None, only generate
247
 
      revisions <= end_revision
248
 
 
249
 
    :param limit: If set, generate only 'limit' revisions, all revisions
250
 
      are shown if None or 0.
251
 
 
252
 
    :param message_search: If not None, only include revisions with
253
 
      matching commit messages
254
 
 
255
 
    :param levels: the number of levels of revisions to
256
 
      generate; 1 for just the mainline; 0 for all levels.
257
 
 
258
 
    :param generate_tags: If True, include tags for matched revisions.
259
 
 
260
 
    :param delta_type: Either 'full', 'partial' or None.
261
 
      'full' means generate the complete delta - adds/deletes/modifies/etc;
262
 
      'partial' means filter the delta using specific_fileids;
263
 
      None means do not generate any delta.
264
 
 
265
 
    :param diff_type: Either 'full', 'partial' or None.
266
 
      'full' means generate the complete diff - adds/deletes/modifies/etc;
267
 
      'partial' means filter the diff using specific_fileids;
268
 
      None means do not generate any diff.
269
 
 
270
 
    :param _match_using_deltas: a private parameter controlling the
271
 
      algorithm used for matching specific_fileids. This parameter
272
 
      may be removed in the future so bzrlib client code should NOT
273
 
      use it.
274
 
    """
275
 
    return {
276
 
        'direction': direction,
277
 
        'specific_fileids': specific_fileids,
278
 
        'start_revision': start_revision,
279
 
        'end_revision': end_revision,
280
 
        'limit': limit,
281
 
        'message_search': message_search,
282
 
        'levels': levels,
283
 
        'generate_tags': generate_tags,
284
 
        'delta_type': delta_type,
285
 
        'diff_type': diff_type,
286
 
        # Add 'private' attributes for features that may be deprecated
287
 
        '_match_using_deltas': _match_using_deltas,
288
 
    }
289
 
 
290
 
 
291
 
def _apply_log_request_defaults(rqst):
292
 
    """Apply default values to a request dictionary."""
293
 
    result = _DEFAULT_REQUEST_PARAMS
294
 
    if rqst:
295
 
        result.update(rqst)
296
 
    return result
297
 
 
298
 
 
299
 
class LogGenerator(object):
300
 
    """A generator of log revisions."""
301
 
 
302
 
    def iter_log_revisions(self):
303
 
        """Iterate over LogRevision objects.
304
 
 
305
 
        :return: An iterator yielding LogRevision objects.
306
 
        """
307
 
        raise NotImplementedError(self.iter_log_revisions)
308
 
 
309
 
 
310
 
class Logger(object):
311
 
    """An object that generates, formats and displays a log."""
312
 
 
313
 
    def __init__(self, branch, rqst):
314
 
        """Create a Logger.
315
 
 
316
 
        :param branch: the branch to log
317
 
        :param rqst: A dictionary specifying the query parameters.
318
 
          See make_log_request_dict() for supported values.
319
 
        """
320
 
        self.branch = branch
321
 
        self.rqst = _apply_log_request_defaults(rqst)
322
 
 
323
 
    def show(self, lf):
324
 
        """Display the log.
325
 
 
326
 
        :param lf: The LogFormatter object to send the output to.
327
 
        """
328
 
        if not isinstance(lf, LogFormatter):
329
 
            warn("not a LogFormatter instance: %r" % lf)
330
 
 
331
 
        self.branch.lock_read()
332
 
        try:
333
 
            if getattr(lf, 'begin_log', None):
334
 
                lf.begin_log()
335
 
            self._show_body(lf)
336
 
            if getattr(lf, 'end_log', None):
337
 
                lf.end_log()
338
 
        finally:
339
 
            self.branch.unlock()
340
 
 
341
 
    def _show_body(self, lf):
342
 
        """Show the main log output.
343
 
 
344
 
        Subclasses may wish to override this.
345
 
        """
346
 
        # Tweak the LogRequest based on what the LogFormatter can handle.
347
 
        # (There's no point generating stuff if the formatter can't display it.)
348
 
        rqst = self.rqst
349
 
        rqst['levels'] = lf.get_levels()
350
 
        if not getattr(lf, 'supports_tags', False):
351
 
            rqst['generate_tags'] = False
352
 
        if not getattr(lf, 'supports_delta', False):
353
 
            rqst['delta_type'] = None
354
 
        if not getattr(lf, 'supports_diff', False):
355
 
            rqst['diff_type'] = None
356
 
 
357
 
        # Find and print the interesting revisions
358
 
        generator = self._generator_factory(self.branch, rqst)
359
 
        for lr in generator.iter_log_revisions():
360
 
            lf.log_revision(lr)
361
 
        lf.show_advice()
362
 
 
363
 
    def _generator_factory(self, branch, rqst):
364
 
        """Make the LogGenerator object to use.
365
 
        
366
 
        Subclasses may wish to override this.
367
 
        """
368
 
        return _DefaultLogGenerator(branch, rqst)
369
 
 
370
 
 
371
 
class _StartNotLinearAncestor(Exception):
372
 
    """Raised when a start revision is not found walking left-hand history."""
373
 
 
374
 
 
375
 
class _DefaultLogGenerator(LogGenerator):
376
 
    """The default generator of log revisions."""
377
 
 
378
 
    def __init__(self, branch, rqst):
379
 
        self.branch = branch
380
 
        self.rqst = rqst
381
 
        if rqst.get('generate_tags') and branch.supports_tags():
382
 
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
383
 
        else:
384
 
            self.rev_tag_dict = {}
385
 
 
386
 
    def iter_log_revisions(self):
387
 
        """Iterate over LogRevision objects.
388
 
 
389
 
        :return: An iterator yielding LogRevision objects.
390
 
        """
391
 
        rqst = self.rqst
392
 
        levels = rqst.get('levels')
393
 
        limit = rqst.get('limit')
394
 
        diff_type = rqst.get('diff_type')
395
 
        log_count = 0
396
 
        revision_iterator = self._create_log_revision_iterator()
397
 
        for revs in revision_iterator:
398
 
            for (rev_id, revno, merge_depth), rev, delta in revs:
399
 
                # 0 levels means show everything; merge_depth counts from 0
400
 
                if levels != 0 and merge_depth >= levels:
401
 
                    continue
402
 
                if diff_type is None:
403
 
                    diff = None
404
 
                else:
405
 
                    diff = self._format_diff(rev, rev_id, diff_type)
406
 
                yield LogRevision(rev, revno, merge_depth, delta,
407
 
                    self.rev_tag_dict.get(rev_id), diff)
408
 
                if limit:
409
 
                    log_count += 1
410
 
                    if log_count >= limit:
411
 
                        return
412
 
 
413
 
    def _format_diff(self, rev, rev_id, diff_type):
414
 
        repo = self.branch.repository
415
 
        if len(rev.parent_ids) == 0:
416
 
            ancestor_id = _mod_revision.NULL_REVISION
417
 
        else:
418
 
            ancestor_id = rev.parent_ids[0]
419
 
        tree_1 = repo.revision_tree(ancestor_id)
420
 
        tree_2 = repo.revision_tree(rev_id)
421
 
        file_ids = self.rqst.get('specific_fileids')
422
 
        if diff_type == 'partial' and file_ids is not None:
423
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
424
 
        else:
425
 
            specific_files = None
426
 
        s = StringIO()
427
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
428
 
            new_label='')
429
 
        return s.getvalue()
430
 
 
431
 
    def _create_log_revision_iterator(self):
432
 
        """Create a revision iterator for log.
433
 
 
434
 
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
435
 
            delta).
436
 
        """
437
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
438
 
            self.branch, self.rqst.get('start_revision'),
439
 
            self.rqst.get('end_revision'))
440
 
        if self.rqst.get('_match_using_deltas'):
441
 
            return self._log_revision_iterator_using_delta_matching()
442
 
        else:
443
 
            # We're using the per-file-graph algorithm. This scales really
444
 
            # well but only makes sense if there is a single file and it's
445
 
            # not a directory
446
 
            file_count = len(self.rqst.get('specific_fileids'))
447
 
            if file_count != 1:
448
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
449
 
                    "when logging %d files" % file_count)
450
 
            return self._log_revision_iterator_using_per_file_graph()
451
 
 
452
 
    def _log_revision_iterator_using_delta_matching(self):
453
 
        # Get the base revisions, filtering by the revision range
454
 
        rqst = self.rqst
455
 
        generate_merge_revisions = rqst.get('levels') != 1
456
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
457
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
458
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
459
 
            self.end_rev_id, rqst.get('direction'), generate_merge_revisions,
460
 
            delayed_graph_generation=delayed_graph_generation)
461
 
 
462
 
        # Apply the other filters
463
 
        return make_log_rev_iterator(self.branch, view_revisions,
464
 
            rqst.get('delta_type'), rqst.get('message_search'),
465
 
            file_ids=rqst.get('specific_fileids'),
466
 
            direction=rqst.get('direction'))
467
 
 
468
 
    def _log_revision_iterator_using_per_file_graph(self):
469
 
        # Get the base revisions, filtering by the revision range.
470
 
        # Note that we always generate the merge revisions because
471
 
        # filter_revisions_touching_file_id() requires them ...
472
 
        rqst = self.rqst
473
 
        view_revisions = _calc_view_revisions(self.branch, self.start_rev_id,
474
 
            self.end_rev_id, rqst.get('direction'), True)
475
 
        if not isinstance(view_revisions, list):
476
 
            view_revisions = list(view_revisions)
477
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
478
 
            rqst.get('specific_fileids')[0], view_revisions,
479
 
            include_merges=rqst.get('levels') != 1)
480
 
        return make_log_rev_iterator(self.branch, view_revisions,
481
 
            rqst.get('delta_type'), rqst.get('message_search'))
482
 
 
483
 
 
484
 
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
485
 
    generate_merge_revisions, delayed_graph_generation=False):
486
 
    """Calculate the revisions to view.
487
 
 
488
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
489
 
             a list of the same tuples.
490
 
    """
491
 
    br_revno, br_rev_id = branch.last_revision_info()
492
 
    if br_revno == 0:
493
 
        return []
494
 
 
495
 
    # If a single revision is requested, check we can handle it
496
 
    generate_single_revision = (end_rev_id and start_rev_id == end_rev_id and
497
 
        (not generate_merge_revisions or not _has_merges(branch, end_rev_id)))
498
 
    if generate_single_revision:
499
 
        return _generate_one_revision(branch, end_rev_id, br_rev_id, br_revno)
500
 
 
501
 
    # If we only want to see linear revisions, we can iterate ...
502
 
    if not generate_merge_revisions:
503
 
        return _generate_flat_revisions(branch, start_rev_id, end_rev_id,
504
 
            direction)
505
 
    else:
506
 
        return _generate_all_revisions(branch, start_rev_id, end_rev_id,
507
 
            direction, delayed_graph_generation)
508
 
 
509
 
 
510
 
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
511
 
    if rev_id == br_rev_id:
512
 
        # It's the tip
513
 
        return [(br_rev_id, br_revno, 0)]
514
 
    else:
515
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
516
 
        revno_str = '.'.join(str(n) for n in revno)
517
 
        return [(rev_id, revno_str, 0)]
518
 
 
519
 
 
520
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
521
 
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
522
 
    # If a start limit was given and it's not obviously an
523
 
    # ancestor of the end limit, check it before outputting anything
524
 
    if direction == 'forward' or (start_rev_id
525
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
526
 
        try:
527
 
            result = list(result)
528
 
        except _StartNotLinearAncestor:
529
 
            raise errors.BzrCommandError('Start revision not found in'
530
 
                ' left-hand history of end revision.')
531
 
    if direction == 'forward':
532
 
        result = reversed(result)
533
 
    return result
534
 
 
535
 
 
536
 
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
537
 
                            delayed_graph_generation):
538
 
    # On large trees, generating the merge graph can take 30-60 seconds
539
 
    # so we delay doing it until a merge is detected, incrementally
540
 
    # returning initial (non-merge) revisions while we can.
541
 
 
542
 
    # The above is only true for old formats (<= 0.92), for newer formats, a
543
 
    # couple of seconds only should be needed to load the whole graph and the
544
 
    # other graph operations needed are even faster than that -- vila 100201
545
 
    initial_revisions = []
546
 
    if delayed_graph_generation:
547
 
        try:
548
 
            for rev_id, revno, depth in  _linear_view_revisions(
549
 
                branch, start_rev_id, end_rev_id):
550
 
                if _has_merges(branch, rev_id):
551
 
                    # The end_rev_id can be nested down somewhere. We need an
552
 
                    # explicit ancestry check. There is an ambiguity here as we
553
 
                    # may not raise _StartNotLinearAncestor for a revision that
554
 
                    # is an ancestor but not a *linear* one. But since we have
555
 
                    # loaded the graph to do the check (or calculate a dotted
556
 
                    # revno), we may as well accept to show the log...  We need
557
 
                    # the check only if start_rev_id is not None as all
558
 
                    # revisions have _mod_revision.NULL_REVISION as an ancestor
559
 
                    # -- vila 20100319
560
 
                    graph = branch.repository.get_graph()
561
 
                    if (start_rev_id is not None
562
 
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
563
 
                        raise _StartNotLinearAncestor()
564
 
                    # Since we collected the revisions so far, we need to
565
 
                    # adjust end_rev_id.
566
 
                    end_rev_id = rev_id
567
 
                    break
568
 
                else:
569
 
                    initial_revisions.append((rev_id, revno, depth))
570
 
            else:
571
 
                # No merged revisions found
572
 
                if direction == 'reverse':
573
 
                    return initial_revisions
574
 
                elif direction == 'forward':
575
 
                    return reversed(initial_revisions)
576
 
                else:
577
 
                    raise ValueError('invalid direction %r' % direction)
578
 
        except _StartNotLinearAncestor:
579
 
            # A merge was never detected so the lower revision limit can't
580
 
            # be nested down somewhere
581
 
            raise errors.BzrCommandError('Start revision not found in'
582
 
                ' history of end revision.')
583
 
 
584
 
    # We exit the loop above because we encounter a revision with merges, from
585
 
    # this revision, we need to switch to _graph_view_revisions.
586
 
 
587
 
    # A log including nested merges is required. If the direction is reverse,
588
 
    # we rebase the initial merge depths so that the development line is
589
 
    # shown naturally, i.e. just like it is for linear logging. We can easily
590
 
    # make forward the exact opposite display, but showing the merge revisions
591
 
    # indented at the end seems slightly nicer in that case.
592
 
    view_revisions = chain(iter(initial_revisions),
593
 
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
594
 
                              rebase_initial_depths=(direction == 'reverse')))
595
 
    if direction == 'reverse':
596
 
        return view_revisions
597
 
    elif direction == 'forward':
598
 
        # Forward means oldest first, adjusting for depth.
599
 
        view_revisions = reverse_by_depth(list(view_revisions))
600
 
        return _rebase_merge_depth(view_revisions)
601
 
    else:
602
 
        raise ValueError('invalid direction %r' % direction)
603
 
 
604
 
 
605
 
def _has_merges(branch, rev_id):
606
 
    """Does a revision have multiple parents or not?"""
607
 
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
608
 
    return len(parents) > 1
609
 
 
610
 
 
611
 
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
612
 
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
613
 
    if start_rev_id and end_rev_id:
614
 
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
615
 
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
616
 
        if len(start_dotted) == 1 and len(end_dotted) == 1:
617
 
            # both on mainline
618
 
            return start_dotted[0] <= end_dotted[0]
619
 
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
620
 
            start_dotted[0:1] == end_dotted[0:1]):
621
 
            # both on same development line
622
 
            return start_dotted[2] <= end_dotted[2]
623
 
        else:
624
 
            # not obvious
625
 
            return False
626
 
    # if either start or end is not specified then we use either the first or
627
 
    # the last revision and *they* are obvious ancestors.
628
 
    return True
629
 
 
630
 
 
631
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
632
 
    """Calculate a sequence of revisions to view, newest to oldest.
633
 
 
634
 
    :param start_rev_id: the lower revision-id
635
 
    :param end_rev_id: the upper revision-id
636
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
637
 
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
638
 
      is not found walking the left-hand history
639
 
    """
640
 
    br_revno, br_rev_id = branch.last_revision_info()
641
 
    repo = branch.repository
642
 
    if start_rev_id is None and end_rev_id is None:
643
 
        cur_revno = br_revno
644
 
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
645
 
            yield revision_id, str(cur_revno), 0
646
 
            cur_revno -= 1
647
 
    else:
648
 
        if end_rev_id is None:
649
 
            end_rev_id = br_rev_id
650
 
        found_start = start_rev_id is None
651
 
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
652
 
            revno = branch.revision_id_to_dotted_revno(revision_id)
653
 
            revno_str = '.'.join(str(n) for n in revno)
654
 
            if not found_start and revision_id == start_rev_id:
655
 
                yield revision_id, revno_str, 0
656
 
                found_start = True
657
 
                break
658
 
            else:
659
 
                yield revision_id, revno_str, 0
660
 
        else:
661
 
            if not found_start:
662
 
                raise _StartNotLinearAncestor()
663
 
 
664
 
 
665
 
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
666
 
                          rebase_initial_depths=True):
667
 
    """Calculate revisions to view including merges, newest to oldest.
668
 
 
669
 
    :param branch: the branch
670
 
    :param start_rev_id: the lower revision-id
671
 
    :param end_rev_id: the upper revision-id
672
 
    :param rebase_initial_depth: should depths be rebased until a mainline
673
 
      revision is found?
674
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
675
 
    """
676
 
    view_revisions = branch.iter_merge_sorted_revisions(
677
 
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
678
 
        stop_rule="with-merges")
679
 
    if not rebase_initial_depths:
680
 
        for (rev_id, merge_depth, revno, end_of_merge
681
 
             ) in view_revisions:
682
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
683
 
    else:
684
 
        # We're following a development line starting at a merged revision.
685
 
        # We need to adjust depths down by the initial depth until we find
686
 
        # a depth less than it. Then we use that depth as the adjustment.
687
 
        # If and when we reach the mainline, depth adjustment ends.
688
 
        depth_adjustment = None
689
 
        for (rev_id, merge_depth, revno, end_of_merge
690
 
             ) in view_revisions:
691
 
            if depth_adjustment is None:
692
 
                depth_adjustment = merge_depth
693
 
            if depth_adjustment:
694
 
                if merge_depth < depth_adjustment:
695
 
                    # From now on we reduce the depth adjustement, this can be
696
 
                    # surprising for users. The alternative requires two passes
697
 
                    # which breaks the fast display of the first revision
698
 
                    # though.
699
 
                    depth_adjustment = merge_depth
700
 
                merge_depth -= depth_adjustment
701
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
702
 
 
703
 
 
704
 
@deprecated_function(deprecated_in((2, 2, 0)))
705
 
def calculate_view_revisions(branch, start_revision, end_revision, direction,
706
 
        specific_fileid, generate_merge_revisions):
707
 
    """Calculate the revisions to view.
708
 
 
709
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
710
 
             a list of the same tuples.
711
 
    """
712
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
713
 
        end_revision)
714
 
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
715
 
        direction, generate_merge_revisions or specific_fileid))
716
 
    if specific_fileid:
717
 
        view_revisions = _filter_revisions_touching_file_id(branch,
718
 
            specific_fileid, view_revisions,
719
 
            include_merges=generate_merge_revisions)
720
 
    return _rebase_merge_depth(view_revisions)
721
 
 
722
 
 
723
 
def _rebase_merge_depth(view_revisions):
724
 
    """Adjust depths upwards so the top level is 0."""
725
 
    # If either the first or last revision have a merge_depth of 0, we're done
726
 
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
727
 
        min_depth = min([d for r,n,d in view_revisions])
728
 
        if min_depth != 0:
729
 
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
730
 
    return view_revisions
731
 
 
732
 
 
733
 
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
734
 
        file_ids=None, direction='reverse'):
735
 
    """Create a revision iterator for log.
736
 
 
737
 
    :param branch: The branch being logged.
738
 
    :param view_revisions: The revisions being viewed.
739
 
    :param generate_delta: Whether to generate a delta for each revision.
740
 
      Permitted values are None, 'full' and 'partial'.
741
 
    :param search: A user text search string.
742
 
    :param file_ids: If non empty, only revisions matching one or more of
743
 
      the file-ids are to be kept.
744
 
    :param direction: the direction in which view_revisions is sorted
745
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
746
 
        delta).
747
 
    """
748
 
    # Convert view_revisions into (view, None, None) groups to fit with
749
 
    # the standard interface here.
750
 
    if type(view_revisions) == list:
751
 
        # A single batch conversion is faster than many incremental ones.
752
 
        # As we have all the data, do a batch conversion.
753
 
        nones = [None] * len(view_revisions)
754
 
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
755
 
    else:
756
 
        def _convert():
757
 
            for view in view_revisions:
758
 
                yield (view, None, None)
759
 
        log_rev_iterator = iter([_convert()])
760
 
    for adapter in log_adapters:
761
 
        # It would be nicer if log adapters were first class objects
762
 
        # with custom parameters. This will do for now. IGC 20090127
763
 
        if adapter == _make_delta_filter:
764
 
            log_rev_iterator = adapter(branch, generate_delta,
765
 
                search, log_rev_iterator, file_ids, direction)
766
 
        else:
767
 
            log_rev_iterator = adapter(branch, generate_delta,
768
 
                search, log_rev_iterator)
769
 
    return log_rev_iterator
770
 
 
771
 
 
772
 
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
773
 
    """Create a filtered iterator of log_rev_iterator matching on a regex.
774
 
 
775
 
    :param branch: The branch being logged.
776
 
    :param generate_delta: Whether to generate a delta for each revision.
777
 
    :param search: A user text search string.
778
 
    :param log_rev_iterator: An input iterator containing all revisions that
779
 
        could be displayed, in lists.
780
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
781
 
        delta).
782
 
    """
783
 
    if search is None:
784
 
        return log_rev_iterator
785
 
    searchRE = re_compile_checked(search, re.IGNORECASE,
786
 
            'log message filter')
787
 
    return _filter_message_re(searchRE, log_rev_iterator)
788
 
 
789
 
 
790
 
def _filter_message_re(searchRE, log_rev_iterator):
791
 
    for revs in log_rev_iterator:
792
 
        new_revs = []
793
 
        for (rev_id, revno, merge_depth), rev, delta in revs:
794
 
            if searchRE.search(rev.message):
795
 
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
796
 
        yield new_revs
797
 
 
798
 
 
799
 
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
800
 
    fileids=None, direction='reverse'):
801
 
    """Add revision deltas to a log iterator if needed.
802
 
 
803
 
    :param branch: The branch being logged.
804
 
    :param generate_delta: Whether to generate a delta for each revision.
805
 
      Permitted values are None, 'full' and 'partial'.
806
 
    :param search: A user text search string.
807
 
    :param log_rev_iterator: An input iterator containing all revisions that
808
 
        could be displayed, in lists.
809
 
    :param fileids: If non empty, only revisions matching one or more of
810
 
      the file-ids are to be kept.
811
 
    :param direction: the direction in which view_revisions is sorted
812
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
813
 
        delta).
814
 
    """
815
 
    if not generate_delta and not fileids:
816
 
        return log_rev_iterator
817
 
    return _generate_deltas(branch.repository, log_rev_iterator,
818
 
        generate_delta, fileids, direction)
819
 
 
820
 
 
821
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
822
 
    direction):
823
 
    """Create deltas for each batch of revisions in log_rev_iterator.
824
 
 
825
 
    If we're only generating deltas for the sake of filtering against
826
 
    file-ids, we stop generating deltas once all file-ids reach the
827
 
    appropriate life-cycle point. If we're receiving data newest to
828
 
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
829
 
    """
830
 
    check_fileids = fileids is not None and len(fileids) > 0
831
 
    if check_fileids:
832
 
        fileid_set = set(fileids)
833
 
        if direction == 'reverse':
834
 
            stop_on = 'add'
835
 
        else:
836
 
            stop_on = 'remove'
837
 
    else:
838
 
        fileid_set = None
839
 
    for revs in log_rev_iterator:
840
 
        # If we were matching against fileids and we've run out,
841
 
        # there's nothing left to do
842
 
        if check_fileids and not fileid_set:
843
 
            return
844
 
        revisions = [rev[1] for rev in revs]
845
 
        new_revs = []
846
 
        if delta_type == 'full' and not check_fileids:
847
 
            deltas = repository.get_deltas_for_revisions(revisions)
848
 
            for rev, delta in izip(revs, deltas):
849
 
                new_revs.append((rev[0], rev[1], delta))
850
 
        else:
851
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
852
 
            for rev, delta in izip(revs, deltas):
853
 
                if check_fileids:
854
 
                    if delta is None or not delta.has_changed():
855
 
                        continue
856
 
                    else:
857
 
                        _update_fileids(delta, fileid_set, stop_on)
858
 
                        if delta_type is None:
859
 
                            delta = None
860
 
                        elif delta_type == 'full':
861
 
                            # If the file matches all the time, rebuilding
862
 
                            # a full delta like this in addition to a partial
863
 
                            # one could be slow. However, it's likely that
864
 
                            # most revisions won't get this far, making it
865
 
                            # faster to filter on the partial deltas and
866
 
                            # build the occasional full delta than always
867
 
                            # building full deltas and filtering those.
868
 
                            rev_id = rev[0][0]
869
 
                            delta = repository.get_revision_delta(rev_id)
870
 
                new_revs.append((rev[0], rev[1], delta))
871
 
        yield new_revs
872
 
 
873
 
 
874
 
def _update_fileids(delta, fileids, stop_on):
875
 
    """Update the set of file-ids to search based on file lifecycle events.
876
 
    
877
 
    :param fileids: a set of fileids to update
878
 
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
879
 
      fileids set once their add or remove entry is detected respectively
880
 
    """
881
 
    if stop_on == 'add':
882
 
        for item in delta.added:
883
 
            if item[1] in fileids:
884
 
                fileids.remove(item[1])
885
 
    elif stop_on == 'delete':
886
 
        for item in delta.removed:
887
 
            if item[1] in fileids:
888
 
                fileids.remove(item[1])
889
 
 
890
 
 
891
 
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
892
 
    """Extract revision objects from the repository
893
 
 
894
 
    :param branch: The branch being logged.
895
 
    :param generate_delta: Whether to generate a delta for each revision.
896
 
    :param search: A user text search string.
897
 
    :param log_rev_iterator: An input iterator containing all revisions that
898
 
        could be displayed, in lists.
899
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
900
 
        delta).
901
 
    """
902
 
    repository = branch.repository
903
 
    for revs in log_rev_iterator:
904
 
        # r = revision_id, n = revno, d = merge depth
905
 
        revision_ids = [view[0] for view, _, _ in revs]
906
 
        revisions = repository.get_revisions(revision_ids)
907
 
        revs = [(rev[0], revision, rev[2]) for rev, revision in
908
 
            izip(revs, revisions)]
909
 
        yield revs
910
 
 
911
 
 
912
 
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
913
 
    """Group up a single large batch into smaller ones.
914
 
 
915
 
    :param branch: The branch being logged.
916
 
    :param generate_delta: Whether to generate a delta for each revision.
917
 
    :param search: A user text search string.
918
 
    :param log_rev_iterator: An input iterator containing all revisions that
919
 
        could be displayed, in lists.
920
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
921
 
        delta).
922
 
    """
923
 
    repository = branch.repository
924
 
    num = 9
925
 
    for batch in log_rev_iterator:
926
 
        batch = iter(batch)
927
 
        while True:
928
 
            step = [detail for _, detail in zip(range(num), batch)]
929
 
            if len(step) == 0:
930
 
                break
931
 
            yield step
932
 
            num = min(int(num * 1.5), 200)
933
 
 
934
 
 
935
 
def _get_revision_limits(branch, start_revision, end_revision):
936
 
    """Get and check revision limits.
937
 
 
938
 
    :param  branch: The branch containing the revisions.
939
 
 
940
 
    :param  start_revision: The first revision to be logged.
941
 
            For backwards compatibility this may be a mainline integer revno,
942
 
            but for merge revision support a RevisionInfo is expected.
943
 
 
944
 
    :param  end_revision: The last revision to be logged.
945
 
            For backwards compatibility this may be a mainline integer revno,
946
 
            but for merge revision support a RevisionInfo is expected.
947
 
 
948
 
    :return: (start_rev_id, end_rev_id) tuple.
949
 
    """
950
 
    branch_revno, branch_rev_id = branch.last_revision_info()
951
 
    start_rev_id = None
952
 
    if start_revision is None:
953
 
        start_revno = 1
954
 
    else:
955
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
956
 
            start_rev_id = start_revision.rev_id
957
 
            start_revno = start_revision.revno or 1
958
 
        else:
959
 
            branch.check_real_revno(start_revision)
960
 
            start_revno = start_revision
961
 
            start_rev_id = branch.get_rev_id(start_revno)
962
 
 
963
 
    end_rev_id = None
964
 
    if end_revision is None:
965
 
        end_revno = branch_revno
966
 
    else:
967
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
968
 
            end_rev_id = end_revision.rev_id
969
 
            end_revno = end_revision.revno or branch_revno
970
 
        else:
971
 
            branch.check_real_revno(end_revision)
972
 
            end_revno = end_revision
973
 
            end_rev_id = branch.get_rev_id(end_revno)
974
 
 
975
 
    if branch_revno != 0:
976
 
        if (start_rev_id == _mod_revision.NULL_REVISION
977
 
            or end_rev_id == _mod_revision.NULL_REVISION):
978
 
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
979
 
        if start_revno > end_revno:
980
 
            raise errors.BzrCommandError("Start revision must be older than "
981
 
                                         "the end revision.")
982
 
    return (start_rev_id, end_rev_id)
983
 
 
984
 
 
985
 
def _get_mainline_revs(branch, start_revision, end_revision):
986
 
    """Get the mainline revisions from the branch.
987
 
 
988
 
    Generates the list of mainline revisions for the branch.
989
 
 
990
 
    :param  branch: The branch containing the revisions.
991
 
 
992
 
    :param  start_revision: The first revision to be logged.
993
 
            For backwards compatibility this may be a mainline integer revno,
994
 
            but for merge revision support a RevisionInfo is expected.
995
 
 
996
 
    :param  end_revision: The last revision to be logged.
997
 
            For backwards compatibility this may be a mainline integer revno,
998
 
            but for merge revision support a RevisionInfo is expected.
999
 
 
1000
 
    :return: A (mainline_revs, rev_nos, start_rev_id, end_rev_id) tuple.
1001
 
    """
1002
 
    branch_revno, branch_last_revision = branch.last_revision_info()
1003
 
    if branch_revno == 0:
1004
 
        return None, None, None, None
1005
 
 
1006
 
    # For mainline generation, map start_revision and end_revision to
1007
 
    # mainline revnos. If the revision is not on the mainline choose the
1008
 
    # appropriate extreme of the mainline instead - the extra will be
1009
 
    # filtered later.
1010
 
    # Also map the revisions to rev_ids, to be used in the later filtering
1011
 
    # stage.
1012
 
    start_rev_id = None
1013
 
    if start_revision is None:
1014
 
        start_revno = 1
1015
 
    else:
1016
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
1017
 
            start_rev_id = start_revision.rev_id
1018
 
            start_revno = start_revision.revno or 1
1019
 
        else:
1020
 
            branch.check_real_revno(start_revision)
1021
 
            start_revno = start_revision
1022
 
 
1023
 
    end_rev_id = None
1024
 
    if end_revision is None:
1025
 
        end_revno = branch_revno
1026
 
    else:
1027
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
1028
 
            end_rev_id = end_revision.rev_id
1029
 
            end_revno = end_revision.revno or branch_revno
1030
 
        else:
1031
 
            branch.check_real_revno(end_revision)
1032
 
            end_revno = end_revision
1033
 
 
1034
 
    if ((start_rev_id == _mod_revision.NULL_REVISION)
1035
 
        or (end_rev_id == _mod_revision.NULL_REVISION)):
1036
 
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
1037
 
    if start_revno > end_revno:
1038
 
        raise errors.BzrCommandError("Start revision must be older than "
1039
 
                                     "the end revision.")
1040
 
 
1041
 
    if end_revno < start_revno:
1042
 
        return None, None, None, None
1043
 
    cur_revno = branch_revno
1044
 
    rev_nos = {}
1045
 
    mainline_revs = []
1046
 
    for revision_id in branch.repository.iter_reverse_revision_history(
1047
 
                        branch_last_revision):
1048
 
        if cur_revno < start_revno:
1049
 
            # We have gone far enough, but we always add 1 more revision
1050
 
            rev_nos[revision_id] = cur_revno
1051
 
            mainline_revs.append(revision_id)
1052
 
            break
1053
 
        if cur_revno <= end_revno:
1054
 
            rev_nos[revision_id] = cur_revno
1055
 
            mainline_revs.append(revision_id)
1056
 
        cur_revno -= 1
1057
 
    else:
1058
 
        # We walked off the edge of all revisions, so we add a 'None' marker
1059
 
        mainline_revs.append(None)
1060
 
 
1061
 
    mainline_revs.reverse()
1062
 
 
1063
 
    # override the mainline to look like the revision history.
1064
 
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1065
 
 
1066
 
 
1067
 
@deprecated_function(deprecated_in((2, 2, 0)))
1068
 
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1069
 
    """Filter view_revisions based on revision ranges.
1070
 
 
1071
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1072
 
            tuples to be filtered.
1073
 
 
1074
 
    :param start_rev_id: If not NONE specifies the first revision to be logged.
1075
 
            If NONE then all revisions up to the end_rev_id are logged.
1076
 
 
1077
 
    :param end_rev_id: If not NONE specifies the last revision to be logged.
1078
 
            If NONE then all revisions up to the end of the log are logged.
1079
 
 
1080
 
    :return: The filtered view_revisions.
1081
 
    """
1082
 
    if start_rev_id or end_rev_id:
1083
 
        revision_ids = [r for r, n, d in view_revisions]
1084
 
        if start_rev_id:
1085
 
            start_index = revision_ids.index(start_rev_id)
1086
 
        else:
1087
 
            start_index = 0
1088
 
        if start_rev_id == end_rev_id:
1089
 
            end_index = start_index
1090
 
        else:
1091
 
            if end_rev_id:
1092
 
                end_index = revision_ids.index(end_rev_id)
1093
 
            else:
1094
 
                end_index = len(view_revisions) - 1
1095
 
        # To include the revisions merged into the last revision,
1096
 
        # extend end_rev_id down to, but not including, the next rev
1097
 
        # with the same or lesser merge_depth
1098
 
        end_merge_depth = view_revisions[end_index][2]
1099
 
        try:
1100
 
            for index in xrange(end_index+1, len(view_revisions)+1):
1101
 
                if view_revisions[index][2] <= end_merge_depth:
1102
 
                    end_index = index - 1
1103
 
                    break
1104
 
        except IndexError:
1105
 
            # if the search falls off the end then log to the end as well
1106
 
            end_index = len(view_revisions) - 1
1107
 
        view_revisions = view_revisions[start_index:end_index+1]
1108
 
    return view_revisions
1109
 
 
1110
 
 
1111
 
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
1112
 
    include_merges=True):
1113
 
    r"""Return the list of revision ids which touch a given file id.
1114
 
 
1115
 
    The function filters view_revisions and returns a subset.
1116
 
    This includes the revisions which directly change the file id,
1117
 
    and the revisions which merge these changes. So if the
1118
 
    revision graph is::
1119
 
        A-.
1120
 
        |\ \
1121
 
        B C E
1122
 
        |/ /
1123
 
        D |
1124
 
        |\|
1125
 
        | F
1126
 
        |/
1127
 
        G
1128
 
 
1129
 
    And 'C' changes a file, then both C and D will be returned. F will not be
1130
 
    returned even though it brings the changes to C into the branch starting
1131
 
    with E. (Note that if we were using F as the tip instead of G, then we
1132
 
    would see C, D, F.)
1133
 
 
1134
 
    This will also be restricted based on a subset of the mainline.
1135
 
 
1136
 
    :param branch: The branch where we can get text revision information.
1137
 
 
1138
 
    :param file_id: Filter out revisions that do not touch file_id.
1139
 
 
1140
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1141
 
        tuples. This is the list of revisions which will be filtered. It is
1142
 
        assumed that view_revisions is in merge_sort order (i.e. newest
1143
 
        revision first ).
1144
 
 
1145
 
    :param include_merges: include merge revisions in the result or not
1146
 
 
1147
 
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
1148
 
    """
1149
 
    # Lookup all possible text keys to determine which ones actually modified
1150
 
    # the file.
1151
 
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1152
 
    next_keys = None
1153
 
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1154
 
    # memory consumption. GraphIndex *does* like to look for a few keys in
1155
 
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
1156
 
    # TODO: This code needs to be re-evaluated periodically as we tune the
1157
 
    #       indexing layer. We might consider passing in hints as to the known
1158
 
    #       access pattern (sparse/clustered, high success rate/low success
1159
 
    #       rate). This particular access is clustered with a low success rate.
1160
 
    get_parent_map = branch.repository.texts.get_parent_map
1161
 
    modified_text_revisions = set()
1162
 
    chunk_size = 1000
1163
 
    for start in xrange(0, len(text_keys), chunk_size):
1164
 
        next_keys = text_keys[start:start + chunk_size]
1165
 
        # Only keep the revision_id portion of the key
1166
 
        modified_text_revisions.update(
1167
 
            [k[1] for k in get_parent_map(next_keys)])
1168
 
    del text_keys, next_keys
1169
 
 
1170
 
    result = []
1171
 
    # Track what revisions will merge the current revision, replace entries
1172
 
    # with 'None' when they have been added to result
1173
 
    current_merge_stack = [None]
1174
 
    for info in view_revisions:
1175
 
        rev_id, revno, depth = info
1176
 
        if depth == len(current_merge_stack):
1177
 
            current_merge_stack.append(info)
1178
 
        else:
1179
 
            del current_merge_stack[depth + 1:]
1180
 
            current_merge_stack[-1] = info
1181
 
 
1182
 
        if rev_id in modified_text_revisions:
1183
 
            # This needs to be logged, along with the extra revisions
1184
 
            for idx in xrange(len(current_merge_stack)):
1185
 
                node = current_merge_stack[idx]
1186
 
                if node is not None:
1187
 
                    if include_merges or node[2] == 0:
1188
 
                        result.append(node)
1189
 
                        current_merge_stack[idx] = None
1190
 
    return result
1191
 
 
1192
 
 
1193
 
@deprecated_function(deprecated_in((2, 2, 0)))
1194
 
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
1195
 
                       include_merges=True):
1196
 
    """Produce an iterator of revisions to show
1197
 
    :return: an iterator of (revision_id, revno, merge_depth)
1198
 
    (if there is no revno for a revision, None is supplied)
1199
 
    """
1200
 
    if not include_merges:
1201
 
        revision_ids = mainline_revs[1:]
1202
 
        if direction == 'reverse':
1203
 
            revision_ids.reverse()
1204
 
        for revision_id in revision_ids:
1205
 
            yield revision_id, str(rev_nos[revision_id]), 0
1206
 
        return
1207
 
    graph = branch.repository.get_graph()
1208
 
    # This asks for all mainline revisions, which means we only have to spider
1209
 
    # sideways, rather than depth history. That said, its still size-of-history
1210
 
    # and should be addressed.
1211
 
    # mainline_revisions always includes an extra revision at the beginning, so
1212
 
    # don't request it.
1213
 
    parent_map = dict(((key, value) for key, value in
1214
 
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
1215
 
    # filter out ghosts; merge_sort errors on ghosts.
1216
 
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
1217
 
    merge_sorted_revisions = tsort.merge_sort(
1218
 
        rev_graph,
1219
 
        mainline_revs[-1],
1220
 
        mainline_revs,
1221
 
        generate_revno=True)
1222
 
 
1223
 
    if direction == 'forward':
1224
 
        # forward means oldest first.
1225
 
        merge_sorted_revisions = reverse_by_depth(merge_sorted_revisions)
1226
 
    elif direction != 'reverse':
1227
 
        raise ValueError('invalid direction %r' % direction)
1228
 
 
1229
 
    for (sequence, rev_id, merge_depth, revno, end_of_merge
1230
 
         ) in merge_sorted_revisions:
1231
 
        yield rev_id, '.'.join(map(str, revno)), merge_depth
1232
 
 
1233
 
 
1234
 
def reverse_by_depth(merge_sorted_revisions, _depth=0):
1235
 
    """Reverse revisions by depth.
1236
 
 
1237
 
    Revisions with a different depth are sorted as a group with the previous
1238
 
    revision of that depth.  There may be no topological justification for this,
1239
 
    but it looks much nicer.
1240
 
    """
1241
 
    # Add a fake revision at start so that we can always attach sub revisions
1242
 
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
1243
 
    zd_revisions = []
1244
 
    for val in merge_sorted_revisions:
1245
 
        if val[2] == _depth:
1246
 
            # Each revision at the current depth becomes a chunk grouping all
1247
 
            # higher depth revisions.
1248
 
            zd_revisions.append([val])
1249
 
        else:
1250
 
            zd_revisions[-1].append(val)
1251
 
    for revisions in zd_revisions:
1252
 
        if len(revisions) > 1:
1253
 
            # We have higher depth revisions, let reverse them locally
1254
 
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
1255
 
    zd_revisions.reverse()
1256
 
    result = []
1257
 
    for chunk in zd_revisions:
1258
 
        result.extend(chunk)
1259
 
    if _depth == 0:
1260
 
        # Top level call, get rid of the fake revisions that have been added
1261
 
        result = [r for r in result if r[0] is not None and r[1] is not None]
1262
 
    return result
1263
 
 
1264
 
 
1265
 
class LogRevision(object):
1266
 
    """A revision to be logged (by LogFormatter.log_revision).
1267
 
 
1268
 
    A simple wrapper for the attributes of a revision to be logged.
1269
 
    The attributes may or may not be populated, as determined by the
1270
 
    logging options and the log formatter capabilities.
1271
 
    """
1272
 
 
1273
 
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1274
 
                 tags=None, diff=None):
1275
 
        self.rev = rev
1276
 
        self.revno = str(revno)
1277
 
        self.merge_depth = merge_depth
1278
 
        self.delta = delta
1279
 
        self.tags = tags
1280
 
        self.diff = diff
1281
 
 
1282
 
 
1283
 
class LogFormatter(object):
1284
 
    """Abstract class to display log messages.
1285
 
 
1286
 
    At a minimum, a derived class must implement the log_revision method.
1287
 
 
1288
 
    If the LogFormatter needs to be informed of the beginning or end of
1289
 
    a log it should implement the begin_log and/or end_log hook methods.
1290
 
 
1291
 
    A LogFormatter should define the following supports_XXX flags
1292
 
    to indicate which LogRevision attributes it supports:
1293
 
 
1294
 
    - supports_delta must be True if this log formatter supports delta.
1295
 
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1296
 
        attribute describes whether the 'short_status' format (1) or the long
1297
 
        one (2) should be used.
1298
 
 
1299
 
    - supports_merge_revisions must be True if this log formatter supports
1300
 
        merge revisions.  If not, then only mainline revisions will be passed
1301
 
        to the formatter.
1302
 
 
1303
 
    - preferred_levels is the number of levels this formatter defaults to.
1304
 
        The default value is zero meaning display all levels.
1305
 
        This value is only relevant if supports_merge_revisions is True.
1306
 
 
1307
 
    - supports_tags must be True if this log formatter supports tags.
1308
 
        Otherwise the tags attribute may not be populated.
1309
 
 
1310
 
    - supports_diff must be True if this log formatter supports diffs.
1311
 
        Otherwise the diff attribute may not be populated.
1312
 
 
1313
 
    Plugins can register functions to show custom revision properties using
1314
 
    the properties_handler_registry. The registered function
1315
 
    must respect the following interface description:
1316
 
        def my_show_properties(properties_dict):
1317
 
            # code that returns a dict {'name':'value'} of the properties
1318
 
            # to be shown
1319
 
    """
1320
 
    preferred_levels = 0
1321
 
 
1322
 
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1323
 
                 delta_format=None, levels=None, show_advice=False,
1324
 
                 to_exact_file=None):
1325
 
        """Create a LogFormatter.
1326
 
 
1327
 
        :param to_file: the file to output to
1328
 
        :param to_exact_file: if set, gives an output stream to which 
1329
 
             non-Unicode diffs are written.
1330
 
        :param show_ids: if True, revision-ids are to be displayed
1331
 
        :param show_timezone: the timezone to use
1332
 
        :param delta_format: the level of delta information to display
1333
 
          or None to leave it to the formatter to decide
1334
 
        :param levels: the number of levels to display; None or -1 to
1335
 
          let the log formatter decide.
1336
 
        :param show_advice: whether to show advice at the end of the
1337
 
          log or not
1338
 
        """
1339
 
        self.to_file = to_file
1340
 
        # 'exact' stream used to show diff, it should print content 'as is'
1341
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
1342
 
        if to_exact_file is not None:
1343
 
            self.to_exact_file = to_exact_file
1344
 
        else:
1345
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
1346
 
            # for code that expects to get diffs to pass in the exact file
1347
 
            # stream
1348
 
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1349
 
        self.show_ids = show_ids
1350
 
        self.show_timezone = show_timezone
1351
 
        if delta_format is None:
1352
 
            # Ensures backward compatibility
1353
 
            delta_format = 2 # long format
1354
 
        self.delta_format = delta_format
1355
 
        self.levels = levels
1356
 
        self._show_advice = show_advice
1357
 
        self._merge_count = 0
1358
 
 
1359
 
    def get_levels(self):
1360
 
        """Get the number of levels to display or 0 for all."""
1361
 
        if getattr(self, 'supports_merge_revisions', False):
1362
 
            if self.levels is None or self.levels == -1:
1363
 
                self.levels = self.preferred_levels
1364
 
        else:
1365
 
            self.levels = 1
1366
 
        return self.levels
1367
 
 
1368
 
    def log_revision(self, revision):
1369
 
        """Log a revision.
1370
 
 
1371
 
        :param  revision:   The LogRevision to be logged.
1372
 
        """
1373
 
        raise NotImplementedError('not implemented in abstract base')
1374
 
 
1375
 
    def show_advice(self):
1376
 
        """Output user advice, if any, when the log is completed."""
1377
 
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
1378
 
            advice_sep = self.get_advice_separator()
1379
 
            if advice_sep:
1380
 
                self.to_file.write(advice_sep)
1381
 
            self.to_file.write(
1382
 
                "Use --include-merges or -n0 to see merged revisions.\n")
1383
 
 
1384
 
    def get_advice_separator(self):
1385
 
        """Get the text separating the log from the closing advice."""
1386
 
        return ''
1387
 
 
1388
 
    def short_committer(self, rev):
1389
 
        name, address = config.parse_username(rev.committer)
1390
 
        if name:
1391
 
            return name
1392
 
        return address
1393
 
 
1394
 
    def short_author(self, rev):
1395
 
        name, address = config.parse_username(rev.get_apparent_authors()[0])
1396
 
        if name:
1397
 
            return name
1398
 
        return address
1399
 
 
1400
 
    def merge_marker(self, revision):
1401
 
        """Get the merge marker to include in the output or '' if none."""
1402
 
        if len(revision.rev.parent_ids) > 1:
1403
 
            self._merge_count += 1
1404
 
            return ' [merge]'
1405
 
        else:
1406
 
            return ''
1407
 
 
1408
 
    def show_properties(self, revision, indent):
1409
 
        """Displays the custom properties returned by each registered handler.
1410
 
 
1411
 
        If a registered handler raises an error it is propagated.
1412
 
        """
1413
 
        for line in self.custom_properties(revision):
1414
 
            self.to_file.write("%s%s\n" % (indent, line))
1415
 
 
1416
 
    def custom_properties(self, revision):
1417
 
        """Format the custom properties returned by each registered handler.
1418
 
 
1419
 
        If a registered handler raises an error it is propagated.
1420
 
 
1421
 
        :return: a list of formatted lines (excluding trailing newlines)
1422
 
        """
1423
 
        lines = self._foreign_info_properties(revision)
1424
 
        for key, handler in properties_handler_registry.iteritems():
1425
 
            lines.extend(self._format_properties(handler(revision)))
1426
 
        return lines
1427
 
 
1428
 
    def _foreign_info_properties(self, rev):
1429
 
        """Custom log displayer for foreign revision identifiers.
1430
 
 
1431
 
        :param rev: Revision object.
1432
 
        """
1433
 
        # Revision comes directly from a foreign repository
1434
 
        if isinstance(rev, foreign.ForeignRevision):
1435
 
            return self._format_properties(
1436
 
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
1437
 
 
1438
 
        # Imported foreign revision revision ids always contain :
1439
 
        if not ":" in rev.revision_id:
1440
 
            return []
1441
 
 
1442
 
        # Revision was once imported from a foreign repository
1443
 
        try:
1444
 
            foreign_revid, mapping = \
1445
 
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
1446
 
        except errors.InvalidRevisionId:
1447
 
            return []
1448
 
 
1449
 
        return self._format_properties(
1450
 
            mapping.vcs.show_foreign_revid(foreign_revid))
1451
 
 
1452
 
    def _format_properties(self, properties):
1453
 
        lines = []
1454
 
        for key, value in properties.items():
1455
 
            lines.append(key + ': ' + value)
1456
 
        return lines
1457
 
 
1458
 
    def show_diff(self, to_file, diff, indent):
1459
 
        for l in diff.rstrip().split('\n'):
1460
 
            to_file.write(indent + '%s\n' % (l,))
1461
 
 
1462
 
 
1463
 
# Separator between revisions in long format
1464
 
_LONG_SEP = '-' * 60
1465
 
 
1466
 
 
1467
 
class LongLogFormatter(LogFormatter):
1468
 
 
1469
 
    supports_merge_revisions = True
1470
 
    preferred_levels = 1
1471
 
    supports_delta = True
1472
 
    supports_tags = True
1473
 
    supports_diff = True
1474
 
 
1475
 
    def __init__(self, *args, **kwargs):
1476
 
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1477
 
        if self.show_timezone == 'original':
1478
 
            self.date_string = self._date_string_original_timezone
1479
 
        else:
1480
 
            self.date_string = self._date_string_with_timezone
1481
 
 
1482
 
    def _date_string_with_timezone(self, rev):
1483
 
        return format_date(rev.timestamp, rev.timezone or 0,
1484
 
                           self.show_timezone)
1485
 
 
1486
 
    def _date_string_original_timezone(self, rev):
1487
 
        return format_date_with_offset_in_original_timezone(rev.timestamp,
1488
 
            rev.timezone or 0)
1489
 
 
1490
 
    def log_revision(self, revision):
1491
 
        """Log a revision, either merged or not."""
1492
 
        indent = '    ' * revision.merge_depth
1493
 
        lines = [_LONG_SEP]
1494
 
        if revision.revno is not None:
1495
 
            lines.append('revno: %s%s' % (revision.revno,
1496
 
                self.merge_marker(revision)))
1497
 
        if revision.tags:
1498
 
            lines.append('tags: %s' % (', '.join(revision.tags)))
1499
 
        if self.show_ids:
1500
 
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
1501
 
            for parent_id in revision.rev.parent_ids:
1502
 
                lines.append('parent: %s' % (parent_id,))
1503
 
        lines.extend(self.custom_properties(revision.rev))
1504
 
 
1505
 
        committer = revision.rev.committer
1506
 
        authors = revision.rev.get_apparent_authors()
1507
 
        if authors != [committer]:
1508
 
            lines.append('author: %s' % (", ".join(authors),))
1509
 
        lines.append('committer: %s' % (committer,))
1510
 
 
1511
 
        branch_nick = revision.rev.properties.get('branch-nick', None)
1512
 
        if branch_nick is not None:
1513
 
            lines.append('branch nick: %s' % (branch_nick,))
1514
 
 
1515
 
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1516
 
 
1517
 
        lines.append('message:')
1518
 
        if not revision.rev.message:
1519
 
            lines.append('  (no message)')
1520
 
        else:
1521
 
            message = revision.rev.message.rstrip('\r\n')
1522
 
            for l in message.split('\n'):
1523
 
                lines.append('  %s' % (l,))
1524
 
 
1525
 
        # Dump the output, appending the delta and diff if requested
1526
 
        to_file = self.to_file
1527
 
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
1528
 
        if revision.delta is not None:
1529
 
            # Use the standard status output to display changes
1530
 
            from bzrlib.delta import report_delta
1531
 
            report_delta(to_file, revision.delta, short_status=False, 
1532
 
                         show_ids=self.show_ids, indent=indent)
1533
 
        if revision.diff is not None:
1534
 
            to_file.write(indent + 'diff:\n')
1535
 
            to_file.flush()
1536
 
            # Note: we explicitly don't indent the diff (relative to the
1537
 
            # revision information) so that the output can be fed to patch -p0
1538
 
            self.show_diff(self.to_exact_file, revision.diff, indent)
1539
 
            self.to_exact_file.flush()
1540
 
 
1541
 
    def get_advice_separator(self):
1542
 
        """Get the text separating the log from the closing advice."""
1543
 
        return '-' * 60 + '\n'
1544
 
 
1545
 
 
1546
 
class ShortLogFormatter(LogFormatter):
1547
 
 
1548
 
    supports_merge_revisions = True
1549
 
    preferred_levels = 1
1550
 
    supports_delta = True
1551
 
    supports_tags = True
1552
 
    supports_diff = True
1553
 
 
1554
 
    def __init__(self, *args, **kwargs):
1555
 
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
1556
 
        self.revno_width_by_depth = {}
1557
 
 
1558
 
    def log_revision(self, revision):
1559
 
        # We need two indents: one per depth and one for the information
1560
 
        # relative to that indent. Most mainline revnos are 5 chars or
1561
 
        # less while dotted revnos are typically 11 chars or less. Once
1562
 
        # calculated, we need to remember the offset for a given depth
1563
 
        # as we might be starting from a dotted revno in the first column
1564
 
        # and we want subsequent mainline revisions to line up.
1565
 
        depth = revision.merge_depth
1566
 
        indent = '    ' * depth
1567
 
        revno_width = self.revno_width_by_depth.get(depth)
1568
 
        if revno_width is None:
1569
 
            if revision.revno.find('.') == -1:
1570
 
                # mainline revno, e.g. 12345
1571
 
                revno_width = 5
1572
 
            else:
1573
 
                # dotted revno, e.g. 12345.10.55
1574
 
                revno_width = 11
1575
 
            self.revno_width_by_depth[depth] = revno_width
1576
 
        offset = ' ' * (revno_width + 1)
1577
 
 
1578
 
        to_file = self.to_file
1579
 
        tags = ''
1580
 
        if revision.tags:
1581
 
            tags = ' {%s}' % (', '.join(revision.tags))
1582
 
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1583
 
                revision.revno, self.short_author(revision.rev),
1584
 
                format_date(revision.rev.timestamp,
1585
 
                            revision.rev.timezone or 0,
1586
 
                            self.show_timezone, date_fmt="%Y-%m-%d",
1587
 
                            show_offset=False),
1588
 
                tags, self.merge_marker(revision)))
1589
 
        self.show_properties(revision.rev, indent+offset)
1590
 
        if self.show_ids:
1591
 
            to_file.write(indent + offset + 'revision-id:%s\n'
1592
 
                          % (revision.rev.revision_id,))
1593
 
        if not revision.rev.message:
1594
 
            to_file.write(indent + offset + '(no message)\n')
1595
 
        else:
1596
 
            message = revision.rev.message.rstrip('\r\n')
1597
 
            for l in message.split('\n'):
1598
 
                to_file.write(indent + offset + '%s\n' % (l,))
1599
 
 
1600
 
        if revision.delta is not None:
1601
 
            # Use the standard status output to display changes
1602
 
            from bzrlib.delta import report_delta
1603
 
            report_delta(to_file, revision.delta, 
1604
 
                         short_status=self.delta_format==1, 
1605
 
                         show_ids=self.show_ids, indent=indent + offset)
1606
 
        if revision.diff is not None:
1607
 
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1608
 
        to_file.write('\n')
1609
 
 
1610
 
 
1611
 
class LineLogFormatter(LogFormatter):
1612
 
 
1613
 
    supports_merge_revisions = True
1614
 
    preferred_levels = 1
1615
 
    supports_tags = True
1616
 
 
1617
 
    def __init__(self, *args, **kwargs):
1618
 
        super(LineLogFormatter, self).__init__(*args, **kwargs)
1619
 
        width = terminal_width()
1620
 
        if width is not None:
1621
 
            # we need one extra space for terminals that wrap on last char
1622
 
            width = width - 1
1623
 
        self._max_chars = width
1624
 
 
1625
 
    def truncate(self, str, max_len):
1626
 
        if max_len is None or len(str) <= max_len:
1627
 
            return str
1628
 
        return str[:max_len-3] + '...'
1629
 
 
1630
 
    def date_string(self, rev):
1631
 
        return format_date(rev.timestamp, rev.timezone or 0,
1632
 
                           self.show_timezone, date_fmt="%Y-%m-%d",
1633
 
                           show_offset=False)
1634
 
 
1635
 
    def message(self, rev):
 
117
        from tree import EmptyTree
 
118
        prev_tree = EmptyTree()
 
119
    for revno, revision_id in which_revs():
 
120
        print >>to_file,  '-' * 60
 
121
        print >>to_file,  'revno:', revno
 
122
        rev = branch.get_revision(revision_id)
 
123
        if show_ids:
 
124
            print >>to_file,  'revision-id:', revision_id
 
125
        print >>to_file,  'committer:', rev.committer
 
126
        print >>to_file,  'timestamp: %s' % (format_date(rev.timestamp, rev.timezone or 0,
 
127
                                             show_timezone))
 
128
 
 
129
        if revision_id != rev.revision_id:
 
130
            raise BzrCheckError("retrieved wrong revision: %r"
 
131
                                % (revision_id, rev.revision_id))
 
132
 
 
133
        print >>to_file,  'message:'
1636
134
        if not rev.message:
1637
 
            return '(no message)'
1638
 
        else:
1639
 
            return rev.message
1640
 
 
1641
 
    def log_revision(self, revision):
1642
 
        indent = '  ' * revision.merge_depth
1643
 
        self.to_file.write(self.log_string(revision.revno, revision.rev,
1644
 
            self._max_chars, revision.tags, indent))
1645
 
        self.to_file.write('\n')
1646
 
 
1647
 
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
1648
 
        """Format log info into one string. Truncate tail of string
1649
 
        :param  revno:      revision number or None.
1650
 
                            Revision numbers counts from 1.
1651
 
        :param  rev:        revision object
1652
 
        :param  max_chars:  maximum length of resulting string
1653
 
        :param  tags:       list of tags or None
1654
 
        :param  prefix:     string to prefix each line
1655
 
        :return:            formatted truncated string
1656
 
        """
1657
 
        out = []
1658
 
        if revno:
1659
 
            # show revno only when is not None
1660
 
            out.append("%s:" % revno)
1661
 
        out.append(self.truncate(self.short_author(rev), 20))
1662
 
        out.append(self.date_string(rev))
1663
 
        if len(rev.parent_ids) > 1:
1664
 
            out.append('[merge]')
1665
 
        if tags:
1666
 
            tag_str = '{%s}' % (', '.join(tags))
1667
 
            out.append(tag_str)
1668
 
        out.append(rev.get_summary())
1669
 
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1670
 
 
1671
 
 
1672
 
class GnuChangelogLogFormatter(LogFormatter):
1673
 
 
1674
 
    supports_merge_revisions = True
1675
 
    supports_delta = True
1676
 
 
1677
 
    def log_revision(self, revision):
1678
 
        """Log a revision, either merged or not."""
1679
 
        to_file = self.to_file
1680
 
 
1681
 
        date_str = format_date(revision.rev.timestamp,
1682
 
                               revision.rev.timezone or 0,
1683
 
                               self.show_timezone,
1684
 
                               date_fmt='%Y-%m-%d',
1685
 
                               show_offset=False)
1686
 
        committer_str = revision.rev.get_apparent_authors()[0].replace (' <', '  <')
1687
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1688
 
 
1689
 
        if revision.delta is not None and revision.delta.has_changed():
1690
 
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1691
 
                path, = c[:1]
1692
 
                to_file.write('\t* %s:\n' % (path,))
1693
 
            for c in revision.delta.renamed:
1694
 
                oldpath,newpath = c[:2]
1695
 
                # For renamed files, show both the old and the new path
1696
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
1697
 
            to_file.write('\n')
1698
 
 
1699
 
        if not revision.rev.message:
1700
 
            to_file.write('\tNo commit message\n')
1701
 
        else:
1702
 
            message = revision.rev.message.rstrip('\r\n')
1703
 
            for l in message.split('\n'):
1704
 
                to_file.write('\t%s\n' % (l.lstrip(),))
1705
 
            to_file.write('\n')
1706
 
 
1707
 
 
1708
 
def line_log(rev, max_chars):
1709
 
    lf = LineLogFormatter(None)
1710
 
    return lf.log_string(None, rev, max_chars)
1711
 
 
1712
 
 
1713
 
class LogFormatterRegistry(registry.Registry):
1714
 
    """Registry for log formatters"""
1715
 
 
1716
 
    def make_formatter(self, name, *args, **kwargs):
1717
 
        """Construct a formatter from arguments.
1718
 
 
1719
 
        :param name: Name of the formatter to construct.  'short', 'long' and
1720
 
            'line' are built-in.
1721
 
        """
1722
 
        return self.get(name)(*args, **kwargs)
1723
 
 
1724
 
    def get_default(self, branch):
1725
 
        return self.get(branch.get_config().log_format())
1726
 
 
1727
 
 
1728
 
log_formatter_registry = LogFormatterRegistry()
1729
 
 
1730
 
 
1731
 
log_formatter_registry.register('short', ShortLogFormatter,
1732
 
                                'Moderately short log format')
1733
 
log_formatter_registry.register('long', LongLogFormatter,
1734
 
                                'Detailed log format')
1735
 
log_formatter_registry.register('line', LineLogFormatter,
1736
 
                                'Log format with one line per revision')
1737
 
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1738
 
                                'Format used by GNU ChangeLog files')
1739
 
 
1740
 
 
1741
 
def register_formatter(name, formatter):
1742
 
    log_formatter_registry.register(name, formatter)
1743
 
 
1744
 
 
1745
 
def log_formatter(name, *args, **kwargs):
1746
 
    """Construct a formatter from arguments.
1747
 
 
1748
 
    name -- Name of the formatter to construct; currently 'long', 'short' and
1749
 
        'line' are supported.
1750
 
    """
1751
 
    try:
1752
 
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
1753
 
    except KeyError:
1754
 
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
1755
 
 
1756
 
 
1757
 
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
1758
 
    # deprecated; for compatibility
1759
 
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
1760
 
    lf.show(revno, rev, delta)
1761
 
 
1762
 
 
1763
 
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
1764
 
                           log_format='long'):
1765
 
    """Show the change in revision history comparing the old revision history to the new one.
1766
 
 
1767
 
    :param branch: The branch where the revisions exist
1768
 
    :param old_rh: The old revision history
1769
 
    :param new_rh: The new revision history
1770
 
    :param to_file: A file to write the results to. If None, stdout will be used
1771
 
    """
1772
 
    if to_file is None:
1773
 
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
1774
 
            errors='replace')
1775
 
    lf = log_formatter(log_format,
1776
 
                       show_ids=False,
1777
 
                       to_file=to_file,
1778
 
                       show_timezone='original')
1779
 
 
1780
 
    # This is the first index which is different between
1781
 
    # old and new
1782
 
    base_idx = None
1783
 
    for i in xrange(max(len(new_rh),
1784
 
                        len(old_rh))):
1785
 
        if (len(new_rh) <= i
1786
 
            or len(old_rh) <= i
1787
 
            or new_rh[i] != old_rh[i]):
1788
 
            base_idx = i
1789
 
            break
1790
 
 
1791
 
    if base_idx is None:
1792
 
        to_file.write('Nothing seems to have changed\n')
1793
 
        return
1794
 
    ## TODO: It might be nice to do something like show_log
1795
 
    ##       and show the merged entries. But since this is the
1796
 
    ##       removed revisions, it shouldn't be as important
1797
 
    if base_idx < len(old_rh):
1798
 
        to_file.write('*'*60)
1799
 
        to_file.write('\nRemoved Revisions:\n')
1800
 
        for i in range(base_idx, len(old_rh)):
1801
 
            rev = branch.repository.get_revision(old_rh[i])
1802
 
            lr = LogRevision(rev, i+1, 0, None)
1803
 
            lf.log_revision(lr)
1804
 
        to_file.write('*'*60)
1805
 
        to_file.write('\n\n')
1806
 
    if base_idx < len(new_rh):
1807
 
        to_file.write('Added Revisions:\n')
1808
 
        show_log(branch,
1809
 
                 lf,
1810
 
                 None,
1811
 
                 verbose=False,
1812
 
                 direction='forward',
1813
 
                 start_revision=base_idx+1,
1814
 
                 end_revision=len(new_rh),
1815
 
                 search=None)
1816
 
 
1817
 
 
1818
 
def get_history_change(old_revision_id, new_revision_id, repository):
1819
 
    """Calculate the uncommon lefthand history between two revisions.
1820
 
 
1821
 
    :param old_revision_id: The original revision id.
1822
 
    :param new_revision_id: The new revision id.
1823
 
    :param repository: The repository to use for the calculation.
1824
 
 
1825
 
    return old_history, new_history
1826
 
    """
1827
 
    old_history = []
1828
 
    old_revisions = set()
1829
 
    new_history = []
1830
 
    new_revisions = set()
1831
 
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
1832
 
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
1833
 
    stop_revision = None
1834
 
    do_old = True
1835
 
    do_new = True
1836
 
    while do_new or do_old:
1837
 
        if do_new:
1838
 
            try:
1839
 
                new_revision = new_iter.next()
1840
 
            except StopIteration:
1841
 
                do_new = False
1842
 
            else:
1843
 
                new_history.append(new_revision)
1844
 
                new_revisions.add(new_revision)
1845
 
                if new_revision in old_revisions:
1846
 
                    stop_revision = new_revision
1847
 
                    break
1848
 
        if do_old:
1849
 
            try:
1850
 
                old_revision = old_iter.next()
1851
 
            except StopIteration:
1852
 
                do_old = False
1853
 
            else:
1854
 
                old_history.append(old_revision)
1855
 
                old_revisions.add(old_revision)
1856
 
                if old_revision in new_revisions:
1857
 
                    stop_revision = old_revision
1858
 
                    break
1859
 
    new_history.reverse()
1860
 
    old_history.reverse()
1861
 
    if stop_revision is not None:
1862
 
        new_history = new_history[new_history.index(stop_revision) + 1:]
1863
 
        old_history = old_history[old_history.index(stop_revision) + 1:]
1864
 
    return old_history, new_history
1865
 
 
1866
 
 
1867
 
def show_branch_change(branch, output, old_revno, old_revision_id):
1868
 
    """Show the changes made to a branch.
1869
 
 
1870
 
    :param branch: The branch to show changes about.
1871
 
    :param output: A file-like object to write changes to.
1872
 
    :param old_revno: The revno of the old tip.
1873
 
    :param old_revision_id: The revision_id of the old tip.
1874
 
    """
1875
 
    new_revno, new_revision_id = branch.last_revision_info()
1876
 
    old_history, new_history = get_history_change(old_revision_id,
1877
 
                                                  new_revision_id,
1878
 
                                                  branch.repository)
1879
 
    if old_history == [] and new_history == []:
1880
 
        output.write('Nothing seems to have changed\n')
1881
 
        return
1882
 
 
1883
 
    log_format = log_formatter_registry.get_default(branch)
1884
 
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
1885
 
    if old_history != []:
1886
 
        output.write('*'*60)
1887
 
        output.write('\nRemoved Revisions:\n')
1888
 
        show_flat_log(branch.repository, old_history, old_revno, lf)
1889
 
        output.write('*'*60)
1890
 
        output.write('\n\n')
1891
 
    if new_history != []:
1892
 
        output.write('Added Revisions:\n')
1893
 
        start_revno = new_revno - len(new_history) + 1
1894
 
        show_log(branch, lf, None, verbose=False, direction='forward',
1895
 
                 start_revision=start_revno,)
1896
 
 
1897
 
 
1898
 
def show_flat_log(repository, history, last_revno, lf):
1899
 
    """Show a simple log of the specified history.
1900
 
 
1901
 
    :param repository: The repository to retrieve revisions from.
1902
 
    :param history: A list of revision_ids indicating the lefthand history.
1903
 
    :param last_revno: The revno of the last revision_id in the history.
1904
 
    :param lf: The log formatter to use.
1905
 
    """
1906
 
    start_revno = last_revno - len(history) + 1
1907
 
    revisions = repository.get_revisions(history)
1908
 
    for i, rev in enumerate(revisions):
1909
 
        lr = LogRevision(rev, i + last_revno, 0, None)
1910
 
        lf.log_revision(lr)
1911
 
 
1912
 
 
1913
 
def _get_info_for_log_files(revisionspec_list, file_list):
1914
 
    """Find file-ids and kinds given a list of files and a revision range.
1915
 
 
1916
 
    We search for files at the end of the range. If not found there,
1917
 
    we try the start of the range.
1918
 
 
1919
 
    :param revisionspec_list: revision range as parsed on the command line
1920
 
    :param file_list: the list of paths given on the command line;
1921
 
      the first of these can be a branch location or a file path,
1922
 
      the remainder must be file paths
1923
 
    :return: (branch, info_list, start_rev_info, end_rev_info) where
1924
 
      info_list is a list of (relative_path, file_id, kind) tuples where
1925
 
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
1926
 
      branch will be read-locked.
1927
 
    """
1928
 
    from builtins import _get_revision_range, safe_relpath_files
1929
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
1930
 
    b.lock_read()
1931
 
    # XXX: It's damn messy converting a list of paths to relative paths when
1932
 
    # those paths might be deleted ones, they might be on a case-insensitive
1933
 
    # filesystem and/or they might be in silly locations (like another branch).
1934
 
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
1935
 
    # file2 implicitly in the same dir as file1 or should its directory be
1936
 
    # taken from the current tree somehow?) For now, this solves the common
1937
 
    # case of running log in a nested directory, assuming paths beyond the
1938
 
    # first one haven't been deleted ...
1939
 
    if tree:
1940
 
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
1941
 
    else:
1942
 
        relpaths = [path] + file_list[1:]
1943
 
    info_list = []
1944
 
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
1945
 
        "log")
1946
 
    if relpaths in ([], [u'']):
1947
 
        return b, [], start_rev_info, end_rev_info
1948
 
    if start_rev_info is None and end_rev_info is None:
1949
 
        if tree is None:
1950
 
            tree = b.basis_tree()
1951
 
        tree1 = None
1952
 
        for fp in relpaths:
1953
 
            file_id = tree.path2id(fp)
1954
 
            kind = _get_kind_for_file_id(tree, file_id)
1955
 
            if file_id is None:
1956
 
                # go back to when time began
1957
 
                if tree1 is None:
1958
 
                    try:
1959
 
                        rev1 = b.get_rev_id(1)
1960
 
                    except errors.NoSuchRevision:
1961
 
                        # No history at all
1962
 
                        file_id = None
1963
 
                        kind = None
1964
 
                    else:
1965
 
                        tree1 = b.repository.revision_tree(rev1)
1966
 
                if tree1:
1967
 
                    file_id = tree1.path2id(fp)
1968
 
                    kind = _get_kind_for_file_id(tree1, file_id)
1969
 
            info_list.append((fp, file_id, kind))
1970
 
 
1971
 
    elif start_rev_info == end_rev_info:
1972
 
        # One revision given - file must exist in it
1973
 
        tree = b.repository.revision_tree(end_rev_info.rev_id)
1974
 
        for fp in relpaths:
1975
 
            file_id = tree.path2id(fp)
1976
 
            kind = _get_kind_for_file_id(tree, file_id)
1977
 
            info_list.append((fp, file_id, kind))
1978
 
 
1979
 
    else:
1980
 
        # Revision range given. Get the file-id from the end tree.
1981
 
        # If that fails, try the start tree.
1982
 
        rev_id = end_rev_info.rev_id
1983
 
        if rev_id is None:
1984
 
            tree = b.basis_tree()
1985
 
        else:
1986
 
            tree = b.repository.revision_tree(rev_id)
1987
 
        tree1 = None
1988
 
        for fp in relpaths:
1989
 
            file_id = tree.path2id(fp)
1990
 
            kind = _get_kind_for_file_id(tree, file_id)
1991
 
            if file_id is None:
1992
 
                if tree1 is None:
1993
 
                    rev_id = start_rev_info.rev_id
1994
 
                    if rev_id is None:
1995
 
                        rev1 = b.get_rev_id(1)
1996
 
                        tree1 = b.repository.revision_tree(rev1)
1997
 
                    else:
1998
 
                        tree1 = b.repository.revision_tree(rev_id)
1999
 
                file_id = tree1.path2id(fp)
2000
 
                kind = _get_kind_for_file_id(tree1, file_id)
2001
 
            info_list.append((fp, file_id, kind))
2002
 
    return b, info_list, start_rev_info, end_rev_info
2003
 
 
2004
 
 
2005
 
def _get_kind_for_file_id(tree, file_id):
2006
 
    """Return the kind of a file-id or None if it doesn't exist."""
2007
 
    if file_id is not None:
2008
 
        return tree.kind(file_id)
2009
 
    else:
2010
 
        return None
2011
 
 
2012
 
 
2013
 
properties_handler_registry = registry.Registry()
2014
 
 
2015
 
# Use the properties handlers to print out bug information if available
2016
 
def _bugs_properties_handler(revision):
2017
 
    if revision.properties.has_key('bugs'):
2018
 
        bug_lines = revision.properties['bugs'].split('\n')
2019
 
        bug_rows = [line.split(' ', 1) for line in bug_lines]
2020
 
        fixed_bug_urls = [row[0] for row in bug_rows if
2021
 
                          len(row) > 1 and row[1] == 'fixed']
2022
 
 
2023
 
        if fixed_bug_urls:
2024
 
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
2025
 
    return {}
2026
 
 
2027
 
properties_handler_registry.register('bugs_properties_handler',
2028
 
                                     _bugs_properties_handler)
2029
 
 
2030
 
 
2031
 
# adapters which revision ids to log are filtered. When log is called, the
2032
 
# log_rev_iterator is adapted through each of these factory methods.
2033
 
# Plugins are welcome to mutate this list in any way they like - as long
2034
 
# as the overall behaviour is preserved. At this point there is no extensible
2035
 
# mechanism for getting parameters to each factory method, and until there is
2036
 
# this won't be considered a stable api.
2037
 
log_adapters = [
2038
 
    # core log logic
2039
 
    _make_batch_filter,
2040
 
    # read revision objects
2041
 
    _make_revision_objects,
2042
 
    # filter on log messages
2043
 
    _make_search_filter,
2044
 
    # generate deltas for things we will show
2045
 
    _make_delta_filter
2046
 
    ]
 
135
            print >>to_file,  '  (no message)'
 
136
        else:
 
137
            for l in rev.message.split('\n'):
 
138
                print >>to_file,  '  ' + l
 
139
 
 
140
        # Don't show a list of changed files if we were asked about
 
141
        # one specific file.
 
142
 
 
143
        if verbose:
 
144
            this_tree = branch.revision_tree(revision_id)
 
145
            delta = compare_trees(prev_tree, this_tree)
 
146
            delta.show(to_file, show_ids)
 
147
            prev_tree = this_tree
 
148
 
 
149
        precursor = revision_id
 
150