~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/versionedfile.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2008-04-07 07:52:50 UTC
  • mfrom: (3340.1.1 208418-1.4)
  • Revision ID: pqm@pqm.ubuntu.com-20080407075250-phs53xnslo8boaeo
Return the correct knit serialisation method in _StreamAccess.
        (Andrew Bennetts, Martin Pool, Robert Collins)

Show diffs side-by-side

added added

removed removed

Lines of Context:
21
21
 
22
22
from bzrlib.lazy_import import lazy_import
23
23
lazy_import(globals(), """
24
 
from copy import deepcopy
25
 
import unittest
26
24
 
27
25
from bzrlib import (
28
26
    errors,
29
27
    osutils,
 
28
    multiparent,
30
29
    tsort,
31
30
    revision,
32
31
    ui,
33
32
    )
 
33
from bzrlib.graph import Graph
34
34
from bzrlib.transport.memory import MemoryTransport
35
35
""")
36
36
 
 
37
from cStringIO import StringIO
 
38
 
37
39
from bzrlib.inter import InterObject
 
40
from bzrlib.symbol_versioning import *
38
41
from bzrlib.textmerge import TextMerge
39
 
from bzrlib.symbol_versioning import (deprecated_function,
40
 
        deprecated_method,
41
 
        zero_eight,
42
 
        )
43
42
 
44
43
 
45
44
class VersionedFile(object):
68
67
        """Copy this versioned file to name on transport."""
69
68
        raise NotImplementedError(self.copy_to)
70
69
 
71
 
    @deprecated_method(zero_eight)
72
 
    def names(self):
73
 
        """Return a list of all the versions in this versioned file.
74
 
 
75
 
        Please use versionedfile.versions() now.
76
 
        """
77
 
        return self.versions()
78
 
 
79
70
    def versions(self):
80
71
        """Return a unsorted list of versions."""
81
72
        raise NotImplementedError(self.versions)
82
73
 
 
74
    @deprecated_method(one_four)
83
75
    def has_ghost(self, version_id):
84
76
        """Returns whether version is present as a ghost."""
85
77
        raise NotImplementedError(self.has_ghost)
88
80
        """Returns whether version is present."""
89
81
        raise NotImplementedError(self.has_version)
90
82
 
91
 
    def add_delta(self, version_id, parents, delta_parent, sha1, noeol, delta):
92
 
        """Add a text to the versioned file via a pregenerated delta.
93
 
 
94
 
        :param version_id: The version id being added.
95
 
        :param parents: The parents of the version_id.
96
 
        :param delta_parent: The parent this delta was created against.
97
 
        :param sha1: The sha1 of the full text.
98
 
        :param delta: The delta instructions. See get_delta for details.
99
 
        """
100
 
        version_id = osutils.safe_revision_id(version_id)
101
 
        parents = [osutils.safe_revision_id(v) for v in parents]
102
 
        self._check_write_ok()
103
 
        if self.has_version(version_id):
104
 
            raise errors.RevisionAlreadyPresent(version_id, self)
105
 
        return self._add_delta(version_id, parents, delta_parent, sha1, noeol, delta)
106
 
 
107
 
    def _add_delta(self, version_id, parents, delta_parent, sha1, noeol, delta):
108
 
        """Class specific routine to add a delta.
109
 
 
110
 
        This generic version simply applies the delta to the delta_parent and
111
 
        then inserts it.
112
 
        """
113
 
        # strip annotation from delta
114
 
        new_delta = []
115
 
        for start, stop, delta_len, delta_lines in delta:
116
 
            new_delta.append((start, stop, delta_len, [text for origin, text in delta_lines]))
117
 
        if delta_parent is not None:
118
 
            parent_full = self.get_lines(delta_parent)
119
 
        else:
120
 
            parent_full = []
121
 
        new_full = self._apply_delta(parent_full, new_delta)
122
 
        # its impossible to have noeol on an empty file
123
 
        if noeol and new_full[-1][-1] == '\n':
124
 
            new_full[-1] = new_full[-1][:-1]
125
 
        self.add_lines(version_id, parents, new_full)
126
 
 
127
 
    def add_lines(self, version_id, parents, lines, parent_texts=None):
 
83
    def add_lines(self, version_id, parents, lines, parent_texts=None,
 
84
        left_matching_blocks=None, nostore_sha=None, random_id=False,
 
85
        check_content=True):
128
86
        """Add a single text on top of the versioned file.
129
87
 
130
88
        Must raise RevisionAlreadyPresent if the new version is
132
90
 
133
91
        Must raise RevisionNotPresent if any of the given parents are
134
92
        not present in file history.
 
93
 
 
94
        :param lines: A list of lines. Each line must be a bytestring. And all
 
95
            of them except the last must be terminated with \n and contain no
 
96
            other \n's. The last line may either contain no \n's or a single
 
97
            terminated \n. If the lines list does meet this constraint the add
 
98
            routine may error or may succeed - but you will be unable to read
 
99
            the data back accurately. (Checking the lines have been split
 
100
            correctly is expensive and extremely unlikely to catch bugs so it
 
101
            is not done at runtime unless check_content is True.)
135
102
        :param parent_texts: An optional dictionary containing the opaque 
136
 
             representations of some or all of the parents of 
137
 
             version_id to allow delta optimisations. 
138
 
             VERY IMPORTANT: the texts must be those returned
139
 
             by add_lines or data corruption can be caused.
140
 
        :return: An opaque representation of the inserted version which can be
141
 
                 provided back to future add_lines calls in the parent_texts
142
 
                 dictionary.
 
103
            representations of some or all of the parents of version_id to
 
104
            allow delta optimisations.  VERY IMPORTANT: the texts must be those
 
105
            returned by add_lines or data corruption can be caused.
 
106
        :param left_matching_blocks: a hint about which areas are common
 
107
            between the text and its left-hand-parent.  The format is
 
108
            the SequenceMatcher.get_matching_blocks format.
 
109
        :param nostore_sha: Raise ExistingContent and do not add the lines to
 
110
            the versioned file if the digest of the lines matches this.
 
111
        :param random_id: If True a random id has been selected rather than
 
112
            an id determined by some deterministic process such as a converter
 
113
            from a foreign VCS. When True the backend may choose not to check
 
114
            for uniqueness of the resulting key within the versioned file, so
 
115
            this should only be done when the result is expected to be unique
 
116
            anyway.
 
117
        :param check_content: If True, the lines supplied are verified to be
 
118
            bytestrings that are correctly formed lines.
 
119
        :return: The text sha1, the number of bytes in the text, and an opaque
 
120
                 representation of the inserted version which can be provided
 
121
                 back to future add_lines calls in the parent_texts dictionary.
143
122
        """
144
 
        version_id = osutils.safe_revision_id(version_id)
145
 
        parents = [osutils.safe_revision_id(v) for v in parents]
146
123
        self._check_write_ok()
147
 
        return self._add_lines(version_id, parents, lines, parent_texts)
 
124
        return self._add_lines(version_id, parents, lines, parent_texts,
 
125
            left_matching_blocks, nostore_sha, random_id, check_content)
148
126
 
149
 
    def _add_lines(self, version_id, parents, lines, parent_texts):
 
127
    def _add_lines(self, version_id, parents, lines, parent_texts,
 
128
        left_matching_blocks, nostore_sha, random_id, check_content):
150
129
        """Helper to do the class specific add_lines."""
151
130
        raise NotImplementedError(self.add_lines)
152
131
 
153
132
    def add_lines_with_ghosts(self, version_id, parents, lines,
154
 
                              parent_texts=None):
 
133
        parent_texts=None, nostore_sha=None, random_id=False,
 
134
        check_content=True, left_matching_blocks=None):
155
135
        """Add lines to the versioned file, allowing ghosts to be present.
156
136
        
157
 
        This takes the same parameters as add_lines.
 
137
        This takes the same parameters as add_lines and returns the same.
158
138
        """
159
 
        version_id = osutils.safe_revision_id(version_id)
160
 
        parents = [osutils.safe_revision_id(v) for v in parents]
161
139
        self._check_write_ok()
162
140
        return self._add_lines_with_ghosts(version_id, parents, lines,
163
 
                                           parent_texts)
 
141
            parent_texts, nostore_sha, random_id, check_content, left_matching_blocks)
164
142
 
165
 
    def _add_lines_with_ghosts(self, version_id, parents, lines, parent_texts):
 
143
    def _add_lines_with_ghosts(self, version_id, parents, lines, parent_texts,
 
144
        nostore_sha, random_id, check_content, left_matching_blocks):
166
145
        """Helper to do class specific add_lines_with_ghosts."""
167
146
        raise NotImplementedError(self.add_lines_with_ghosts)
168
147
 
211
190
 
212
191
        Must raise RevisionAlreadyPresent if the new version is
213
192
        already present in file history."""
214
 
        new_version_id = osutils.safe_revision_id(new_version_id)
215
 
        old_version_id = osutils.safe_revision_id(old_version_id)
216
193
        self._check_write_ok()
217
194
        return self._clone_text(new_version_id, old_version_id, parents)
218
195
 
220
197
        """Helper function to do the _clone_text work."""
221
198
        raise NotImplementedError(self.clone_text)
222
199
 
223
 
    def create_empty(self, name, transport, mode=None):
224
 
        """Create a new versioned file of this exact type.
225
 
 
226
 
        :param name: the file name
227
 
        :param transport: the transport
228
 
        :param mode: optional file mode.
229
 
        """
230
 
        raise NotImplementedError(self.create_empty)
231
 
 
232
 
    def fix_parents(self, version_id, new_parents):
233
 
        """Fix the parents list for version.
234
 
        
235
 
        This is done by appending a new version to the index
236
 
        with identical data except for the parents list.
237
 
        the parents list must be a superset of the current
238
 
        list.
239
 
        """
240
 
        version_id = osutils.safe_revision_id(version_id)
241
 
        new_parents = [osutils.safe_revision_id(p) for p in new_parents]
242
 
        self._check_write_ok()
243
 
        return self._fix_parents(version_id, new_parents)
244
 
 
245
 
    def _fix_parents(self, version_id, new_parents):
246
 
        """Helper for fix_parents."""
247
 
        raise NotImplementedError(self.fix_parents)
248
 
 
249
 
    def get_delta(self, version):
250
 
        """Get a delta for constructing version from some other version.
251
 
        
252
 
        :return: (delta_parent, sha1, noeol, delta)
253
 
        Where delta_parent is a version id or None to indicate no parent.
254
 
        """
255
 
        raise NotImplementedError(self.get_delta)
256
 
 
257
 
    def get_deltas(self, version_ids):
258
 
        """Get multiple deltas at once for constructing versions.
259
 
        
260
 
        :return: dict(version_id:(delta_parent, sha1, noeol, delta))
261
 
        Where delta_parent is a version id or None to indicate no parent, and
262
 
        version_id is the version_id created by that delta.
263
 
        """
264
 
        result = {}
265
 
        for version_id in version_ids:
266
 
            result[version_id] = self.get_delta(version_id)
267
 
        return result
 
200
    def get_format_signature(self):
 
201
        """Get a text description of the data encoding in this file.
 
202
        
 
203
        :since: 0.90
 
204
        """
 
205
        raise NotImplementedError(self.get_format_signature)
 
206
 
 
207
    def make_mpdiffs(self, version_ids):
 
208
        """Create multiparent diffs for specified versions."""
 
209
        knit_versions = set()
 
210
        knit_versions.update(version_ids)
 
211
        parent_map = self.get_parent_map(version_ids)
 
212
        for version_id in version_ids:
 
213
            try:
 
214
                knit_versions.update(parent_map[version_id])
 
215
            except KeyError:
 
216
                raise RevisionNotPresent(version_id, self)
 
217
        # We need to filter out ghosts, because we can't diff against them.
 
218
        knit_versions = set(self.get_parent_map(knit_versions).keys())
 
219
        lines = dict(zip(knit_versions,
 
220
            self._get_lf_split_line_list(knit_versions)))
 
221
        diffs = []
 
222
        for version_id in version_ids:
 
223
            target = lines[version_id]
 
224
            try:
 
225
                parents = [lines[p] for p in parent_map[version_id] if p in
 
226
                    knit_versions]
 
227
            except KeyError:
 
228
                raise RevisionNotPresent(version_id, self)
 
229
            if len(parents) > 0:
 
230
                left_parent_blocks = self._extract_blocks(version_id,
 
231
                                                          parents[0], target)
 
232
            else:
 
233
                left_parent_blocks = None
 
234
            diffs.append(multiparent.MultiParent.from_lines(target, parents,
 
235
                         left_parent_blocks))
 
236
        return diffs
 
237
 
 
238
    def _extract_blocks(self, version_id, source, target):
 
239
        return None
 
240
 
 
241
    def add_mpdiffs(self, records):
 
242
        """Add mpdiffs to this VersionedFile.
 
243
 
 
244
        Records should be iterables of version, parents, expected_sha1,
 
245
        mpdiff. mpdiff should be a MultiParent instance.
 
246
        """
 
247
        # Does this need to call self._check_write_ok()? (IanC 20070919)
 
248
        vf_parents = {}
 
249
        mpvf = multiparent.MultiMemoryVersionedFile()
 
250
        versions = []
 
251
        for version, parent_ids, expected_sha1, mpdiff in records:
 
252
            versions.append(version)
 
253
            mpvf.add_diff(mpdiff, version, parent_ids)
 
254
        needed_parents = set()
 
255
        for version, parent_ids, expected_sha1, mpdiff in records:
 
256
            needed_parents.update(p for p in parent_ids
 
257
                                  if not mpvf.has_version(p))
 
258
        present_parents = set(self.get_parent_map(needed_parents).keys())
 
259
        for parent_id, lines in zip(present_parents,
 
260
                                 self._get_lf_split_line_list(present_parents)):
 
261
            mpvf.add_version(lines, parent_id, [])
 
262
        for (version, parent_ids, expected_sha1, mpdiff), lines in\
 
263
            zip(records, mpvf.get_line_list(versions)):
 
264
            if len(parent_ids) == 1:
 
265
                left_matching_blocks = list(mpdiff.get_matching_blocks(0,
 
266
                    mpvf.get_diff(parent_ids[0]).num_lines()))
 
267
            else:
 
268
                left_matching_blocks = None
 
269
            try:
 
270
                _, _, version_text = self.add_lines_with_ghosts(version,
 
271
                    parent_ids, lines, vf_parents,
 
272
                    left_matching_blocks=left_matching_blocks)
 
273
            except NotImplementedError:
 
274
                # The vf can't handle ghosts, so add lines normally, which will
 
275
                # (reasonably) fail if there are ghosts in the data.
 
276
                _, _, version_text = self.add_lines(version,
 
277
                    parent_ids, lines, vf_parents,
 
278
                    left_matching_blocks=left_matching_blocks)
 
279
            vf_parents[version] = version_text
 
280
        for (version, parent_ids, expected_sha1, mpdiff), sha1 in\
 
281
             zip(records, self.get_sha1s(versions)):
 
282
            if expected_sha1 != sha1:
 
283
                raise errors.VersionedFileInvalidChecksum(version)
268
284
 
269
285
    def get_sha1(self, version_id):
270
286
        """Get the stored sha1 sum for the given revision.
271
287
        
272
 
        :param name: The name of the version to lookup
 
288
        :param version_id: The name of the version to lookup
273
289
        """
274
290
        raise NotImplementedError(self.get_sha1)
275
291
 
 
292
    def get_sha1s(self, version_ids):
 
293
        """Get the stored sha1 sums for the given revisions.
 
294
 
 
295
        :param version_ids: The names of the versions to lookup
 
296
        :return: a list of sha1s in order according to the version_ids
 
297
        """
 
298
        raise NotImplementedError(self.get_sha1s)
 
299
 
276
300
    def get_suffixes(self):
277
301
        """Return the file suffixes associated with this versioned file."""
278
302
        raise NotImplementedError(self.get_suffixes)
302
326
        """
303
327
        raise NotImplementedError(self.get_lines)
304
328
 
305
 
    def get_ancestry(self, version_ids):
 
329
    def _get_lf_split_line_list(self, version_ids):
 
330
        return [StringIO(t).readlines() for t in self.get_texts(version_ids)]
 
331
 
 
332
    def get_ancestry(self, version_ids, topo_sorted=True):
306
333
        """Return a list of all ancestors of given version(s). This
307
334
        will not include the null revision.
308
335
 
 
336
        This list will not be topologically sorted if topo_sorted=False is
 
337
        passed.
 
338
 
309
339
        Must raise RevisionNotPresent if any of the given versions are
310
340
        not present in file history."""
311
341
        if isinstance(version_ids, basestring):
331
361
        :param version_ids: Versions to select.
332
362
                            None means retrieve all versions.
333
363
        """
 
364
        if version_ids is None:
 
365
            return dict(self.iter_parents(self.versions()))
334
366
        result = {}
335
 
        if version_ids is None:
336
 
            for version in self.versions():
337
 
                result[version] = self.get_parents(version)
338
 
        else:
339
 
            pending = set(osutils.safe_revision_id(v) for v in version_ids)
340
 
            while pending:
341
 
                version = pending.pop()
342
 
                if version in result:
343
 
                    continue
344
 
                parents = self.get_parents(version)
 
367
        pending = set(version_ids)
 
368
        while pending:
 
369
            this_iteration = pending
 
370
            pending = set()
 
371
            for version, parents in self.iter_parents(this_iteration):
 
372
                result[version] = parents
345
373
                for parent in parents:
346
374
                    if parent in result:
347
375
                        continue
348
376
                    pending.add(parent)
349
 
                result[version] = parents
350
377
        return result
351
378
 
 
379
    @deprecated_method(one_four)
352
380
    def get_graph_with_ghosts(self):
353
381
        """Return a graph for the entire versioned file.
354
382
        
357
385
        """
358
386
        raise NotImplementedError(self.get_graph_with_ghosts)
359
387
 
360
 
    @deprecated_method(zero_eight)
361
 
    def parent_names(self, version):
362
 
        """Return version names for parents of a version.
363
 
        
364
 
        See get_parents for the current api.
 
388
    def get_parent_map(self, version_ids):
 
389
        """Get a map of the parents of version_ids.
 
390
 
 
391
        :param version_ids: The version ids to look up parents for.
 
392
        :return: A mapping from version id to parents.
365
393
        """
366
 
        return self.get_parents(version)
 
394
        raise NotImplementedError(self.get_parent_map)
367
395
 
 
396
    @deprecated_method(one_four)
368
397
    def get_parents(self, version_id):
369
398
        """Return version names for parents of a version.
370
399
 
371
400
        Must raise RevisionNotPresent if version is not present in
372
401
        file history.
373
402
        """
374
 
        raise NotImplementedError(self.get_parents)
 
403
        try:
 
404
            all = self.get_parent_map([version_id])[version_id]
 
405
        except KeyError:
 
406
            raise errors.RevisionNotPresent(version_id, self)
 
407
        result = []
 
408
        parent_parents = self.get_parent_map(all)
 
409
        for version_id in all:
 
410
            if version_id in parent_parents:
 
411
                result.append(version_id)
 
412
        return result
375
413
 
376
414
    def get_parents_with_ghosts(self, version_id):
377
415
        """Return version names for parents of version_id.
382
420
        Ghosts that are known about will be included in the parent list,
383
421
        but are not explicitly marked.
384
422
        """
385
 
        raise NotImplementedError(self.get_parents_with_ghosts)
 
423
        try:
 
424
            return list(self.get_parent_map([version_id])[version_id])
 
425
        except KeyError:
 
426
            raise errors.RevisionNotPresent(version_id, self)
386
427
 
387
428
    def annotate_iter(self, version_id):
388
429
        """Yield list of (version-id, line) pairs for the specified
389
430
        version.
390
431
 
391
 
        Must raise RevisionNotPresent if any of the given versions are
 
432
        Must raise RevisionNotPresent if the given version is
392
433
        not present in file history.
393
434
        """
394
435
        raise NotImplementedError(self.annotate_iter)
396
437
    def annotate(self, version_id):
397
438
        return list(self.annotate_iter(version_id))
398
439
 
399
 
    def _apply_delta(self, lines, delta):
400
 
        """Apply delta to lines."""
401
 
        lines = list(lines)
402
 
        offset = 0
403
 
        for start, end, count, delta_lines in delta:
404
 
            lines[offset+start:offset+end] = delta_lines
405
 
            offset = offset + (start - end) + count
406
 
        return lines
407
 
 
408
440
    def join(self, other, pb=None, msg=None, version_ids=None,
409
441
             ignore_missing=False):
410
442
        """Integrate versions from other into this versioned file.
413
445
        incorporated into this versioned file.
414
446
 
415
447
        Must raise RevisionNotPresent if any of the specified versions
416
 
        are not present in the other files history unless ignore_missing
417
 
        is supplied when they are silently skipped.
 
448
        are not present in the other file's history unless ignore_missing
 
449
        is supplied in which case they are silently skipped.
418
450
        """
419
451
        self._check_write_ok()
420
452
        return InterVersionedFile.get(other, self).join(
423
455
            version_ids,
424
456
            ignore_missing)
425
457
 
426
 
    def iter_lines_added_or_present_in_versions(self, version_ids=None, 
 
458
    def iter_lines_added_or_present_in_versions(self, version_ids=None,
427
459
                                                pb=None):
428
460
        """Iterate over the lines in the versioned file from version_ids.
429
461
 
430
 
        This may return lines from other versions, and does not return the
431
 
        specific version marker at this point. The api may be changed
432
 
        during development to include the version that the versioned file
433
 
        thinks is relevant, but given that such hints are just guesses,
434
 
        its better not to have it if we don't need it.
 
462
        This may return lines from other versions. Each item the returned
 
463
        iterator yields is a tuple of a line and a text version that that line
 
464
        is present in (not introduced in).
 
465
 
 
466
        Ordering of results is in whatever order is most suitable for the
 
467
        underlying storage format.
435
468
 
436
469
        If a progress bar is supplied, it may be used to indicate progress.
437
470
        The caller is responsible for cleaning up progress bars (because this
439
472
 
440
473
        NOTES: Lines are normalised: they will all have \n terminators.
441
474
               Lines are returned in arbitrary order.
 
475
 
 
476
        :return: An iterator over (line, version_id).
442
477
        """
443
478
        raise NotImplementedError(self.iter_lines_added_or_present_in_versions)
444
479
 
 
480
    def iter_parents(self, version_ids):
 
481
        """Iterate through the parents for many version ids.
 
482
 
 
483
        :param version_ids: An iterable yielding version_ids.
 
484
        :return: An iterator that yields (version_id, parents). Requested 
 
485
            version_ids not present in the versioned file are simply skipped.
 
486
            The order is undefined, allowing for different optimisations in
 
487
            the underlying implementation.
 
488
        """
 
489
        return self.get_parent_map(version_ids).iteritems()
 
490
 
445
491
    def transaction_finished(self):
446
492
        """The transaction that this file was opened in has finished.
447
493
 
450
496
        """
451
497
        self.finished = True
452
498
 
453
 
    @deprecated_method(zero_eight)
454
 
    def walk(self, version_ids=None):
455
 
        """Walk the versioned file as a weave-like structure, for
456
 
        versions relative to version_ids.  Yields sequence of (lineno,
457
 
        insert, deletes, text) for each relevant line.
458
 
 
459
 
        Must raise RevisionNotPresent if any of the specified versions
460
 
        are not present in the file history.
461
 
 
462
 
        :param version_ids: the version_ids to walk with respect to. If not
463
 
                            supplied the entire weave-like structure is walked.
464
 
 
465
 
        walk is deprecated in favour of iter_lines_added_or_present_in_versions
466
 
        """
467
 
        raise NotImplementedError(self.walk)
468
 
 
469
 
    @deprecated_method(zero_eight)
470
 
    def iter_names(self):
471
 
        """Walk the names list."""
472
 
        return iter(self.versions())
473
 
 
474
499
    def plan_merge(self, ver_a, ver_b):
475
500
        """Return pseudo-annotation indicating how the two versions merge.
476
501
 
498
523
        return PlanWeaveMerge(plan, a_marker, b_marker).merge_lines()[0]
499
524
 
500
525
 
 
526
class _PlanMergeVersionedFile(object):
 
527
    """A VersionedFile for uncommitted and committed texts.
 
528
 
 
529
    It is intended to allow merges to be planned with working tree texts.
 
530
    It implements only the small part of the VersionedFile interface used by
 
531
    PlanMerge.  It falls back to multiple versionedfiles for data not stored in
 
532
    _PlanMergeVersionedFile itself.
 
533
    """
 
534
 
 
535
    def __init__(self, file_id, fallback_versionedfiles=None):
 
536
        """Constuctor
 
537
 
 
538
        :param file_id: Used when raising exceptions.
 
539
        :param fallback_versionedfiles: If supplied, the set of fallbacks to
 
540
            use.  Otherwise, _PlanMergeVersionedFile.fallback_versionedfiles
 
541
            can be appended to later.
 
542
        """
 
543
        self._file_id = file_id
 
544
        if fallback_versionedfiles is None:
 
545
            self.fallback_versionedfiles = []
 
546
        else:
 
547
            self.fallback_versionedfiles = fallback_versionedfiles
 
548
        self._parents = {}
 
549
        self._lines = {}
 
550
 
 
551
    def plan_merge(self, ver_a, ver_b, base=None):
 
552
        """See VersionedFile.plan_merge"""
 
553
        from bzrlib.merge import _PlanMerge
 
554
        if base is None:
 
555
            return _PlanMerge(ver_a, ver_b, self).plan_merge()
 
556
        old_plan = list(_PlanMerge(ver_a, base, self).plan_merge())
 
557
        new_plan = list(_PlanMerge(ver_a, ver_b, self).plan_merge())
 
558
        return _PlanMerge._subtract_plans(old_plan, new_plan)
 
559
 
 
560
    def plan_lca_merge(self, ver_a, ver_b, base=None):
 
561
        from bzrlib.merge import _PlanLCAMerge
 
562
        graph = self._get_graph()
 
563
        new_plan = _PlanLCAMerge(ver_a, ver_b, self, graph).plan_merge()
 
564
        if base is None:
 
565
            return new_plan
 
566
        old_plan = _PlanLCAMerge(ver_a, base, self, graph).plan_merge()
 
567
        return _PlanLCAMerge._subtract_plans(list(old_plan), list(new_plan))
 
568
 
 
569
    def add_lines(self, version_id, parents, lines):
 
570
        """See VersionedFile.add_lines
 
571
 
 
572
        Lines are added locally, not fallback versionedfiles.  Also, ghosts are
 
573
        permitted.  Only reserved ids are permitted.
 
574
        """
 
575
        if not revision.is_reserved_id(version_id):
 
576
            raise ValueError('Only reserved ids may be used')
 
577
        if parents is None:
 
578
            raise ValueError('Parents may not be None')
 
579
        if lines is None:
 
580
            raise ValueError('Lines may not be None')
 
581
        self._parents[version_id] = tuple(parents)
 
582
        self._lines[version_id] = lines
 
583
 
 
584
    def get_lines(self, version_id):
 
585
        """See VersionedFile.get_ancestry"""
 
586
        lines = self._lines.get(version_id)
 
587
        if lines is not None:
 
588
            return lines
 
589
        for versionedfile in self.fallback_versionedfiles:
 
590
            try:
 
591
                return versionedfile.get_lines(version_id)
 
592
            except errors.RevisionNotPresent:
 
593
                continue
 
594
        else:
 
595
            raise errors.RevisionNotPresent(version_id, self._file_id)
 
596
 
 
597
    def get_ancestry(self, version_id, topo_sorted=False):
 
598
        """See VersionedFile.get_ancestry.
 
599
 
 
600
        Note that this implementation assumes that if a VersionedFile can
 
601
        answer get_ancestry at all, it can give an authoritative answer.  In
 
602
        fact, ghosts can invalidate this assumption.  But it's good enough
 
603
        99% of the time, and far cheaper/simpler.
 
604
 
 
605
        Also note that the results of this version are never topologically
 
606
        sorted, and are a set.
 
607
        """
 
608
        if topo_sorted:
 
609
            raise ValueError('This implementation does not provide sorting')
 
610
        parents = self._parents.get(version_id)
 
611
        if parents is None:
 
612
            for vf in self.fallback_versionedfiles:
 
613
                try:
 
614
                    return vf.get_ancestry(version_id, topo_sorted=False)
 
615
                except errors.RevisionNotPresent:
 
616
                    continue
 
617
            else:
 
618
                raise errors.RevisionNotPresent(version_id, self._file_id)
 
619
        ancestry = set([version_id])
 
620
        for parent in parents:
 
621
            ancestry.update(self.get_ancestry(parent, topo_sorted=False))
 
622
        return ancestry
 
623
 
 
624
    def get_parent_map(self, version_ids):
 
625
        """See VersionedFile.get_parent_map"""
 
626
        result = {}
 
627
        pending = set(version_ids)
 
628
        for key in version_ids:
 
629
            try:
 
630
                result[key] = self._parents[key]
 
631
            except KeyError:
 
632
                pass
 
633
        pending = pending - set(result.keys())
 
634
        for versionedfile in self.fallback_versionedfiles:
 
635
            parents = versionedfile.get_parent_map(pending)
 
636
            result.update(parents)
 
637
            pending = pending - set(parents.keys())
 
638
            if not pending:
 
639
                return result
 
640
        return result
 
641
 
 
642
    def _get_graph(self):
 
643
        from bzrlib.graph import (
 
644
            DictParentsProvider,
 
645
            Graph,
 
646
            _StackedParentsProvider,
 
647
            )
 
648
        from bzrlib.repofmt.knitrepo import _KnitParentsProvider
 
649
        parent_providers = [DictParentsProvider(self._parents)]
 
650
        for vf in self.fallback_versionedfiles:
 
651
            parent_providers.append(_KnitParentsProvider(vf))
 
652
        return Graph(_StackedParentsProvider(parent_providers))
 
653
 
 
654
 
501
655
class PlanWeaveMerge(TextMerge):
502
656
    """Weave merge that takes a plan as its input.
503
657
    
555
709
            elif state == 'new-b':
556
710
                ch_b = True
557
711
                lines_b.append(line)
 
712
            elif state == 'conflicted-a':
 
713
                ch_b = ch_a = True
 
714
                lines_a.append(line)
 
715
            elif state == 'conflicted-b':
 
716
                ch_b = ch_a = True
 
717
                lines_b.append(line)
558
718
            else:
559
719
                assert state in ('irrelevant', 'ghost-a', 'ghost-b', 
560
720
                                 'killed-base', 'killed-both'), state
563
723
 
564
724
 
565
725
class WeaveMerge(PlanWeaveMerge):
566
 
    """Weave merge that takes a VersionedFile and two versions as its input"""
 
726
    """Weave merge that takes a VersionedFile and two versions as its input."""
567
727
 
568
728
    def __init__(self, versionedfile, ver_a, ver_b, 
569
729
        a_marker=PlanWeaveMerge.A_MARKER, b_marker=PlanWeaveMerge.B_MARKER):
572
732
 
573
733
 
574
734
class InterVersionedFile(InterObject):
575
 
    """This class represents operations taking place between two versionedfiles..
 
735
    """This class represents operations taking place between two VersionedFiles.
576
736
 
577
737
    Its instances have methods like join, and contain
578
738
    references to the source and target versionedfiles these operations can be 
593
753
        incorporated into this versioned file.
594
754
 
595
755
        Must raise RevisionNotPresent if any of the specified versions
596
 
        are not present in the other files history unless ignore_missing is 
597
 
        supplied when they are silently skipped.
 
756
        are not present in the other file's history unless ignore_missing is 
 
757
        supplied in which case they are silently skipped.
598
758
        """
599
 
        # the default join: 
600
 
        # - if the target is empty, just add all the versions from 
601
 
        #   source to target, otherwise:
602
 
        # - make a temporary versioned file of type target
603
 
        # - insert the source content into it one at a time
604
 
        # - join them
605
 
        if not self.target.versions():
606
 
            target = self.target
607
 
        else:
608
 
            # Make a new target-format versioned file. 
609
 
            temp_source = self.target.create_empty("temp", MemoryTransport())
610
 
            target = temp_source
 
759
        target = self.target
611
760
        version_ids = self._get_source_version_ids(version_ids, ignore_missing)
612
 
        graph = self.source.get_graph(version_ids)
613
 
        order = tsort.topo_sort(graph.items())
 
761
        graph = Graph(self.source)
 
762
        search = graph._make_breadth_first_searcher(version_ids)
 
763
        transitive_ids = set()
 
764
        map(transitive_ids.update, list(search))
 
765
        parent_map = self.source.get_parent_map(transitive_ids)
 
766
        order = tsort.topo_sort(parent_map.items())
614
767
        pb = ui.ui_factory.nested_progress_bar()
615
768
        parent_texts = {}
616
769
        try:
627
780
            # TODO: remove parent texts when they are not relevant any more for 
628
781
            # memory pressure reduction. RBC 20060313
629
782
            # pb.update('Converting versioned data', 0, len(order))
630
 
            # deltas = self.source.get_deltas(order)
 
783
            total = len(order)
631
784
            for index, version in enumerate(order):
632
 
                pb.update('Converting versioned data', index, len(order))
633
 
                parent_text = target.add_lines(version,
634
 
                                               self.source.get_parents(version),
 
785
                pb.update('Converting versioned data', index, total)
 
786
                if version in target:
 
787
                    continue
 
788
                _, _, parent_text = target.add_lines(version,
 
789
                                               parent_map[version],
635
790
                                               self.source.get_lines(version),
636
791
                                               parent_texts=parent_texts)
637
792
                parent_texts[version] = parent_text
638
 
                #delta_parent, sha1, noeol, delta = deltas[version]
639
 
                #target.add_delta(version,
640
 
                #                 self.source.get_parents(version),
641
 
                #                 delta_parent,
642
 
                #                 sha1,
643
 
                #                 noeol,
644
 
                #                 delta)
645
 
                #target.get_lines(version)
646
 
            
647
 
            # this should hit the native code path for target
648
 
            if target is not self.target:
649
 
                return self.target.join(temp_source,
650
 
                                        pb,
651
 
                                        msg,
652
 
                                        version_ids,
653
 
                                        ignore_missing)
 
793
            return total
654
794
        finally:
655
795
            pb.finished()
656
796
 
668
808
            # None cannot be in source.versions
669
809
            return set(self.source.versions())
670
810
        else:
671
 
            version_ids = [osutils.safe_revision_id(v) for v in version_ids]
672
811
            if ignore_missing:
673
812
                return set(self.source.versions()).intersection(set(version_ids))
674
813
            else:
681
820
                    else:
682
821
                        new_version_ids.add(version)
683
822
                return new_version_ids
684
 
 
685
 
 
686
 
class InterVersionedFileTestProviderAdapter(object):
687
 
    """A tool to generate a suite testing multiple inter versioned-file classes.
688
 
 
689
 
    This is done by copying the test once for each InterVersionedFile provider
690
 
    and injecting the transport_server, transport_readonly_server,
691
 
    versionedfile_factory and versionedfile_factory_to classes into each copy.
692
 
    Each copy is also given a new id() to make it easy to identify.
693
 
    """
694
 
 
695
 
    def __init__(self, transport_server, transport_readonly_server, formats):
696
 
        self._transport_server = transport_server
697
 
        self._transport_readonly_server = transport_readonly_server
698
 
        self._formats = formats
699
 
    
700
 
    def adapt(self, test):
701
 
        result = unittest.TestSuite()
702
 
        for (interversionedfile_class,
703
 
             versionedfile_factory,
704
 
             versionedfile_factory_to) in self._formats:
705
 
            new_test = deepcopy(test)
706
 
            new_test.transport_server = self._transport_server
707
 
            new_test.transport_readonly_server = self._transport_readonly_server
708
 
            new_test.interversionedfile_class = interversionedfile_class
709
 
            new_test.versionedfile_factory = versionedfile_factory
710
 
            new_test.versionedfile_factory_to = versionedfile_factory_to
711
 
            def make_new_test_id():
712
 
                new_id = "%s(%s)" % (new_test.id(), interversionedfile_class.__name__)
713
 
                return lambda: new_id
714
 
            new_test.id = make_new_test_id()
715
 
            result.addTest(new_test)
716
 
        return result
717
 
 
718
 
    @staticmethod
719
 
    def default_test_list():
720
 
        """Generate the default list of interversionedfile permutations to test."""
721
 
        from bzrlib.weave import WeaveFile
722
 
        from bzrlib.knit import KnitVersionedFile
723
 
        result = []
724
 
        # test the fallback InterVersionedFile from annotated knits to weave
725
 
        result.append((InterVersionedFile, 
726
 
                       KnitVersionedFile,
727
 
                       WeaveFile))
728
 
        for optimiser in InterVersionedFile._optimisers:
729
 
            result.append((optimiser,
730
 
                           optimiser._matching_file_from_factory,
731
 
                           optimiser._matching_file_to_factory
732
 
                           ))
733
 
        # if there are specific combinations we want to use, we can add them 
734
 
        # here.
735
 
        return result