~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/versionedfile.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2010-02-17 08:59:19 UTC
  • mfrom: (5037.2.1 doc)
  • Revision ID: pqm@pqm.ubuntu.com-20100217085919-23vc62bvq8848q65
(mbp) rest markup fixes

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2006-2011 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007, 2008 Canonical Ltd
 
2
#
 
3
# Authors:
 
4
#   Johan Rydberg <jrydberg@gnu.org>
2
5
#
3
6
# This program is free software; you can redistribute it and/or modify
4
7
# it under the terms of the GNU General Public License as published by
16
19
 
17
20
"""Versioned text file storage api."""
18
21
 
19
 
from __future__ import absolute_import
20
 
 
21
22
from copy import copy
22
23
from cStringIO import StringIO
23
24
import os
26
27
 
27
28
from bzrlib.lazy_import import lazy_import
28
29
lazy_import(globals(), """
 
30
import urllib
 
31
 
29
32
from bzrlib import (
30
33
    annotate,
31
 
    bencode,
32
34
    errors,
33
35
    graph as _mod_graph,
34
36
    groupcompress,
38
40
    multiparent,
39
41
    tsort,
40
42
    revision,
41
 
    urlutils,
 
43
    ui,
42
44
    )
 
45
from bzrlib.graph import DictParentsProvider, Graph, StackedParentsProvider
 
46
from bzrlib.transport.memory import MemoryTransport
43
47
""")
 
48
from bzrlib.inter import InterObject
44
49
from bzrlib.registry import Registry
 
50
from bzrlib.symbol_versioning import *
45
51
from bzrlib.textmerge import TextMerge
 
52
from bzrlib import bencode
46
53
 
47
54
 
48
55
adapter_registry = Registry()
200
207
            yield record
201
208
 
202
209
 
203
 
class _MPDiffGenerator(object):
204
 
    """Pull out the functionality for generating mp_diffs."""
205
 
 
206
 
    def __init__(self, vf, keys):
207
 
        self.vf = vf
208
 
        # This is the order the keys were requested in
209
 
        self.ordered_keys = tuple(keys)
210
 
        # keys + their parents, what we need to compute the diffs
211
 
        self.needed_keys = ()
212
 
        # Map from key: mp_diff
213
 
        self.diffs = {}
214
 
        # Map from key: parents_needed (may have ghosts)
215
 
        self.parent_map = {}
216
 
        # Parents that aren't present
217
 
        self.ghost_parents = ()
218
 
        # Map from parent_key => number of children for this text
219
 
        self.refcounts = {}
220
 
        # Content chunks that are cached while we still need them
221
 
        self.chunks = {}
222
 
 
223
 
    def _find_needed_keys(self):
224
 
        """Find the set of keys we need to request.
225
 
 
226
 
        This includes all the original keys passed in, and the non-ghost
227
 
        parents of those keys.
228
 
 
229
 
        :return: (needed_keys, refcounts)
230
 
            needed_keys is the set of all texts we need to extract
231
 
            refcounts is a dict of {key: num_children} letting us know when we
232
 
                no longer need to cache a given parent text
233
 
        """
234
 
        # All the keys and their parents
235
 
        needed_keys = set(self.ordered_keys)
236
 
        parent_map = self.vf.get_parent_map(needed_keys)
237
 
        self.parent_map = parent_map
238
 
        # TODO: Should we be using a different construct here? I think this
239
 
        #       uses difference_update internally, and we expect the result to
240
 
        #       be tiny
241
 
        missing_keys = needed_keys.difference(parent_map)
242
 
        if missing_keys:
243
 
            raise errors.RevisionNotPresent(list(missing_keys)[0], self.vf)
244
 
        # Parents that might be missing. They are allowed to be ghosts, but we
245
 
        # should check for them
246
 
        refcounts = {}
247
 
        setdefault = refcounts.setdefault
248
 
        just_parents = set()
249
 
        for child_key, parent_keys in parent_map.iteritems():
250
 
            if not parent_keys:
251
 
                # parent_keys may be None if a given VersionedFile claims to
252
 
                # not support graph operations.
253
 
                continue
254
 
            just_parents.update(parent_keys)
255
 
            needed_keys.update(parent_keys)
256
 
            for p in parent_keys:
257
 
                refcounts[p] = setdefault(p, 0) + 1
258
 
        just_parents.difference_update(parent_map)
259
 
        # Remove any parents that are actually ghosts from the needed set
260
 
        self.present_parents = set(self.vf.get_parent_map(just_parents))
261
 
        self.ghost_parents = just_parents.difference(self.present_parents)
262
 
        needed_keys.difference_update(self.ghost_parents)
263
 
        self.needed_keys = needed_keys
264
 
        self.refcounts = refcounts
265
 
        return needed_keys, refcounts
266
 
 
267
 
    def _compute_diff(self, key, parent_lines, lines):
268
 
        """Compute a single mp_diff, and store it in self._diffs"""
269
 
        if len(parent_lines) > 0:
270
 
            # XXX: _extract_blocks is not usefully defined anywhere...
271
 
            #      It was meant to extract the left-parent diff without
272
 
            #      having to recompute it for Knit content (pack-0.92,
273
 
            #      etc). That seems to have regressed somewhere
274
 
            left_parent_blocks = self.vf._extract_blocks(key,
275
 
                parent_lines[0], lines)
276
 
        else:
277
 
            left_parent_blocks = None
278
 
        diff = multiparent.MultiParent.from_lines(lines,
279
 
                    parent_lines, left_parent_blocks)
280
 
        self.diffs[key] = diff
281
 
 
282
 
    def _process_one_record(self, key, this_chunks):
283
 
        parent_keys = None
284
 
        if key in self.parent_map:
285
 
            # This record should be ready to diff, since we requested
286
 
            # content in 'topological' order
287
 
            parent_keys = self.parent_map.pop(key)
288
 
            # If a VersionedFile claims 'no-graph' support, then it may return
289
 
            # None for any parent request, so we replace it with an empty tuple
290
 
            if parent_keys is None:
291
 
                parent_keys = ()
292
 
            parent_lines = []
293
 
            for p in parent_keys:
294
 
                # Alternatively we could check p not in self.needed_keys, but
295
 
                # ghost_parents should be tiny versus huge
296
 
                if p in self.ghost_parents:
297
 
                    continue
298
 
                refcount = self.refcounts[p]
299
 
                if refcount == 1: # Last child reference
300
 
                    self.refcounts.pop(p)
301
 
                    parent_chunks = self.chunks.pop(p)
302
 
                else:
303
 
                    self.refcounts[p] = refcount - 1
304
 
                    parent_chunks = self.chunks[p]
305
 
                p_lines = osutils.chunks_to_lines(parent_chunks)
306
 
                # TODO: Should we cache the line form? We did the
307
 
                #       computation to get it, but storing it this way will
308
 
                #       be less memory efficient...
309
 
                parent_lines.append(p_lines)
310
 
                del p_lines
311
 
            lines = osutils.chunks_to_lines(this_chunks)
312
 
            # Since we needed the lines, we'll go ahead and cache them this way
313
 
            this_chunks = lines
314
 
            self._compute_diff(key, parent_lines, lines)
315
 
            del lines
316
 
        # Is this content required for any more children?
317
 
        if key in self.refcounts:
318
 
            self.chunks[key] = this_chunks
319
 
 
320
 
    def _extract_diffs(self):
321
 
        needed_keys, refcounts = self._find_needed_keys()
322
 
        for record in self.vf.get_record_stream(needed_keys,
323
 
                                                'topological', True):
324
 
            if record.storage_kind == 'absent':
325
 
                raise errors.RevisionNotPresent(record.key, self.vf)
326
 
            self._process_one_record(record.key,
327
 
                                     record.get_bytes_as('chunked'))
328
 
        
329
 
    def compute_diffs(self):
330
 
        self._extract_diffs()
331
 
        dpop = self.diffs.pop
332
 
        return [dpop(k) for k in self.ordered_keys]
333
 
 
334
 
 
335
210
class VersionedFile(object):
336
211
    """Versioned text file storage.
337
212
 
474
349
 
475
350
    def make_mpdiffs(self, version_ids):
476
351
        """Create multiparent diffs for specified versions."""
477
 
        # XXX: Can't use _MPDiffGenerator just yet. This is because version_ids
478
 
        #      is a list of strings, not keys. And while self.get_record_stream
479
 
        #      is supported, it takes *keys*, while self.get_parent_map() takes
480
 
        #      strings... *sigh*
481
352
        knit_versions = set()
482
353
        knit_versions.update(version_ids)
483
354
        parent_map = self.get_parent_map(version_ids)
822
693
 
823
694
    def map(self, key):
824
695
        """See KeyMapper.map()."""
825
 
        return urlutils.quote(self._map(key))
 
696
        return urllib.quote(self._map(key))
826
697
 
827
698
    def unmap(self, partition_id):
828
699
        """See KeyMapper.unmap()."""
829
 
        return self._unmap(urlutils.unquote(partition_id))
 
700
        return self._unmap(urllib.unquote(partition_id))
830
701
 
831
702
 
832
703
class PrefixMapper(URLEscapeMapper):
879
750
    def _escape(self, prefix):
880
751
        """Turn a key element into a filesystem safe string.
881
752
 
882
 
        This is similar to a plain urlutils.quote, except
 
753
        This is similar to a plain urllib.quote, except
883
754
        it uses specific safe characters, so that it doesn't
884
755
        have to translate a lot of valid file ids.
885
756
        """
892
763
 
893
764
    def _unescape(self, basename):
894
765
        """Escaped names are easily unescaped by urlutils."""
895
 
        return urlutils.unquote(basename)
 
766
        return urllib.unquote(basename)
896
767
 
897
768
 
898
769
def make_versioned_files_factory(versioned_file_factory, mapper):
925
796
 
926
797
    The use of tuples allows a single code base to support several different
927
798
    uses with only the mapping logic changing from instance to instance.
928
 
 
929
 
    :ivar _immediate_fallback_vfs: For subclasses that support stacking,
930
 
        this is a list of other VersionedFiles immediately underneath this
931
 
        one.  They may in turn each have further fallbacks.
932
799
    """
933
800
 
934
801
    def add_lines(self, key, parents, lines, parent_texts=None,
973
840
    def _add_text(self, key, parents, text, nostore_sha=None, random_id=False):
974
841
        """Add a text to the store.
975
842
 
976
 
        This is a private function for use by VersionedFileCommitBuilder.
 
843
        This is a private function for use by CommitBuilder.
977
844
 
978
845
        :param key: The key tuple of the text to add. If the last element is
979
846
            None, a CHK string will be generated during the addition.
1181
1048
 
1182
1049
    def make_mpdiffs(self, keys):
1183
1050
        """Create multiparent diffs for specified keys."""
1184
 
        generator = _MPDiffGenerator(self, keys)
1185
 
        return generator.compute_diffs()
1186
 
 
1187
 
    def get_annotator(self):
1188
 
        return annotate.Annotator(self)
 
1051
        keys_order = tuple(keys)
 
1052
        keys = frozenset(keys)
 
1053
        knit_keys = set(keys)
 
1054
        parent_map = self.get_parent_map(keys)
 
1055
        for parent_keys in parent_map.itervalues():
 
1056
            if parent_keys:
 
1057
                knit_keys.update(parent_keys)
 
1058
        missing_keys = keys - set(parent_map)
 
1059
        if missing_keys:
 
1060
            raise errors.RevisionNotPresent(list(missing_keys)[0], self)
 
1061
        # We need to filter out ghosts, because we can't diff against them.
 
1062
        maybe_ghosts = knit_keys - keys
 
1063
        ghosts = maybe_ghosts - set(self.get_parent_map(maybe_ghosts))
 
1064
        knit_keys.difference_update(ghosts)
 
1065
        lines = {}
 
1066
        chunks_to_lines = osutils.chunks_to_lines
 
1067
        for record in self.get_record_stream(knit_keys, 'topological', True):
 
1068
            lines[record.key] = chunks_to_lines(record.get_bytes_as('chunked'))
 
1069
            # line_block_dict = {}
 
1070
            # for parent, blocks in record.extract_line_blocks():
 
1071
            #   line_blocks[parent] = blocks
 
1072
            # line_blocks[record.key] = line_block_dict
 
1073
        diffs = []
 
1074
        for key in keys_order:
 
1075
            target = lines[key]
 
1076
            parents = parent_map[key] or []
 
1077
            # Note that filtering knit_keys can lead to a parent difference
 
1078
            # between the creation and the application of the mpdiff.
 
1079
            parent_lines = [lines[p] for p in parents if p in knit_keys]
 
1080
            if len(parent_lines) > 0:
 
1081
                left_parent_blocks = self._extract_blocks(key, parent_lines[0],
 
1082
                    target)
 
1083
            else:
 
1084
                left_parent_blocks = None
 
1085
            diffs.append(multiparent.MultiParent.from_lines(target,
 
1086
                parent_lines, left_parent_blocks))
 
1087
        return diffs
1189
1088
 
1190
1089
    missing_keys = index._missing_keys_from_parent_map
1191
1090
 
1192
1091
    def _extract_blocks(self, version_id, source, target):
1193
1092
        return None
1194
1093
 
1195
 
    def _transitive_fallbacks(self):
1196
 
        """Return the whole stack of fallback versionedfiles.
1197
 
 
1198
 
        This VersionedFiles may have a list of fallbacks, but it doesn't
1199
 
        necessarily know about the whole stack going down, and it can't know
1200
 
        at open time because they may change after the objects are opened.
1201
 
        """
1202
 
        all_fallbacks = []
1203
 
        for a_vfs in self._immediate_fallback_vfs:
1204
 
            all_fallbacks.append(a_vfs)
1205
 
            all_fallbacks.extend(a_vfs._transitive_fallbacks())
1206
 
        return all_fallbacks
1207
 
 
1208
1094
 
1209
1095
class ThunkedVersionedFiles(VersionedFiles):
1210
1096
    """Storage for many versioned files thunked onto a 'VersionedFile' class.
1274
1160
            result.append((prefix + (origin,), line))
1275
1161
        return result
1276
1162
 
 
1163
    def get_annotator(self):
 
1164
        return annotate.Annotator(self)
 
1165
 
1277
1166
    def check(self, progress_bar=None, keys=None):
1278
1167
        """See VersionedFiles.check()."""
1279
1168
        # XXX: This is over-enthusiastic but as we only thunk for Weaves today
1423
1312
        return result
1424
1313
 
1425
1314
 
1426
 
class VersionedFilesWithFallbacks(VersionedFiles):
1427
 
 
1428
 
    def without_fallbacks(self):
1429
 
        """Return a clone of this object without any fallbacks configured."""
1430
 
        raise NotImplementedError(self.without_fallbacks)
1431
 
 
1432
 
    def add_fallback_versioned_files(self, a_versioned_files):
1433
 
        """Add a source of texts for texts not present in this knit.
1434
 
 
1435
 
        :param a_versioned_files: A VersionedFiles object.
1436
 
        """
1437
 
        raise NotImplementedError(self.add_fallback_versioned_files)
1438
 
 
1439
 
    def get_known_graph_ancestry(self, keys):
1440
 
        """Get a KnownGraph instance with the ancestry of keys."""
1441
 
        parent_map, missing_keys = self._index.find_ancestry(keys)
1442
 
        for fallback in self._transitive_fallbacks():
1443
 
            if not missing_keys:
1444
 
                break
1445
 
            (f_parent_map, f_missing_keys) = fallback._index.find_ancestry(
1446
 
                                                missing_keys)
1447
 
            parent_map.update(f_parent_map)
1448
 
            missing_keys = f_missing_keys
1449
 
        kg = _mod_graph.KnownGraph(parent_map)
1450
 
        return kg
1451
 
 
1452
 
 
1453
1315
class _PlanMergeVersionedFile(VersionedFiles):
1454
1316
    """A VersionedFile for uncommitted and committed texts.
1455
1317
 
1476
1338
        # line data for locally held keys.
1477
1339
        self._lines = {}
1478
1340
        # key lookup providers
1479
 
        self._providers = [_mod_graph.DictParentsProvider(self._parents)]
 
1341
        self._providers = [DictParentsProvider(self._parents)]
1480
1342
 
1481
1343
    def plan_merge(self, ver_a, ver_b, base=None):
1482
1344
        """See VersionedFile.plan_merge"""
1489
1351
 
1490
1352
    def plan_lca_merge(self, ver_a, ver_b, base=None):
1491
1353
        from bzrlib.merge import _PlanLCAMerge
1492
 
        graph = _mod_graph.Graph(self)
 
1354
        graph = Graph(self)
1493
1355
        new_plan = _PlanLCAMerge(ver_a, ver_b, self, (self._file_id,), graph).plan_merge()
1494
1356
        if base is None:
1495
1357
            return new_plan
1547
1409
            result[revision.NULL_REVISION] = ()
1548
1410
        self._providers = self._providers[:1] + self.fallback_versionedfiles
1549
1411
        result.update(
1550
 
            _mod_graph.StackedParentsProvider(
1551
 
                self._providers).get_parent_map(keys))
 
1412
            StackedParentsProvider(self._providers).get_parent_map(keys))
1552
1413
        for key, parents in result.iteritems():
1553
1414
            if parents == ():
1554
1415
                result[key] = (revision.NULL_REVISION,)
1764
1625
                yield (l, key)
1765
1626
 
1766
1627
 
1767
 
class NoDupeAddLinesDecorator(object):
1768
 
    """Decorator for a VersionedFiles that skips doing an add_lines if the key
1769
 
    is already present.
1770
 
    """
1771
 
 
1772
 
    def __init__(self, store):
1773
 
        self._store = store
1774
 
 
1775
 
    def add_lines(self, key, parents, lines, parent_texts=None,
1776
 
            left_matching_blocks=None, nostore_sha=None, random_id=False,
1777
 
            check_content=True):
1778
 
        """See VersionedFiles.add_lines.
1779
 
        
1780
 
        This implementation may return None as the third element of the return
1781
 
        value when the original store wouldn't.
1782
 
        """
1783
 
        if nostore_sha:
1784
 
            raise NotImplementedError(
1785
 
                "NoDupeAddLinesDecorator.add_lines does not implement the "
1786
 
                "nostore_sha behaviour.")
1787
 
        if key[-1] is None:
1788
 
            sha1 = osutils.sha_strings(lines)
1789
 
            key = ("sha1:" + sha1,)
1790
 
        else:
1791
 
            sha1 = None
1792
 
        if key in self._store.get_parent_map([key]):
1793
 
            # This key has already been inserted, so don't do it again.
1794
 
            if sha1 is None:
1795
 
                sha1 = osutils.sha_strings(lines)
1796
 
            return sha1, sum(map(len, lines)), None
1797
 
        return self._store.add_lines(key, parents, lines,
1798
 
                parent_texts=parent_texts,
1799
 
                left_matching_blocks=left_matching_blocks,
1800
 
                nostore_sha=nostore_sha, random_id=random_id,
1801
 
                check_content=check_content)
1802
 
 
1803
 
    def __getattr__(self, name):
1804
 
        return getattr(self._store, name)
1805
 
 
1806
 
 
1807
1628
def network_bytes_to_kind_and_offset(network_bytes):
1808
1629
    """Strip of a record kind from the front of network_bytes.
1809
1630
 
1900
1721
    for prefix in sorted(per_prefix_map):
1901
1722
        present_keys.extend(reversed(tsort.topo_sort(per_prefix_map[prefix])))
1902
1723
    return present_keys
1903
 
 
1904
 
 
1905
 
class _KeyRefs(object):
1906
 
 
1907
 
    def __init__(self, track_new_keys=False):
1908
 
        # dict mapping 'key' to 'set of keys referring to that key'
1909
 
        self.refs = {}
1910
 
        if track_new_keys:
1911
 
            # set remembering all new keys
1912
 
            self.new_keys = set()
1913
 
        else:
1914
 
            self.new_keys = None
1915
 
 
1916
 
    def clear(self):
1917
 
        if self.refs:
1918
 
            self.refs.clear()
1919
 
        if self.new_keys:
1920
 
            self.new_keys.clear()
1921
 
 
1922
 
    def add_references(self, key, refs):
1923
 
        # Record the new references
1924
 
        for referenced in refs:
1925
 
            try:
1926
 
                needed_by = self.refs[referenced]
1927
 
            except KeyError:
1928
 
                needed_by = self.refs[referenced] = set()
1929
 
            needed_by.add(key)
1930
 
        # Discard references satisfied by the new key
1931
 
        self.add_key(key)
1932
 
 
1933
 
    def get_new_keys(self):
1934
 
        return self.new_keys
1935
 
    
1936
 
    def get_unsatisfied_refs(self):
1937
 
        return self.refs.iterkeys()
1938
 
 
1939
 
    def _satisfy_refs_for_key(self, key):
1940
 
        try:
1941
 
            del self.refs[key]
1942
 
        except KeyError:
1943
 
            # No keys depended on this key.  That's ok.
1944
 
            pass
1945
 
 
1946
 
    def add_key(self, key):
1947
 
        # satisfy refs for key, and remember that we've seen this key.
1948
 
        self._satisfy_refs_for_key(key)
1949
 
        if self.new_keys is not None:
1950
 
            self.new_keys.add(key)
1951
 
 
1952
 
    def satisfy_refs_for_keys(self, keys):
1953
 
        for key in keys:
1954
 
            self._satisfy_refs_for_key(key)
1955
 
 
1956
 
    def get_referrers(self):
1957
 
        result = set()
1958
 
        for referrers in self.refs.itervalues():
1959
 
            result.update(referrers)
1960
 
        return result
1961
 
 
1962
 
 
1963