~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/store.py

  • Committer: Martin Pool
  • Date: 2005-04-28 07:24:55 UTC
  • Revision ID: mbp@sourcefrog.net-20050428072453-7b99afa993a1e549
todo

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005 by Canonical Development Ltd
 
1
 
2
2
 
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
# TODO: Could remember a bias towards whether a particular store is typically
18
 
# compressed or not.
19
 
 
20
 
"""
21
 
Stores are the main data-storage mechanism for Bazaar-NG.
 
17
"""Stores are the main data-storage mechanism for Bazaar-NG.
22
18
 
23
19
A store is a simple write-once container indexed by a universally
24
 
unique ID.
25
 
"""
26
 
 
27
 
import os
28
 
from cStringIO import StringIO
29
 
from zlib import adler32
30
 
 
31
 
import bzrlib
32
 
import bzrlib.errors as errors
33
 
from bzrlib.errors import BzrError, UnlistableStore, TransportNotPossible
34
 
from bzrlib.trace import mutter
35
 
import bzrlib.transport as transport
36
 
from bzrlib.transport.local import LocalTransport
 
20
unique ID, which is typically the SHA-1 of the content."""
 
21
 
 
22
__copyright__ = "Copyright (C) 2005 Canonical Ltd."
 
23
__author__ = "Martin Pool <mbp@canonical.com>"
 
24
 
 
25
import os, tempfile, types, osutils, gzip, errno
 
26
from stat import ST_SIZE
 
27
from StringIO import StringIO
 
28
from trace import mutter
37
29
 
38
30
######################################################################
39
31
# stores
42
34
    pass
43
35
 
44
36
 
45
 
class Store(object):
46
 
    """This class represents the abstract storage layout for saving information.
47
 
    
 
37
class ImmutableStore:
 
38
    """Store that holds files indexed by unique names.
 
39
 
48
40
    Files can be added, but not modified once they are in.  Typically
49
41
    the hash is used as the name, or something else known to be unique,
50
42
    such as a UUID.
 
43
 
 
44
    >>> st = ImmutableScratchStore()
 
45
 
 
46
    >>> st.add(StringIO('hello'), 'aa')
 
47
    >>> 'aa' in st
 
48
    True
 
49
    >>> 'foo' in st
 
50
    False
 
51
 
 
52
    You are not allowed to add an id that is already present.
 
53
 
 
54
    Entries can be retrieved as files, which may then be read.
 
55
 
 
56
    >>> st.add(StringIO('goodbye'), '123123')
 
57
    >>> st['123123'].read()
 
58
    'goodbye'
 
59
 
 
60
    TODO: Atomic add by writing to a temporary file and renaming.
 
61
 
 
62
    TODO: Perhaps automatically transform to/from XML in a method?
 
63
           Would just need to tell the constructor what class to
 
64
           use...
 
65
 
 
66
    TODO: Even within a simple disk store like this, we could
 
67
           gzip the files.  But since many are less than one disk
 
68
           block, that might not help a lot.
 
69
 
51
70
    """
52
71
 
53
 
    def __len__(self):
54
 
        raise NotImplementedError('Children should define their length')
55
 
 
56
 
    def get(self, file_id, suffix=None):
57
 
        """Returns a file reading from a particular entry.
58
 
        
59
 
        If suffix is present, retrieve the named suffix for file_id.
60
 
        """
61
 
        raise NotImplementedError
62
 
 
63
 
    def __getitem__(self, fileid):
64
 
        """DEPRECATED. Please use .get(file_id) instead."""
65
 
        raise NotImplementedError
66
 
 
67
 
    #def __contains__(self, fileid):
68
 
    #    """Deprecated, please use has_id"""
69
 
    #    raise NotImplementedError
70
 
 
71
 
    def __iter__(self):
72
 
        raise NotImplementedError
73
 
 
74
 
    def add(self, f, fileid):
75
 
        """Add a file object f to the store accessible from the given fileid"""
76
 
        raise NotImplementedError('Children of Store must define their method of adding entries.')
77
 
 
78
 
    def has_id(self, file_id, suffix=None):
79
 
        """Return True or false for the presence of file_id in the store.
80
 
        
81
 
        suffix, if present, is a per file suffix, i.e. for digital signature 
82
 
        data."""
83
 
        raise NotImplementedError
84
 
 
85
 
    def listable(self):
86
 
        """Return True if this store is able to be listed."""
87
 
        return hasattr(self, "__iter__")
88
 
 
89
 
    def copy_multi(self, other, ids, pb=None, permit_failure=False):
90
 
        """Copy texts for ids from other into self.
91
 
 
92
 
        If an id is present in self, it is skipped.  A count of copied
93
 
        ids is returned, which may be less than len(ids).
94
 
 
95
 
        :param other: Another Store object
96
 
        :param ids: A list of entry ids to be copied
97
 
        :param pb: A ProgressBar object, if none is given, the default will be created.
98
 
        :param permit_failure: Allow missing entries to be ignored
99
 
        :return: (n_copied, [failed]) The number of entries copied successfully,
100
 
            followed by a list of entries which could not be copied (because they
101
 
            were missing)
102
 
        """
103
 
        if pb is None:
104
 
            pb = bzrlib.ui.ui_factory.progress_bar()
105
 
        pb.update('preparing to copy')
106
 
        failed = set()
107
 
        count = 0
108
 
        ids = list(ids) # get the list for showing a length.
109
 
        for fileid in ids:
110
 
            count += 1
111
 
            if self.has_id(fileid):
112
 
                continue
113
 
            try:
114
 
                self._copy_one(fileid, None, other, pb)
115
 
                for suffix in self._suffixes:
116
 
                    try:
117
 
                        self._copy_one(fileid, suffix, other, pb)
118
 
                    except KeyError:
119
 
                        pass
120
 
                pb.update('copy', count, len(ids))
121
 
            except KeyError:
122
 
                if permit_failure:
123
 
                    failed.add(fileid)
124
 
                else:
125
 
                    raise
126
 
        assert count == len(ids)
127
 
        pb.clear()
128
 
        return count, failed
129
 
 
130
 
    def _copy_one(self, fileid, suffix, other, pb):
131
 
        """Most generic copy-one object routine.
132
 
        
133
 
        Subclasses can override this to provide an optimised
134
 
        copy between their own instances. Such overriden routines
135
 
        should call this if they have no optimised facility for a 
136
 
        specific 'other'.
137
 
        """
138
 
        f = other.get(fileid, suffix)
139
 
        self.add(f, fileid, suffix)
140
 
 
141
 
 
142
 
class TransportStore(Store):
143
 
    """A TransportStore is a Store superclass for Stores that use Transports."""
144
 
 
145
 
    def add(self, f, fileid, suffix=None):
 
72
    def __init__(self, basedir):
 
73
        """ImmutableStore constructor."""
 
74
        self._basedir = basedir
 
75
 
 
76
    def _path(self, id):
 
77
        return os.path.join(self._basedir, id)
 
78
 
 
79
    def __repr__(self):
 
80
        return "%s(%r)" % (self.__class__.__name__, self._basedir)
 
81
 
 
82
    def add(self, f, fileid, compressed=True):
146
83
        """Add contents of a file into the store.
147
84
 
148
 
        f -- A file-like object, or string
149
 
        """
 
85
        f -- An open file, or file-like object."""
 
86
        # FIXME: Only works on smallish files
 
87
        # TODO: Can be optimized by copying at the same time as
 
88
        # computing the sum.
150
89
        mutter("add store entry %r" % (fileid))
151
 
        
152
 
        if suffix is not None:
153
 
            fn = self._relpath(fileid, [suffix])
154
 
        else:
155
 
            fn = self._relpath(fileid)
156
 
        if self._transport.has(fn):
157
 
            raise BzrError("store %r already contains id %r" % (self._transport.base, fileid))
158
 
 
159
 
        if self._prefixed:
160
 
            try:
161
 
                self._transport.mkdir(hash_prefix(fileid)[:-1])
162
 
            except errors.FileExists:
163
 
                pass
164
 
 
165
 
        self._add(fn, f)
166
 
 
167
 
    def _check_fileid(self, fileid):
168
 
        if not isinstance(fileid, basestring):
169
 
            raise TypeError('Fileids should be a string type: %s %r' % (type(fileid), fileid))
170
 
        if '\\' in fileid or '/' in fileid:
171
 
            raise ValueError("invalid store id %r" % fileid)
172
 
 
173
 
    def has_id(self, fileid, suffix=None):
174
 
        """See Store.has_id."""
175
 
        if suffix is not None:
176
 
            fn = self._relpath(fileid, [suffix])
177
 
        else:
178
 
            fn = self._relpath(fileid)
179
 
        return self._transport.has(fn)
180
 
 
181
 
    def _get(self, filename):
182
 
        """Return an vanilla file stream for clients to read from.
183
 
 
184
 
        This is the body of a template method on 'get', and should be 
185
 
        implemented by subclasses.
186
 
        """
187
 
        raise NotImplementedError
188
 
 
189
 
    def get(self, fileid, suffix=None):
190
 
        """See Store.get()."""
191
 
        if suffix is None or suffix == 'gz':
192
 
            fn = self._relpath(fileid)
193
 
        else:
194
 
            fn = self._relpath(fileid, [suffix])
 
90
        if isinstance(f, types.StringTypes):
 
91
            content = f
 
92
        else:
 
93
            content = f.read()
 
94
 
 
95
        p = self._path(fileid)
 
96
        if os.access(p, os.F_OK) or os.access(p + '.gz', os.F_OK):
 
97
            bailout("store %r already contains id %r" % (self._basedir, fileid))
 
98
 
 
99
        if compressed:
 
100
            f = gzip.GzipFile(p + '.gz', 'wb')
 
101
            os.chmod(p + '.gz', 0444)
 
102
        else:
 
103
            f = file(p, 'wb')
 
104
            os.chmod(p, 0444)
 
105
            
 
106
        f.write(content)
 
107
        f.close()
 
108
 
 
109
 
 
110
    def __contains__(self, fileid):
 
111
        """"""
 
112
        p = self._path(fileid)
 
113
        return (os.access(p, os.R_OK)
 
114
                or os.access(p + '.gz', os.R_OK))
 
115
 
 
116
    # TODO: Guard against the same thing being stored twice, compressed and uncompresse
 
117
 
 
118
    def __iter__(self):
 
119
        for f in os.listdir(self._basedir):
 
120
            if f[-3:] == '.gz':
 
121
                # TODO: case-insensitive?
 
122
                yield f[:-3]
 
123
            else:
 
124
                yield f
 
125
 
 
126
    def __len__(self):
 
127
        return len(os.listdir(self._basedir))
 
128
 
 
129
    def __getitem__(self, fileid):
 
130
        """Returns a file reading from a particular entry."""
 
131
        p = self._path(fileid)
195
132
        try:
196
 
            return self._get(fn)
197
 
        except errors.NoSuchFile:
198
 
            raise KeyError(fileid)
199
 
 
200
 
    def __init__(self, a_transport, prefixed=False):
201
 
        assert isinstance(a_transport, transport.Transport)
202
 
        super(TransportStore, self).__init__()
203
 
        self._transport = a_transport
204
 
        self._prefixed = prefixed
205
 
        # conflating the .gz extension and user suffixes was a mistake.
206
 
        # RBC 20051017 - TODO SOON, separate them again.
207
 
        self._suffixes = set()
208
 
 
209
 
    def __iter__(self):
210
 
        for relpath in self._transport.iter_files_recursive():
211
 
            # worst case is one of each suffix.
212
 
            name = os.path.basename(relpath)
213
 
            if name.endswith('.gz'):
214
 
                name = name[:-3]
215
 
            skip = False
216
 
            for count in range(len(self._suffixes)):
217
 
                for suffix in self._suffixes:
218
 
                    if name.endswith('.' + suffix):
219
 
                        skip = True
220
 
            if not skip:
221
 
                yield name
222
 
 
223
 
    def __len__(self):
224
 
        return len(list(self.__iter__()))
225
 
 
226
 
    def _relpath(self, fileid, suffixes=[]):
227
 
        self._check_fileid(fileid)
228
 
        for suffix in suffixes:
229
 
            if not suffix in self._suffixes:
230
 
                raise ValueError("Unregistered suffix %r" % suffix)
231
 
            self._check_fileid(suffix)
232
 
        if self._prefixed:
233
 
            path = [hash_prefix(fileid) + fileid]
234
 
        else:
235
 
            path = [fileid]
236
 
        path.extend(suffixes)
237
 
        return transport.urlescape('.'.join(path))
238
 
 
239
 
    def __repr__(self):
240
 
        if self._transport is None:
241
 
            return "%s(None)" % (self.__class__.__name__)
242
 
        else:
243
 
            return "%s(%r)" % (self.__class__.__name__, self._transport.base)
244
 
 
245
 
    __str__ = __repr__
246
 
 
247
 
    def listable(self):
248
 
        """Return True if this store is able to be listed."""
249
 
        return self._transport.listable()
250
 
 
251
 
    def register_suffix(self, suffix):
252
 
        """Register a suffix as being expected in this store."""
253
 
        self._check_fileid(suffix)
254
 
        self._suffixes.add(suffix)
 
133
            return gzip.GzipFile(p + '.gz', 'rb')
 
134
        except IOError, e:
 
135
            if e.errno == errno.ENOENT:
 
136
                return file(p, 'rb')
 
137
            else:
 
138
                raise e
255
139
 
256
140
    def total_size(self):
257
141
        """Return (count, bytes)
260
144
        the content."""
261
145
        total = 0
262
146
        count = 0
263
 
        for relpath in self._transport.iter_files_recursive():
 
147
        for fid in self:
264
148
            count += 1
265
 
            total += self._transport.stat(relpath).st_size
 
149
            p = self._path(fid)
 
150
            try:
 
151
                total += os.stat(p)[ST_SIZE]
 
152
            except OSError:
 
153
                total += os.stat(p + '.gz')[ST_SIZE]
266
154
                
267
155
        return count, total
268
156
 
269
157
 
270
 
def ImmutableMemoryStore():
271
 
    return bzrlib.store.text.TextStore(transport.memory.MemoryTransport())
272
 
        
273
 
 
274
 
class CachedStore(Store):
275
 
    """A store that caches data locally, to avoid repeated downloads.
276
 
    The precacache method should be used to avoid server round-trips for
277
 
    every piece of data.
 
158
 
 
159
 
 
160
class ImmutableScratchStore(ImmutableStore):
 
161
    """Self-destructing test subclass of ImmutableStore.
 
162
 
 
163
    The Store only exists for the lifetime of the Python object.
 
164
    Obviously you should not put anything precious in it.
278
165
    """
279
 
 
280
 
    def __init__(self, store, cache_dir):
281
 
        super(CachedStore, self).__init__()
282
 
        self.source_store = store
283
 
        # This clones the source store type with a locally bound
284
 
        # transport. FIXME: it assumes a constructor is == cloning.
285
 
        # clonable store - it might be nicer to actually have a clone()
286
 
        # or something. RBC 20051003
287
 
        self.cache_store = store.__class__(LocalTransport(cache_dir))
288
 
 
289
 
    def get(self, id):
290
 
        mutter("Cache add %s" % id)
291
 
        if id not in self.cache_store:
292
 
            self.cache_store.add(self.source_store.get(id), id)
293
 
        return self.cache_store.get(id)
294
 
 
295
 
    def has_id(self, fileid, suffix=None):
296
 
        """See Store.has_id."""
297
 
        if self.cache_store.has_id(fileid, suffix):
298
 
            return True
299
 
        if self.source_store.has_id(fileid, suffix):
300
 
            # We could copy at this time
301
 
            return True
302
 
        return False
303
 
 
304
 
 
305
 
def copy_all(store_from, store_to):
306
 
    """Copy all ids from one store to another."""
307
 
    # TODO: Optional progress indicator
308
 
    if not store_from.listable():
309
 
        raise UnlistableStore(store_from)
310
 
    ids = [f for f in store_from]
311
 
    store_to.copy_multi(store_from, ids)
312
 
 
313
 
def hash_prefix(file_id):
314
 
    return "%02x/" % (adler32(file_id) & 0xff)
315
 
 
 
166
    def __init__(self):
 
167
        ImmutableStore.__init__(self, tempfile.mkdtemp())
 
168
 
 
169
    def __del__(self):
 
170
        for f in os.listdir(self._basedir):
 
171
            fpath = os.path.join(self._basedir, f)
 
172
            # needed on windows, and maybe some other filesystems
 
173
            os.chmod(fpath, 0600)
 
174
            os.remove(fpath)
 
175
        os.rmdir(self._basedir)
 
176
        mutter("%r destroyed" % self)