~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/store.py

  • Committer: Martin Pool
  • Date: 2005-08-25 07:46:11 UTC
  • Revision ID: mbp@sourcefrog.net-20050825074611-98130ea6d05d9d2a
- add functions to enable and disable default logging, so that we can
  turn it off while running the tests

- default logging gets turned on from the bzr main function so that
  other applications using the library can make their own decisions

Show diffs side-by-side

added added

removed removed

Lines of Context:
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
# TODO: Could remember a bias towards whether a particular store is typically
18
 
# compressed or not.
19
 
 
20
17
"""
21
18
Stores are the main data-storage mechanism for Bazaar-NG.
22
19
 
24
21
unique ID.
25
22
"""
26
23
 
27
 
import os
28
 
from cStringIO import StringIO
29
 
import urllib
30
 
from zlib import adler32
31
 
 
32
 
import bzrlib
33
 
import bzrlib.errors as errors
34
 
from bzrlib.errors import BzrError, UnlistableStore, TransportNotPossible
 
24
import os, tempfile, types, osutils, gzip, errno
 
25
from stat import ST_SIZE
 
26
from StringIO import StringIO
35
27
from bzrlib.trace import mutter
36
 
import bzrlib.transport as transport
37
 
from bzrlib.transport.local import LocalTransport
 
28
import bzrlib.ui
38
29
 
39
30
######################################################################
40
31
# stores
43
34
    pass
44
35
 
45
36
 
46
 
class Store(object):
47
 
    """This class represents the abstract storage layout for saving information.
48
 
    
 
37
class ImmutableStore(object):
 
38
    """Store that holds files indexed by unique names.
 
39
 
49
40
    Files can be added, but not modified once they are in.  Typically
50
41
    the hash is used as the name, or something else known to be unique,
51
42
    such as a UUID.
 
43
 
 
44
    >>> st = ImmutableScratchStore()
 
45
 
 
46
    >>> st.add(StringIO('hello'), 'aa')
 
47
    >>> 'aa' in st
 
48
    True
 
49
    >>> 'foo' in st
 
50
    False
 
51
 
 
52
    You are not allowed to add an id that is already present.
 
53
 
 
54
    Entries can be retrieved as files, which may then be read.
 
55
 
 
56
    >>> st.add(StringIO('goodbye'), '123123')
 
57
    >>> st['123123'].read()
 
58
    'goodbye'
 
59
 
 
60
    TODO: Atomic add by writing to a temporary file and renaming.
 
61
 
 
62
    In bzr 0.0.5 and earlier, files within the store were marked
 
63
    readonly on disk.  This is no longer done but existing stores need
 
64
    to be accomodated.
52
65
    """
53
66
 
54
 
    def __len__(self):
55
 
        raise NotImplementedError('Children should define their length')
56
 
 
57
 
    def get(self, fileid, suffix=None):
58
 
        """Returns a file reading from a particular entry.
59
 
        
60
 
        If suffix is present, retrieve the named suffix for fileid.
61
 
        """
62
 
        raise NotImplementedError
63
 
 
64
 
    def __getitem__(self, fileid):
65
 
        """DEPRECATED. Please use .get(fileid) instead."""
66
 
        raise NotImplementedError
67
 
 
68
 
    #def __contains__(self, fileid):
69
 
    #    """Deprecated, please use has_id"""
70
 
    #    raise NotImplementedError
71
 
 
72
 
    def __iter__(self):
73
 
        raise NotImplementedError
74
 
 
75
 
    def add(self, f, fileid):
76
 
        """Add a file object f to the store accessible from the given fileid"""
77
 
        raise NotImplementedError('Children of Store must define their method of adding entries.')
78
 
 
79
 
    def has_id(self, fileid, suffix=None):
80
 
        """Return True or false for the presence of fileid in the store.
81
 
        
82
 
        suffix, if present, is a per file suffix, i.e. for digital signature 
83
 
        data."""
84
 
        raise NotImplementedError
85
 
 
86
 
    def listable(self):
87
 
        """Return True if this store is able to be listed."""
88
 
        return hasattr(self, "__iter__")
89
 
 
90
 
    def copy_multi(self, other, ids, pb=None, permit_failure=False):
 
67
    def __init__(self, basedir):
 
68
        self._basedir = basedir
 
69
 
 
70
    def _path(self, id):
 
71
        if '\\' in id or '/' in id:
 
72
            raise ValueError("invalid store id %r" % id)
 
73
        return os.path.join(self._basedir, id)
 
74
 
 
75
    def __repr__(self):
 
76
        return "%s(%r)" % (self.__class__.__name__, self._basedir)
 
77
 
 
78
    def add(self, f, fileid, compressed=True):
 
79
        """Add contents of a file into the store.
 
80
 
 
81
        f -- An open file, or file-like object."""
 
82
        # FIXME: Only works on files that will fit in memory
 
83
        
 
84
        from bzrlib.atomicfile import AtomicFile
 
85
        
 
86
        mutter("add store entry %r" % (fileid))
 
87
        if isinstance(f, types.StringTypes):
 
88
            content = f
 
89
        else:
 
90
            content = f.read()
 
91
            
 
92
        p = self._path(fileid)
 
93
        if os.access(p, os.F_OK) or os.access(p + '.gz', os.F_OK):
 
94
            from bzrlib.errors import bailout
 
95
            raise BzrError("store %r already contains id %r" % (self._basedir, fileid))
 
96
 
 
97
        fn = p
 
98
        if compressed:
 
99
            fn = fn + '.gz'
 
100
            
 
101
        af = AtomicFile(fn, 'wb')
 
102
        try:
 
103
            if compressed:
 
104
                gf = gzip.GzipFile(mode='wb', fileobj=af)
 
105
                gf.write(content)
 
106
                gf.close()
 
107
            else:
 
108
                af.write(content)
 
109
            af.commit()
 
110
        finally:
 
111
            af.close()
 
112
 
 
113
 
 
114
    def copy_multi(self, other, ids, permit_failure=False):
91
115
        """Copy texts for ids from other into self.
92
116
 
93
117
        If an id is present in self, it is skipped.  A count of copied
94
118
        ids is returned, which may be less than len(ids).
95
 
 
96
 
        :param other: Another Store object
97
 
        :param ids: A list of entry ids to be copied
98
 
        :param pb: A ProgressBar object, if none is given, the default will be created.
99
 
        :param permit_failure: Allow missing entries to be ignored
100
 
        :return: (n_copied, [failed]) The number of entries copied successfully,
101
 
            followed by a list of entries which could not be copied (because they
102
 
            were missing)
103
119
        """
104
 
        if pb is None:
105
 
            pb = bzrlib.ui.ui_factory.progress_bar()
 
120
        pb = bzrlib.ui.ui_factory.progress_bar()
 
121
        
106
122
        pb.update('preparing to copy')
 
123
        to_copy = [id for id in ids if id not in self]
 
124
        if isinstance(other, ImmutableStore):
 
125
            return self.copy_multi_immutable(other, to_copy, pb)
 
126
        count = 0
 
127
        for id in to_copy:
 
128
            count += 1
 
129
            pb.update('copy', count, len(to_copy))
 
130
            if not permit_failure:
 
131
                self.add(other[id], id)
 
132
            else:
 
133
                try:
 
134
                    entry = other[id]
 
135
                except IndexError:
 
136
                    failures.add(id)
 
137
                    continue
 
138
                self.add(entry, id)
 
139
                
 
140
        assert count == len(to_copy)
 
141
        pb.clear()
 
142
        return count
 
143
 
 
144
 
 
145
    def copy_multi_immutable(self, other, to_copy, pb, permit_failure=False):
 
146
        from shutil import copyfile
 
147
        count = 0
107
148
        failed = set()
108
 
        count = 0
109
 
        ids = list(ids) # get the list for showing a length.
110
 
        for fileid in ids:
111
 
            count += 1
112
 
            if self.has_id(fileid):
113
 
                continue
 
149
        for id in to_copy:
 
150
            p = self._path(id)
 
151
            other_p = other._path(id)
114
152
            try:
115
 
                self._copy_one(fileid, None, other, pb)
116
 
                for suffix in self._suffixes:
117
 
                    try:
118
 
                        self._copy_one(fileid, suffix, other, pb)
119
 
                    except KeyError:
120
 
                        pass
121
 
                pb.update('copy', count, len(ids))
122
 
            except KeyError:
123
 
                if permit_failure:
124
 
                    failed.add(fileid)
 
153
                copyfile(other_p, p)
 
154
            except IOError, e:
 
155
                if e.errno == errno.ENOENT:
 
156
                    if not permit_failure:
 
157
                        copyfile(other_p+".gz", p+".gz")
 
158
                    else:
 
159
                        try:
 
160
                            copyfile(other_p+".gz", p+".gz")
 
161
                        except IOError, e:
 
162
                            if e.errno == errno.ENOENT:
 
163
                                failed.add(id)
 
164
                            else:
 
165
                                raise
125
166
                else:
126
167
                    raise
127
 
        assert count == len(ids)
 
168
            
 
169
            count += 1
 
170
            pb.update('copy', count, len(to_copy))
 
171
        assert count == len(to_copy)
128
172
        pb.clear()
129
173
        return count, failed
130
 
 
131
 
    def _copy_one(self, fileid, suffix, other, pb):
132
 
        """Most generic copy-one object routine.
133
 
        
134
 
        Subclasses can override this to provide an optimised
135
 
        copy between their own instances. Such overriden routines
136
 
        should call this if they have no optimised facility for a 
137
 
        specific 'other'.
138
 
        """
139
 
        mutter('Store._copy_one: %r', fileid)
140
 
        f = other.get(fileid, suffix)
141
 
        self.add(f, fileid, suffix)
142
 
 
143
 
 
144
 
class TransportStore(Store):
145
 
    """A TransportStore is a Store superclass for Stores that use Transports."""
146
 
 
147
 
    def add(self, f, fileid, suffix=None):
148
 
        """Add contents of a file into the store.
149
 
 
150
 
        f -- A file-like object, or string
151
 
        """
152
 
        mutter("add store entry %r", fileid)
153
 
        
154
 
        names = self._id_to_names(fileid, suffix)
155
 
        if self._transport.has_any(names):
156
 
            raise BzrError("store %r already contains id %r" 
157
 
                           % (self._transport.base, fileid))
158
 
 
159
 
        # Most of the time, just adding the file will work
160
 
        # if we find a time where it fails, (because the dir
161
 
        # doesn't exist), then create the dir, and try again
162
 
        self._add(names[0], f)
163
 
 
164
 
 
165
 
    def _add(self, relpath, f):
166
 
        """Actually add the file to the given location.
167
 
        This should be overridden by children.
168
 
        """
169
 
        raise NotImplementedError('children need to implement this function.')
170
 
 
171
 
    def _check_fileid(self, fileid):
172
 
        if not isinstance(fileid, basestring):
173
 
            raise TypeError('Fileids should be a string type: %s %r' % (type(fileid), fileid))
174
 
        if '\\' in fileid or '/' in fileid:
175
 
            raise ValueError("invalid store id %r" % fileid)
176
 
 
177
 
    def _id_to_names(self, fileid, suffix):
178
 
        """Return the names in the expected order"""
179
 
        if suffix is not None:
180
 
            fn = self._relpath(fileid, [suffix])
181
 
        else:
182
 
            fn = self._relpath(fileid)
183
 
 
184
 
        fn_gz = fn + '.gz'
185
 
        if self._compressed:
186
 
            return fn_gz, fn
187
 
        else:
188
 
            return fn, fn_gz
189
 
 
190
 
    def has_id(self, fileid, suffix=None):
191
 
        """See Store.has_id."""
192
 
        return self._transport.has_any(self._id_to_names(fileid, suffix))
193
 
 
194
 
    def _get_name(self, fileid, suffix=None):
195
 
        """A special check, which returns the name of an existing file.
196
 
        
197
 
        This is similar in spirit to 'has_id', but it is designed
198
 
        to return information about which file the store has.
199
 
        """
200
 
        for name in self._id_to_names(fileid, suffix=suffix):
201
 
            if self._transport.has(name):
202
 
                return name
203
 
        return None
204
 
 
205
 
    def _get(self, filename):
206
 
        """Return an vanilla file stream for clients to read from.
207
 
 
208
 
        This is the body of a template method on 'get', and should be 
209
 
        implemented by subclasses.
210
 
        """
211
 
        raise NotImplementedError
212
 
 
213
 
    def get(self, fileid, suffix=None):
214
 
        """See Store.get()."""
215
 
        names = self._id_to_names(fileid, suffix)
216
 
        for name in names:
217
 
            try:
218
 
                return self._get(name)
219
 
            except errors.NoSuchFile:
220
 
                pass
221
 
        raise KeyError(fileid)
222
 
 
223
 
    def __init__(self, a_transport, prefixed=False, compressed=False):
224
 
        assert isinstance(a_transport, transport.Transport)
225
 
        super(TransportStore, self).__init__()
226
 
        self._transport = a_transport
227
 
        self._prefixed = prefixed
228
 
        self._compressed = compressed
229
 
        self._suffixes = set()
230
 
 
231
 
    def _iter_files_recursive(self):
232
 
        """Iterate through the files in the transport."""
233
 
        for quoted_relpath in self._transport.iter_files_recursive():
234
 
            yield urllib.unquote(quoted_relpath)
 
174
    
 
175
 
 
176
    def __contains__(self, fileid):
 
177
        """"""
 
178
        p = self._path(fileid)
 
179
        return (os.access(p, os.R_OK)
 
180
                or os.access(p + '.gz', os.R_OK))
 
181
 
 
182
    # TODO: Guard against the same thing being stored twice, compressed and uncompresse
235
183
 
236
184
    def __iter__(self):
237
 
        for relpath in self._iter_files_recursive():
238
 
            # worst case is one of each suffix.
239
 
            name = os.path.basename(relpath)
240
 
            if name.endswith('.gz'):
241
 
                name = name[:-3]
242
 
            skip = False
243
 
            for count in range(len(self._suffixes)):
244
 
                for suffix in self._suffixes:
245
 
                    if name.endswith('.' + suffix):
246
 
                        skip = True
247
 
            if not skip:
248
 
                yield name
 
185
        for f in os.listdir(self._basedir):
 
186
            if f[-3:] == '.gz':
 
187
                # TODO: case-insensitive?
 
188
                yield f[:-3]
 
189
            else:
 
190
                yield f
249
191
 
250
192
    def __len__(self):
251
 
        return len(list(self.__iter__()))
252
 
 
253
 
    def _relpath(self, fileid, suffixes=None):
254
 
        self._check_fileid(fileid)
255
 
        if suffixes:
256
 
            for suffix in suffixes:
257
 
                if not suffix in self._suffixes:
258
 
                    raise ValueError("Unregistered suffix %r" % suffix)
259
 
                self._check_fileid(suffix)
260
 
        else:
261
 
            suffixes = []
262
 
        if self._prefixed:
263
 
            path = [hash_prefix(fileid) + fileid]
264
 
        else:
265
 
            path = [fileid]
266
 
        path.extend(suffixes)
267
 
        return transport.urlescape(u'.'.join(path))
268
 
 
269
 
    def __repr__(self):
270
 
        if self._transport is None:
271
 
            return "%s(None)" % (self.__class__.__name__)
272
 
        else:
273
 
            return "%s(%r)" % (self.__class__.__name__, self._transport.base)
274
 
 
275
 
    __str__ = __repr__
276
 
 
277
 
    def listable(self):
278
 
        """Return True if this store is able to be listed."""
279
 
        return self._transport.listable()
280
 
 
281
 
    def register_suffix(self, suffix):
282
 
        """Register a suffix as being expected in this store."""
283
 
        self._check_fileid(suffix)
284
 
        if suffix == 'gz':
285
 
            raise ValueError('You cannot register the "gz" suffix.')
286
 
        self._suffixes.add(suffix)
 
193
        return len(os.listdir(self._basedir))
 
194
 
 
195
 
 
196
    def __getitem__(self, fileid):
 
197
        """Returns a file reading from a particular entry."""
 
198
        p = self._path(fileid)
 
199
        try:
 
200
            return gzip.GzipFile(p + '.gz', 'rb')
 
201
        except IOError, e:
 
202
            if e.errno != errno.ENOENT:
 
203
                raise
 
204
 
 
205
        try:
 
206
            return file(p, 'rb')
 
207
        except IOError, e:
 
208
            if e.errno != errno.ENOENT:
 
209
                raise
 
210
 
 
211
        raise IndexError(fileid)
 
212
 
287
213
 
288
214
    def total_size(self):
289
215
        """Return (count, bytes)
292
218
        the content."""
293
219
        total = 0
294
220
        count = 0
295
 
        for relpath in self._transport.iter_files_recursive():
 
221
        for fid in self:
296
222
            count += 1
297
 
            total += self._transport.stat(relpath).st_size
 
223
            p = self._path(fid)
 
224
            try:
 
225
                total += os.stat(p)[ST_SIZE]
 
226
            except OSError:
 
227
                total += os.stat(p + '.gz')[ST_SIZE]
298
228
                
299
229
        return count, total
300
230
 
301
231
 
302
 
def ImmutableMemoryStore():
303
 
    return bzrlib.store.text.TextStore(transport.memory.MemoryTransport())
304
 
        
305
 
 
306
 
class CachedStore(Store):
307
 
    """A store that caches data locally, to avoid repeated downloads.
308
 
    The precacache method should be used to avoid server round-trips for
309
 
    every piece of data.
 
232
 
 
233
 
 
234
class ImmutableScratchStore(ImmutableStore):
 
235
    """Self-destructing test subclass of ImmutableStore.
 
236
 
 
237
    The Store only exists for the lifetime of the Python object.
 
238
 Obviously you should not put anything precious in it.
310
239
    """
311
 
 
312
 
    def __init__(self, store, cache_dir):
313
 
        super(CachedStore, self).__init__()
314
 
        self.source_store = store
315
 
        # This clones the source store type with a locally bound
316
 
        # transport. FIXME: it assumes a constructor is == cloning.
317
 
        # clonable store - it might be nicer to actually have a clone()
318
 
        # or something. RBC 20051003
319
 
        self.cache_store = store.__class__(LocalTransport(cache_dir))
320
 
 
321
 
    def get(self, id):
322
 
        mutter("Cache add %s", id)
323
 
        if id not in self.cache_store:
324
 
            self.cache_store.add(self.source_store.get(id), id)
325
 
        return self.cache_store.get(id)
326
 
 
327
 
    def has_id(self, fileid, suffix=None):
328
 
        """See Store.has_id."""
329
 
        if self.cache_store.has_id(fileid, suffix):
330
 
            return True
331
 
        if self.source_store.has_id(fileid, suffix):
332
 
            # We could asynchronously copy at this time
333
 
            return True
334
 
        return False
335
 
 
336
 
 
337
 
def copy_all(store_from, store_to):
338
 
    """Copy all ids from one store to another."""
339
 
    # TODO: Optional progress indicator
340
 
    if not store_from.listable():
341
 
        raise UnlistableStore(store_from)
342
 
    ids = [f for f in store_from]
343
 
    mutter('copy_all ids: %r', ids)
344
 
    store_to.copy_multi(store_from, ids)
345
 
 
346
 
def hash_prefix(fileid):
347
 
    return "%02x/" % (adler32(fileid) & 0xff)
348
 
 
 
240
    def __init__(self):
 
241
        ImmutableStore.__init__(self, tempfile.mkdtemp())
 
242
 
 
243
    def __del__(self):
 
244
        for f in os.listdir(self._basedir):
 
245
            fpath = os.path.join(self._basedir, f)
 
246
            # needed on windows, and maybe some other filesystems
 
247
            os.chmod(fpath, 0600)
 
248
            os.remove(fpath)
 
249
        os.rmdir(self._basedir)
 
250
        mutter("%r destroyed" % self)