~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/store.py

  • Committer: Robert Collins
  • Date: 2005-09-30 14:27:41 UTC
  • mto: This revision was merged to the branch mainline in revision 1397.
  • Revision ID: robertc@robertcollins.net-20050930142741-fc326c828b5bbefd
text_version and name_version unification looking reasonable

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
 
 
1
# Copyright (C) 2005 by Canonical Development Ltd
2
2
 
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
"""Stores are the main data-storage mechanism for Bazaar-NG.
 
17
# TODO: Could remember a bias towards whether a particular store is typically
 
18
# compressed or not.
 
19
 
 
20
"""
 
21
Stores are the main data-storage mechanism for Bazaar-NG.
18
22
 
19
23
A store is a simple write-once container indexed by a universally
20
 
unique ID, which is typically the SHA-1 of the content."""
21
 
 
22
 
__copyright__ = "Copyright (C) 2005 Canonical Ltd."
23
 
__author__ = "Martin Pool <mbp@canonical.com>"
24
 
 
25
 
import os, tempfile, types, osutils, gzip, errno
 
24
unique ID.
 
25
"""
 
26
 
 
27
import errno
 
28
import gzip
 
29
import os
 
30
import tempfile
 
31
import types
26
32
from stat import ST_SIZE
27
33
from StringIO import StringIO
28
 
from trace import mutter
 
34
 
 
35
from bzrlib.errors import BzrError, UnlistableStore
 
36
from bzrlib.trace import mutter
 
37
import bzrlib.ui
 
38
import bzrlib.osutils as osutils
 
39
#circular import
 
40
#from bzrlib.remotebranch import get_url
 
41
import urllib2
 
42
 
29
43
 
30
44
######################################################################
31
45
# stores
34
48
    pass
35
49
 
36
50
 
37
 
class ImmutableStore:
38
 
    """Store that holds files indexed by unique names.
 
51
class Store(object):
 
52
    """An abstract store that holds files indexed by unique names.
39
53
 
40
54
    Files can be added, but not modified once they are in.  Typically
41
55
    the hash is used as the name, or something else known to be unique,
56
70
    >>> st.add(StringIO('goodbye'), '123123')
57
71
    >>> st['123123'].read()
58
72
    'goodbye'
 
73
    """
 
74
 
 
75
    def total_size(self):
 
76
        """Return (count, bytes)
 
77
 
 
78
        This is the (compressed) size stored on disk, not the size of
 
79
        the content."""
 
80
        total = 0
 
81
        count = 0
 
82
        for fid in self:
 
83
            count += 1
 
84
            total += self._item_size(fid)
 
85
        return count, total
 
86
 
 
87
 
 
88
class ImmutableStore(Store):
 
89
    """Store that stores files on disk.
59
90
 
60
91
    TODO: Atomic add by writing to a temporary file and renaming.
61
 
 
62
 
    TODO: Perhaps automatically transform to/from XML in a method?
63
 
           Would just need to tell the constructor what class to
64
 
           use...
65
 
 
66
 
    TODO: Even within a simple disk store like this, we could
67
 
           gzip the files.  But since many are less than one disk
68
 
           block, that might not help a lot.
69
 
 
 
92
    TODO: Guard against the same thing being stored twice, compressed and
 
93
          uncompressed during copy_multi_immutable - the window is for a
 
94
          matching store with some crack code that lets it offer a 
 
95
          non gz FOO and then a fz FOO.
 
96
 
 
97
    In bzr 0.0.5 and earlier, files within the store were marked
 
98
    readonly on disk.  This is no longer done but existing stores need
 
99
    to be accomodated.
70
100
    """
71
101
 
72
102
    def __init__(self, basedir):
73
 
        """ImmutableStore constructor."""
 
103
        super(ImmutableStore, self).__init__()
74
104
        self._basedir = basedir
75
105
 
76
 
    def _path(self, id):
77
 
        return os.path.join(self._basedir, id)
 
106
    def _path(self, entry_id):
 
107
        if not isinstance(entry_id, basestring):
 
108
            raise TypeError(type(entry_id))
 
109
        if '\\' in entry_id or '/' in entry_id:
 
110
            raise ValueError("invalid store id %r" % entry_id)
 
111
        return os.path.join(self._basedir, entry_id)
78
112
 
79
113
    def __repr__(self):
80
114
        return "%s(%r)" % (self.__class__.__name__, self._basedir)
83
117
        """Add contents of a file into the store.
84
118
 
85
119
        f -- An open file, or file-like object."""
86
 
        # FIXME: Only works on smallish files
87
 
        # TODO: Can be optimized by copying at the same time as
88
 
        # computing the sum.
 
120
        # FIXME: Only works on files that will fit in memory
 
121
        
 
122
        from bzrlib.atomicfile import AtomicFile
 
123
        
89
124
        mutter("add store entry %r" % (fileid))
90
125
        if isinstance(f, types.StringTypes):
91
126
            content = f
92
127
        else:
93
128
            content = f.read()
94
 
 
 
129
            
95
130
        p = self._path(fileid)
96
131
        if os.access(p, os.F_OK) or os.access(p + '.gz', os.F_OK):
97
 
            bailout("store %r already contains id %r" % (self._basedir, fileid))
 
132
            raise BzrError("store %r already contains id %r" % (self._basedir, fileid))
98
133
 
 
134
        fn = p
99
135
        if compressed:
100
 
            f = gzip.GzipFile(p + '.gz', 'wb')
101
 
            os.chmod(p + '.gz', 0444)
102
 
        else:
103
 
            f = file(p, 'wb')
104
 
            os.chmod(p, 0444)
105
 
            
106
 
        f.write(content)
107
 
        f.close()
108
 
 
 
136
            fn = fn + '.gz'
 
137
            
 
138
        af = AtomicFile(fn, 'wb')
 
139
        try:
 
140
            if compressed:
 
141
                gf = gzip.GzipFile(mode='wb', fileobj=af)
 
142
                gf.write(content)
 
143
                gf.close()
 
144
            else:
 
145
                af.write(content)
 
146
            af.commit()
 
147
        finally:
 
148
            af.close()
 
149
 
 
150
 
 
151
    def copy_multi(self, other, ids, permit_failure=False):
 
152
        """Copy texts for ids from other into self.
 
153
 
 
154
        If an id is present in self, it is skipped.
 
155
 
 
156
        Returns (count_copied, failed), where failed is a collection of ids
 
157
        that could not be copied.
 
158
        """
 
159
        pb = bzrlib.ui.ui_factory.progress_bar()
 
160
        
 
161
        pb.update('preparing to copy')
 
162
        to_copy = [id for id in ids if id not in self]
 
163
        if isinstance(other, ImmutableStore):
 
164
            return self.copy_multi_immutable(other, to_copy, pb, 
 
165
                                             permit_failure=permit_failure)
 
166
        count = 0
 
167
        failed = set()
 
168
        for id in to_copy:
 
169
            count += 1
 
170
            pb.update('copy', count, len(to_copy))
 
171
            if not permit_failure:
 
172
                self.add(other[id], id)
 
173
            else:
 
174
                try:
 
175
                    entry = other[id]
 
176
                except KeyError:
 
177
                    failed.add(id)
 
178
                    continue
 
179
                self.add(entry, id)
 
180
                
 
181
        if not permit_failure:
 
182
            assert count == len(to_copy)
 
183
        pb.clear()
 
184
        return count, failed
 
185
 
 
186
    def copy_multi_immutable(self, other, to_copy, pb, permit_failure=False):
 
187
        count = 0
 
188
        failed = set()
 
189
        for id in to_copy:
 
190
            p = self._path(id)
 
191
            other_p = other._path(id)
 
192
            try:
 
193
                osutils.link_or_copy(other_p, p)
 
194
            except (IOError, OSError), e:
 
195
                if e.errno == errno.ENOENT:
 
196
                    if not permit_failure:
 
197
                        osutils.link_or_copy(other_p+".gz", p+".gz")
 
198
                    else:
 
199
                        try:
 
200
                            osutils.link_or_copy(other_p+".gz", p+".gz")
 
201
                        except IOError, e:
 
202
                            if e.errno == errno.ENOENT:
 
203
                                failed.add(id)
 
204
                            else:
 
205
                                raise
 
206
                else:
 
207
                    raise
 
208
            
 
209
            count += 1
 
210
            pb.update('copy', count, len(to_copy))
 
211
        assert count == len(to_copy)
 
212
        pb.clear()
 
213
        return count, failed
109
214
 
110
215
    def __contains__(self, fileid):
111
216
        """"""
113
218
        return (os.access(p, os.R_OK)
114
219
                or os.access(p + '.gz', os.R_OK))
115
220
 
116
 
    # TODO: Guard against the same thing being stored twice, compressed and uncompresse
 
221
    def _item_size(self, fid):
 
222
        p = self._path(fid)
 
223
        try:
 
224
            return os.stat(p)[ST_SIZE]
 
225
        except OSError:
 
226
            return os.stat(p + '.gz')[ST_SIZE]
 
227
 
 
228
    # TODO: Guard against the same thing being stored twice,
 
229
    # compressed and uncompressed
117
230
 
118
231
    def __iter__(self):
119
232
        for f in os.listdir(self._basedir):
132
245
        try:
133
246
            return gzip.GzipFile(p + '.gz', 'rb')
134
247
        except IOError, e:
135
 
            if e.errno == errno.ENOENT:
136
 
                return file(p, 'rb')
137
 
            else:
138
 
                raise e
139
 
 
140
 
    def total_size(self):
141
 
        """Return (count, bytes)
142
 
 
143
 
        This is the (compressed) size stored on disk, not the size of
144
 
        the content."""
145
 
        total = 0
146
 
        count = 0
147
 
        for fid in self:
148
 
            count += 1
149
 
            p = self._path(fid)
150
 
            try:
151
 
                total += os.stat(p)[ST_SIZE]
152
 
            except OSError:
153
 
                total += os.stat(p + '.gz')[ST_SIZE]
154
 
                
155
 
        return count, total
156
 
 
157
 
 
 
248
            if e.errno != errno.ENOENT:
 
249
                raise
 
250
 
 
251
        try:
 
252
            return file(p, 'rb')
 
253
        except IOError, e:
 
254
            if e.errno != errno.ENOENT:
 
255
                raise
 
256
 
 
257
        raise KeyError(fileid)
158
258
 
159
259
 
160
260
class ImmutableScratchStore(ImmutableStore):
161
261
    """Self-destructing test subclass of ImmutableStore.
162
262
 
163
263
    The Store only exists for the lifetime of the Python object.
164
 
    Obviously you should not put anything precious in it.
 
264
 Obviously you should not put anything precious in it.
165
265
    """
166
266
    def __init__(self):
167
 
        ImmutableStore.__init__(self, tempfile.mkdtemp())
 
267
        super(ImmutableScratchStore, self).__init__(tempfile.mkdtemp())
168
268
 
169
269
    def __del__(self):
170
270
        for f in os.listdir(self._basedir):
174
274
            os.remove(fpath)
175
275
        os.rmdir(self._basedir)
176
276
        mutter("%r destroyed" % self)
 
277
 
 
278
 
 
279
class ImmutableMemoryStore(Store):
 
280
    """A memory only store."""
 
281
 
 
282
    def __init__(self):
 
283
        super(ImmutableMemoryStore, self).__init__()
 
284
        self._contents = {}
 
285
 
 
286
    def add(self, stream, fileid, compressed=True):
 
287
        if self._contents.has_key(fileid):
 
288
            raise StoreError("fileid %s already in the store" % fileid)
 
289
        self._contents[fileid] = stream.read()
 
290
 
 
291
    def __getitem__(self, fileid):
 
292
        """Returns a file reading from a particular entry."""
 
293
        if not self._contents.has_key(fileid):
 
294
            raise IndexError
 
295
        return StringIO(self._contents[fileid])
 
296
 
 
297
    def _item_size(self, fileid):
 
298
        return len(self._contents[fileid])
 
299
 
 
300
    def __iter__(self):
 
301
        return iter(self._contents.keys())
 
302
 
 
303
 
 
304
class RemoteStore(object):
 
305
 
 
306
    def __init__(self, baseurl):
 
307
        self._baseurl = baseurl
 
308
 
 
309
    def _path(self, name):
 
310
        if '/' in name:
 
311
            raise ValueError('invalid store id', name)
 
312
        return self._baseurl + '/' + name
 
313
        
 
314
    def __getitem__(self, fileid):
 
315
        # circular import.
 
316
        from bzrlib.remotebranch import get_url
 
317
        p = self._path(fileid)
 
318
        try:
 
319
            return get_url(p, compressed=True)
 
320
        except urllib2.URLError:
 
321
            pass
 
322
        try:
 
323
            return get_url(p, compressed=False)
 
324
        except urllib2.URLError:
 
325
            raise KeyError(fileid)
 
326
 
 
327
    def __contains__(self, fileid):
 
328
        try:
 
329
            self[fileid]
 
330
            return True
 
331
        except KeyError:
 
332
            return False
 
333
        
 
334
 
 
335
class CachedStore:
 
336
    """A store that caches data locally, to avoid repeated downloads.
 
337
    The precacache method should be used to avoid server round-trips for
 
338
    every piece of data.
 
339
    """
 
340
 
 
341
    def __init__(self, store, cache_dir):
 
342
        self.source_store = store
 
343
        self.cache_store = ImmutableStore(cache_dir)
 
344
 
 
345
    def __getitem__(self, id):
 
346
        mutter("Cache add %s" % id)
 
347
        if id not in self.cache_store:
 
348
            self.cache_store.add(self.source_store[id], id)
 
349
        return self.cache_store[id]
 
350
 
 
351
    def prefetch(self, ids):
 
352
        """Copy a series of ids into the cache, before they are used.
 
353
        For remote stores that support pipelining or async downloads, this can
 
354
        increase speed considerably.
 
355
        Failures while prefetching are ignored.
 
356
        """
 
357
        mutter("Prefetch of ids %s" % ",".join(ids))
 
358
        self.cache_store.copy_multi(self.source_store, ids,
 
359
                                    permit_failure=True)
 
360
 
 
361
 
 
362
def copy_all(store_from, store_to):
 
363
    """Copy all ids from one store to another."""
 
364
    if not hasattr(store_from, "__iter__"):
 
365
        raise UnlistableStore(store_from)
 
366
    ids = [f for f in store_from]
 
367
    store_to.copy_multi(store_from, ids)