~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/store.py

  • Committer: Martin Pool
  • Date: 2005-09-01 11:53:02 UTC
  • Revision ID: mbp@sourcefrog.net-20050901115302-2fcc6c750f0abe34
- make external commands work again

  code is now much simpler; no translation to objects and back again

Show diffs side-by-side

added added

removed removed

Lines of Context:
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
# TODO: Could remember a bias towards whether a particular store is typically
18
 
# compressed or not.
19
 
 
20
17
"""
21
18
Stores are the main data-storage mechanism for Bazaar-NG.
22
19
 
24
21
unique ID.
25
22
"""
26
23
 
27
 
from cStringIO import StringIO
28
 
from stat import ST_MODE, S_ISDIR
29
 
from zlib import adler32
30
 
 
31
 
import bzrlib.errors as errors
32
 
from bzrlib.errors import BzrError, UnlistableStore, TransportNotPossible
 
24
import os, tempfile, types, osutils, gzip, errno
 
25
from stat import ST_SIZE
 
26
from StringIO import StringIO
33
27
from bzrlib.trace import mutter
34
 
import bzrlib.transport
35
 
from bzrlib.transport.local import LocalTransport
 
28
import bzrlib.ui
36
29
 
37
30
######################################################################
38
31
# stores
41
34
    pass
42
35
 
43
36
 
44
 
class Store(object):
45
 
    """This class represents the abstract storage layout for saving information.
46
 
    
 
37
class ImmutableStore(object):
 
38
    """Store that holds files indexed by unique names.
 
39
 
47
40
    Files can be added, but not modified once they are in.  Typically
48
41
    the hash is used as the name, or something else known to be unique,
49
42
    such as a UUID.
 
43
 
 
44
    >>> st = ImmutableScratchStore()
 
45
 
 
46
    >>> st.add(StringIO('hello'), 'aa')
 
47
    >>> 'aa' in st
 
48
    True
 
49
    >>> 'foo' in st
 
50
    False
 
51
 
 
52
    You are not allowed to add an id that is already present.
 
53
 
 
54
    Entries can be retrieved as files, which may then be read.
 
55
 
 
56
    >>> st.add(StringIO('goodbye'), '123123')
 
57
    >>> st['123123'].read()
 
58
    'goodbye'
 
59
 
 
60
    TODO: Atomic add by writing to a temporary file and renaming.
 
61
 
 
62
    In bzr 0.0.5 and earlier, files within the store were marked
 
63
    readonly on disk.  This is no longer done but existing stores need
 
64
    to be accomodated.
50
65
    """
51
66
 
52
 
    def __len__(self):
53
 
        raise NotImplementedError('Children should define their length')
54
 
 
55
 
    def __getitem__(self, fileid):
56
 
        """Returns a file reading from a particular entry."""
57
 
        raise NotImplementedError
58
 
 
59
 
    def __contains__(self, fileid):
60
 
        """"""
61
 
        raise NotImplementedError
62
 
 
63
 
    def __iter__(self):
64
 
        raise NotImplementedError
65
 
 
66
 
    def add(self, f, fileid):
67
 
        """Add a file object f to the store accessible from the given fileid"""
68
 
        raise NotImplementedError('Children of Store must define their method of adding entries.')
69
 
 
70
 
    def add_multi(self, entries):
71
 
        """Add a series of file-like or string objects to the store with the given
72
 
        identities.
73
 
        
74
 
        :param entries: A list of tuples of file,id pairs [(file1, id1), (file2, id2), ...]
75
 
                        This could also be a generator yielding (file,id) pairs.
76
 
        """
77
 
        for f, fileid in entries:
78
 
            self.add(f, fileid)
79
 
 
80
 
    def has(self, fileids):
81
 
        """Return True/False for each entry in fileids.
82
 
 
83
 
        :param fileids: A List or generator yielding file ids.
84
 
        :return: A generator or list returning True/False for each entry.
85
 
        """
86
 
        for fileid in fileids:
87
 
            if fileid in self:
88
 
                yield True
 
67
    def __init__(self, basedir):
 
68
        self._basedir = basedir
 
69
 
 
70
    def _path(self, id):
 
71
        if '\\' in id or '/' in id:
 
72
            raise ValueError("invalid store id %r" % id)
 
73
        return os.path.join(self._basedir, id)
 
74
 
 
75
    def __repr__(self):
 
76
        return "%s(%r)" % (self.__class__.__name__, self._basedir)
 
77
 
 
78
    def add(self, f, fileid, compressed=True):
 
79
        """Add contents of a file into the store.
 
80
 
 
81
        f -- An open file, or file-like object."""
 
82
        # FIXME: Only works on files that will fit in memory
 
83
        
 
84
        from bzrlib.atomicfile import AtomicFile
 
85
        
 
86
        mutter("add store entry %r" % (fileid))
 
87
        if isinstance(f, types.StringTypes):
 
88
            content = f
 
89
        else:
 
90
            content = f.read()
 
91
            
 
92
        p = self._path(fileid)
 
93
        if os.access(p, os.F_OK) or os.access(p + '.gz', os.F_OK):
 
94
            raise BzrError("store %r already contains id %r" % (self._basedir, fileid))
 
95
 
 
96
        fn = p
 
97
        if compressed:
 
98
            fn = fn + '.gz'
 
99
            
 
100
        af = AtomicFile(fn, 'wb')
 
101
        try:
 
102
            if compressed:
 
103
                gf = gzip.GzipFile(mode='wb', fileobj=af)
 
104
                gf.write(content)
 
105
                gf.close()
89
106
            else:
90
 
                yield False
91
 
 
92
 
    def listable(self):
93
 
        """Return True if this store is able to be listed."""
94
 
        return hasattr(self, "__iter__")
95
 
 
96
 
    def get(self, fileids, permit_failure=False, pb=None):
97
 
        """Return a set of files, one for each requested entry.
98
 
        
99
 
        :param permit_failure: If true, return None for entries which do not 
100
 
                               exist.
101
 
        :return: A list or generator of file-like objects, one for each id.
102
 
        """
103
 
        for fileid in fileids:
104
 
            try:
105
 
                yield self[fileid]
106
 
            except KeyError:
107
 
                if permit_failure:
108
 
                    yield None
109
 
                else:
110
 
                    raise
111
 
 
112
 
    def copy_multi(self, other, ids, pb=None, permit_failure=False):
 
107
                af.write(content)
 
108
            af.commit()
 
109
        finally:
 
110
            af.close()
 
111
 
 
112
 
 
113
    def copy_multi(self, other, ids, permit_failure=False):
113
114
        """Copy texts for ids from other into self.
114
115
 
115
 
        If an id is present in self, it is skipped.  A count of copied
116
 
        ids is returned, which may be less than len(ids).
 
116
        If an id is present in self, it is skipped.
117
117
 
118
 
        :param other: Another Store object
119
 
        :param ids: A list of entry ids to be copied
120
 
        :param pb: A ProgressBar object, if none is given, the default will be created.
121
 
        :param permit_failure: Allow missing entries to be ignored
122
 
        :return: (n_copied, [failed]) The number of entries copied successfully,
123
 
            followed by a list of entries which could not be copied (because they
124
 
            were missing)
 
118
        Returns (count_copied, failed), where failed is a collection of ids
 
119
        that could not be copied.
125
120
        """
126
 
        if pb is None:
127
 
            pb = bzrlib.ui.ui_factory.progress_bar()
128
 
 
129
 
        # XXX: Is there any reason why we couldn't make this accept a generator
130
 
        # and build a list as it finds things to copy?
131
 
        ids = list(ids) # Make sure we don't have a generator, since we iterate 2 times
 
121
        pb = bzrlib.ui.ui_factory.progress_bar()
 
122
        
132
123
        pb.update('preparing to copy')
133
 
        to_copy = []
134
 
        for file_id, has in zip(ids, self.has(ids)):
135
 
            if not has:
136
 
                to_copy.append(file_id)
137
 
        return self._do_copy(other, to_copy, pb, permit_failure=permit_failure)
138
 
 
139
 
    def _do_copy(self, other, to_copy, pb, permit_failure=False):
140
 
        """This is the standard copying mechanism, just get them one at
141
 
        a time from remote, and store them locally.
142
 
 
143
 
        :param other: Another Store object
144
 
        :param to_copy: A list of entry ids to copy
145
 
        :param pb: A ProgressBar object to display completion status.
146
 
        :param permit_failure: Allow missing entries to be ignored
147
 
        :return: (n_copied, [failed])
148
 
            The number of entries copied, and a list of failed entries.
149
 
        """
150
 
        # This should be updated to use add_multi() rather than
151
 
        # the current methods of buffering requests.
152
 
        # One question, is it faster to queue up 1-10 and then copy 1-10
153
 
        # then queue up 11-20, copy 11-20
154
 
        # or to queue up 1-10, copy 1, queue 11, copy 2, etc?
155
 
        # sort of pipeline versus batch.
156
 
 
157
 
        # We can't use self._transport.copy_to because we don't know
158
 
        # whether the local tree is in the same format as other
 
124
        to_copy = [id for id in ids if id not in self]
 
125
        if isinstance(other, ImmutableStore):
 
126
            return self.copy_multi_immutable(other, to_copy, pb)
 
127
        count = 0
 
128
        for id in to_copy:
 
129
            count += 1
 
130
            pb.update('copy', count, len(to_copy))
 
131
            if not permit_failure:
 
132
                self.add(other[id], id)
 
133
            else:
 
134
                try:
 
135
                    entry = other[id]
 
136
                except IndexError:
 
137
                    failures.add(id)
 
138
                    continue
 
139
                self.add(entry, id)
 
140
                
 
141
        assert count == len(to_copy)
 
142
        pb.clear()
 
143
        return count, []
 
144
 
 
145
    def copy_multi_immutable(self, other, to_copy, pb, permit_failure=False):
 
146
        from shutil import copyfile
 
147
        count = 0
159
148
        failed = set()
160
 
        def buffer_requests():
161
 
            count = 0
162
 
            buffered_requests = []
163
 
            for fileid in to_copy:
164
 
                try:
165
 
                    f = other[fileid]
166
 
                except KeyError:
167
 
                    if permit_failure:
168
 
                        failed.add(fileid)
169
 
                        continue
 
149
        for id in to_copy:
 
150
            p = self._path(id)
 
151
            other_p = other._path(id)
 
152
            try:
 
153
                copyfile(other_p, p)
 
154
            except IOError, e:
 
155
                if e.errno == errno.ENOENT:
 
156
                    if not permit_failure:
 
157
                        copyfile(other_p+".gz", p+".gz")
170
158
                    else:
171
 
                        raise
172
 
 
173
 
                buffered_requests.append((f, fileid))
174
 
                if len(buffered_requests) > self._max_buffered_requests:
175
 
                    yield buffered_requests.pop(0)
176
 
                    count += 1
177
 
                    pb.update('copy', count, len(to_copy))
178
 
 
179
 
            for req in buffered_requests:
180
 
                yield req
181
 
                count += 1
182
 
                pb.update('copy', count, len(to_copy))
183
 
 
184
 
            assert count == len(to_copy)
185
 
 
186
 
        self.add_multi(buffer_requests())
187
 
 
 
159
                        try:
 
160
                            copyfile(other_p+".gz", p+".gz")
 
161
                        except IOError, e:
 
162
                            if e.errno == errno.ENOENT:
 
163
                                failed.add(id)
 
164
                            else:
 
165
                                raise
 
166
                else:
 
167
                    raise
 
168
            
 
169
            count += 1
 
170
            pb.update('copy', count, len(to_copy))
 
171
        assert count == len(to_copy)
188
172
        pb.clear()
189
 
        return len(to_copy), failed
190
 
 
191
 
 
192
 
class TransportStore(Store):
193
 
    """A TransportStore is a Store superclass for Stores that use Transports."""
194
 
 
195
 
    _max_buffered_requests = 10
 
173
        return count, failed
 
174
    
 
175
 
 
176
    def __contains__(self, fileid):
 
177
        """"""
 
178
        p = self._path(fileid)
 
179
        return (os.access(p, os.R_OK)
 
180
                or os.access(p + '.gz', os.R_OK))
 
181
 
 
182
    # TODO: Guard against the same thing being stored twice, compressed and uncompresse
 
183
 
 
184
    def __iter__(self):
 
185
        for f in os.listdir(self._basedir):
 
186
            if f[-3:] == '.gz':
 
187
                # TODO: case-insensitive?
 
188
                yield f[:-3]
 
189
            else:
 
190
                yield f
 
191
 
 
192
    def __len__(self):
 
193
        return len(os.listdir(self._basedir))
 
194
 
196
195
 
197
196
    def __getitem__(self, fileid):
198
197
        """Returns a file reading from a particular entry."""
199
 
        fn = self._relpath(fileid)
200
 
        try:
201
 
            return self._transport.get(fn)
202
 
        except errors.NoSuchFile:
203
 
            raise KeyError(fileid)
204
 
 
205
 
    def __init__(self, transport):
206
 
        assert isinstance(transport, bzrlib.transport.Transport)
207
 
        super(TransportStore, self).__init__()
208
 
        self._transport = transport
209
 
 
210
 
    def __repr__(self):
211
 
        if self._transport is None:
212
 
            return "%s(None)" % (self.__class__.__name__)
213
 
        else:
214
 
            return "%s(%r)" % (self.__class__.__name__, self._transport.base)
215
 
 
216
 
    __str__ = __repr__
217
 
 
218
 
    def _iter_relpaths(self):
219
 
        """Iter the relative paths of files in the transports sub-tree."""
220
 
        transport = self._transport
221
 
        queue = list(transport.list_dir('.'))
222
 
        while queue:
223
 
            relpath = queue.pop(0)
224
 
            st = transport.stat(relpath)
225
 
            if S_ISDIR(st[ST_MODE]):
226
 
                for i, basename in enumerate(transport.list_dir(relpath)):
227
 
                    queue.insert(i, relpath+'/'+basename)
228
 
            else:
229
 
                yield relpath, st
230
 
 
231
 
    def listable(self):
232
 
        """Return True if this store is able to be listed."""
233
 
        return self._transport.listable()
234
 
 
235
 
 
236
 
class ImmutableMemoryStore(Store):
237
 
    """A memory only store."""
238
 
 
239
 
    def __contains__(self, fileid):
240
 
        return self._contents.has_key(fileid)
241
 
 
 
198
        p = self._path(fileid)
 
199
        try:
 
200
            return gzip.GzipFile(p + '.gz', 'rb')
 
201
        except IOError, e:
 
202
            if e.errno != errno.ENOENT:
 
203
                raise
 
204
 
 
205
        try:
 
206
            return file(p, 'rb')
 
207
        except IOError, e:
 
208
            if e.errno != errno.ENOENT:
 
209
                raise
 
210
 
 
211
        raise IndexError(fileid)
 
212
 
 
213
 
 
214
    def total_size(self):
 
215
        """Return (count, bytes)
 
216
 
 
217
        This is the (compressed) size stored on disk, not the size of
 
218
        the content."""
 
219
        total = 0
 
220
        count = 0
 
221
        for fid in self:
 
222
            count += 1
 
223
            p = self._path(fid)
 
224
            try:
 
225
                total += os.stat(p)[ST_SIZE]
 
226
            except OSError:
 
227
                total += os.stat(p + '.gz')[ST_SIZE]
 
228
                
 
229
        return count, total
 
230
 
 
231
 
 
232
 
 
233
 
 
234
class ImmutableScratchStore(ImmutableStore):
 
235
    """Self-destructing test subclass of ImmutableStore.
 
236
 
 
237
    The Store only exists for the lifetime of the Python object.
 
238
 Obviously you should not put anything precious in it.
 
239
    """
242
240
    def __init__(self):
243
 
        super(ImmutableMemoryStore, self).__init__()
244
 
        self._contents = {}
245
 
 
246
 
    def add(self, stream, fileid, compressed=True):
247
 
        if self._contents.has_key(fileid):
248
 
            raise StoreError("fileid %s already in the store" % fileid)
249
 
        self._contents[fileid] = stream.read()
250
 
 
251
 
    def __getitem__(self, fileid):
252
 
        """Returns a file reading from a particular entry."""
253
 
        if not self._contents.has_key(fileid):
254
 
            raise IndexError
255
 
        return StringIO(self._contents[fileid])
256
 
 
257
 
    def _item_size(self, fileid):
258
 
        return len(self._contents[fileid])
259
 
 
260
 
    def __iter__(self):
261
 
        return iter(self._contents.keys())
262
 
 
263
 
    def total_size(self):
264
 
        result = 0
265
 
        count = 0
266
 
        for fileid in self:
267
 
            count += 1
268
 
            result += self._item_size(fileid)
269
 
        return count, result
270
 
        
271
 
 
272
 
class CachedStore(Store):
273
 
    """A store that caches data locally, to avoid repeated downloads.
274
 
    The precacache method should be used to avoid server round-trips for
275
 
    every piece of data.
276
 
    """
277
 
 
278
 
    def __init__(self, store, cache_dir):
279
 
        super(CachedStore, self).__init__()
280
 
        self.source_store = store
281
 
        # This clones the source store type with a locally bound
282
 
        # transport. FIXME: it assumes a constructor is == cloning.
283
 
        # clonable store - it might be nicer to actually have a clone()
284
 
        # or something. RBC 20051003
285
 
        self.cache_store = store.__class__(LocalTransport(cache_dir))
286
 
 
287
 
    def __getitem__(self, id):
288
 
        mutter("Cache add %s" % id)
289
 
        if id not in self.cache_store:
290
 
            self.cache_store.add(self.source_store[id], id)
291
 
        return self.cache_store[id]
292
 
 
293
 
    def __contains__(self, fileid):
294
 
        if fileid in self.cache_store:
295
 
            return True
296
 
        if fileid in self.source_store:
297
 
            # We could copy at this time
298
 
            return True
299
 
        return False
300
 
 
301
 
    def get(self, fileids, permit_failure=False, pb=None):
302
 
        fileids = list(fileids)
303
 
        hasids = self.cache_store.has(fileids)
304
 
        needs = set()
305
 
        for has, fileid in zip(hasids, fileids):
306
 
            if not has:
307
 
                needs.add(fileid)
308
 
        if needs:
309
 
            self.cache_store.copy_multi(self.source_store, needs,
310
 
                    permit_failure=permit_failure)
311
 
        return self.cache_store.get(fileids,
312
 
                permit_failure=permit_failure, pb=pb)
313
 
 
314
 
    def prefetch(self, ids):
315
 
        """Copy a series of ids into the cache, before they are used.
316
 
        For remote stores that support pipelining or async downloads, this can
317
 
        increase speed considerably.
318
 
 
319
 
        Failures while prefetching are ignored.
320
 
        """
321
 
        mutter("Prefetch of ids %s" % ",".join(ids))
322
 
        self.cache_store.copy_multi(self.source_store, ids, 
323
 
                                    permit_failure=True)
324
 
 
325
 
 
326
 
def copy_all(store_from, store_to):
327
 
    """Copy all ids from one store to another."""
328
 
    # TODO: Optional progress indicator
329
 
    if not store_from.listable():
330
 
        raise UnlistableStore(store_from)
331
 
    ids = [f for f in store_from]
332
 
    store_to.copy_multi(store_from, ids)
333
 
 
334
 
def hash_prefix(file_id):
335
 
    return "%02x/" % (adler32(file_id) & 0xff)
336
 
 
 
241
        ImmutableStore.__init__(self, tempfile.mkdtemp())
 
242
 
 
243
    def __del__(self):
 
244
        for f in os.listdir(self._basedir):
 
245
            fpath = os.path.join(self._basedir, f)
 
246
            # needed on windows, and maybe some other filesystems
 
247
            os.chmod(fpath, 0600)
 
248
            os.remove(fpath)
 
249
        os.rmdir(self._basedir)
 
250
        mutter("%r destroyed" % self)