~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/store/__init__.py

  • Committer: Robert Collins
  • Date: 2005-10-08 00:02:33 UTC
  • mfrom: (1421)
  • mto: This revision was merged to the branch mainline in revision 1422.
  • Revision ID: robertc@robertcollins.net-20051008000233-c7c5d0d2b7000da0
merge from newformat stuff and upgrade

Show diffs side-by-side

added added

removed removed

Lines of Context:
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
 
17
# TODO: Could remember a bias towards whether a particular store is typically
 
18
# compressed or not.
 
19
 
17
20
"""
18
21
Stores are the main data-storage mechanism for Bazaar-NG.
19
22
 
21
24
unique ID.
22
25
"""
23
26
 
24
 
import errno
25
 
import gzip
26
 
import os
27
 
import tempfile
28
 
import types
29
 
from stat import ST_SIZE
30
 
from StringIO import StringIO
 
27
from cStringIO import StringIO
31
28
 
32
 
from bzrlib.errors import BzrError, UnlistableStore
 
29
from bzrlib.errors import BzrError, UnlistableStore, TransportNotPossible
33
30
from bzrlib.trace import mutter
34
 
import bzrlib.ui
35
 
import bzrlib.osutils as osutils
36
 
 
 
31
import bzrlib.transport
 
32
from bzrlib.transport.local import LocalTransport
37
33
 
38
34
######################################################################
39
35
# stores
42
38
    pass
43
39
 
44
40
 
45
 
class ImmutableStore(object):
46
 
    """Store that holds files indexed by unique names.
47
 
 
 
41
class Store(object):
 
42
    """This class represents the abstract storage layout for saving information.
 
43
    
48
44
    Files can be added, but not modified once they are in.  Typically
49
45
    the hash is used as the name, or something else known to be unique,
50
46
    such as a UUID.
51
 
 
52
 
    >>> st = ImmutableScratchStore()
53
 
 
54
 
    >>> st.add(StringIO('hello'), 'aa')
55
 
    >>> 'aa' in st
56
 
    True
57
 
    >>> 'foo' in st
58
 
    False
59
 
 
60
 
    You are not allowed to add an id that is already present.
61
 
 
62
 
    Entries can be retrieved as files, which may then be read.
63
 
 
64
 
    >>> st.add(StringIO('goodbye'), '123123')
65
 
    >>> st['123123'].read()
66
 
    'goodbye'
67
 
 
68
 
    TODO: Atomic add by writing to a temporary file and renaming.
69
 
 
70
 
    In bzr 0.0.5 and earlier, files within the store were marked
71
 
    readonly on disk.  This is no longer done but existing stores need
72
 
    to be accomodated.
73
47
    """
74
48
 
75
 
    def __init__(self, basedir):
76
 
        self._basedir = basedir
77
 
 
78
 
    def _path(self, entry_id):
79
 
        if not isinstance(entry_id, basestring):
80
 
            raise TypeError(type(entry_id))
81
 
        if '\\' in entry_id or '/' in entry_id:
82
 
            raise ValueError("invalid store id %r" % entry_id)
83
 
        return os.path.join(self._basedir, entry_id)
84
 
 
85
 
    def __repr__(self):
86
 
        return "%s(%r)" % (self.__class__.__name__, self._basedir)
87
 
 
88
 
    def add(self, f, fileid, compressed=True):
89
 
        """Add contents of a file into the store.
90
 
 
91
 
        f -- An open file, or file-like object."""
92
 
        # FIXME: Only works on files that will fit in memory
93
 
        
94
 
        from bzrlib.atomicfile import AtomicFile
95
 
        
96
 
        mutter("add store entry %r" % (fileid))
97
 
        if isinstance(f, types.StringTypes):
98
 
            content = f
99
 
        else:
100
 
            content = f.read()
101
 
            
102
 
        p = self._path(fileid)
103
 
        if os.access(p, os.F_OK) or os.access(p + '.gz', os.F_OK):
104
 
            raise BzrError("store %r already contains id %r" % (self._basedir, fileid))
105
 
 
106
 
        fn = p
107
 
        if compressed:
108
 
            fn = fn + '.gz'
109
 
            
110
 
        af = AtomicFile(fn, 'wb')
111
 
        try:
112
 
            if compressed:
113
 
                gf = gzip.GzipFile(mode='wb', fileobj=af)
114
 
                gf.write(content)
115
 
                gf.close()
 
49
    def __len__(self):
 
50
        raise NotImplementedError('Children should define their length')
 
51
 
 
52
    def __getitem__(self, fileid):
 
53
        """Returns a file reading from a particular entry."""
 
54
        raise NotImplementedError
 
55
 
 
56
    def __contains__(self, fileid):
 
57
        """"""
 
58
        raise NotImplementedError
 
59
 
 
60
    def __iter__(self):
 
61
        raise NotImplementedError
 
62
 
 
63
    def add(self, f, fileid):
 
64
        """Add a file object f to the store accessible from the given fileid"""
 
65
        raise NotImplementedError('Children of Store must define their method of adding entries.')
 
66
 
 
67
    def add_multi(self, entries):
 
68
        """Add a series of file-like or string objects to the store with the given
 
69
        identities.
 
70
        
 
71
        :param entries: A list of tuples of file,id pairs [(file1, id1), (file2, id2), ...]
 
72
                        This could also be a generator yielding (file,id) pairs.
 
73
        """
 
74
        for f, fileid in entries:
 
75
            self.add(f, fileid)
 
76
 
 
77
    def has(self, fileids):
 
78
        """Return True/False for each entry in fileids.
 
79
 
 
80
        :param fileids: A List or generator yielding file ids.
 
81
        :return: A generator or list returning True/False for each entry.
 
82
        """
 
83
        for fileid in fileids:
 
84
            if fileid in self:
 
85
                yield True
116
86
            else:
117
 
                af.write(content)
118
 
            af.commit()
119
 
        finally:
120
 
            af.close()
121
 
 
122
 
 
123
 
    def copy_multi(self, other, ids, permit_failure=False):
 
87
                yield False
 
88
 
 
89
    def listable(self):
 
90
        """Return True if this store is able to be listed."""
 
91
        return hasattr(self, "__iter__")
 
92
 
 
93
    def get(self, fileids, permit_failure=False, pb=None):
 
94
        """Return a set of files, one for each requested entry.
 
95
        
 
96
        :param permit_failure: If true, return None for entries which do not 
 
97
                               exist.
 
98
        :return: A list or generator of file-like objects, one for each id.
 
99
        """
 
100
        for fileid in fileids:
 
101
            try:
 
102
                yield self[fileid]
 
103
            except KeyError:
 
104
                if permit_failure:
 
105
                    yield None
 
106
                else:
 
107
                    raise
 
108
 
 
109
    def copy_multi(self, other, ids, pb=None, permit_failure=False):
124
110
        """Copy texts for ids from other into self.
125
111
 
126
 
        If an id is present in self, it is skipped.
 
112
        If an id is present in self, it is skipped.  A count of copied
 
113
        ids is returned, which may be less than len(ids).
127
114
 
128
 
        Returns (count_copied, failed), where failed is a collection of ids
129
 
        that could not be copied.
 
115
        :param other: Another Store object
 
116
        :param ids: A list of entry ids to be copied
 
117
        :param pb: A ProgressBar object, if none is given, the default will be created.
 
118
        :param permit_failure: Allow missing entries to be ignored
 
119
        :return: (n_copied, [failed]) The number of entries copied successfully,
 
120
            followed by a list of entries which could not be copied (because they
 
121
            were missing)
130
122
        """
131
 
        pb = bzrlib.ui.ui_factory.progress_bar()
132
 
        
 
123
        if pb is None:
 
124
            pb = bzrlib.ui.ui_factory.progress_bar()
 
125
 
 
126
        # XXX: Is there any reason why we couldn't make this accept a generator
 
127
        # and build a list as it finds things to copy?
 
128
        ids = list(ids) # Make sure we don't have a generator, since we iterate 2 times
133
129
        pb.update('preparing to copy')
134
 
        to_copy = [id for id in ids if id not in self]
135
 
        if isinstance(other, ImmutableStore):
136
 
            return self.copy_multi_immutable(other, to_copy, pb, 
137
 
                                             permit_failure=permit_failure)
138
 
        count = 0
 
130
        to_copy = []
 
131
        for file_id, has in zip(ids, self.has(ids)):
 
132
            if not has:
 
133
                to_copy.append(file_id)
 
134
        return self._do_copy(other, to_copy, pb, permit_failure=permit_failure)
 
135
 
 
136
    def _do_copy(self, other, to_copy, pb, permit_failure=False):
 
137
        """This is the standard copying mechanism, just get them one at
 
138
        a time from remote, and store them locally.
 
139
 
 
140
        :param other: Another Store object
 
141
        :param to_copy: A list of entry ids to copy
 
142
        :param pb: A ProgressBar object to display completion status.
 
143
        :param permit_failure: Allow missing entries to be ignored
 
144
        :return: (n_copied, [failed])
 
145
            The number of entries copied, and a list of failed entries.
 
146
        """
 
147
        # This should be updated to use add_multi() rather than
 
148
        # the current methods of buffering requests.
 
149
        # One question, is it faster to queue up 1-10 and then copy 1-10
 
150
        # then queue up 11-20, copy 11-20
 
151
        # or to queue up 1-10, copy 1, queue 11, copy 2, etc?
 
152
        # sort of pipeline versus batch.
 
153
 
 
154
        # We can't use self._transport.copy_to because we don't know
 
155
        # whether the local tree is in the same format as other
139
156
        failed = set()
140
 
        for id in to_copy:
141
 
            count += 1
142
 
            pb.update('copy', count, len(to_copy))
143
 
            if not permit_failure:
144
 
                self.add(other[id], id)
145
 
            else:
 
157
        def buffer_requests():
 
158
            count = 0
 
159
            buffered_requests = []
 
160
            for fileid in to_copy:
146
161
                try:
147
 
                    entry = other[id]
 
162
                    f = other[fileid]
148
163
                except KeyError:
149
 
                    failed.add(id)
150
 
                    continue
151
 
                self.add(entry, id)
152
 
                
153
 
        if not permit_failure:
 
164
                    if permit_failure:
 
165
                        failed.add(fileid)
 
166
                        continue
 
167
                    else:
 
168
                        raise
 
169
 
 
170
                buffered_requests.append((f, fileid))
 
171
                if len(buffered_requests) > self._max_buffered_requests:
 
172
                    yield buffered_requests.pop(0)
 
173
                    count += 1
 
174
                    pb.update('copy', count, len(to_copy))
 
175
 
 
176
            for req in buffered_requests:
 
177
                yield req
 
178
                count += 1
 
179
                pb.update('copy', count, len(to_copy))
 
180
 
154
181
            assert count == len(to_copy)
155
 
        pb.clear()
156
 
        return count, failed
157
 
 
158
 
    def copy_multi_immutable(self, other, to_copy, pb, permit_failure=False):
159
 
        count = 0
160
 
        failed = set()
161
 
        for id in to_copy:
162
 
            p = self._path(id)
163
 
            other_p = other._path(id)
164
 
            try:
165
 
                osutils.link_or_copy(other_p, p)
166
 
            except (IOError, OSError), e:
167
 
                if e.errno == errno.ENOENT:
168
 
                    if not permit_failure:
169
 
                        osutils.link_or_copy(other_p+".gz", p+".gz")
170
 
                    else:
171
 
                        try:
172
 
                            osutils.link_or_copy(other_p+".gz", p+".gz")
173
 
                        except IOError, e:
174
 
                            if e.errno == errno.ENOENT:
175
 
                                failed.add(id)
176
 
                            else:
177
 
                                raise
178
 
                else:
179
 
                    raise
180
 
            
181
 
            count += 1
182
 
            pb.update('copy', count, len(to_copy))
183
 
        assert count == len(to_copy)
184
 
        pb.clear()
185
 
        return count, failed
186
 
    
 
182
 
 
183
        self.add_multi(buffer_requests())
 
184
 
 
185
        pb.clear()
 
186
        return len(to_copy), failed
 
187
 
 
188
 
 
189
class TransportStore(Store):
 
190
    """A TransportStore is a Store superclass for Stores that use Transports."""
 
191
 
 
192
    _max_buffered_requests = 10
 
193
 
 
194
    def __init__(self, transport):
 
195
        assert isinstance(transport, bzrlib.transport.Transport)
 
196
        super(TransportStore, self).__init__()
 
197
        self._transport = transport
 
198
 
 
199
    def __repr__(self):
 
200
        if self._transport is None:
 
201
            return "%s(None)" % (self.__class__.__name__)
 
202
        else:
 
203
            return "%s(%r)" % (self.__class__.__name__, self._transport.base)
 
204
 
 
205
    __str__ = __repr__
 
206
 
 
207
    def listable(self):
 
208
        """Return True if this store is able to be listed."""
 
209
        return self._transport.listable()
 
210
 
 
211
 
 
212
class ImmutableMemoryStore(Store):
 
213
    """A memory only store."""
187
214
 
188
215
    def __contains__(self, fileid):
189
 
        """"""
190
 
        p = self._path(fileid)
191
 
        return (os.access(p, os.R_OK)
192
 
                or os.access(p + '.gz', os.R_OK))
193
 
 
194
 
    # TODO: Guard against the same thing being stored twice, compressed and uncompresse
195
 
 
196
 
    def __iter__(self):
197
 
        for f in os.listdir(self._basedir):
198
 
            if f[-3:] == '.gz':
199
 
                # TODO: case-insensitive?
200
 
                yield f[:-3]
201
 
            else:
202
 
                yield f
203
 
 
204
 
    def __len__(self):
205
 
        return len(os.listdir(self._basedir))
206
 
 
 
216
        return self._contents.has_key(fileid)
 
217
 
 
218
    def __init__(self):
 
219
        super(ImmutableMemoryStore, self).__init__()
 
220
        self._contents = {}
 
221
 
 
222
    def add(self, stream, fileid, compressed=True):
 
223
        if self._contents.has_key(fileid):
 
224
            raise StoreError("fileid %s already in the store" % fileid)
 
225
        self._contents[fileid] = stream.read()
207
226
 
208
227
    def __getitem__(self, fileid):
209
228
        """Returns a file reading from a particular entry."""
210
 
        p = self._path(fileid)
211
 
        try:
212
 
            return gzip.GzipFile(p + '.gz', 'rb')
213
 
        except IOError, e:
214
 
            if e.errno != errno.ENOENT:
215
 
                raise
216
 
 
217
 
        try:
218
 
            return file(p, 'rb')
219
 
        except IOError, e:
220
 
            if e.errno != errno.ENOENT:
221
 
                raise
222
 
 
223
 
        raise KeyError(fileid)
224
 
 
 
229
        if not self._contents.has_key(fileid):
 
230
            raise IndexError
 
231
        return StringIO(self._contents[fileid])
 
232
 
 
233
    def _item_size(self, fileid):
 
234
        return len(self._contents[fileid])
 
235
 
 
236
    def __iter__(self):
 
237
        return iter(self._contents.keys())
225
238
 
226
239
    def total_size(self):
227
 
        """Return (count, bytes)
228
 
 
229
 
        This is the (compressed) size stored on disk, not the size of
230
 
        the content."""
231
 
        total = 0
 
240
        result = 0
232
241
        count = 0
233
 
        for fid in self:
 
242
        for fileid in self:
234
243
            count += 1
235
 
            p = self._path(fid)
236
 
            try:
237
 
                total += os.stat(p)[ST_SIZE]
238
 
            except OSError:
239
 
                total += os.stat(p + '.gz')[ST_SIZE]
240
 
                
241
 
        return count, total
242
 
 
243
 
 
244
 
 
245
 
 
246
 
class ImmutableScratchStore(ImmutableStore):
247
 
    """Self-destructing test subclass of ImmutableStore.
248
 
 
249
 
    The Store only exists for the lifetime of the Python object.
250
 
 Obviously you should not put anything precious in it.
 
244
            result += self._item_size(fileid)
 
245
        return count, result
 
246
        
 
247
 
 
248
class CachedStore(Store):
 
249
    """A store that caches data locally, to avoid repeated downloads.
 
250
    The precacache method should be used to avoid server round-trips for
 
251
    every piece of data.
251
252
    """
252
 
    def __init__(self):
253
 
        ImmutableStore.__init__(self, tempfile.mkdtemp())
254
 
 
255
 
    def __del__(self):
256
 
        for f in os.listdir(self._basedir):
257
 
            fpath = os.path.join(self._basedir, f)
258
 
            # needed on windows, and maybe some other filesystems
259
 
            os.chmod(fpath, 0600)
260
 
            os.remove(fpath)
261
 
        os.rmdir(self._basedir)
262
 
        mutter("%r destroyed" % self)
 
253
 
 
254
    def __init__(self, store, cache_dir):
 
255
        super(CachedStore, self).__init__()
 
256
        self.source_store = store
 
257
        # This clones the source store type with a locally bound
 
258
        # transport. FIXME: it assumes a constructor is == cloning.
 
259
        # clonable store - it might be nicer to actually have a clone()
 
260
        # or something. RBC 20051003
 
261
        self.cache_store = store.__class__(LocalTransport(cache_dir))
 
262
 
 
263
    def __getitem__(self, id):
 
264
        mutter("Cache add %s" % id)
 
265
        if id not in self.cache_store:
 
266
            self.cache_store.add(self.source_store[id], id)
 
267
        return self.cache_store[id]
 
268
 
 
269
    def __contains__(self, fileid):
 
270
        if fileid in self.cache_store:
 
271
            return True
 
272
        if fileid in self.source_store:
 
273
            # We could copy at this time
 
274
            return True
 
275
        return False
 
276
 
 
277
    def get(self, fileids, permit_failure=False, pb=None):
 
278
        fileids = list(fileids)
 
279
        hasids = self.cache_store.has(fileids)
 
280
        needs = set()
 
281
        for has, fileid in zip(hasids, fileids):
 
282
            if not has:
 
283
                needs.add(fileid)
 
284
        if needs:
 
285
            self.cache_store.copy_multi(self.source_store, needs,
 
286
                    permit_failure=permit_failure)
 
287
        return self.cache_store.get(fileids,
 
288
                permit_failure=permit_failure, pb=pb)
 
289
 
 
290
    def prefetch(self, ids):
 
291
        """Copy a series of ids into the cache, before they are used.
 
292
        For remote stores that support pipelining or async downloads, this can
 
293
        increase speed considerably.
 
294
 
 
295
        Failures while prefetching are ignored.
 
296
        """
 
297
        mutter("Prefetch of ids %s" % ",".join(ids))
 
298
        self.cache_store.copy_multi(self.source_store, ids, 
 
299
                                    permit_failure=True)
 
300
 
263
301
 
264
302
def copy_all(store_from, store_to):
265
303
    """Copy all ids from one store to another."""
266
 
    if not hasattr(store_from, "__iter__"):
 
304
    # TODO: Optional progress indicator
 
305
    if not store_from.listable():
267
306
        raise UnlistableStore(store_from)
268
307
    ids = [f for f in store_from]
269
308
    store_to.copy_multi(store_from, ids)
 
309