~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/store.py

  • Committer: Martin Pool
  • Date: 2005-07-07 10:22:02 UTC
  • Revision ID: mbp@sourcefrog.net-20050707102201-2d2a13a25098b101
- rearrange and clear up merged weave

Show diffs side-by-side

added added

removed removed

Lines of Context:
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
# TODO: Could remember a bias towards whether a particular store is typically
18
 
# compressed or not.
19
 
 
20
17
"""
21
18
Stores are the main data-storage mechanism for Bazaar-NG.
22
19
 
24
21
unique ID.
25
22
"""
26
23
 
27
 
from cStringIO import StringIO
28
 
 
29
 
from bzrlib.errors import BzrError, UnlistableStore, TransportNotPossible
30
 
from bzrlib.trace import mutter
31
 
import bzrlib.transport
32
 
from bzrlib.transport.local import LocalTransport
 
24
import os, tempfile, types, osutils, gzip, errno
 
25
from stat import ST_SIZE
 
26
from StringIO import StringIO
 
27
from trace import mutter
33
28
 
34
29
######################################################################
35
30
# stores
38
33
    pass
39
34
 
40
35
 
41
 
class Store(object):
42
 
    """This class represents the abstract storage layout for saving information.
43
 
    
 
36
class ImmutableStore(object):
 
37
    """Store that holds files indexed by unique names.
 
38
 
44
39
    Files can be added, but not modified once they are in.  Typically
45
40
    the hash is used as the name, or something else known to be unique,
46
41
    such as a UUID.
 
42
 
 
43
    >>> st = ImmutableScratchStore()
 
44
 
 
45
    >>> st.add(StringIO('hello'), 'aa')
 
46
    >>> 'aa' in st
 
47
    True
 
48
    >>> 'foo' in st
 
49
    False
 
50
 
 
51
    You are not allowed to add an id that is already present.
 
52
 
 
53
    Entries can be retrieved as files, which may then be read.
 
54
 
 
55
    >>> st.add(StringIO('goodbye'), '123123')
 
56
    >>> st['123123'].read()
 
57
    'goodbye'
 
58
 
 
59
    TODO: Atomic add by writing to a temporary file and renaming.
 
60
 
 
61
    In bzr 0.0.5 and earlier, files within the store were marked
 
62
    readonly on disk.  This is no longer done but existing stores need
 
63
    to be accomodated.
47
64
    """
48
65
 
49
 
    def __len__(self):
50
 
        raise NotImplementedError('Children should define their length')
51
 
 
52
 
    def __getitem__(self, fileid):
53
 
        """Returns a file reading from a particular entry."""
54
 
        raise NotImplementedError
55
 
 
56
 
    def __contains__(self, fileid):
57
 
        """"""
58
 
        raise NotImplementedError
59
 
 
60
 
    def __iter__(self):
61
 
        raise NotImplementedError
62
 
 
63
 
    def add(self, f, fileid):
64
 
        """Add a file object f to the store accessible from the given fileid"""
65
 
        raise NotImplementedError('Children of Store must define their method of adding entries.')
66
 
 
67
 
    def add_multi(self, entries):
68
 
        """Add a series of file-like or string objects to the store with the given
69
 
        identities.
70
 
        
71
 
        :param entries: A list of tuples of file,id pairs [(file1, id1), (file2, id2), ...]
72
 
                        This could also be a generator yielding (file,id) pairs.
73
 
        """
74
 
        for f, fileid in entries:
75
 
            self.add(f, fileid)
76
 
 
77
 
    def has(self, fileids):
78
 
        """Return True/False for each entry in fileids.
79
 
 
80
 
        :param fileids: A List or generator yielding file ids.
81
 
        :return: A generator or list returning True/False for each entry.
82
 
        """
83
 
        for fileid in fileids:
84
 
            if fileid in self:
85
 
                yield True
 
66
    def __init__(self, basedir):
 
67
        self._basedir = basedir
 
68
 
 
69
    def _path(self, id):
 
70
        if '\\' in id or '/' in id:
 
71
            raise ValueError("invalid store id %r" % id)
 
72
        return os.path.join(self._basedir, id)
 
73
 
 
74
    def __repr__(self):
 
75
        return "%s(%r)" % (self.__class__.__name__, self._basedir)
 
76
 
 
77
    def add(self, f, fileid, compressed=True):
 
78
        """Add contents of a file into the store.
 
79
 
 
80
        f -- An open file, or file-like object."""
 
81
        # FIXME: Only works on files that will fit in memory
 
82
        
 
83
        from bzrlib.atomicfile import AtomicFile
 
84
        
 
85
        mutter("add store entry %r" % (fileid))
 
86
        if isinstance(f, types.StringTypes):
 
87
            content = f
 
88
        else:
 
89
            content = f.read()
 
90
            
 
91
        p = self._path(fileid)
 
92
        if os.access(p, os.F_OK) or os.access(p + '.gz', os.F_OK):
 
93
            raise BzrError("store %r already contains id %r" % (self._basedir, fileid))
 
94
 
 
95
        fn = p
 
96
        if compressed:
 
97
            fn = fn + '.gz'
 
98
            
 
99
        af = AtomicFile(fn, 'wb')
 
100
        try:
 
101
            if compressed:
 
102
                gf = gzip.GzipFile(mode='wb', fileobj=af)
 
103
                gf.write(content)
 
104
                gf.close()
86
105
            else:
87
 
                yield False
88
 
 
89
 
    def listable(self):
90
 
        """Return True if this store is able to be listed."""
91
 
        return hasattr(self, "__iter__")
92
 
 
93
 
    def get(self, fileids, permit_failure=False, pb=None):
94
 
        """Return a set of files, one for each requested entry.
95
 
        
96
 
        :param permit_failure: If true, return None for entries which do not 
97
 
                               exist.
98
 
        :return: A list or generator of file-like objects, one for each id.
99
 
        """
100
 
        for fileid in fileids:
101
 
            try:
102
 
                yield self[fileid]
103
 
            except KeyError:
104
 
                if permit_failure:
105
 
                    yield None
106
 
                else:
107
 
                    raise
108
 
 
109
 
    def copy_multi(self, other, ids, pb=None, permit_failure=False):
 
106
                af.write(content)
 
107
            af.commit()
 
108
        finally:
 
109
            af.close()
 
110
 
 
111
 
 
112
    def copy_multi(self, other, ids):
110
113
        """Copy texts for ids from other into self.
111
114
 
112
115
        If an id is present in self, it is skipped.  A count of copied
113
116
        ids is returned, which may be less than len(ids).
114
 
 
115
 
        :param other: Another Store object
116
 
        :param ids: A list of entry ids to be copied
117
 
        :param pb: A ProgressBar object, if none is given, the default will be created.
118
 
        :param permit_failure: Allow missing entries to be ignored
119
 
        :return: (n_copied, [failed]) The number of entries copied successfully,
120
 
            followed by a list of entries which could not be copied (because they
121
 
            were missing)
122
117
        """
123
 
        if pb is None:
124
 
            pb = bzrlib.ui.ui_factory.progress_bar()
125
 
 
126
 
        # XXX: Is there any reason why we couldn't make this accept a generator
127
 
        # and build a list as it finds things to copy?
128
 
        ids = list(ids) # Make sure we don't have a generator, since we iterate 2 times
 
118
        from bzrlib.progress import ProgressBar
 
119
        pb = ProgressBar()
129
120
        pb.update('preparing to copy')
130
 
        to_copy = []
131
 
        for file_id, has in zip(ids, self.has(ids)):
132
 
            if not has:
133
 
                to_copy.append(file_id)
134
 
        return self._do_copy(other, to_copy, pb, permit_failure=permit_failure)
135
 
 
136
 
    def _do_copy(self, other, to_copy, pb, permit_failure=False):
137
 
        """This is the standard copying mechanism, just get them one at
138
 
        a time from remote, and store them locally.
139
 
 
140
 
        :param other: Another Store object
141
 
        :param to_copy: A list of entry ids to copy
142
 
        :param pb: A ProgressBar object to display completion status.
143
 
        :param permit_failure: Allow missing entries to be ignored
144
 
        :return: (n_copied, [failed])
145
 
            The number of entries copied, and a list of failed entries.
146
 
        """
147
 
        # This should be updated to use add_multi() rather than
148
 
        # the current methods of buffering requests.
149
 
        # One question, is it faster to queue up 1-10 and then copy 1-10
150
 
        # then queue up 11-20, copy 11-20
151
 
        # or to queue up 1-10, copy 1, queue 11, copy 2, etc?
152
 
        # sort of pipeline versus batch.
153
 
 
154
 
        # We can't use self._transport.copy_to because we don't know
155
 
        # whether the local tree is in the same format as other
156
 
        failed = set()
157
 
        def buffer_requests():
158
 
            count = 0
159
 
            buffered_requests = []
160
 
            for fileid in to_copy:
161
 
                try:
162
 
                    f = other[fileid]
163
 
                except KeyError:
164
 
                    if permit_failure:
165
 
                        failed.add(fileid)
166
 
                        continue
167
 
                    else:
168
 
                        raise
169
 
 
170
 
                buffered_requests.append((f, fileid))
171
 
                if len(buffered_requests) > self._max_buffered_requests:
172
 
                    yield buffered_requests.pop(0)
173
 
                    count += 1
174
 
                    pb.update('copy', count, len(to_copy))
175
 
 
176
 
            for req in buffered_requests:
177
 
                yield req
178
 
                count += 1
179
 
                pb.update('copy', count, len(to_copy))
180
 
 
181
 
            assert count == len(to_copy)
182
 
 
183
 
        self.add_multi(buffer_requests())
184
 
 
185
 
        pb.clear()
186
 
        return len(to_copy), failed
187
 
 
188
 
 
189
 
class TransportStore(Store):
190
 
    """A TransportStore is a Store superclass for Stores that use Transports."""
191
 
 
192
 
    _max_buffered_requests = 10
193
 
 
194
 
    def __init__(self, transport):
195
 
        assert isinstance(transport, bzrlib.transport.Transport)
196
 
        super(TransportStore, self).__init__()
197
 
        self._transport = transport
198
 
 
199
 
    def __repr__(self):
200
 
        if self._transport is None:
201
 
            return "%s(None)" % (self.__class__.__name__)
202
 
        else:
203
 
            return "%s(%r)" % (self.__class__.__name__, self._transport.base)
204
 
 
205
 
    __str__ = __repr__
206
 
 
207
 
    def listable(self):
208
 
        """Return True if this store is able to be listed."""
209
 
        return self._transport.listable()
210
 
 
211
 
 
212
 
class ImmutableMemoryStore(Store):
213
 
    """A memory only store."""
 
121
        to_copy = [id for id in ids if id not in self]
 
122
        if isinstance(other, ImmutableStore):
 
123
            return self.copy_multi_immutable(other, to_copy, pb)
 
124
        count = 0
 
125
        for id in to_copy:
 
126
            count += 1
 
127
            pb.update('copy', count, len(to_copy))
 
128
            self.add(other[id], id)
 
129
        assert count == len(to_copy)
 
130
        pb.clear()
 
131
        return count
 
132
 
 
133
 
 
134
    def copy_multi_immutable(self, other, to_copy, pb):
 
135
        from shutil import copyfile
 
136
        count = 0
 
137
        for id in to_copy:
 
138
            p = self._path(id)
 
139
            other_p = other._path(id)
 
140
            try:
 
141
                copyfile(other_p, p)
 
142
            except IOError, e:
 
143
                if e.errno == errno.ENOENT:
 
144
                    copyfile(other_p+".gz", p+".gz")
 
145
                else:
 
146
                    raise
 
147
            
 
148
            count += 1
 
149
            pb.update('copy', count, len(to_copy))
 
150
        assert count == len(to_copy)
 
151
        pb.clear()
 
152
        return count
 
153
    
214
154
 
215
155
    def __contains__(self, fileid):
216
 
        return self._contents.has_key(fileid)
217
 
 
 
156
        """"""
 
157
        p = self._path(fileid)
 
158
        return (os.access(p, os.R_OK)
 
159
                or os.access(p + '.gz', os.R_OK))
 
160
 
 
161
    # TODO: Guard against the same thing being stored twice, compressed and uncompresse
 
162
 
 
163
    def __iter__(self):
 
164
        for f in os.listdir(self._basedir):
 
165
            if f[-3:] == '.gz':
 
166
                # TODO: case-insensitive?
 
167
                yield f[:-3]
 
168
            else:
 
169
                yield f
 
170
 
 
171
    def __len__(self):
 
172
        return len(os.listdir(self._basedir))
 
173
 
 
174
    def __getitem__(self, fileid):
 
175
        """Returns a file reading from a particular entry."""
 
176
        p = self._path(fileid)
 
177
        try:
 
178
            return gzip.GzipFile(p + '.gz', 'rb')
 
179
        except IOError, e:
 
180
            if e.errno == errno.ENOENT:
 
181
                return file(p, 'rb')
 
182
            else:
 
183
                raise e
 
184
 
 
185
    def total_size(self):
 
186
        """Return (count, bytes)
 
187
 
 
188
        This is the (compressed) size stored on disk, not the size of
 
189
        the content."""
 
190
        total = 0
 
191
        count = 0
 
192
        for fid in self:
 
193
            count += 1
 
194
            p = self._path(fid)
 
195
            try:
 
196
                total += os.stat(p)[ST_SIZE]
 
197
            except OSError:
 
198
                total += os.stat(p + '.gz')[ST_SIZE]
 
199
                
 
200
        return count, total
 
201
 
 
202
 
 
203
 
 
204
 
 
205
class ImmutableScratchStore(ImmutableStore):
 
206
    """Self-destructing test subclass of ImmutableStore.
 
207
 
 
208
    The Store only exists for the lifetime of the Python object.
 
209
 Obviously you should not put anything precious in it.
 
210
    """
218
211
    def __init__(self):
219
 
        super(ImmutableMemoryStore, self).__init__()
220
 
        self._contents = {}
221
 
 
222
 
    def add(self, stream, fileid, compressed=True):
223
 
        if self._contents.has_key(fileid):
224
 
            raise StoreError("fileid %s already in the store" % fileid)
225
 
        self._contents[fileid] = stream.read()
226
 
 
227
 
    def __getitem__(self, fileid):
228
 
        """Returns a file reading from a particular entry."""
229
 
        if not self._contents.has_key(fileid):
230
 
            raise IndexError
231
 
        return StringIO(self._contents[fileid])
232
 
 
233
 
    def _item_size(self, fileid):
234
 
        return len(self._contents[fileid])
235
 
 
236
 
    def __iter__(self):
237
 
        return iter(self._contents.keys())
238
 
 
239
 
    def total_size(self):
240
 
        result = 0
241
 
        count = 0
242
 
        for fileid in self:
243
 
            count += 1
244
 
            result += self._item_size(fileid)
245
 
        return count, result
246
 
        
247
 
 
248
 
class CachedStore(Store):
249
 
    """A store that caches data locally, to avoid repeated downloads.
250
 
    The precacache method should be used to avoid server round-trips for
251
 
    every piece of data.
252
 
    """
253
 
 
254
 
    def __init__(self, store, cache_dir):
255
 
        super(CachedStore, self).__init__()
256
 
        self.source_store = store
257
 
        # This clones the source store type with a locally bound
258
 
        # transport. FIXME: it assumes a constructor is == cloning.
259
 
        # clonable store - it might be nicer to actually have a clone()
260
 
        # or something. RBC 20051003
261
 
        self.cache_store = store.__class__(LocalTransport(cache_dir))
262
 
 
263
 
    def __getitem__(self, id):
264
 
        mutter("Cache add %s" % id)
265
 
        if id not in self.cache_store:
266
 
            self.cache_store.add(self.source_store[id], id)
267
 
        return self.cache_store[id]
268
 
 
269
 
    def __contains__(self, fileid):
270
 
        if fileid in self.cache_store:
271
 
            return True
272
 
        if fileid in self.source_store:
273
 
            # We could copy at this time
274
 
            return True
275
 
        return False
276
 
 
277
 
    def get(self, fileids, permit_failure=False, pb=None):
278
 
        fileids = list(fileids)
279
 
        hasids = self.cache_store.has(fileids)
280
 
        needs = set()
281
 
        for has, fileid in zip(hasids, fileids):
282
 
            if not has:
283
 
                needs.add(fileid)
284
 
        if needs:
285
 
            self.cache_store.copy_multi(self.source_store, needs,
286
 
                    permit_failure=permit_failure)
287
 
        return self.cache_store.get(fileids,
288
 
                permit_failure=permit_failure, pb=pb)
289
 
 
290
 
    def prefetch(self, ids):
291
 
        """Copy a series of ids into the cache, before they are used.
292
 
        For remote stores that support pipelining or async downloads, this can
293
 
        increase speed considerably.
294
 
 
295
 
        Failures while prefetching are ignored.
296
 
        """
297
 
        mutter("Prefetch of ids %s" % ",".join(ids))
298
 
        self.cache_store.copy_multi(self.source_store, ids, 
299
 
                                    permit_failure=True)
300
 
 
301
 
 
302
 
def copy_all(store_from, store_to):
303
 
    """Copy all ids from one store to another."""
304
 
    # TODO: Optional progress indicator
305
 
    if not store_from.listable():
306
 
        raise UnlistableStore(store_from)
307
 
    ids = [f for f in store_from]
308
 
    store_to.copy_multi(store_from, ids)
309
 
 
 
212
        ImmutableStore.__init__(self, tempfile.mkdtemp())
 
213
 
 
214
    def __del__(self):
 
215
        for f in os.listdir(self._basedir):
 
216
            fpath = os.path.join(self._basedir, f)
 
217
            # needed on windows, and maybe some other filesystems
 
218
            os.chmod(fpath, 0600)
 
219
            os.remove(fpath)
 
220
        os.rmdir(self._basedir)
 
221
        mutter("%r destroyed" % self)