~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/store.py

  • Committer: mbp at sourcefrog
  • Date: 2005-04-05 08:24:51 UTC
  • Revision ID: mbp@sourcefrog.net-20050405082451-408ebb0fd108440f
start adding quotes

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005 by Canonical Development Ltd
 
1
#! /usr/bin/env python
 
2
# -*- coding: UTF-8 -*-
2
3
 
3
4
# This program is free software; you can redistribute it and/or modify
4
5
# it under the terms of the GNU General Public License as published by
14
15
# along with this program; if not, write to the Free Software
15
16
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
17
 
17
 
# TODO: Could remember a bias towards whether a particular store is typically
18
 
# compressed or not.
19
 
 
20
 
"""
21
 
Stores are the main data-storage mechanism for Bazaar-NG.
 
18
"""Stores are the main data-storage mechanism for Bazaar-NG.
22
19
 
23
20
A store is a simple write-once container indexed by a universally
24
 
unique ID.
25
 
"""
26
 
 
27
 
from bzrlib.errors import BzrError, UnlistableStore, TransportNotPossible
28
 
from bzrlib.trace import mutter
29
 
import bzrlib.transport
 
21
unique ID, which is typically the SHA-1 of the content."""
 
22
 
 
23
__copyright__ = "Copyright (C) 2005 Canonical Ltd."
 
24
__author__ = "Martin Pool <mbp@canonical.com>"
 
25
 
 
26
import os, tempfile, types, osutils, gzip, errno
 
27
from stat import ST_SIZE
 
28
from StringIO import StringIO
 
29
from trace import mutter
30
30
 
31
31
######################################################################
32
32
# stores
34
34
class StoreError(Exception):
35
35
    pass
36
36
 
37
 
class Store(object):
38
 
    """This class represents the abstract storage layout for saving information.
 
37
 
 
38
class ImmutableStore:
 
39
    """Store that holds files indexed by unique names.
 
40
 
 
41
    Files can be added, but not modified once they are in.  Typically
 
42
    the hash is used as the name, or something else known to be unique,
 
43
    such as a UUID.
 
44
 
 
45
    >>> st = ImmutableScratchStore()
 
46
 
 
47
    >>> st.add(StringIO('hello'), 'aa')
 
48
    >>> 'aa' in st
 
49
    True
 
50
    >>> 'foo' in st
 
51
    False
 
52
 
 
53
    You are not allowed to add an id that is already present.
 
54
 
 
55
    Entries can be retrieved as files, which may then be read.
 
56
 
 
57
    >>> st.add(StringIO('goodbye'), '123123')
 
58
    >>> st['123123'].read()
 
59
    'goodbye'
 
60
 
 
61
    :todo: Atomic add by writing to a temporary file and renaming.
 
62
 
 
63
    :todo: Perhaps automatically transform to/from XML in a method?
 
64
           Would just need to tell the constructor what class to
 
65
           use...
 
66
 
 
67
    :todo: Even within a simple disk store like this, we could
 
68
           gzip the files.  But since many are less than one disk
 
69
           block, that might not help a lot.
 
70
 
39
71
    """
40
 
    _transport = None
41
 
    _max_buffered_requests = 10
42
 
 
43
 
    def __init__(self, transport):
44
 
        assert isinstance(transport, bzrlib.transport.Transport)
45
 
        self._transport = transport
 
72
 
 
73
    def __init__(self, basedir):
 
74
        """ImmutableStore constructor."""
 
75
        self._basedir = basedir
 
76
 
 
77
    def _path(self, id):
 
78
        return os.path.join(self._basedir, id)
46
79
 
47
80
    def __repr__(self):
48
 
        if self._transport is None:
49
 
            return "%s(None)" % (self.__class__.__name__)
50
 
        else:
51
 
            return "%s(%r)" % (self.__class__.__name__, self._transport.base)
52
 
 
53
 
    __str__ = __repr__
 
81
        return "%s(%r)" % (self.__class__.__name__, self._basedir)
 
82
 
 
83
    def add(self, f, fileid, compressed=True):
 
84
        """Add contents of a file into the store.
 
85
 
 
86
        :param f: An open file, or file-like object."""
 
87
        # FIXME: Only works on smallish files
 
88
        # TODO: Can be optimized by copying at the same time as
 
89
        # computing the sum.
 
90
        mutter("add store entry %r" % (fileid))
 
91
        if isinstance(f, types.StringTypes):
 
92
            content = f
 
93
        else:
 
94
            content = f.read()
 
95
 
 
96
        p = self._path(fileid)
 
97
        if os.access(p, os.F_OK) or os.access(p + '.gz', os.F_OK):
 
98
            bailout("store %r already contains id %r" % (self._basedir, fileid))
 
99
 
 
100
        if compressed:
 
101
            f = gzip.GzipFile(p + '.gz', 'wb')
 
102
            os.chmod(p + '.gz', 0444)
 
103
        else:
 
104
            f = file(p, 'wb')
 
105
            os.chmod(p, 0444)
 
106
            
 
107
        f.write(content)
 
108
        f.close()
 
109
 
 
110
 
 
111
    def __contains__(self, fileid):
 
112
        """"""
 
113
        p = self._path(fileid)
 
114
        return (os.access(p, os.R_OK)
 
115
                or os.access(p + '.gz', os.R_OK))
 
116
 
 
117
    # TODO: Guard against the same thing being stored twice, compressed and uncompresse
 
118
 
 
119
    def __iter__(self):
 
120
        for f in os.listdir(self._basedir):
 
121
            if f[-3:] == '.gz':
 
122
                # TODO: case-insensitive?
 
123
                yield f[:-3]
 
124
            else:
 
125
                yield f
54
126
 
55
127
    def __len__(self):
56
 
        raise NotImplementedError('Children should define their length')
 
128
        return len(os.listdir(self._basedir))
57
129
 
58
130
    def __getitem__(self, fileid):
59
131
        """Returns a file reading from a particular entry."""
60
 
        raise NotImplementedError
61
 
 
62
 
    def __contains__(self, fileid):
63
 
        """"""
64
 
        raise NotImplementedError
65
 
 
66
 
    def __iter__(self):
67
 
        raise NotImplementedError
68
 
 
69
 
    def add(self, f, fileid):
70
 
        """Add a file object f to the store accessible from the given fileid"""
71
 
        raise NotImplementedError('Children of Store must define their method of adding entries.')
72
 
 
73
 
    def add_multi(self, entries):
74
 
        """Add a series of file-like or string objects to the store with the given
75
 
        identities.
76
 
        
77
 
        :param entries: A list of tuples of file,id pairs [(file1, id1), (file2, id2), ...]
78
 
                        This could also be a generator yielding (file,id) pairs.
79
 
        """
80
 
        for f, fileid in entries:
81
 
            self.add(f, fileid)
82
 
 
83
 
    def has(self, fileids):
84
 
        """Return True/False for each entry in fileids.
85
 
 
86
 
        :param fileids: A List or generator yielding file ids.
87
 
        :return: A generator or list returning True/False for each entry.
88
 
        """
89
 
        for fileid in fileids:
90
 
            if fileid in self:
91
 
                yield True
 
132
        p = self._path(fileid)
 
133
        try:
 
134
            return gzip.GzipFile(p + '.gz', 'rb')
 
135
        except IOError, e:
 
136
            if e.errno == errno.ENOENT:
 
137
                return file(p, 'rb')
92
138
            else:
93
 
                yield False
94
 
 
95
 
    def get(self, fileids, permit_failure=False, pb=None):
96
 
        """Return a set of files, one for each requested entry.
97
 
        
98
 
        :param permit_failure: If true, return None for entries which do not 
99
 
                               exist.
100
 
        :return: A list or generator of file-like objects, one for each id.
101
 
        """
102
 
        for fileid in fileids:
 
139
                raise e
 
140
 
 
141
    def total_size(self):
 
142
        """Return (count, bytes)
 
143
 
 
144
        This is the (compressed) size stored on disk, not the size of
 
145
        the content."""
 
146
        total = 0
 
147
        count = 0
 
148
        for fid in self:
 
149
            count += 1
 
150
            p = self._path(fid)
103
151
            try:
104
 
                yield self[fileid]
105
 
            except KeyError:
106
 
                if permit_failure:
107
 
                    yield None
108
 
                else:
109
 
                    raise
110
 
 
111
 
    def copy_multi(self, other, ids, pb=None, permit_failure=False):
112
 
        """Copy texts for ids from other into self.
113
 
 
114
 
        If an id is present in self, it is skipped.  A count of copied
115
 
        ids is returned, which may be less than len(ids).
116
 
 
117
 
        :param other: Another Store object
118
 
        :param ids: A list of entry ids to be copied
119
 
        :param pb: A ProgressBar object, if none is given, the default will be created.
120
 
        :param permit_failure: Allow missing entries to be ignored
121
 
        :return: (n_copied, [failed]) The number of entries copied successfully,
122
 
            followed by a list of entries which could not be copied (because they
123
 
            were missing)
124
 
        """
125
 
        if pb is None:
126
 
            pb = bzrlib.ui.ui_factory.progress_bar()
127
 
 
128
 
        ids = list(ids) # Make sure we don't have a generator, since we iterate 2 times
129
 
        pb.update('preparing to copy')
130
 
        to_copy = []
131
 
        for file_id, has in zip(ids, self.has(ids)):
132
 
            if not has:
133
 
                to_copy.append(file_id)
134
 
        return self._do_copy(other, to_copy, pb, permit_failure=permit_failure)
135
 
 
136
 
    def _do_copy(self, other, to_copy, pb, permit_failure=False):
137
 
        """This is the standard copying mechanism, just get them one at
138
 
        a time from remote, and store them locally.
139
 
 
140
 
        :param other: Another Store object
141
 
        :param to_copy: A list of entry ids to copy
142
 
        :param pb: A ProgressBar object to display completion status.
143
 
        :param permit_failure: Allow missing entries to be ignored
144
 
        :return: (n_copied, [failed])
145
 
            The number of entries copied, and a list of failed entries.
146
 
        """
147
 
        # This should be updated to use add_multi() rather than
148
 
        # the current methods of buffering requests.
149
 
        # One question, is it faster to queue up 1-10 and then copy 1-10
150
 
        # then queue up 11-20, copy 11-20
151
 
        # or to queue up 1-10, copy 1, queue 11, copy 2, etc?
152
 
        # sort of pipeline versus batch.
153
 
 
154
 
        # We can't use self._transport.copy_to because we don't know
155
 
        # whether the local tree is in the same format as other
156
 
        failed = set()
157
 
        def buffer_requests():
158
 
            count = 0
159
 
            buffered_requests = []
160
 
            for fileid in to_copy:
161
 
                try:
162
 
                    f = other[fileid]
163
 
                except KeyError:
164
 
                    if permit_failure:
165
 
                        failed.add(fileid)
166
 
                        continue
167
 
                    else:
168
 
                        raise
169
 
 
170
 
                buffered_requests.append((f, fileid))
171
 
                if len(buffered_requests) > self._max_buffered_requests:
172
 
                    yield buffered_requests.pop(0)
173
 
                    count += 1
174
 
                    pb.update('copy', count, len(to_copy))
175
 
 
176
 
            for req in buffered_requests:
177
 
                yield req
178
 
                count += 1
179
 
                pb.update('copy', count, len(to_copy))
180
 
 
181
 
            assert count == len(to_copy)
182
 
 
183
 
        self.add_multi(buffer_requests())
184
 
 
185
 
        pb.clear()
186
 
        return len(to_copy), failed
187
 
 
188
 
def copy_all(store_from, store_to):
189
 
    """Copy all ids from one store to another."""
190
 
    if not hasattr(store_from, "__iter__"):
191
 
        raise UnlistableStore(store_from)
192
 
    try:
193
 
        ids = [f for f in store_from]
194
 
    except (NotImplementedError, TransportNotPossible):
195
 
        raise UnlistableStore(store_from)
196
 
    store_to.copy_multi(store_from, ids)
197
 
 
 
152
                total += os.stat(p)[ST_SIZE]
 
153
            except OSError:
 
154
                total += os.stat(p + '.gz')[ST_SIZE]
 
155
                
 
156
        return count, total
 
157
 
 
158
 
 
159
 
 
160
 
 
161
class ImmutableScratchStore(ImmutableStore):
 
162
    """Self-destructing test subclass of ImmutableStore.
 
163
 
 
164
    The Store only exists for the lifetime of the Python object.
 
165
    Obviously you should not put anything precious in it.
 
166
    """
 
167
    def __init__(self):
 
168
        ImmutableStore.__init__(self, tempfile.mkdtemp())
 
169
 
 
170
    def __del__(self):
 
171
        for f in os.listdir(self._basedir):
 
172
            fpath = os.path.join(self._basedir, f)
 
173
            # needed on windows, and maybe some other filesystems
 
174
            os.chmod(fpath, 0600)
 
175
            os.remove(fpath)
 
176
        os.rmdir(self._basedir)
 
177
        mutter("%r destroyed" % self)