~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/hashcache.py

  • Committer: Martin Pool
  • Date: 2005-09-05 08:00:35 UTC
  • Revision ID: mbp@sourcefrog.net-20050905080035-e0439293f8b6b9f9
- start splitting code for xml (de)serialization away from objects
  preparatory to supporting multiple formats by a single library

Show diffs side-by-side

added added

removed removed

Lines of Context:
23
23
# TODO: Perhaps return more details on the file to avoid statting it
24
24
# again: nonexistent, file type, size, etc
25
25
 
26
 
# TODO: Perhaps use a Python pickle instead of a text file; might be faster.
27
 
 
28
26
 
29
27
 
30
28
CACHE_HEADER = "### bzr hashcache v5\n"
31
29
 
32
30
import os, stat, time
33
 
import sha
34
31
 
35
32
from bzrlib.osutils import sha_file
36
33
from bzrlib.trace import mutter, warning
37
 
from bzrlib.atomicfile import AtomicFile
38
 
 
39
 
 
40
 
FP_MODE_COLUMN = 5
 
34
 
 
35
 
41
36
 
42
37
def _fingerprint(abspath):
43
38
    try:
52
47
    # we discard any high precision because it's not reliable; perhaps we
53
48
    # could do better on some systems?
54
49
    return (fs.st_size, long(fs.st_mtime),
55
 
            long(fs.st_ctime), fs.st_ino, fs.st_dev, fs.st_mode)
 
50
            long(fs.st_ctime), fs.st_ino, fs.st_dev)
56
51
 
57
52
 
58
53
class HashCache(object):
101
96
        self.update_count = 0
102
97
        self._cache = {}
103
98
 
 
99
 
104
100
    def cache_file_name(self):
105
 
        # FIXME: duplicate path logic here, this should be 
106
 
        # something like 'branch.controlfile'.
107
101
        return os.sep.join([self.basedir, '.bzr', 'stat-cache'])
108
102
 
 
103
 
 
104
 
 
105
 
109
106
    def clear(self):
110
107
        """Discard all cached information.
111
108
 
138
135
                del self._cache[path]
139
136
 
140
137
 
 
138
 
141
139
    def get_sha1(self, path):
142
140
        """Return the sha1 of a file.
143
141
        """
163
161
            return cache_sha1
164
162
        
165
163
        self.miss_count += 1
166
 
 
167
 
 
168
 
        mode = file_fp[FP_MODE_COLUMN]
169
 
        if stat.S_ISREG(mode):
170
 
            digest = sha_file(file(abspath, 'rb', buffering=65000))
171
 
        elif stat.S_ISLNK(mode):
172
 
            link_target = os.readlink(abspath)
173
 
            digest = sha.new(os.readlink(abspath)).hexdigest()
174
 
        else:
175
 
            raise BzrError("file %r: unknown file stat mode: %o"%(abspath,mode))
 
164
        digest = sha_file(file(abspath, 'rb', buffering=65000))
176
165
 
177
166
        now = int(time.time())
178
167
        if file_fp[1] >= now or file_fp[2] >= now:
188
177
            self.update_count += 1
189
178
            self.needs_write = True
190
179
            self._cache[path] = (digest, file_fp)
 
180
        
191
181
        return digest
192
182
        
 
183
 
 
184
 
 
185
 
193
186
    def write(self):
194
187
        """Write contents of cache to file."""
 
188
        from atomicfile import AtomicFile
 
189
 
195
190
        outf = AtomicFile(self.cache_file_name(), 'wb')
196
191
        try:
197
192
            print >>outf, CACHE_HEADER,
210
205
        finally:
211
206
            if not outf.closed:
212
207
                outf.abort()
 
208
        
 
209
 
213
210
 
214
211
    def read(self):
215
212
        """Reinstate cache from file.
224
221
        try:
225
222
            inf = file(fn, 'rb', buffering=65000)
226
223
        except IOError, e:
227
 
            mutter("failed to open %s: %s", fn, e)
228
 
            # better write it now so it is valid
229
 
            self.needs_write = True
 
224
            mutter("failed to open %s: %s" % (fn, e))
230
225
            return
231
226
 
232
227
 
233
228
        hdr = inf.readline()
234
229
        if hdr != CACHE_HEADER:
235
 
            mutter('cache header marker not found at top of %s;'
236
 
                   ' discarding cache', fn)
237
 
            self.needs_write = True
 
230
            mutter('cache header marker not found at top of %s; discarding cache'
 
231
                   % fn)
238
232
            return
239
233
 
240
234
        for l in inf:
246
240
 
247
241
            pos += 3
248
242
            fields = l[pos:].split(' ')
249
 
            if len(fields) != 7:
 
243
            if len(fields) != 6:
250
244
                warning("bad line in hashcache: %r" % l)
251
245
                continue
252
246