~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/hashcache.py

  • Committer: Robert Collins
  • Date: 2005-12-24 02:20:45 UTC
  • mto: (1185.50.57 bzr-jam-integration)
  • mto: This revision was merged to the branch mainline in revision 1550.
  • Revision ID: robertc@robertcollins.net-20051224022045-14efc8dfa0e1a4e9
Start tests for api usage.

Show diffs side-by-side

added added

removed removed

Lines of Context:
23
23
# TODO: Perhaps return more details on the file to avoid statting it
24
24
# again: nonexistent, file type, size, etc
25
25
 
 
26
# TODO: Perhaps use a Python pickle instead of a text file; might be faster.
 
27
 
26
28
 
27
29
 
28
30
CACHE_HEADER = "### bzr hashcache v5\n"
29
31
 
30
32
import os, stat, time
 
33
import sha
31
34
 
32
35
from bzrlib.osutils import sha_file
33
36
from bzrlib.trace import mutter, warning
34
 
 
35
 
 
 
37
from bzrlib.atomicfile import AtomicFile
 
38
 
 
39
 
 
40
FP_MODE_COLUMN = 5
36
41
 
37
42
def _fingerprint(abspath):
38
43
    try:
47
52
    # we discard any high precision because it's not reliable; perhaps we
48
53
    # could do better on some systems?
49
54
    return (fs.st_size, long(fs.st_mtime),
50
 
            long(fs.st_ctime), fs.st_ino, fs.st_dev)
 
55
            long(fs.st_ctime), fs.st_ino, fs.st_dev, fs.st_mode)
51
56
 
52
57
 
53
58
class HashCache(object):
96
101
        self.update_count = 0
97
102
        self._cache = {}
98
103
 
99
 
 
100
104
    def cache_file_name(self):
 
105
        # FIXME: duplicate path logic here, this should be 
 
106
        # something like 'branch.controlfile'.
101
107
        return os.sep.join([self.basedir, '.bzr', 'stat-cache'])
102
108
 
103
 
 
104
 
 
105
 
 
106
109
    def clear(self):
107
110
        """Discard all cached information.
108
111
 
135
138
                del self._cache[path]
136
139
 
137
140
 
138
 
 
139
141
    def get_sha1(self, path):
140
142
        """Return the sha1 of a file.
141
143
        """
161
163
            return cache_sha1
162
164
        
163
165
        self.miss_count += 1
164
 
        digest = sha_file(file(abspath, 'rb', buffering=65000))
 
166
 
 
167
 
 
168
        mode = file_fp[FP_MODE_COLUMN]
 
169
        if stat.S_ISREG(mode):
 
170
            digest = sha_file(file(abspath, 'rb', buffering=65000))
 
171
        elif stat.S_ISLNK(mode):
 
172
            link_target = os.readlink(abspath)
 
173
            digest = sha.new(os.readlink(abspath)).hexdigest()
 
174
        else:
 
175
            raise BzrError("file %r: unknown file stat mode: %o"%(abspath,mode))
165
176
 
166
177
        now = int(time.time())
167
178
        if file_fp[1] >= now or file_fp[2] >= now:
177
188
            self.update_count += 1
178
189
            self.needs_write = True
179
190
            self._cache[path] = (digest, file_fp)
180
 
        
181
191
        return digest
182
192
        
183
 
 
184
 
 
185
 
 
186
193
    def write(self):
187
194
        """Write contents of cache to file."""
188
 
        from atomicfile import AtomicFile
189
 
 
190
195
        outf = AtomicFile(self.cache_file_name(), 'wb')
191
196
        try:
192
197
            print >>outf, CACHE_HEADER,
205
210
        finally:
206
211
            if not outf.closed:
207
212
                outf.abort()
208
 
        
209
 
 
210
213
 
211
214
    def read(self):
212
215
        """Reinstate cache from file.
221
224
        try:
222
225
            inf = file(fn, 'rb', buffering=65000)
223
226
        except IOError, e:
224
 
            mutter("failed to open %s: %s" % (fn, e))
 
227
            mutter("failed to open %s: %s", fn, e)
 
228
            # better write it now so it is valid
 
229
            self.needs_write = True
225
230
            return
226
231
 
227
232
 
228
233
        hdr = inf.readline()
229
234
        if hdr != CACHE_HEADER:
230
 
            mutter('cache header marker not found at top of %s; discarding cache'
231
 
                   % fn)
 
235
            mutter('cache header marker not found at top of %s;'
 
236
                   ' discarding cache', fn)
 
237
            self.needs_write = True
232
238
            return
233
239
 
234
240
        for l in inf:
240
246
 
241
247
            pos += 3
242
248
            fields = l[pos:].split(' ')
243
 
            if len(fields) != 6:
 
249
            if len(fields) != 7:
244
250
                warning("bad line in hashcache: %r" % l)
245
251
                continue
246
252