~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/tests/test_hashcache.py

  • Committer: Aaron Bentley
  • Date: 2007-01-11 03:46:53 UTC
  • mto: (2255.6.1 dirstate)
  • mto: This revision was merged to the branch mainline in revision 2322.
  • Revision ID: aaron.bentley@utoronto.ca-20070111034653-wa1n3uy49wbvom5m
Remove get_format_*, make FormatRegistry.register_metadir vary working tree

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# (C) 2005 Canonical Ltd
2
 
 
 
1
# Copyright (C) 2005, 2006 Canonical Ltd
 
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
 
 
7
#
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
 
 
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
from bzrlib.selftest import TestCaseInTempDir
 
17
import os
 
18
import sha
 
19
import stat
 
20
import sys
 
21
import time
18
22
 
 
23
from bzrlib.errors import BzrError
 
24
from bzrlib.hashcache import HashCache
 
25
from bzrlib.tests import TestCaseInTempDir, TestSkipped, TestCase
19
26
 
20
27
 
21
28
def sha1(t):
22
 
    import sha
23
29
    return sha.new(t).hexdigest()
24
30
 
25
31
 
26
32
def pause():
27
 
    import time
28
 
    # allow it to stabilize
29
 
    start = int(time.time())
30
 
    while int(time.time()) == start:
31
 
        time.sleep(0.2)
32
 
    
 
33
    time.sleep(5.0)
 
34
 
33
35
 
34
36
class TestHashCache(TestCaseInTempDir):
35
 
 
36
 
    def test_hashcache(self):
37
 
        """Functional tests for hashcache"""
38
 
        from bzrlib.hashcache import HashCache
39
 
        import os
40
 
 
 
37
    """Test the hashcache against a real directory"""
 
38
 
 
39
    def make_hashcache(self):
41
40
        # make a dummy bzr directory just to hold the cache
42
41
        os.mkdir('.bzr')
43
 
        hc = HashCache('.')
44
 
 
45
 
        file('foo', 'wb').write('hello')
46
 
        os.mkdir('subdir')
47
 
        pause()
48
 
 
 
42
        hc = HashCache('.', '.bzr/stat-cache')
 
43
        return hc
 
44
 
 
45
    def reopen_hashcache(self):
 
46
        hc = HashCache('.', '.bzr/stat-cache')
 
47
        hc.read()
 
48
        return hc
 
49
 
 
50
    def test_hashcache_initial_miss(self):
 
51
        """Get correct hash from an empty hashcache"""
 
52
        hc = self.make_hashcache()
 
53
        self.build_tree_contents([('foo', 'hello')])
49
54
        self.assertEquals(hc.get_sha1('foo'),
50
55
                          'aaf4c61ddcc5e8a2dabede0f3b482cd9aea9434d')
51
56
        self.assertEquals(hc.miss_count, 1)
52
57
        self.assertEquals(hc.hit_count, 0)
53
58
 
54
 
        # check we hit without re-reading
55
 
        self.assertEquals(hc.get_sha1('foo'),
56
 
                          'aaf4c61ddcc5e8a2dabede0f3b482cd9aea9434d')
57
 
        self.assertEquals(hc.miss_count, 1)
58
 
        self.assertEquals(hc.hit_count, 1)
59
 
 
60
 
        # check again without re-reading
61
 
        self.assertEquals(hc.get_sha1('foo'),
62
 
                          'aaf4c61ddcc5e8a2dabede0f3b482cd9aea9434d')
63
 
        self.assertEquals(hc.miss_count, 1)
64
 
        self.assertEquals(hc.hit_count, 2)
65
 
 
66
 
        # write new file and make sure it is seen
67
 
        file('foo', 'wb').write('goodbye')
68
 
        pause()
69
 
        self.assertEquals(hc.get_sha1('foo'),
70
 
                          '3c8ec4874488f6090a157b014ce3397ca8e06d4f')
71
 
        self.assertEquals(hc.miss_count, 2)
72
 
 
73
 
        # quickly write new file of same size and make sure it is seen
74
 
        # this may rely on detection of timestamps that are too close
75
 
        # together to be safe
76
 
        file('foo', 'wb').write('g00dbye')
77
 
        self.assertEquals(hc.get_sha1('foo'),
78
 
                          sha1('g00dbye'))
79
 
 
80
 
        file('foo2', 'wb').write('other file')
81
 
        self.assertEquals(hc.get_sha1('foo2'), sha1('other file'))
82
 
 
83
 
        os.remove('foo2')
84
 
        self.assertEquals(hc.get_sha1('foo2'), None)
85
 
 
86
 
        file('foo2', 'wb').write('new content')
87
 
        self.assertEquals(hc.get_sha1('foo2'), sha1('new content'))
88
 
 
 
59
    def test_hashcache_new_file(self):
 
60
        hc = self.make_hashcache()
 
61
        self.build_tree_contents([('foo', 'goodbye')])
 
62
        # now read without pausing; it may not be possible to cache it as its
 
63
        # so new
 
64
        self.assertEquals(hc.get_sha1('foo'), sha1('goodbye'))
 
65
 
 
66
    def test_hashcache_nonexistent_file(self):
 
67
        hc = self.make_hashcache()
 
68
        self.assertEquals(hc.get_sha1('no-name-yet'), None)
 
69
 
 
70
    def test_hashcache_replaced_file(self):
 
71
        hc = self.make_hashcache()
 
72
        self.build_tree_contents([('foo', 'goodbye')])
 
73
        self.assertEquals(hc.get_sha1('foo'), sha1('goodbye'))
 
74
        os.remove('foo')
 
75
        self.assertEquals(hc.get_sha1('foo'), None)
 
76
        self.build_tree_contents([('foo', 'new content')])
 
77
        self.assertEquals(hc.get_sha1('foo'), sha1('new content'))
 
78
 
 
79
    def test_hashcache_not_file(self):
 
80
        hc = self.make_hashcache()
 
81
        self.build_tree(['subdir/'])
89
82
        self.assertEquals(hc.get_sha1('subdir'), None)
90
83
 
91
 
        # it's likely neither are cached at the moment because they 
92
 
        # changed recently, but we can't be sure
 
84
    def test_hashcache_load(self):
 
85
        hc = self.make_hashcache()
 
86
        self.build_tree_contents([('foo', 'contents')])
93
87
        pause()
94
 
 
95
 
        # should now be safe to cache it if we reread them
96
 
        self.assertEquals(hc.get_sha1('foo'), sha1('g00dbye'))
97
 
        self.assertEquals(len(hc._cache), 1)
98
 
        self.assertEquals(hc.get_sha1('foo2'), sha1('new content'))
99
 
        self.assertEquals(len(hc._cache), 2)
100
 
 
101
 
        # write out, read back in and check that we don't need to
102
 
        # re-read any files
 
88
        self.assertEquals(hc.get_sha1('foo'), sha1('contents'))
103
89
        hc.write()
104
 
        del hc
105
 
 
106
 
        hc = HashCache('.')
107
 
        hc.read()
108
 
 
109
 
        self.assertEquals(len(hc._cache), 2)
110
 
        self.assertEquals(hc.get_sha1('foo'), sha1('g00dbye'))
111
 
        self.assertEquals(hc.hit_count, 1)
112
 
        self.assertEquals(hc.miss_count, 0)
113
 
        self.assertEquals(hc.get_sha1('foo2'), sha1('new content'))
 
90
        hc = self.reopen_hashcache()
 
91
        self.assertEquals(hc.get_sha1('foo'), sha1('contents'))
 
92
        self.assertEquals(hc.hit_count, 1)
 
93
 
 
94
    def test_hammer_hashcache(self):
 
95
        hc = self.make_hashcache()
 
96
        for i in xrange(10000):
 
97
            self.log('start writing at %s', time.time())
 
98
            f = file('foo', 'w')
 
99
            try:
 
100
                last_content = '%08x' % i
 
101
                f.write(last_content)
 
102
            finally:
 
103
                f.close()
 
104
            last_sha1 = sha1(last_content)
 
105
            self.log("iteration %d: %r -> %r",
 
106
                     i, last_content, last_sha1)
 
107
            got_sha1 = hc.get_sha1('foo')
 
108
            self.assertEquals(got_sha1, last_sha1)
 
109
            hc.write()
 
110
            hc = self.reopen_hashcache()
 
111
 
 
112
    def test_hashcache_raise(self):
 
113
        """check that hashcache can raise BzrError"""
 
114
        hc = self.make_hashcache()
 
115
        if getattr(os, 'mkfifo', None) is None:
 
116
            raise TestSkipped('filesystem fifos not supported on this system')
 
117
        os.mkfifo('a')
 
118
        # It's possible that the system supports fifos but the filesystem
 
119
        # can't.  In that case we should skip at this point.  But in fact
 
120
        # such combinations don't usually occur for the filesystem where
 
121
        # people test bzr.
 
122
        self.assertRaises(BzrError, hc.get_sha1, 'a')
 
123
 
 
124
 
 
125
class FakeHashCache(HashCache):
 
126
    """Hashcache that consults a fake clock rather than the real one.
 
127
 
 
128
    This lets us examine how old or new files would be handled, without
 
129
    actually having to wait for time to pass.
 
130
    """
 
131
    def __init__(self):
 
132
        # set root and cache file name to none to make sure we won't touch the
 
133
        # real filesystem
 
134
        HashCache.__init__(self, '.', 'hashcache')
 
135
        self._files = {}
 
136
        # simulated clock running forward as operations happen
 
137
        self._clock = 0
 
138
 
 
139
    def put_file(self, filename, file_contents):
 
140
        abspath = './' + filename
 
141
        self._files[abspath] = (file_contents, self._clock)
 
142
 
 
143
    def _fingerprint(self, abspath, fs=None):
 
144
        entry = self._files[abspath]
 
145
        return (len(entry[0]),
 
146
                entry[1], entry[1],
 
147
                10, 20,
 
148
                stat.S_IFREG | 0600)
 
149
 
 
150
    def _really_sha1_file(self, abspath):
 
151
        if abspath in self._files:
 
152
            return sha1(self._files[abspath][0])
 
153
        else:
 
154
            return None
 
155
 
 
156
    def _cutoff_time(self):
 
157
        return self._clock - 2
 
158
 
 
159
    def pretend_to_sleep(self, secs):
 
160
        self._clock += secs
 
161
 
 
162
    
 
163
class TestHashCacheFakeFilesystem(TestCaseInTempDir):
 
164
    """Tests the hashcache using a simulated OS.
 
165
    """
 
166
 
 
167
    def make_hashcache(self):
 
168
        return FakeHashCache()
 
169
 
 
170
    def test_hashcache_miss_new_file(self):
 
171
        """A new file gives the right sha1 but misses"""
 
172
        hc = self.make_hashcache()
 
173
        hc.put_file('foo', 'hello')
 
174
        self.assertEquals(hc.get_sha1('foo'), sha1('hello'))
 
175
        self.assertEquals(hc.miss_count, 1)
 
176
        self.assertEquals(hc.hit_count, 0)
 
177
        # if we try again it's still too new; 
 
178
        self.assertEquals(hc.get_sha1('foo'), sha1('hello'))
 
179
        self.assertEquals(hc.miss_count, 2)
 
180
        self.assertEquals(hc.hit_count, 0)
 
181
 
 
182
    def test_hashcache_old_file(self):
 
183
        """An old file gives the right sha1 and hits"""
 
184
        hc = self.make_hashcache()
 
185
        hc.put_file('foo', 'hello')
 
186
        hc.pretend_to_sleep(20)
 
187
        # file is new; should get the correct hash but miss
 
188
        self.assertEquals(hc.get_sha1('foo'), sha1('hello'))
 
189
        self.assertEquals(hc.miss_count, 1)
 
190
        self.assertEquals(hc.hit_count, 0)
 
191
        # and can now be hit
 
192
        self.assertEquals(hc.get_sha1('foo'), sha1('hello'))
 
193
        self.assertEquals(hc.miss_count, 1)
 
194
        self.assertEquals(hc.hit_count, 1)
 
195
        hc.pretend_to_sleep(3)
 
196
        # and again
 
197
        self.assertEquals(hc.get_sha1('foo'), sha1('hello'))
 
198
        self.assertEquals(hc.miss_count, 1)
 
199
        self.assertEquals(hc.hit_count, 2)
 
200
 
 
201
    def test_hashcache_invalidates(self):
 
202
        hc = self.make_hashcache()
 
203
        hc.put_file('foo', 'hello')
 
204
        hc.pretend_to_sleep(20)
 
205
        hc.get_sha1('foo')
 
206
        hc.put_file('foo', 'h1llo')
 
207
        self.assertEquals(hc.get_sha1('foo'), sha1('h1llo'))
 
208
        self.assertEquals(hc.miss_count, 2)
 
209
        self.assertEquals(hc.hit_count, 0)