~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/tests/test_lru_cache.py

  • Committer: Robert Collins
  • Date: 2007-07-15 15:40:37 UTC
  • mto: (2592.3.33 repository)
  • mto: This revision was merged to the branch mainline in revision 2624.
  • Revision ID: robertc@robertcollins.net-20070715154037-3ar8g89decddc9su
Make GraphIndex accept nodes as key, value, references, so that the method
signature is closer to what a simple key->value index delivers. Also
change the behaviour when the reference list count is zero to accept
key, value as nodes, and emit key, value to make it identical in that case
to a simple key->value index. This may not be a good idea, but for now it
seems ok.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2006, 2008, 2009 Canonical Ltd
2
 
#
3
 
# This program is free software; you can redistribute it and/or modify
4
 
# it under the terms of the GNU General Public License as published by
5
 
# the Free Software Foundation; either version 2 of the License, or
6
 
# (at your option) any later version.
7
 
#
8
 
# This program is distributed in the hope that it will be useful,
9
 
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
 
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
 
# GNU General Public License for more details.
12
 
#
13
 
# You should have received a copy of the GNU General Public License
14
 
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
 
 
17
 
"""Tests for the lru_cache module."""
18
 
 
19
 
from bzrlib import (
20
 
    lru_cache,
21
 
    tests,
22
 
    )
23
 
 
24
 
 
25
 
class TestLRUCache(tests.TestCase):
26
 
    """Test that LRU cache properly keeps track of entries."""
27
 
 
28
 
    def test_cache_size(self):
29
 
        cache = lru_cache.LRUCache(max_cache=10)
30
 
        self.assertEqual(10, cache.cache_size())
31
 
 
32
 
        cache = lru_cache.LRUCache(max_cache=256)
33
 
        self.assertEqual(256, cache.cache_size())
34
 
 
35
 
        cache.resize(512)
36
 
        self.assertEqual(512, cache.cache_size())
37
 
 
38
 
    def test_missing(self):
39
 
        cache = lru_cache.LRUCache(max_cache=10)
40
 
 
41
 
        self.failIf('foo' in cache)
42
 
        self.assertRaises(KeyError, cache.__getitem__, 'foo')
43
 
 
44
 
        cache['foo'] = 'bar'
45
 
        self.assertEqual('bar', cache['foo'])
46
 
        self.failUnless('foo' in cache)
47
 
        self.failIf('bar' in cache)
48
 
 
49
 
    def test_map_None(self):
50
 
        # Make sure that we can properly map None as a key.
51
 
        cache = lru_cache.LRUCache(max_cache=10)
52
 
        self.failIf(None in cache)
53
 
        cache[None] = 1
54
 
        self.assertEqual(1, cache[None])
55
 
        cache[None] = 2
56
 
        self.assertEqual(2, cache[None])
57
 
        # Test the various code paths of __getitem__, to make sure that we can
58
 
        # handle when None is the key for the LRU and the MRU
59
 
        cache[1] = 3
60
 
        cache[None] = 1
61
 
        cache[None]
62
 
        cache[1]
63
 
        cache[None]
64
 
        self.assertEqual([None, 1], [n.key for n in cache._walk_lru()])
65
 
 
66
 
    def test_add__null_key(self):
67
 
        cache = lru_cache.LRUCache(max_cache=10)
68
 
        self.assertRaises(ValueError, cache.add, lru_cache._null_key, 1)
69
 
 
70
 
    def test_overflow(self):
71
 
        """Adding extra entries will pop out old ones."""
72
 
        cache = lru_cache.LRUCache(max_cache=1, after_cleanup_count=1)
73
 
 
74
 
        cache['foo'] = 'bar'
75
 
        # With a max cache of 1, adding 'baz' should pop out 'foo'
76
 
        cache['baz'] = 'biz'
77
 
 
78
 
        self.failIf('foo' in cache)
79
 
        self.failUnless('baz' in cache)
80
 
 
81
 
        self.assertEqual('biz', cache['baz'])
82
 
 
83
 
    def test_by_usage(self):
84
 
        """Accessing entries bumps them up in priority."""
85
 
        cache = lru_cache.LRUCache(max_cache=2)
86
 
 
87
 
        cache['baz'] = 'biz'
88
 
        cache['foo'] = 'bar'
89
 
 
90
 
        self.assertEqual('biz', cache['baz'])
91
 
 
92
 
        # This must kick out 'foo' because it was the last accessed
93
 
        cache['nub'] = 'in'
94
 
 
95
 
        self.failIf('foo' in cache)
96
 
 
97
 
    def test_cleanup(self):
98
 
        """Test that we can use a cleanup function."""
99
 
        cleanup_called = []
100
 
        def cleanup_func(key, val):
101
 
            cleanup_called.append((key, val))
102
 
 
103
 
        cache = lru_cache.LRUCache(max_cache=2)
104
 
 
105
 
        cache.add('baz', '1', cleanup=cleanup_func)
106
 
        cache.add('foo', '2', cleanup=cleanup_func)
107
 
        cache.add('biz', '3', cleanup=cleanup_func)
108
 
 
109
 
        self.assertEqual([('baz', '1')], cleanup_called)
110
 
 
111
 
        # 'foo' is now most recent, so final cleanup will call it last
112
 
        cache['foo']
113
 
        cache.clear()
114
 
        self.assertEqual([('baz', '1'), ('biz', '3'), ('foo', '2')],
115
 
                         cleanup_called)
116
 
 
117
 
    def test_cleanup_on_replace(self):
118
 
        """Replacing an object should cleanup the old value."""
119
 
        cleanup_called = []
120
 
        def cleanup_func(key, val):
121
 
            cleanup_called.append((key, val))
122
 
 
123
 
        cache = lru_cache.LRUCache(max_cache=2)
124
 
        cache.add(1, 10, cleanup=cleanup_func)
125
 
        cache.add(2, 20, cleanup=cleanup_func)
126
 
        cache.add(2, 25, cleanup=cleanup_func)
127
 
 
128
 
        self.assertEqual([(2, 20)], cleanup_called)
129
 
        self.assertEqual(25, cache[2])
130
 
 
131
 
        # Even __setitem__ should make sure cleanup() is called
132
 
        cache[2] = 26
133
 
        self.assertEqual([(2, 20), (2, 25)], cleanup_called)
134
 
 
135
 
    def test_cleanup_error_maintains_linked_list(self):
136
 
        cleanup_called = []
137
 
        def cleanup_func(key, val):
138
 
            cleanup_called.append((key, val))
139
 
            raise ValueError('failure during cleanup')
140
 
 
141
 
        cache = lru_cache.LRUCache(max_cache=10)
142
 
        for i in xrange(10):
143
 
            cache.add(i, i, cleanup=cleanup_func)
144
 
        for i in xrange(10, 20):
145
 
            self.assertRaises(ValueError,
146
 
                cache.add, i, i, cleanup=cleanup_func)
147
 
 
148
 
        self.assertEqual([(i, i) for i in xrange(10)], cleanup_called)
149
 
 
150
 
        self.assertEqual(range(19, 9, -1), [n.key for n in cache._walk_lru()])
151
 
 
152
 
    def test_cleanup_during_replace_still_replaces(self):
153
 
        cleanup_called = []
154
 
        def cleanup_func(key, val):
155
 
            cleanup_called.append((key, val))
156
 
            raise ValueError('failure during cleanup')
157
 
 
158
 
        cache = lru_cache.LRUCache(max_cache=10)
159
 
        for i in xrange(10):
160
 
            cache.add(i, i, cleanup=cleanup_func)
161
 
        self.assertRaises(ValueError,
162
 
            cache.add, 1, 20, cleanup=cleanup_func)
163
 
        # We also still update the recent access to this node
164
 
        self.assertEqual([1, 9, 8, 7, 6, 5, 4, 3, 2, 0],
165
 
                         [n.key for n in cache._walk_lru()])
166
 
        self.assertEqual(20, cache[1])
167
 
 
168
 
        self.assertEqual([(1, 1)], cleanup_called)
169
 
        self.assertEqual([1, 9, 8, 7, 6, 5, 4, 3, 2, 0],
170
 
                         [n.key for n in cache._walk_lru()])
171
 
 
172
 
    def test_len(self):
173
 
        cache = lru_cache.LRUCache(max_cache=10, after_cleanup_count=10)
174
 
 
175
 
        cache[1] = 10
176
 
        cache[2] = 20
177
 
        cache[3] = 30
178
 
        cache[4] = 40
179
 
 
180
 
        self.assertEqual(4, len(cache))
181
 
 
182
 
        cache[5] = 50
183
 
        cache[6] = 60
184
 
        cache[7] = 70
185
 
        cache[8] = 80
186
 
 
187
 
        self.assertEqual(8, len(cache))
188
 
 
189
 
        cache[1] = 15 # replacement
190
 
 
191
 
        self.assertEqual(8, len(cache))
192
 
 
193
 
        cache[9] = 90
194
 
        cache[10] = 100
195
 
        cache[11] = 110
196
 
 
197
 
        # We hit the max
198
 
        self.assertEqual(10, len(cache))
199
 
        self.assertEqual([11, 10, 9, 1, 8, 7, 6, 5, 4, 3],
200
 
                         [n.key for n in cache._walk_lru()])
201
 
 
202
 
    def test_cleanup_shrinks_to_after_clean_count(self):
203
 
        cache = lru_cache.LRUCache(max_cache=5, after_cleanup_count=3)
204
 
 
205
 
        cache.add(1, 10)
206
 
        cache.add(2, 20)
207
 
        cache.add(3, 25)
208
 
        cache.add(4, 30)
209
 
        cache.add(5, 35)
210
 
 
211
 
        self.assertEqual(5, len(cache))
212
 
        # This will bump us over the max, which causes us to shrink down to
213
 
        # after_cleanup_cache size
214
 
        cache.add(6, 40)
215
 
        self.assertEqual(3, len(cache))
216
 
 
217
 
    def test_after_cleanup_larger_than_max(self):
218
 
        cache = lru_cache.LRUCache(max_cache=5, after_cleanup_count=10)
219
 
        self.assertEqual(5, cache._after_cleanup_count)
220
 
 
221
 
    def test_after_cleanup_none(self):
222
 
        cache = lru_cache.LRUCache(max_cache=5, after_cleanup_count=None)
223
 
        # By default _after_cleanup_size is 80% of the normal size
224
 
        self.assertEqual(4, cache._after_cleanup_count)
225
 
 
226
 
    def test_cleanup(self):
227
 
        cache = lru_cache.LRUCache(max_cache=5, after_cleanup_count=2)
228
 
 
229
 
        # Add these in order
230
 
        cache.add(1, 10)
231
 
        cache.add(2, 20)
232
 
        cache.add(3, 25)
233
 
        cache.add(4, 30)
234
 
        cache.add(5, 35)
235
 
 
236
 
        self.assertEqual(5, len(cache))
237
 
        # Force a compaction
238
 
        cache.cleanup()
239
 
        self.assertEqual(2, len(cache))
240
 
 
241
 
    def test_preserve_last_access_order(self):
242
 
        cache = lru_cache.LRUCache(max_cache=5)
243
 
 
244
 
        # Add these in order
245
 
        cache.add(1, 10)
246
 
        cache.add(2, 20)
247
 
        cache.add(3, 25)
248
 
        cache.add(4, 30)
249
 
        cache.add(5, 35)
250
 
 
251
 
        self.assertEqual([5, 4, 3, 2, 1], [n.key for n in cache._walk_lru()])
252
 
 
253
 
        # Now access some randomly
254
 
        cache[2]
255
 
        cache[5]
256
 
        cache[3]
257
 
        cache[2]
258
 
        self.assertEqual([2, 3, 5, 4, 1], [n.key for n in cache._walk_lru()])
259
 
 
260
 
    def test_get(self):
261
 
        cache = lru_cache.LRUCache(max_cache=5)
262
 
 
263
 
        cache.add(1, 10)
264
 
        cache.add(2, 20)
265
 
        self.assertEqual(20, cache.get(2))
266
 
        self.assertIs(None, cache.get(3))
267
 
        obj = object()
268
 
        self.assertIs(obj, cache.get(3, obj))
269
 
        self.assertEqual([2, 1], [n.key for n in cache._walk_lru()])
270
 
        self.assertEqual(10, cache.get(1))
271
 
        self.assertEqual([1, 2], [n.key for n in cache._walk_lru()])
272
 
 
273
 
    def test_keys(self):
274
 
        cache = lru_cache.LRUCache(max_cache=5, after_cleanup_count=5)
275
 
 
276
 
        cache[1] = 2
277
 
        cache[2] = 3
278
 
        cache[3] = 4
279
 
        self.assertEqual([1, 2, 3], sorted(cache.keys()))
280
 
        cache[4] = 5
281
 
        cache[5] = 6
282
 
        cache[6] = 7
283
 
        self.assertEqual([2, 3, 4, 5, 6], sorted(cache.keys()))
284
 
 
285
 
    def test_after_cleanup_size_deprecated(self):
286
 
        obj = self.callDeprecated([
287
 
            'LRUCache.__init__(after_cleanup_size) was deprecated in 1.11.'
288
 
            ' Use after_cleanup_count instead.'],
289
 
            lru_cache.LRUCache, 50, after_cleanup_size=25)
290
 
        self.assertEqual(obj._after_cleanup_count, 25)
291
 
 
292
 
    def test_resize_smaller(self):
293
 
        cache = lru_cache.LRUCache(max_cache=5, after_cleanup_count=4)
294
 
        cache[1] = 2
295
 
        cache[2] = 3
296
 
        cache[3] = 4
297
 
        cache[4] = 5
298
 
        cache[5] = 6
299
 
        self.assertEqual([1, 2, 3, 4, 5], sorted(cache.keys()))
300
 
        cache[6] = 7
301
 
        self.assertEqual([3, 4, 5, 6], sorted(cache.keys()))
302
 
        # Now resize to something smaller, which triggers a cleanup
303
 
        cache.resize(max_cache=3, after_cleanup_count=2)
304
 
        self.assertEqual([5, 6], sorted(cache.keys()))
305
 
        # Adding something will use the new size
306
 
        cache[7] = 8
307
 
        self.assertEqual([5, 6, 7], sorted(cache.keys()))
308
 
        cache[8] = 9
309
 
        self.assertEqual([7, 8], sorted(cache.keys()))
310
 
 
311
 
    def test_resize_larger(self):
312
 
        cache = lru_cache.LRUCache(max_cache=5, after_cleanup_count=4)
313
 
        cache[1] = 2
314
 
        cache[2] = 3
315
 
        cache[3] = 4
316
 
        cache[4] = 5
317
 
        cache[5] = 6
318
 
        self.assertEqual([1, 2, 3, 4, 5], sorted(cache.keys()))
319
 
        cache[6] = 7
320
 
        self.assertEqual([3, 4, 5, 6], sorted(cache.keys()))
321
 
        cache.resize(max_cache=8, after_cleanup_count=6)
322
 
        self.assertEqual([3, 4, 5, 6], sorted(cache.keys()))
323
 
        cache[7] = 8
324
 
        cache[8] = 9
325
 
        cache[9] = 10
326
 
        cache[10] = 11
327
 
        self.assertEqual([3, 4, 5, 6, 7, 8, 9, 10], sorted(cache.keys()))
328
 
        cache[11] = 12 # triggers cleanup back to new after_cleanup_count
329
 
        self.assertEqual([6, 7, 8, 9, 10, 11], sorted(cache.keys()))
330
 
 
331
 
 
332
 
class TestLRUSizeCache(tests.TestCase):
333
 
 
334
 
    def test_basic_init(self):
335
 
        cache = lru_cache.LRUSizeCache()
336
 
        self.assertEqual(2048, cache._max_cache)
337
 
        self.assertEqual(int(cache._max_size*0.8), cache._after_cleanup_size)
338
 
        self.assertEqual(0, cache._value_size)
339
 
 
340
 
    def test_add__null_key(self):
341
 
        cache = lru_cache.LRUSizeCache()
342
 
        self.assertRaises(ValueError, cache.add, lru_cache._null_key, 1)
343
 
 
344
 
    def test_add_tracks_size(self):
345
 
        cache = lru_cache.LRUSizeCache()
346
 
        self.assertEqual(0, cache._value_size)
347
 
        cache.add('my key', 'my value text')
348
 
        self.assertEqual(13, cache._value_size)
349
 
 
350
 
    def test_remove_tracks_size(self):
351
 
        cache = lru_cache.LRUSizeCache()
352
 
        self.assertEqual(0, cache._value_size)
353
 
        cache.add('my key', 'my value text')
354
 
        self.assertEqual(13, cache._value_size)
355
 
        node = cache._cache['my key']
356
 
        cache._remove_node(node)
357
 
        self.assertEqual(0, cache._value_size)
358
 
 
359
 
    def test_no_add_over_size(self):
360
 
        """Adding a large value may not be cached at all."""
361
 
        cache = lru_cache.LRUSizeCache(max_size=10, after_cleanup_size=5)
362
 
        self.assertEqual(0, cache._value_size)
363
 
        self.assertEqual({}, cache.items())
364
 
        cache.add('test', 'key')
365
 
        self.assertEqual(3, cache._value_size)
366
 
        self.assertEqual({'test': 'key'}, cache.items())
367
 
        cache.add('test2', 'key that is too big')
368
 
        self.assertEqual(3, cache._value_size)
369
 
        self.assertEqual({'test':'key'}, cache.items())
370
 
        # If we would add a key, only to cleanup and remove all cached entries,
371
 
        # then obviously that value should not be stored
372
 
        cache.add('test3', 'bigkey')
373
 
        self.assertEqual(3, cache._value_size)
374
 
        self.assertEqual({'test':'key'}, cache.items())
375
 
 
376
 
        cache.add('test4', 'bikey')
377
 
        self.assertEqual(3, cache._value_size)
378
 
        self.assertEqual({'test':'key'}, cache.items())
379
 
 
380
 
    def test_no_add_over_size_cleanup(self):
381
 
        """If a large value is not cached, we will call cleanup right away."""
382
 
        cleanup_calls = []
383
 
        def cleanup(key, value):
384
 
            cleanup_calls.append((key, value))
385
 
 
386
 
        cache = lru_cache.LRUSizeCache(max_size=10, after_cleanup_size=5)
387
 
        self.assertEqual(0, cache._value_size)
388
 
        self.assertEqual({}, cache.items())
389
 
        cache.add('test', 'key that is too big', cleanup=cleanup)
390
 
        # key was not added
391
 
        self.assertEqual(0, cache._value_size)
392
 
        self.assertEqual({}, cache.items())
393
 
        # and cleanup was called
394
 
        self.assertEqual([('test', 'key that is too big')], cleanup_calls)
395
 
 
396
 
    def test_adding_clears_cache_based_on_size(self):
397
 
        """The cache is cleared in LRU order until small enough"""
398
 
        cache = lru_cache.LRUSizeCache(max_size=20)
399
 
        cache.add('key1', 'value') # 5 chars
400
 
        cache.add('key2', 'value2') # 6 chars
401
 
        cache.add('key3', 'value23') # 7 chars
402
 
        self.assertEqual(5+6+7, cache._value_size)
403
 
        cache['key2'] # reference key2 so it gets a newer reference time
404
 
        cache.add('key4', 'value234') # 8 chars, over limit
405
 
        # We have to remove 2 keys to get back under limit
406
 
        self.assertEqual(6+8, cache._value_size)
407
 
        self.assertEqual({'key2':'value2', 'key4':'value234'},
408
 
                         cache.items())
409
 
 
410
 
    def test_adding_clears_to_after_cleanup_size(self):
411
 
        cache = lru_cache.LRUSizeCache(max_size=20, after_cleanup_size=10)
412
 
        cache.add('key1', 'value') # 5 chars
413
 
        cache.add('key2', 'value2') # 6 chars
414
 
        cache.add('key3', 'value23') # 7 chars
415
 
        self.assertEqual(5+6+7, cache._value_size)
416
 
        cache['key2'] # reference key2 so it gets a newer reference time
417
 
        cache.add('key4', 'value234') # 8 chars, over limit
418
 
        # We have to remove 3 keys to get back under limit
419
 
        self.assertEqual(8, cache._value_size)
420
 
        self.assertEqual({'key4':'value234'}, cache.items())
421
 
 
422
 
    def test_custom_sizes(self):
423
 
        def size_of_list(lst):
424
 
            return sum(len(x) for x in lst)
425
 
        cache = lru_cache.LRUSizeCache(max_size=20, after_cleanup_size=10,
426
 
                                       compute_size=size_of_list)
427
 
 
428
 
        cache.add('key1', ['val', 'ue']) # 5 chars
429
 
        cache.add('key2', ['val', 'ue2']) # 6 chars
430
 
        cache.add('key3', ['val', 'ue23']) # 7 chars
431
 
        self.assertEqual(5+6+7, cache._value_size)
432
 
        cache['key2'] # reference key2 so it gets a newer reference time
433
 
        cache.add('key4', ['value', '234']) # 8 chars, over limit
434
 
        # We have to remove 3 keys to get back under limit
435
 
        self.assertEqual(8, cache._value_size)
436
 
        self.assertEqual({'key4':['value', '234']}, cache.items())
437
 
 
438
 
    def test_cleanup(self):
439
 
        cache = lru_cache.LRUSizeCache(max_size=20, after_cleanup_size=10)
440
 
 
441
 
        # Add these in order
442
 
        cache.add('key1', 'value') # 5 chars
443
 
        cache.add('key2', 'value2') # 6 chars
444
 
        cache.add('key3', 'value23') # 7 chars
445
 
        self.assertEqual(5+6+7, cache._value_size)
446
 
 
447
 
        cache.cleanup()
448
 
        # Only the most recent fits after cleaning up
449
 
        self.assertEqual(7, cache._value_size)
450
 
 
451
 
    def test_keys(self):
452
 
        cache = lru_cache.LRUSizeCache(max_size=10)
453
 
 
454
 
        cache[1] = 'a'
455
 
        cache[2] = 'b'
456
 
        cache[3] = 'cdef'
457
 
        self.assertEqual([1, 2, 3], sorted(cache.keys()))
458
 
 
459
 
    def test_resize_smaller(self):
460
 
        cache = lru_cache.LRUSizeCache(max_size=10, after_cleanup_size=9)
461
 
        cache[1] = 'abc'
462
 
        cache[2] = 'def'
463
 
        cache[3] = 'ghi'
464
 
        cache[4] = 'jkl'
465
 
        # Triggers a cleanup
466
 
        self.assertEqual([2, 3, 4], sorted(cache.keys()))
467
 
        # Resize should also cleanup again
468
 
        cache.resize(max_size=6, after_cleanup_size=4)
469
 
        self.assertEqual([4], sorted(cache.keys()))
470
 
        # Adding should use the new max size
471
 
        cache[5] = 'mno'
472
 
        self.assertEqual([4, 5], sorted(cache.keys()))
473
 
        cache[6] = 'pqr'
474
 
        self.assertEqual([6], sorted(cache.keys()))
475
 
 
476
 
    def test_resize_larger(self):
477
 
        cache = lru_cache.LRUSizeCache(max_size=10, after_cleanup_size=9)
478
 
        cache[1] = 'abc'
479
 
        cache[2] = 'def'
480
 
        cache[3] = 'ghi'
481
 
        cache[4] = 'jkl'
482
 
        # Triggers a cleanup
483
 
        self.assertEqual([2, 3, 4], sorted(cache.keys()))
484
 
        cache.resize(max_size=15, after_cleanup_size=12)
485
 
        self.assertEqual([2, 3, 4], sorted(cache.keys()))
486
 
        cache[5] = 'mno'
487
 
        cache[6] = 'pqr'
488
 
        self.assertEqual([2, 3, 4, 5, 6], sorted(cache.keys()))
489
 
        cache[7] = 'stu'
490
 
        self.assertEqual([4, 5, 6, 7], sorted(cache.keys()))
491