~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/tests/test_index.py

  • Committer: Robert Collins
  • Date: 2007-07-12 12:07:13 UTC
  • mto: This revision was merged to the branch mainline in revision 2610.
  • Revision ID: robertc@robertcollins.net-20070712120713-c2vfm2n61l63wt6s
(robertc) Introduce a pack command.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2007, 2009 Canonical Ltd
2
 
#
3
 
# This program is free software; you can redistribute it and/or modify
4
 
# it under the terms of the GNU General Public License as published by
5
 
# the Free Software Foundation; either version 2 of the License, or
6
 
# (at your option) any later version.
7
 
#
8
 
# This program is distributed in the hope that it will be useful,
9
 
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
 
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
 
# GNU General Public License for more details.
12
 
#
13
 
# You should have received a copy of the GNU General Public License
14
 
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
 
 
17
 
"""Tests for indices."""
18
 
 
19
 
from bzrlib import errors
20
 
from bzrlib.index import *
21
 
from bzrlib.tests import TestCaseWithMemoryTransport
22
 
from bzrlib.transport import get_transport
23
 
 
24
 
 
25
 
class TestGraphIndexBuilder(TestCaseWithMemoryTransport):
26
 
 
27
 
    def test_build_index_empty(self):
28
 
        builder = GraphIndexBuilder()
29
 
        stream = builder.finish()
30
 
        contents = stream.read()
31
 
        self.assertEqual(
32
 
            "Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=1\nlen=0\n\n",
33
 
            contents)
34
 
 
35
 
    def test_build_index_empty_two_element_keys(self):
36
 
        builder = GraphIndexBuilder(key_elements=2)
37
 
        stream = builder.finish()
38
 
        contents = stream.read()
39
 
        self.assertEqual(
40
 
            "Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=2\nlen=0\n\n",
41
 
            contents)
42
 
 
43
 
    def test_build_index_one_reference_list_empty(self):
44
 
        builder = GraphIndexBuilder(reference_lists=1)
45
 
        stream = builder.finish()
46
 
        contents = stream.read()
47
 
        self.assertEqual(
48
 
            "Bazaar Graph Index 1\nnode_ref_lists=1\nkey_elements=1\nlen=0\n\n",
49
 
            contents)
50
 
 
51
 
    def test_build_index_two_reference_list_empty(self):
52
 
        builder = GraphIndexBuilder(reference_lists=2)
53
 
        stream = builder.finish()
54
 
        contents = stream.read()
55
 
        self.assertEqual(
56
 
            "Bazaar Graph Index 1\nnode_ref_lists=2\nkey_elements=1\nlen=0\n\n",
57
 
            contents)
58
 
 
59
 
    def test_build_index_one_node_no_refs(self):
60
 
        builder = GraphIndexBuilder()
61
 
        builder.add_node(('akey', ), 'data')
62
 
        stream = builder.finish()
63
 
        contents = stream.read()
64
 
        self.assertEqual(
65
 
            "Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=1\nlen=1\n"
66
 
            "akey\x00\x00\x00data\n\n", contents)
67
 
 
68
 
    def test_build_index_one_node_no_refs_accepts_empty_reflist(self):
69
 
        builder = GraphIndexBuilder()
70
 
        builder.add_node(('akey', ), 'data', ())
71
 
        stream = builder.finish()
72
 
        contents = stream.read()
73
 
        self.assertEqual(
74
 
            "Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=1\nlen=1\n"
75
 
            "akey\x00\x00\x00data\n\n", contents)
76
 
 
77
 
    def test_build_index_one_node_2_element_keys(self):
78
 
        # multipart keys are separated by \x00 - because they are fixed length,
79
 
        # not variable this does not cause any issues, and seems clearer to the
80
 
        # author.
81
 
        builder = GraphIndexBuilder(key_elements=2)
82
 
        builder.add_node(('akey', 'secondpart'), 'data')
83
 
        stream = builder.finish()
84
 
        contents = stream.read()
85
 
        self.assertEqual(
86
 
            "Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=2\nlen=1\n"
87
 
            "akey\x00secondpart\x00\x00\x00data\n\n", contents)
88
 
 
89
 
    def test_add_node_empty_value(self):
90
 
        builder = GraphIndexBuilder()
91
 
        builder.add_node(('akey', ), '')
92
 
        stream = builder.finish()
93
 
        contents = stream.read()
94
 
        self.assertEqual(
95
 
            "Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=1\nlen=1\n"
96
 
            "akey\x00\x00\x00\n\n", contents)
97
 
 
98
 
    def test_build_index_nodes_sorted(self):
99
 
        # the highest sorted node comes first.
100
 
        builder = GraphIndexBuilder()
101
 
        # use three to have a good chance of glitching dictionary hash
102
 
        # lookups etc. Insert in randomish order that is not correct
103
 
        # and not the reverse of the correct order.
104
 
        builder.add_node(('2002', ), 'data')
105
 
        builder.add_node(('2000', ), 'data')
106
 
        builder.add_node(('2001', ), 'data')
107
 
        stream = builder.finish()
108
 
        contents = stream.read()
109
 
        self.assertEqual(
110
 
            "Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=1\nlen=3\n"
111
 
            "2000\x00\x00\x00data\n"
112
 
            "2001\x00\x00\x00data\n"
113
 
            "2002\x00\x00\x00data\n"
114
 
            "\n", contents)
115
 
 
116
 
    def test_build_index_2_element_key_nodes_sorted(self):
117
 
        # multiple element keys are sorted first-key, second-key.
118
 
        builder = GraphIndexBuilder(key_elements=2)
119
 
        # use three values of each key element, to have a good chance of
120
 
        # glitching dictionary hash lookups etc. Insert in randomish order that
121
 
        # is not correct and not the reverse of the correct order.
122
 
        builder.add_node(('2002', '2002'), 'data')
123
 
        builder.add_node(('2002', '2000'), 'data')
124
 
        builder.add_node(('2002', '2001'), 'data')
125
 
        builder.add_node(('2000', '2002'), 'data')
126
 
        builder.add_node(('2000', '2000'), 'data')
127
 
        builder.add_node(('2000', '2001'), 'data')
128
 
        builder.add_node(('2001', '2002'), 'data')
129
 
        builder.add_node(('2001', '2000'), 'data')
130
 
        builder.add_node(('2001', '2001'), 'data')
131
 
        stream = builder.finish()
132
 
        contents = stream.read()
133
 
        self.assertEqual(
134
 
            "Bazaar Graph Index 1\nnode_ref_lists=0\nkey_elements=2\nlen=9\n"
135
 
            "2000\x002000\x00\x00\x00data\n"
136
 
            "2000\x002001\x00\x00\x00data\n"
137
 
            "2000\x002002\x00\x00\x00data\n"
138
 
            "2001\x002000\x00\x00\x00data\n"
139
 
            "2001\x002001\x00\x00\x00data\n"
140
 
            "2001\x002002\x00\x00\x00data\n"
141
 
            "2002\x002000\x00\x00\x00data\n"
142
 
            "2002\x002001\x00\x00\x00data\n"
143
 
            "2002\x002002\x00\x00\x00data\n"
144
 
            "\n", contents)
145
 
 
146
 
    def test_build_index_reference_lists_are_included_one(self):
147
 
        builder = GraphIndexBuilder(reference_lists=1)
148
 
        builder.add_node(('key', ), 'data', ([], ))
149
 
        stream = builder.finish()
150
 
        contents = stream.read()
151
 
        self.assertEqual(
152
 
            "Bazaar Graph Index 1\nnode_ref_lists=1\nkey_elements=1\nlen=1\n"
153
 
            "key\x00\x00\x00data\n"
154
 
            "\n", contents)
155
 
 
156
 
    def test_build_index_reference_lists_with_2_element_keys(self):
157
 
        builder = GraphIndexBuilder(reference_lists=1, key_elements=2)
158
 
        builder.add_node(('key', 'key2'), 'data', ([], ))
159
 
        stream = builder.finish()
160
 
        contents = stream.read()
161
 
        self.assertEqual(
162
 
            "Bazaar Graph Index 1\nnode_ref_lists=1\nkey_elements=2\nlen=1\n"
163
 
            "key\x00key2\x00\x00\x00data\n"
164
 
            "\n", contents)
165
 
 
166
 
    def test_build_index_reference_lists_are_included_two(self):
167
 
        builder = GraphIndexBuilder(reference_lists=2)
168
 
        builder.add_node(('key', ), 'data', ([], []))
169
 
        stream = builder.finish()
170
 
        contents = stream.read()
171
 
        self.assertEqual(
172
 
            "Bazaar Graph Index 1\nnode_ref_lists=2\nkey_elements=1\nlen=1\n"
173
 
            "key\x00\x00\t\x00data\n"
174
 
            "\n", contents)
175
 
 
176
 
    def test_clear_cache(self):
177
 
        builder = GraphIndexBuilder(reference_lists=2)
178
 
        # This is a no-op, but the api should exist
179
 
        builder.clear_cache()
180
 
 
181
 
    def test_node_references_are_byte_offsets(self):
182
 
        builder = GraphIndexBuilder(reference_lists=1)
183
 
        builder.add_node(('reference', ), 'data', ([], ))
184
 
        builder.add_node(('key', ), 'data', ([('reference', )], ))
185
 
        stream = builder.finish()
186
 
        contents = stream.read()
187
 
        self.assertEqual(
188
 
            "Bazaar Graph Index 1\nnode_ref_lists=1\nkey_elements=1\nlen=2\n"
189
 
            "key\x00\x0072\x00data\n"
190
 
            "reference\x00\x00\x00data\n"
191
 
            "\n", contents)
192
 
 
193
 
    def test_node_references_are_cr_delimited(self):
194
 
        builder = GraphIndexBuilder(reference_lists=1)
195
 
        builder.add_node(('reference', ), 'data', ([], ))
196
 
        builder.add_node(('reference2', ), 'data', ([], ))
197
 
        builder.add_node(('key', ), 'data', ([('reference', ), ('reference2', )], ))
198
 
        stream = builder.finish()
199
 
        contents = stream.read()
200
 
        self.assertEqual(
201
 
            "Bazaar Graph Index 1\nnode_ref_lists=1\nkey_elements=1\nlen=3\n"
202
 
            "key\x00\x00077\r094\x00data\n"
203
 
            "reference\x00\x00\x00data\n"
204
 
            "reference2\x00\x00\x00data\n"
205
 
            "\n", contents)
206
 
 
207
 
    def test_multiple_reference_lists_are_tab_delimited(self):
208
 
        builder = GraphIndexBuilder(reference_lists=2)
209
 
        builder.add_node(('keference', ), 'data', ([], []))
210
 
        builder.add_node(('rey', ), 'data', ([('keference', )], [('keference', )]))
211
 
        stream = builder.finish()
212
 
        contents = stream.read()
213
 
        self.assertEqual(
214
 
            "Bazaar Graph Index 1\nnode_ref_lists=2\nkey_elements=1\nlen=2\n"
215
 
            "keference\x00\x00\t\x00data\n"
216
 
            "rey\x00\x0059\t59\x00data\n"
217
 
            "\n", contents)
218
 
 
219
 
    def test_add_node_referencing_missing_key_makes_absent(self):
220
 
        builder = GraphIndexBuilder(reference_lists=1)
221
 
        builder.add_node(('rey', ), 'data', ([('beference', ), ('aeference2', )], ))
222
 
        stream = builder.finish()
223
 
        contents = stream.read()
224
 
        self.assertEqual(
225
 
            "Bazaar Graph Index 1\nnode_ref_lists=1\nkey_elements=1\nlen=1\n"
226
 
            "aeference2\x00a\x00\x00\n"
227
 
            "beference\x00a\x00\x00\n"
228
 
            "rey\x00\x00074\r059\x00data\n"
229
 
            "\n", contents)
230
 
 
231
 
    def test_node_references_three_digits(self):
232
 
        # test the node digit expands as needed.
233
 
        builder = GraphIndexBuilder(reference_lists=1)
234
 
        references = [(str(val), ) for val in reversed(range(9))]
235
 
        builder.add_node(('2-key', ), '', (references, ))
236
 
        stream = builder.finish()
237
 
        contents = stream.read()
238
 
        self.assertEqualDiff(
239
 
            "Bazaar Graph Index 1\nnode_ref_lists=1\nkey_elements=1\nlen=1\n"
240
 
            "0\x00a\x00\x00\n"
241
 
            "1\x00a\x00\x00\n"
242
 
            "2\x00a\x00\x00\n"
243
 
            "2-key\x00\x00151\r145\r139\r133\r127\r121\r071\r065\r059\x00\n"
244
 
            "3\x00a\x00\x00\n"
245
 
            "4\x00a\x00\x00\n"
246
 
            "5\x00a\x00\x00\n"
247
 
            "6\x00a\x00\x00\n"
248
 
            "7\x00a\x00\x00\n"
249
 
            "8\x00a\x00\x00\n"
250
 
            "\n", contents)
251
 
 
252
 
    def test_absent_has_no_reference_overhead(self):
253
 
        # the offsets after an absent record should be correct when there are
254
 
        # >1 reference lists.
255
 
        builder = GraphIndexBuilder(reference_lists=2)
256
 
        builder.add_node(('parent', ), '', ([('aail', ), ('zther', )], []))
257
 
        stream = builder.finish()
258
 
        contents = stream.read()
259
 
        self.assertEqual(
260
 
            "Bazaar Graph Index 1\nnode_ref_lists=2\nkey_elements=1\nlen=1\n"
261
 
            "aail\x00a\x00\x00\n"
262
 
            "parent\x00\x0059\r84\t\x00\n"
263
 
            "zther\x00a\x00\x00\n"
264
 
            "\n", contents)
265
 
 
266
 
    def test_add_node_bad_key(self):
267
 
        builder = GraphIndexBuilder()
268
 
        for bad_char in '\t\n\x0b\x0c\r\x00 ':
269
 
            self.assertRaises(errors.BadIndexKey, builder.add_node,
270
 
                ('a%skey' % bad_char, ), 'data')
271
 
        self.assertRaises(errors.BadIndexKey, builder.add_node,
272
 
                ('', ), 'data')
273
 
        self.assertRaises(errors.BadIndexKey, builder.add_node,
274
 
                'not-a-tuple', 'data')
275
 
        # not enough length
276
 
        self.assertRaises(errors.BadIndexKey, builder.add_node,
277
 
                (), 'data')
278
 
        # too long
279
 
        self.assertRaises(errors.BadIndexKey, builder.add_node,
280
 
                ('primary', 'secondary'), 'data')
281
 
        # secondary key elements get checked too:
282
 
        builder = GraphIndexBuilder(key_elements=2)
283
 
        for bad_char in '\t\n\x0b\x0c\r\x00 ':
284
 
            self.assertRaises(errors.BadIndexKey, builder.add_node,
285
 
                ('prefix', 'a%skey' % bad_char), 'data')
286
 
 
287
 
    def test_add_node_bad_data(self):
288
 
        builder = GraphIndexBuilder()
289
 
        self.assertRaises(errors.BadIndexValue, builder.add_node, ('akey', ),
290
 
            'data\naa')
291
 
        self.assertRaises(errors.BadIndexValue, builder.add_node, ('akey', ),
292
 
            'data\x00aa')
293
 
 
294
 
    def test_add_node_bad_mismatched_ref_lists_length(self):
295
 
        builder = GraphIndexBuilder()
296
 
        self.assertRaises(errors.BadIndexValue, builder.add_node, ('akey', ),
297
 
            'data aa', ([], ))
298
 
        builder = GraphIndexBuilder(reference_lists=1)
299
 
        self.assertRaises(errors.BadIndexValue, builder.add_node, ('akey', ),
300
 
            'data aa')
301
 
        self.assertRaises(errors.BadIndexValue, builder.add_node, ('akey', ),
302
 
            'data aa', (), )
303
 
        self.assertRaises(errors.BadIndexValue, builder.add_node, ('akey', ),
304
 
            'data aa', ([], []))
305
 
        builder = GraphIndexBuilder(reference_lists=2)
306
 
        self.assertRaises(errors.BadIndexValue, builder.add_node, ('akey', ),
307
 
            'data aa')
308
 
        self.assertRaises(errors.BadIndexValue, builder.add_node, ('akey', ),
309
 
            'data aa', ([], ))
310
 
        self.assertRaises(errors.BadIndexValue, builder.add_node, ('akey', ),
311
 
            'data aa', ([], [], []))
312
 
 
313
 
    def test_add_node_bad_key_in_reference_lists(self):
314
 
        # first list, first key - trivial
315
 
        builder = GraphIndexBuilder(reference_lists=1)
316
 
        self.assertRaises(errors.BadIndexKey, builder.add_node, ('akey', ),
317
 
            'data aa', ([('a key', )], ))
318
 
        # references keys must be tuples too
319
 
        self.assertRaises(errors.BadIndexKey, builder.add_node, ('akey', ),
320
 
            'data aa', (['not-a-tuple'], ))
321
 
        # not enough length
322
 
        self.assertRaises(errors.BadIndexKey, builder.add_node, ('akey', ),
323
 
            'data aa', ([()], ))
324
 
        # too long
325
 
        self.assertRaises(errors.BadIndexKey, builder.add_node, ('akey', ),
326
 
            'data aa', ([('primary', 'secondary')], ))
327
 
        # need to check more than the first key in the list
328
 
        self.assertRaises(errors.BadIndexKey, builder.add_node, ('akey', ),
329
 
            'data aa', ([('agoodkey', ), ('that is a bad key', )], ))
330
 
        # and if there is more than one list it should be getting checked
331
 
        # too
332
 
        builder = GraphIndexBuilder(reference_lists=2)
333
 
        self.assertRaises(errors.BadIndexKey, builder.add_node, ('akey', ),
334
 
            'data aa', ([], ['a bad key']))
335
 
 
336
 
    def test_add_duplicate_key(self):
337
 
        builder = GraphIndexBuilder()
338
 
        builder.add_node(('key', ), 'data')
339
 
        self.assertRaises(errors.BadIndexDuplicateKey, builder.add_node, ('key', ),
340
 
            'data')
341
 
 
342
 
    def test_add_duplicate_key_2_elements(self):
343
 
        builder = GraphIndexBuilder(key_elements=2)
344
 
        builder.add_node(('key', 'key'), 'data')
345
 
        self.assertRaises(errors.BadIndexDuplicateKey, builder.add_node,
346
 
            ('key', 'key'), 'data')
347
 
 
348
 
    def test_add_key_after_referencing_key(self):
349
 
        builder = GraphIndexBuilder(reference_lists=1)
350
 
        builder.add_node(('key', ), 'data', ([('reference', )], ))
351
 
        builder.add_node(('reference', ), 'data', ([],))
352
 
 
353
 
    def test_add_key_after_referencing_key_2_elements(self):
354
 
        builder = GraphIndexBuilder(reference_lists=1, key_elements=2)
355
 
        builder.add_node(('k', 'ey'), 'data', ([('reference', 'tokey')], ))
356
 
        builder.add_node(('reference', 'tokey'), 'data', ([],))
357
 
 
358
 
    def test_set_optimize(self):
359
 
        builder = GraphIndexBuilder(reference_lists=1, key_elements=2)
360
 
        builder.set_optimize(for_size=True)
361
 
        self.assertTrue(builder._optimize_for_size)
362
 
        builder.set_optimize(for_size=False)
363
 
        self.assertFalse(builder._optimize_for_size)
364
 
 
365
 
 
366
 
class TestGraphIndex(TestCaseWithMemoryTransport):
367
 
 
368
 
    def make_key(self, number):
369
 
        return (str(number) + 'X'*100,)
370
 
 
371
 
    def make_value(self, number):
372
 
            return str(number) + 'Y'*100
373
 
 
374
 
    def make_nodes(self, count=64):
375
 
        # generate a big enough index that we only read some of it on a typical
376
 
        # bisection lookup.
377
 
        nodes = []
378
 
        for counter in range(count):
379
 
            nodes.append((self.make_key(counter), self.make_value(counter), ()))
380
 
        return nodes
381
 
 
382
 
    def make_index(self, ref_lists=0, key_elements=1, nodes=[]):
383
 
        builder = GraphIndexBuilder(ref_lists, key_elements=key_elements)
384
 
        for key, value, references in nodes:
385
 
            builder.add_node(key, value, references)
386
 
        stream = builder.finish()
387
 
        trans = get_transport('trace+' + self.get_url())
388
 
        size = trans.put_file('index', stream)
389
 
        return GraphIndex(trans, 'index', size)
390
 
 
391
 
    def test_clear_cache(self):
392
 
        index = self.make_index()
393
 
        # For now, we just want to make sure the api is available. As this is
394
 
        # old code, we don't really worry if it *does* anything.
395
 
        index.clear_cache()
396
 
 
397
 
    def test_open_bad_index_no_error(self):
398
 
        trans = self.get_transport()
399
 
        trans.put_bytes('name', "not an index\n")
400
 
        index = GraphIndex(trans, 'name', 13)
401
 
 
402
 
    def test_open_sets_parsed_map_empty(self):
403
 
        index = self.make_index()
404
 
        self.assertEqual([], index._parsed_byte_map)
405
 
        self.assertEqual([], index._parsed_key_map)
406
 
 
407
 
    def test_key_count_buffers(self):
408
 
        index = self.make_index(nodes=self.make_nodes(2))
409
 
        # reset the transport log
410
 
        del index._transport._activity[:]
411
 
        self.assertEqual(2, index.key_count())
412
 
        # We should have requested reading the header bytes
413
 
        self.assertEqual([
414
 
            ('readv', 'index', [(0, 200)], True, index._size),
415
 
            ],
416
 
            index._transport._activity)
417
 
        # And that should have been enough to trigger reading the whole index
418
 
        # with buffering
419
 
        self.assertIsNot(None, index._nodes)
420
 
 
421
 
    def test_lookup_key_via_location_buffers(self):
422
 
        index = self.make_index()
423
 
        # reset the transport log
424
 
        del index._transport._activity[:]
425
 
        # do a _lookup_keys_via_location call for the middle of the file, which
426
 
        # is what bisection uses.
427
 
        result = index._lookup_keys_via_location(
428
 
            [(index._size // 2, ('missing', ))])
429
 
        # this should have asked for a readv request, with adjust_for_latency,
430
 
        # and two regions: the header, and half-way into the file.
431
 
        self.assertEqual([
432
 
            ('readv', 'index', [(30, 30), (0, 200)], True, 60),
433
 
            ],
434
 
            index._transport._activity)
435
 
        # and the result should be that the key cannot be present, because this
436
 
        # is a trivial index.
437
 
        self.assertEqual([((index._size // 2, ('missing', )), False)],
438
 
            result)
439
 
        # And this should have caused the file to be fully buffered
440
 
        self.assertIsNot(None, index._nodes)
441
 
        self.assertEqual([], index._parsed_byte_map)
442
 
 
443
 
    def test_first_lookup_key_via_location(self):
444
 
        # We need enough data so that the _HEADER_READV doesn't consume the
445
 
        # whole file. We always read 800 bytes for every key, and the local
446
 
        # transport natural expansion is 4096 bytes. So we have to have >8192
447
 
        # bytes or we will trigger "buffer_all".
448
 
        # We also want the 'missing' key to fall within the range that *did*
449
 
        # read
450
 
        nodes = []
451
 
        index = self.make_index(nodes=self.make_nodes(64))
452
 
        # reset the transport log
453
 
        del index._transport._activity[:]
454
 
        # do a _lookup_keys_via_location call for the middle of the file, which
455
 
        # is what bisection uses.
456
 
        start_lookup = index._size // 2
457
 
        result = index._lookup_keys_via_location(
458
 
            [(start_lookup, ('40missing', ))])
459
 
        # this should have asked for a readv request, with adjust_for_latency,
460
 
        # and two regions: the header, and half-way into the file.
461
 
        self.assertEqual([
462
 
            ('readv', 'index',
463
 
             [(start_lookup, 800), (0, 200)], True, index._size),
464
 
            ],
465
 
            index._transport._activity)
466
 
        # and the result should be that the key cannot be present, because this
467
 
        # is a trivial index.
468
 
        self.assertEqual([((start_lookup, ('40missing', )), False)],
469
 
            result)
470
 
        # And this should not have caused the file to be fully buffered
471
 
        self.assertIs(None, index._nodes)
472
 
        # And the regions of the file that have been parsed should be in the
473
 
        # parsed_byte_map and the parsed_key_map
474
 
        self.assertEqual([(0, 4008), (5046, 8996)], index._parsed_byte_map)
475
 
        self.assertEqual([(None, self.make_key(26)),
476
 
                          (self.make_key(31), self.make_key(48))],
477
 
                         index._parsed_key_map)
478
 
 
479
 
    def test_parsing_non_adjacent_data_trims(self):
480
 
        index = self.make_index(nodes=self.make_nodes(64))
481
 
        result = index._lookup_keys_via_location(
482
 
            [(index._size // 2, ('40', ))])
483
 
        # and the result should be that the key cannot be present, because key is
484
 
        # in the middle of the observed data from a 4K read - the smallest transport
485
 
        # will do today with this api.
486
 
        self.assertEqual([((index._size // 2, ('40', )), False)],
487
 
            result)
488
 
        # and we should have a parse map that includes the header and the
489
 
        # region that was parsed after trimming.
490
 
        self.assertEqual([(0, 4008), (5046, 8996)], index._parsed_byte_map)
491
 
        self.assertEqual([(None, self.make_key(26)),
492
 
                          (self.make_key(31), self.make_key(48))],
493
 
            index._parsed_key_map)
494
 
 
495
 
    def test_parsing_data_handles_parsed_contained_regions(self):
496
 
        # the following patten creates a parsed region that is wholly within a
497
 
        # single result from the readv layer:
498
 
        # .... single-read (readv-minimum-size) ...
499
 
        # which then trims the start and end so the parsed size is < readv
500
 
        # miniumum.
501
 
        # then a dual lookup (or a reference lookup for that matter) which
502
 
        # abuts or overlaps the parsed region on both sides will need to
503
 
        # discard the data in the middle, but parse the end as well.
504
 
        #
505
 
        # we test this by doing a single lookup to seed the data, then
506
 
        # a lookup for two keys that are present, and adjacent -
507
 
        # we except both to be found, and the parsed byte map to include the
508
 
        # locations of both keys.
509
 
        index = self.make_index(nodes=self.make_nodes(128))
510
 
        result = index._lookup_keys_via_location(
511
 
            [(index._size // 2, ('40', ))])
512
 
        # and we should have a parse map that includes the header and the
513
 
        # region that was parsed after trimming.
514
 
        self.assertEqual([(0, 4045), (11759, 15707)], index._parsed_byte_map)
515
 
        self.assertEqual([(None, self.make_key(116)),
516
 
                          (self.make_key(35), self.make_key(51))],
517
 
            index._parsed_key_map)
518
 
        # now ask for two keys, right before and after the parsed region
519
 
        result = index._lookup_keys_via_location(
520
 
            [(11450, self.make_key(34)), (15707, self.make_key(52))])
521
 
        self.assertEqual([
522
 
            ((11450, self.make_key(34)),
523
 
             (index, self.make_key(34), self.make_value(34))),
524
 
            ((15707, self.make_key(52)),
525
 
             (index, self.make_key(52), self.make_value(52))),
526
 
            ],
527
 
            result)
528
 
        self.assertEqual([(0, 4045), (9889, 17993)], index._parsed_byte_map)
529
 
 
530
 
    def test_lookup_missing_key_answers_without_io_when_map_permits(self):
531
 
        # generate a big enough index that we only read some of it on a typical
532
 
        # bisection lookup.
533
 
        index = self.make_index(nodes=self.make_nodes(64))
534
 
        # lookup the keys in the middle of the file
535
 
        result =index._lookup_keys_via_location(
536
 
            [(index._size // 2, ('40', ))])
537
 
        # check the parse map, this determines the test validity
538
 
        self.assertEqual([(0, 4008), (5046, 8996)], index._parsed_byte_map)
539
 
        self.assertEqual([(None, self.make_key(26)),
540
 
                          (self.make_key(31), self.make_key(48))],
541
 
            index._parsed_key_map)
542
 
        # reset the transport log
543
 
        del index._transport._activity[:]
544
 
        # now looking up a key in the portion of the file already parsed should
545
 
        # not create a new transport request, and should return False (cannot
546
 
        # be in the index) - even when the byte location we ask for is outside
547
 
        # the parsed region
548
 
        result = index._lookup_keys_via_location(
549
 
            [(4000, ('40', ))])
550
 
        self.assertEqual([((4000, ('40', )), False)],
551
 
            result)
552
 
        self.assertEqual([], index._transport._activity)
553
 
 
554
 
    def test_lookup_present_key_answers_without_io_when_map_permits(self):
555
 
        # generate a big enough index that we only read some of it on a typical
556
 
        # bisection lookup.
557
 
        index = self.make_index(nodes=self.make_nodes(64))
558
 
        # lookup the keys in the middle of the file
559
 
        result =index._lookup_keys_via_location(
560
 
            [(index._size // 2, ('40', ))])
561
 
        # check the parse map, this determines the test validity
562
 
        self.assertEqual([(0, 4008), (5046, 8996)], index._parsed_byte_map)
563
 
        self.assertEqual([(None, self.make_key(26)),
564
 
                          (self.make_key(31), self.make_key(48))],
565
 
            index._parsed_key_map)
566
 
        # reset the transport log
567
 
        del index._transport._activity[:]
568
 
        # now looking up a key in the portion of the file already parsed should
569
 
        # not create a new transport request, and should return False (cannot
570
 
        # be in the index) - even when the byte location we ask for is outside
571
 
        # the parsed region
572
 
        #
573
 
        result = index._lookup_keys_via_location([(4000, self.make_key(40))])
574
 
        self.assertEqual(
575
 
            [((4000, self.make_key(40)),
576
 
              (index, self.make_key(40), self.make_value(40)))],
577
 
            result)
578
 
        self.assertEqual([], index._transport._activity)
579
 
 
580
 
    def test_lookup_key_below_probed_area(self):
581
 
        # generate a big enough index that we only read some of it on a typical
582
 
        # bisection lookup.
583
 
        index = self.make_index(nodes=self.make_nodes(64))
584
 
        # ask for the key in the middle, but a key that is located in the
585
 
        # unparsed region before the middle.
586
 
        result =index._lookup_keys_via_location(
587
 
            [(index._size // 2, ('30', ))])
588
 
        # check the parse map, this determines the test validity
589
 
        self.assertEqual([(0, 4008), (5046, 8996)], index._parsed_byte_map)
590
 
        self.assertEqual([(None, self.make_key(26)),
591
 
                          (self.make_key(31), self.make_key(48))],
592
 
            index._parsed_key_map)
593
 
        self.assertEqual([((index._size // 2, ('30', )), -1)],
594
 
            result)
595
 
 
596
 
    def test_lookup_key_above_probed_area(self):
597
 
        # generate a big enough index that we only read some of it on a typical
598
 
        # bisection lookup.
599
 
        index = self.make_index(nodes=self.make_nodes(64))
600
 
        # ask for the key in the middle, but a key that is located in the
601
 
        # unparsed region after the middle.
602
 
        result =index._lookup_keys_via_location(
603
 
            [(index._size // 2, ('50', ))])
604
 
        # check the parse map, this determines the test validity
605
 
        self.assertEqual([(0, 4008), (5046, 8996)], index._parsed_byte_map)
606
 
        self.assertEqual([(None, self.make_key(26)),
607
 
                          (self.make_key(31), self.make_key(48))],
608
 
            index._parsed_key_map)
609
 
        self.assertEqual([((index._size // 2, ('50', )), +1)],
610
 
            result)
611
 
 
612
 
    def test_lookup_key_resolves_references(self):
613
 
        # generate a big enough index that we only read some of it on a typical
614
 
        # bisection lookup.
615
 
        nodes = []
616
 
        for counter in range(99):
617
 
            nodes.append((self.make_key(counter), self.make_value(counter),
618
 
                ((self.make_key(counter + 20),),)  ))
619
 
        index = self.make_index(ref_lists=1, nodes=nodes)
620
 
        # lookup a key in the middle that does not exist, so that when we can
621
 
        # check that the referred-to-keys are not accessed automatically.
622
 
        index_size = index._size
623
 
        index_center = index_size // 2
624
 
        result = index._lookup_keys_via_location(
625
 
            [(index_center, ('40', ))])
626
 
        # check the parse map - only the start and middle should have been
627
 
        # parsed.
628
 
        self.assertEqual([(0, 4027), (10198, 14028)], index._parsed_byte_map)
629
 
        self.assertEqual([(None, self.make_key(17)),
630
 
                          (self.make_key(44), self.make_key(5))],
631
 
            index._parsed_key_map)
632
 
        # and check the transport activity likewise.
633
 
        self.assertEqual(
634
 
            [('readv', 'index', [(index_center, 800), (0, 200)], True,
635
 
                                  index_size)],
636
 
            index._transport._activity)
637
 
        # reset the transport log for testing the reference lookup
638
 
        del index._transport._activity[:]
639
 
        # now looking up a key in the portion of the file already parsed should
640
 
        # only perform IO to resolve its key references.
641
 
        result = index._lookup_keys_via_location([(11000, self.make_key(45))])
642
 
        self.assertEqual(
643
 
            [((11000, self.make_key(45)),
644
 
              (index, self.make_key(45), self.make_value(45),
645
 
               ((self.make_key(65),),)))],
646
 
            result)
647
 
        self.assertEqual([('readv', 'index', [(15093, 800)], True, index_size)],
648
 
            index._transport._activity)
649
 
 
650
 
    def test_lookup_key_can_buffer_all(self):
651
 
        nodes = []
652
 
        for counter in range(64):
653
 
            nodes.append((self.make_key(counter), self.make_value(counter),
654
 
                ((self.make_key(counter + 20),),)  ))
655
 
        index = self.make_index(ref_lists=1, nodes=nodes)
656
 
        # lookup a key in the middle that does not exist, so that when we can
657
 
        # check that the referred-to-keys are not accessed automatically.
658
 
        index_size = index._size
659
 
        index_center = index_size // 2
660
 
        result = index._lookup_keys_via_location([(index_center, ('40', ))])
661
 
        # check the parse map - only the start and middle should have been
662
 
        # parsed.
663
 
        self.assertEqual([(0, 3890), (6444, 10274)], index._parsed_byte_map)
664
 
        self.assertEqual([(None, self.make_key(25)),
665
 
                          (self.make_key(37), self.make_key(52))],
666
 
            index._parsed_key_map)
667
 
        # and check the transport activity likewise.
668
 
        self.assertEqual(
669
 
            [('readv', 'index', [(index_center, 800), (0, 200)], True,
670
 
                                  index_size)],
671
 
            index._transport._activity)
672
 
        # reset the transport log for testing the reference lookup
673
 
        del index._transport._activity[:]
674
 
        # now looking up a key in the portion of the file already parsed should
675
 
        # only perform IO to resolve its key references.
676
 
        result = index._lookup_keys_via_location([(7000, self.make_key(40))])
677
 
        self.assertEqual(
678
 
            [((7000, self.make_key(40)),
679
 
              (index, self.make_key(40), self.make_value(40),
680
 
               ((self.make_key(60),),)))],
681
 
            result)
682
 
        # Resolving the references would have required more data read, and we
683
 
        # are already above the 50% threshold, so it triggered a _buffer_all
684
 
        self.assertEqual([('get', 'index')], index._transport._activity)
685
 
 
686
 
    def test_iter_all_entries_empty(self):
687
 
        index = self.make_index()
688
 
        self.assertEqual([], list(index.iter_all_entries()))
689
 
 
690
 
    def test_iter_all_entries_simple(self):
691
 
        index = self.make_index(nodes=[(('name', ), 'data', ())])
692
 
        self.assertEqual([(index, ('name', ), 'data')],
693
 
            list(index.iter_all_entries()))
694
 
 
695
 
    def test_iter_all_entries_simple_2_elements(self):
696
 
        index = self.make_index(key_elements=2,
697
 
            nodes=[(('name', 'surname'), 'data', ())])
698
 
        self.assertEqual([(index, ('name', 'surname'), 'data')],
699
 
            list(index.iter_all_entries()))
700
 
 
701
 
    def test_iter_all_entries_references_resolved(self):
702
 
        index = self.make_index(1, nodes=[
703
 
            (('name', ), 'data', ([('ref', )], )),
704
 
            (('ref', ), 'refdata', ([], ))])
705
 
        self.assertEqual(set([(index, ('name', ), 'data', ((('ref',),),)),
706
 
            (index, ('ref', ), 'refdata', ((), ))]),
707
 
            set(index.iter_all_entries()))
708
 
 
709
 
    def test_iter_entries_buffers_once(self):
710
 
        index = self.make_index(nodes=self.make_nodes(2))
711
 
        # reset the transport log
712
 
        del index._transport._activity[:]
713
 
        self.assertEqual(set([(index, self.make_key(1), self.make_value(1))]),
714
 
                         set(index.iter_entries([self.make_key(1)])))
715
 
        # We should have requested reading the header bytes
716
 
        # But not needed any more than that because it would have triggered a
717
 
        # buffer all
718
 
        self.assertEqual([
719
 
            ('readv', 'index', [(0, 200)], True, index._size),
720
 
            ],
721
 
            index._transport._activity)
722
 
        # And that should have been enough to trigger reading the whole index
723
 
        # with buffering
724
 
        self.assertIsNot(None, index._nodes)
725
 
 
726
 
    def test_iter_entries_buffers_by_bytes_read(self):
727
 
        index = self.make_index(nodes=self.make_nodes(64))
728
 
        list(index.iter_entries([self.make_key(10)]))
729
 
        # The first time through isn't enough to trigger a buffer all
730
 
        self.assertIs(None, index._nodes)
731
 
        self.assertEqual(4096, index._bytes_read)
732
 
        # Grabbing a key in that same page won't trigger a buffer all, as we
733
 
        # still haven't read 50% of the file
734
 
        list(index.iter_entries([self.make_key(11)]))
735
 
        self.assertIs(None, index._nodes)
736
 
        self.assertEqual(4096, index._bytes_read)
737
 
        # We haven't read more data, so reading outside the range won't trigger
738
 
        # a buffer all right away
739
 
        list(index.iter_entries([self.make_key(40)]))
740
 
        self.assertIs(None, index._nodes)
741
 
        self.assertEqual(8192, index._bytes_read)
742
 
        # On the next pass, we will not trigger buffer all if the key is
743
 
        # available without reading more
744
 
        list(index.iter_entries([self.make_key(32)]))
745
 
        self.assertIs(None, index._nodes)
746
 
        # But if we *would* need to read more to resolve it, then we will
747
 
        # buffer all.
748
 
        list(index.iter_entries([self.make_key(60)]))
749
 
        self.assertIsNot(None, index._nodes)
750
 
 
751
 
    def test_iter_entries_references_resolved(self):
752
 
        index = self.make_index(1, nodes=[
753
 
            (('name', ), 'data', ([('ref', ), ('ref', )], )),
754
 
            (('ref', ), 'refdata', ([], ))])
755
 
        self.assertEqual(set([(index, ('name', ), 'data', ((('ref',),('ref',)),)),
756
 
            (index, ('ref', ), 'refdata', ((), ))]),
757
 
            set(index.iter_entries([('name',), ('ref',)])))
758
 
 
759
 
    def test_iter_entries_references_2_refs_resolved(self):
760
 
        index = self.make_index(2, nodes=[
761
 
            (('name', ), 'data', ([('ref', )], [('ref', )])),
762
 
            (('ref', ), 'refdata', ([], []))])
763
 
        self.assertEqual(set([(index, ('name', ), 'data', ((('ref',),), (('ref',),))),
764
 
            (index, ('ref', ), 'refdata', ((), ()))]),
765
 
            set(index.iter_entries([('name',), ('ref',)])))
766
 
 
767
 
    def test_iteration_absent_skipped(self):
768
 
        index = self.make_index(1, nodes=[
769
 
            (('name', ), 'data', ([('ref', )], ))])
770
 
        self.assertEqual(set([(index, ('name', ), 'data', ((('ref',),),))]),
771
 
            set(index.iter_all_entries()))
772
 
        self.assertEqual(set([(index, ('name', ), 'data', ((('ref',),),))]),
773
 
            set(index.iter_entries([('name', )])))
774
 
        self.assertEqual([], list(index.iter_entries([('ref', )])))
775
 
 
776
 
    def test_iteration_absent_skipped_2_element_keys(self):
777
 
        index = self.make_index(1, key_elements=2, nodes=[
778
 
            (('name', 'fin'), 'data', ([('ref', 'erence')], ))])
779
 
        self.assertEqual(set([(index, ('name', 'fin'), 'data', ((('ref', 'erence'),),))]),
780
 
            set(index.iter_all_entries()))
781
 
        self.assertEqual(set([(index, ('name', 'fin'), 'data', ((('ref', 'erence'),),))]),
782
 
            set(index.iter_entries([('name', 'fin')])))
783
 
        self.assertEqual([], list(index.iter_entries([('ref', 'erence')])))
784
 
 
785
 
    def test_iter_all_keys(self):
786
 
        index = self.make_index(1, nodes=[
787
 
            (('name', ), 'data', ([('ref', )], )),
788
 
            (('ref', ), 'refdata', ([], ))])
789
 
        self.assertEqual(set([(index, ('name', ), 'data', ((('ref',),),)),
790
 
            (index, ('ref', ), 'refdata', ((), ))]),
791
 
            set(index.iter_entries([('name', ), ('ref', )])))
792
 
 
793
 
    def test_iter_nothing_empty(self):
794
 
        index = self.make_index()
795
 
        self.assertEqual([], list(index.iter_entries([])))
796
 
 
797
 
    def test_iter_missing_entry_empty(self):
798
 
        index = self.make_index()
799
 
        self.assertEqual([], list(index.iter_entries([('a', )])))
800
 
 
801
 
    def test_iter_missing_entry_empty_no_size(self):
802
 
        index = self.make_index()
803
 
        index = GraphIndex(index._transport, 'index', None)
804
 
        self.assertEqual([], list(index.iter_entries([('a', )])))
805
 
 
806
 
    def test_iter_key_prefix_1_element_key_None(self):
807
 
        index = self.make_index()
808
 
        self.assertRaises(errors.BadIndexKey, list,
809
 
            index.iter_entries_prefix([(None, )]))
810
 
 
811
 
    def test_iter_key_prefix_wrong_length(self):
812
 
        index = self.make_index()
813
 
        self.assertRaises(errors.BadIndexKey, list,
814
 
            index.iter_entries_prefix([('foo', None)]))
815
 
        index = self.make_index(key_elements=2)
816
 
        self.assertRaises(errors.BadIndexKey, list,
817
 
            index.iter_entries_prefix([('foo', )]))
818
 
        self.assertRaises(errors.BadIndexKey, list,
819
 
            index.iter_entries_prefix([('foo', None, None)]))
820
 
 
821
 
    def test_iter_key_prefix_1_key_element_no_refs(self):
822
 
        index = self.make_index( nodes=[
823
 
            (('name', ), 'data', ()),
824
 
            (('ref', ), 'refdata', ())])
825
 
        self.assertEqual(set([(index, ('name', ), 'data'),
826
 
            (index, ('ref', ), 'refdata')]),
827
 
            set(index.iter_entries_prefix([('name', ), ('ref', )])))
828
 
 
829
 
    def test_iter_key_prefix_1_key_element_refs(self):
830
 
        index = self.make_index(1, nodes=[
831
 
            (('name', ), 'data', ([('ref', )], )),
832
 
            (('ref', ), 'refdata', ([], ))])
833
 
        self.assertEqual(set([(index, ('name', ), 'data', ((('ref',),),)),
834
 
            (index, ('ref', ), 'refdata', ((), ))]),
835
 
            set(index.iter_entries_prefix([('name', ), ('ref', )])))
836
 
 
837
 
    def test_iter_key_prefix_2_key_element_no_refs(self):
838
 
        index = self.make_index(key_elements=2, nodes=[
839
 
            (('name', 'fin1'), 'data', ()),
840
 
            (('name', 'fin2'), 'beta', ()),
841
 
            (('ref', 'erence'), 'refdata', ())])
842
 
        self.assertEqual(set([(index, ('name', 'fin1'), 'data'),
843
 
            (index, ('ref', 'erence'), 'refdata')]),
844
 
            set(index.iter_entries_prefix([('name', 'fin1'), ('ref', 'erence')])))
845
 
        self.assertEqual(set([(index, ('name', 'fin1'), 'data'),
846
 
            (index, ('name', 'fin2'), 'beta')]),
847
 
            set(index.iter_entries_prefix([('name', None)])))
848
 
 
849
 
    def test_iter_key_prefix_2_key_element_refs(self):
850
 
        index = self.make_index(1, key_elements=2, nodes=[
851
 
            (('name', 'fin1'), 'data', ([('ref', 'erence')], )),
852
 
            (('name', 'fin2'), 'beta', ([], )),
853
 
            (('ref', 'erence'), 'refdata', ([], ))])
854
 
        self.assertEqual(set([(index, ('name', 'fin1'), 'data', ((('ref', 'erence'),),)),
855
 
            (index, ('ref', 'erence'), 'refdata', ((), ))]),
856
 
            set(index.iter_entries_prefix([('name', 'fin1'), ('ref', 'erence')])))
857
 
        self.assertEqual(set([(index, ('name', 'fin1'), 'data', ((('ref', 'erence'),),)),
858
 
            (index, ('name', 'fin2'), 'beta', ((), ))]),
859
 
            set(index.iter_entries_prefix([('name', None)])))
860
 
 
861
 
    def test_key_count_empty(self):
862
 
        index = self.make_index()
863
 
        self.assertEqual(0, index.key_count())
864
 
 
865
 
    def test_key_count_one(self):
866
 
        index = self.make_index(nodes=[(('name', ), '', ())])
867
 
        self.assertEqual(1, index.key_count())
868
 
 
869
 
    def test_key_count_two(self):
870
 
        index = self.make_index(nodes=[
871
 
            (('name', ), '', ()), (('foo', ), '', ())])
872
 
        self.assertEqual(2, index.key_count())
873
 
 
874
 
    def test_read_and_parse_tracks_real_read_value(self):
875
 
        index = self.make_index(nodes=self.make_nodes(10))
876
 
        del index._transport._activity[:]
877
 
        index._read_and_parse([(0, 200)])
878
 
        self.assertEqual([
879
 
            ('readv', 'index', [(0, 200)], True, index._size),
880
 
            ],
881
 
            index._transport._activity)
882
 
        # The readv expansion code will expand the initial request to 4096
883
 
        # bytes, which is more than enough to read the entire index, and we
884
 
        # will track the fact that we read that many bytes.
885
 
        self.assertEqual(index._size, index._bytes_read)
886
 
 
887
 
    def test_read_and_parse_triggers_buffer_all(self):
888
 
        index = self.make_index(key_elements=2, nodes=[
889
 
            (('name', 'fin1'), 'data', ()),
890
 
            (('name', 'fin2'), 'beta', ()),
891
 
            (('ref', 'erence'), 'refdata', ())])
892
 
        self.assertTrue(index._size > 0)
893
 
        self.assertIs(None, index._nodes)
894
 
        index._read_and_parse([(0, index._size)])
895
 
        self.assertIsNot(None, index._nodes)
896
 
 
897
 
    def test_validate_bad_index_errors(self):
898
 
        trans = self.get_transport()
899
 
        trans.put_bytes('name', "not an index\n")
900
 
        index = GraphIndex(trans, 'name', 13)
901
 
        self.assertRaises(errors.BadIndexFormatSignature, index.validate)
902
 
 
903
 
    def test_validate_bad_node_refs(self):
904
 
        index = self.make_index(2)
905
 
        trans = self.get_transport()
906
 
        content = trans.get_bytes('index')
907
 
        # change the options line to end with a rather than a parseable number
908
 
        new_content = content[:-2] + 'a\n\n'
909
 
        trans.put_bytes('index', new_content)
910
 
        self.assertRaises(errors.BadIndexOptions, index.validate)
911
 
 
912
 
    def test_validate_missing_end_line_empty(self):
913
 
        index = self.make_index(2)
914
 
        trans = self.get_transport()
915
 
        content = trans.get_bytes('index')
916
 
        # truncate the last byte
917
 
        trans.put_bytes('index', content[:-1])
918
 
        self.assertRaises(errors.BadIndexData, index.validate)
919
 
 
920
 
    def test_validate_missing_end_line_nonempty(self):
921
 
        index = self.make_index(2, nodes=[(('key', ), '', ([], []))])
922
 
        trans = self.get_transport()
923
 
        content = trans.get_bytes('index')
924
 
        # truncate the last byte
925
 
        trans.put_bytes('index', content[:-1])
926
 
        self.assertRaises(errors.BadIndexData, index.validate)
927
 
 
928
 
    def test_validate_empty(self):
929
 
        index = self.make_index()
930
 
        index.validate()
931
 
 
932
 
    def test_validate_no_refs_content(self):
933
 
        index = self.make_index(nodes=[(('key', ), 'value', ())])
934
 
        index.validate()
935
 
 
936
 
    # XXX: external_references tests are duplicated in test_btree_index.  We
937
 
    # probably should have per_graph_index tests...
938
 
    def test_external_references_no_refs(self):
939
 
        index = self.make_index(ref_lists=0, nodes=[])
940
 
        self.assertRaises(ValueError, index.external_references, 0)
941
 
 
942
 
    def test_external_references_no_results(self):
943
 
        index = self.make_index(ref_lists=1, nodes=[
944
 
            (('key',), 'value', ([],))])
945
 
        self.assertEqual(set(), index.external_references(0))
946
 
 
947
 
    def test_external_references_missing_ref(self):
948
 
        missing_key = ('missing',)
949
 
        index = self.make_index(ref_lists=1, nodes=[
950
 
            (('key',), 'value', ([missing_key],))])
951
 
        self.assertEqual(set([missing_key]), index.external_references(0))
952
 
 
953
 
    def test_external_references_multiple_ref_lists(self):
954
 
        missing_key = ('missing',)
955
 
        index = self.make_index(ref_lists=2, nodes=[
956
 
            (('key',), 'value', ([], [missing_key]))])
957
 
        self.assertEqual(set([]), index.external_references(0))
958
 
        self.assertEqual(set([missing_key]), index.external_references(1))
959
 
 
960
 
    def test_external_references_two_records(self):
961
 
        index = self.make_index(ref_lists=1, nodes=[
962
 
            (('key-1',), 'value', ([('key-2',)],)),
963
 
            (('key-2',), 'value', ([],)),
964
 
            ])
965
 
        self.assertEqual(set([]), index.external_references(0))
966
 
 
967
 
    def test__find_ancestors(self):
968
 
        key1 = ('key-1',)
969
 
        key2 = ('key-2',)
970
 
        index = self.make_index(ref_lists=1, key_elements=1, nodes=[
971
 
            (key1, 'value', ([key2],)),
972
 
            (key2, 'value', ([],)),
973
 
            ])
974
 
        parent_map = {}
975
 
        missing_keys = set()
976
 
        search_keys = index._find_ancestors([key1], 0, parent_map, missing_keys)
977
 
        self.assertEqual({key1: (key2,)}, parent_map)
978
 
        self.assertEqual(set(), missing_keys)
979
 
        self.assertEqual(set([key2]), search_keys)
980
 
        search_keys = index._find_ancestors(search_keys, 0, parent_map,
981
 
                                            missing_keys)
982
 
        self.assertEqual({key1: (key2,), key2: ()}, parent_map)
983
 
        self.assertEqual(set(), missing_keys)
984
 
        self.assertEqual(set(), search_keys)
985
 
 
986
 
    def test__find_ancestors_w_missing(self):
987
 
        key1 = ('key-1',)
988
 
        key2 = ('key-2',)
989
 
        key3 = ('key-3',)
990
 
        index = self.make_index(ref_lists=1, key_elements=1, nodes=[
991
 
            (key1, 'value', ([key2],)),
992
 
            (key2, 'value', ([],)),
993
 
            ])
994
 
        parent_map = {}
995
 
        missing_keys = set()
996
 
        search_keys = index._find_ancestors([key2, key3], 0, parent_map,
997
 
                                            missing_keys)
998
 
        self.assertEqual({key2: ()}, parent_map)
999
 
        self.assertEqual(set([key3]), missing_keys)
1000
 
        self.assertEqual(set(), search_keys)
1001
 
 
1002
 
    def test__find_ancestors_dont_search_known(self):
1003
 
        key1 = ('key-1',)
1004
 
        key2 = ('key-2',)
1005
 
        key3 = ('key-3',)
1006
 
        index = self.make_index(ref_lists=1, key_elements=1, nodes=[
1007
 
            (key1, 'value', ([key2],)),
1008
 
            (key2, 'value', ([key3],)),
1009
 
            (key3, 'value', ([],)),
1010
 
            ])
1011
 
        # We already know about key2, so we won't try to search for key3
1012
 
        parent_map = {key2: (key3,)}
1013
 
        missing_keys = set()
1014
 
        search_keys = index._find_ancestors([key1], 0, parent_map,
1015
 
                                            missing_keys)
1016
 
        self.assertEqual({key1: (key2,), key2: (key3,)}, parent_map)
1017
 
        self.assertEqual(set(), missing_keys)
1018
 
        self.assertEqual(set(), search_keys)
1019
 
 
1020
 
    def test_supports_unlimited_cache(self):
1021
 
        builder = GraphIndexBuilder(0, key_elements=1)
1022
 
        stream = builder.finish()
1023
 
        trans = get_transport(self.get_url())
1024
 
        size = trans.put_file('index', stream)
1025
 
        # It doesn't matter what unlimited_cache does here, just that it can be
1026
 
        # passed
1027
 
        index = GraphIndex(trans, 'index', size, unlimited_cache=True)
1028
 
 
1029
 
 
1030
 
class TestCombinedGraphIndex(TestCaseWithMemoryTransport):
1031
 
 
1032
 
    def make_index(self, name, ref_lists=0, key_elements=1, nodes=[]):
1033
 
        builder = GraphIndexBuilder(ref_lists, key_elements=key_elements)
1034
 
        for key, value, references in nodes:
1035
 
            builder.add_node(key, value, references)
1036
 
        stream = builder.finish()
1037
 
        trans = self.get_transport()
1038
 
        size = trans.put_file(name, stream)
1039
 
        return GraphIndex(trans, name, size)
1040
 
 
1041
 
    def make_combined_index_with_missing(self, missing=['1', '2']):
1042
 
        """Create a CombinedGraphIndex which will have missing indexes.
1043
 
 
1044
 
        This creates a CGI which thinks it has 2 indexes, however they have
1045
 
        been deleted. If CGI._reload_func() is called, then it will repopulate
1046
 
        with a new index.
1047
 
 
1048
 
        :param missing: The underlying indexes to delete
1049
 
        :return: (CombinedGraphIndex, reload_counter)
1050
 
        """
1051
 
        index1 = self.make_index('1', nodes=[(('1',), '', ())])
1052
 
        index2 = self.make_index('2', nodes=[(('2',), '', ())])
1053
 
        index3 = self.make_index('3', nodes=[
1054
 
            (('1',), '', ()),
1055
 
            (('2',), '', ())])
1056
 
 
1057
 
        # total_reloads, num_changed, num_unchanged
1058
 
        reload_counter = [0, 0, 0]
1059
 
        def reload():
1060
 
            reload_counter[0] += 1
1061
 
            new_indices = [index3]
1062
 
            if index._indices == new_indices:
1063
 
                reload_counter[2] += 1
1064
 
                return False
1065
 
            reload_counter[1] += 1
1066
 
            index._indices[:] = new_indices
1067
 
            return True
1068
 
        index = CombinedGraphIndex([index1, index2], reload_func=reload)
1069
 
        trans = self.get_transport()
1070
 
        for fname in missing:
1071
 
            trans.delete(fname)
1072
 
        return index, reload_counter
1073
 
 
1074
 
    def test_open_missing_index_no_error(self):
1075
 
        trans = self.get_transport()
1076
 
        index1 = GraphIndex(trans, 'missing', 100)
1077
 
        index = CombinedGraphIndex([index1])
1078
 
 
1079
 
    def test_add_index(self):
1080
 
        index = CombinedGraphIndex([])
1081
 
        index1 = self.make_index('name', 0, nodes=[(('key', ), '', ())])
1082
 
        index.insert_index(0, index1)
1083
 
        self.assertEqual([(index1, ('key', ), '')], list(index.iter_all_entries()))
1084
 
 
1085
 
    def test_clear_cache(self):
1086
 
        log = []
1087
 
 
1088
 
        class ClearCacheProxy(object):
1089
 
 
1090
 
            def __init__(self, index):
1091
 
                self._index = index
1092
 
 
1093
 
            def __getattr__(self, name):
1094
 
                return getattr(self._index)
1095
 
 
1096
 
            def clear_cache(self):
1097
 
                log.append(self._index)
1098
 
                return self._index.clear_cache()
1099
 
 
1100
 
        index = CombinedGraphIndex([])
1101
 
        index1 = self.make_index('name', 0, nodes=[(('key', ), '', ())])
1102
 
        index.insert_index(0, ClearCacheProxy(index1))
1103
 
        index2 = self.make_index('name', 0, nodes=[(('key', ), '', ())])
1104
 
        index.insert_index(1, ClearCacheProxy(index2))
1105
 
        # CombinedGraphIndex should call 'clear_cache()' on all children
1106
 
        index.clear_cache()
1107
 
        self.assertEqual(sorted([index1, index2]), sorted(log))
1108
 
 
1109
 
    def test_iter_all_entries_empty(self):
1110
 
        index = CombinedGraphIndex([])
1111
 
        self.assertEqual([], list(index.iter_all_entries()))
1112
 
 
1113
 
    def test_iter_all_entries_children_empty(self):
1114
 
        index1 = self.make_index('name')
1115
 
        index = CombinedGraphIndex([index1])
1116
 
        self.assertEqual([], list(index.iter_all_entries()))
1117
 
 
1118
 
    def test_iter_all_entries_simple(self):
1119
 
        index1 = self.make_index('name', nodes=[(('name', ), 'data', ())])
1120
 
        index = CombinedGraphIndex([index1])
1121
 
        self.assertEqual([(index1, ('name', ), 'data')],
1122
 
            list(index.iter_all_entries()))
1123
 
 
1124
 
    def test_iter_all_entries_two_indices(self):
1125
 
        index1 = self.make_index('name1', nodes=[(('name', ), 'data', ())])
1126
 
        index2 = self.make_index('name2', nodes=[(('2', ), '', ())])
1127
 
        index = CombinedGraphIndex([index1, index2])
1128
 
        self.assertEqual([(index1, ('name', ), 'data'),
1129
 
            (index2, ('2', ), '')],
1130
 
            list(index.iter_all_entries()))
1131
 
 
1132
 
    def test_iter_entries_two_indices_dup_key(self):
1133
 
        index1 = self.make_index('name1', nodes=[(('name', ), 'data', ())])
1134
 
        index2 = self.make_index('name2', nodes=[(('name', ), 'data', ())])
1135
 
        index = CombinedGraphIndex([index1, index2])
1136
 
        self.assertEqual([(index1, ('name', ), 'data')],
1137
 
            list(index.iter_entries([('name', )])))
1138
 
 
1139
 
    def test_iter_all_entries_two_indices_dup_key(self):
1140
 
        index1 = self.make_index('name1', nodes=[(('name', ), 'data', ())])
1141
 
        index2 = self.make_index('name2', nodes=[(('name', ), 'data', ())])
1142
 
        index = CombinedGraphIndex([index1, index2])
1143
 
        self.assertEqual([(index1, ('name', ), 'data')],
1144
 
            list(index.iter_all_entries()))
1145
 
 
1146
 
    def test_iter_key_prefix_2_key_element_refs(self):
1147
 
        index1 = self.make_index('1', 1, key_elements=2, nodes=[
1148
 
            (('name', 'fin1'), 'data', ([('ref', 'erence')], ))])
1149
 
        index2 = self.make_index('2', 1, key_elements=2, nodes=[
1150
 
            (('name', 'fin2'), 'beta', ([], )),
1151
 
            (('ref', 'erence'), 'refdata', ([], ))])
1152
 
        index = CombinedGraphIndex([index1, index2])
1153
 
        self.assertEqual(set([(index1, ('name', 'fin1'), 'data', ((('ref', 'erence'),),)),
1154
 
            (index2, ('ref', 'erence'), 'refdata', ((), ))]),
1155
 
            set(index.iter_entries_prefix([('name', 'fin1'), ('ref', 'erence')])))
1156
 
        self.assertEqual(set([(index1, ('name', 'fin1'), 'data', ((('ref', 'erence'),),)),
1157
 
            (index2, ('name', 'fin2'), 'beta', ((), ))]),
1158
 
            set(index.iter_entries_prefix([('name', None)])))
1159
 
 
1160
 
    def test_iter_nothing_empty(self):
1161
 
        index = CombinedGraphIndex([])
1162
 
        self.assertEqual([], list(index.iter_entries([])))
1163
 
 
1164
 
    def test_iter_nothing_children_empty(self):
1165
 
        index1 = self.make_index('name')
1166
 
        index = CombinedGraphIndex([index1])
1167
 
        self.assertEqual([], list(index.iter_entries([])))
1168
 
 
1169
 
    def test_iter_all_keys(self):
1170
 
        index1 = self.make_index('1', 1, nodes=[
1171
 
            (('name', ), 'data', ([('ref', )], ))])
1172
 
        index2 = self.make_index('2', 1, nodes=[
1173
 
            (('ref', ), 'refdata', ((), ))])
1174
 
        index = CombinedGraphIndex([index1, index2])
1175
 
        self.assertEqual(set([(index1, ('name', ), 'data', ((('ref', ), ), )),
1176
 
            (index2, ('ref', ), 'refdata', ((), ))]),
1177
 
            set(index.iter_entries([('name', ), ('ref', )])))
1178
 
 
1179
 
    def test_iter_all_keys_dup_entry(self):
1180
 
        index1 = self.make_index('1', 1, nodes=[
1181
 
            (('name', ), 'data', ([('ref', )], )),
1182
 
            (('ref', ), 'refdata', ([], ))])
1183
 
        index2 = self.make_index('2', 1, nodes=[
1184
 
            (('ref', ), 'refdata', ([], ))])
1185
 
        index = CombinedGraphIndex([index1, index2])
1186
 
        self.assertEqual(set([(index1, ('name', ), 'data', ((('ref',),),)),
1187
 
            (index1, ('ref', ), 'refdata', ((), ))]),
1188
 
            set(index.iter_entries([('name', ), ('ref', )])))
1189
 
 
1190
 
    def test_iter_missing_entry_empty(self):
1191
 
        index = CombinedGraphIndex([])
1192
 
        self.assertEqual([], list(index.iter_entries([('a', )])))
1193
 
 
1194
 
    def test_iter_missing_entry_one_index(self):
1195
 
        index1 = self.make_index('1')
1196
 
        index = CombinedGraphIndex([index1])
1197
 
        self.assertEqual([], list(index.iter_entries([('a', )])))
1198
 
 
1199
 
    def test_iter_missing_entry_two_index(self):
1200
 
        index1 = self.make_index('1')
1201
 
        index2 = self.make_index('2')
1202
 
        index = CombinedGraphIndex([index1, index2])
1203
 
        self.assertEqual([], list(index.iter_entries([('a', )])))
1204
 
 
1205
 
    def test_iter_entry_present_one_index_only(self):
1206
 
        index1 = self.make_index('1', nodes=[(('key', ), '', ())])
1207
 
        index2 = self.make_index('2', nodes=[])
1208
 
        index = CombinedGraphIndex([index1, index2])
1209
 
        self.assertEqual([(index1, ('key', ), '')],
1210
 
            list(index.iter_entries([('key', )])))
1211
 
        # and in the other direction
1212
 
        index = CombinedGraphIndex([index2, index1])
1213
 
        self.assertEqual([(index1, ('key', ), '')],
1214
 
            list(index.iter_entries([('key', )])))
1215
 
 
1216
 
    def test_key_count_empty(self):
1217
 
        index1 = self.make_index('1', nodes=[])
1218
 
        index2 = self.make_index('2', nodes=[])
1219
 
        index = CombinedGraphIndex([index1, index2])
1220
 
        self.assertEqual(0, index.key_count())
1221
 
 
1222
 
    def test_key_count_sums_index_keys(self):
1223
 
        index1 = self.make_index('1', nodes=[
1224
 
            (('1',), '', ()),
1225
 
            (('2',), '', ())])
1226
 
        index2 = self.make_index('2', nodes=[(('1',), '', ())])
1227
 
        index = CombinedGraphIndex([index1, index2])
1228
 
        self.assertEqual(3, index.key_count())
1229
 
 
1230
 
    def test_validate_bad_child_index_errors(self):
1231
 
        trans = self.get_transport()
1232
 
        trans.put_bytes('name', "not an index\n")
1233
 
        index1 = GraphIndex(trans, 'name', 13)
1234
 
        index = CombinedGraphIndex([index1])
1235
 
        self.assertRaises(errors.BadIndexFormatSignature, index.validate)
1236
 
 
1237
 
    def test_validate_empty(self):
1238
 
        index = CombinedGraphIndex([])
1239
 
        index.validate()
1240
 
 
1241
 
    def test_key_count_reloads(self):
1242
 
        index, reload_counter = self.make_combined_index_with_missing()
1243
 
        self.assertEqual(2, index.key_count())
1244
 
        self.assertEqual([1, 1, 0], reload_counter)
1245
 
 
1246
 
    def test_key_count_no_reload(self):
1247
 
        index, reload_counter = self.make_combined_index_with_missing()
1248
 
        index._reload_func = None
1249
 
        # Without a _reload_func we just raise the exception
1250
 
        self.assertRaises(errors.NoSuchFile, index.key_count)
1251
 
 
1252
 
    def test_key_count_reloads_and_fails(self):
1253
 
        # We have deleted all underlying indexes, so we will try to reload, but
1254
 
        # still fail. This is mostly to test we don't get stuck in an infinite
1255
 
        # loop trying to reload
1256
 
        index, reload_counter = self.make_combined_index_with_missing(
1257
 
                                    ['1', '2', '3'])
1258
 
        self.assertRaises(errors.NoSuchFile, index.key_count)
1259
 
        self.assertEqual([2, 1, 1], reload_counter)
1260
 
 
1261
 
    def test_iter_entries_reloads(self):
1262
 
        index, reload_counter = self.make_combined_index_with_missing()
1263
 
        result = list(index.iter_entries([('1',), ('2',), ('3',)]))
1264
 
        index3 = index._indices[0]
1265
 
        self.assertEqual([(index3, ('1',), ''), (index3, ('2',), '')],
1266
 
                         result)
1267
 
        self.assertEqual([1, 1, 0], reload_counter)
1268
 
 
1269
 
    def test_iter_entries_reloads_midway(self):
1270
 
        # The first index still looks present, so we get interrupted mid-way
1271
 
        # through
1272
 
        index, reload_counter = self.make_combined_index_with_missing(['2'])
1273
 
        index1, index2 = index._indices
1274
 
        result = list(index.iter_entries([('1',), ('2',), ('3',)]))
1275
 
        index3 = index._indices[0]
1276
 
        # We had already yielded '1', so we just go on to the next, we should
1277
 
        # not yield '1' twice.
1278
 
        self.assertEqual([(index1, ('1',), ''), (index3, ('2',), '')],
1279
 
                         result)
1280
 
        self.assertEqual([1, 1, 0], reload_counter)
1281
 
 
1282
 
    def test_iter_entries_no_reload(self):
1283
 
        index, reload_counter = self.make_combined_index_with_missing()
1284
 
        index._reload_func = None
1285
 
        # Without a _reload_func we just raise the exception
1286
 
        self.assertListRaises(errors.NoSuchFile, index.iter_entries, [('3',)])
1287
 
 
1288
 
    def test_iter_entries_reloads_and_fails(self):
1289
 
        index, reload_counter = self.make_combined_index_with_missing(
1290
 
                                    ['1', '2', '3'])
1291
 
        self.assertListRaises(errors.NoSuchFile, index.iter_entries, [('3',)])
1292
 
        self.assertEqual([2, 1, 1], reload_counter)
1293
 
 
1294
 
    def test_iter_all_entries_reloads(self):
1295
 
        index, reload_counter = self.make_combined_index_with_missing()
1296
 
        result = list(index.iter_all_entries())
1297
 
        index3 = index._indices[0]
1298
 
        self.assertEqual([(index3, ('1',), ''), (index3, ('2',), '')],
1299
 
                         result)
1300
 
        self.assertEqual([1, 1, 0], reload_counter)
1301
 
 
1302
 
    def test_iter_all_entries_reloads_midway(self):
1303
 
        index, reload_counter = self.make_combined_index_with_missing(['2'])
1304
 
        index1, index2 = index._indices
1305
 
        result = list(index.iter_all_entries())
1306
 
        index3 = index._indices[0]
1307
 
        # We had already yielded '1', so we just go on to the next, we should
1308
 
        # not yield '1' twice.
1309
 
        self.assertEqual([(index1, ('1',), ''), (index3, ('2',), '')],
1310
 
                         result)
1311
 
        self.assertEqual([1, 1, 0], reload_counter)
1312
 
 
1313
 
    def test_iter_all_entries_no_reload(self):
1314
 
        index, reload_counter = self.make_combined_index_with_missing()
1315
 
        index._reload_func = None
1316
 
        self.assertListRaises(errors.NoSuchFile, index.iter_all_entries)
1317
 
 
1318
 
    def test_iter_all_entries_reloads_and_fails(self):
1319
 
        index, reload_counter = self.make_combined_index_with_missing(
1320
 
                                    ['1', '2', '3'])
1321
 
        self.assertListRaises(errors.NoSuchFile, index.iter_all_entries)
1322
 
 
1323
 
    def test_iter_entries_prefix_reloads(self):
1324
 
        index, reload_counter = self.make_combined_index_with_missing()
1325
 
        result = list(index.iter_entries_prefix([('1',)]))
1326
 
        index3 = index._indices[0]
1327
 
        self.assertEqual([(index3, ('1',), '')], result)
1328
 
        self.assertEqual([1, 1, 0], reload_counter)
1329
 
 
1330
 
    def test_iter_entries_prefix_reloads_midway(self):
1331
 
        index, reload_counter = self.make_combined_index_with_missing(['2'])
1332
 
        index1, index2 = index._indices
1333
 
        result = list(index.iter_entries_prefix([('1',)]))
1334
 
        index3 = index._indices[0]
1335
 
        # We had already yielded '1', so we just go on to the next, we should
1336
 
        # not yield '1' twice.
1337
 
        self.assertEqual([(index1, ('1',), '')], result)
1338
 
        self.assertEqual([1, 1, 0], reload_counter)
1339
 
 
1340
 
    def test_iter_entries_prefix_no_reload(self):
1341
 
        index, reload_counter = self.make_combined_index_with_missing()
1342
 
        index._reload_func = None
1343
 
        self.assertListRaises(errors.NoSuchFile, index.iter_entries_prefix,
1344
 
                                                 [('1',)])
1345
 
 
1346
 
    def test_iter_entries_prefix_reloads_and_fails(self):
1347
 
        index, reload_counter = self.make_combined_index_with_missing(
1348
 
                                    ['1', '2', '3'])
1349
 
        self.assertListRaises(errors.NoSuchFile, index.iter_entries_prefix,
1350
 
                                                 [('1',)])
1351
 
 
1352
 
    def test_validate_reloads(self):
1353
 
        index, reload_counter = self.make_combined_index_with_missing()
1354
 
        index.validate()
1355
 
        self.assertEqual([1, 1, 0], reload_counter)
1356
 
 
1357
 
    def test_validate_reloads_midway(self):
1358
 
        index, reload_counter = self.make_combined_index_with_missing(['2'])
1359
 
        index.validate()
1360
 
 
1361
 
    def test_validate_no_reload(self):
1362
 
        index, reload_counter = self.make_combined_index_with_missing()
1363
 
        index._reload_func = None
1364
 
        self.assertRaises(errors.NoSuchFile, index.validate)
1365
 
 
1366
 
    def test_validate_reloads_and_fails(self):
1367
 
        index, reload_counter = self.make_combined_index_with_missing(
1368
 
                                    ['1', '2', '3'])
1369
 
        self.assertRaises(errors.NoSuchFile, index.validate)
1370
 
 
1371
 
    def test_find_ancestors_across_indexes(self):
1372
 
        key1 = ('key-1',)
1373
 
        key2 = ('key-2',)
1374
 
        key3 = ('key-3',)
1375
 
        key4 = ('key-4',)
1376
 
        index1 = self.make_index('12', ref_lists=1, nodes=[
1377
 
            (key1, 'value', ([],)),
1378
 
            (key2, 'value', ([key1],)),
1379
 
            ])
1380
 
        index2 = self.make_index('34', ref_lists=1, nodes=[
1381
 
            (key3, 'value', ([key2],)),
1382
 
            (key4, 'value', ([key3],)),
1383
 
            ])
1384
 
        c_index = CombinedGraphIndex([index1, index2])
1385
 
        parent_map, missing_keys = c_index.find_ancestry([key1], 0)
1386
 
        self.assertEqual({key1: ()}, parent_map)
1387
 
        self.assertEqual(set(), missing_keys)
1388
 
        # Now look for a key from index2 which requires us to find the key in
1389
 
        # the second index, and then continue searching for parents in the
1390
 
        # first index
1391
 
        parent_map, missing_keys = c_index.find_ancestry([key3], 0)
1392
 
        self.assertEqual({key1: (), key2: (key1,), key3: (key2,)}, parent_map)
1393
 
        self.assertEqual(set(), missing_keys)
1394
 
 
1395
 
    def test_find_ancestors_missing_keys(self):
1396
 
        key1 = ('key-1',)
1397
 
        key2 = ('key-2',)
1398
 
        key3 = ('key-3',)
1399
 
        key4 = ('key-4',)
1400
 
        index1 = self.make_index('12', ref_lists=1, nodes=[
1401
 
            (key1, 'value', ([],)),
1402
 
            (key2, 'value', ([key1],)),
1403
 
            ])
1404
 
        index2 = self.make_index('34', ref_lists=1, nodes=[
1405
 
            (key3, 'value', ([key2],)),
1406
 
            ])
1407
 
        c_index = CombinedGraphIndex([index1, index2])
1408
 
        # Searching for a key which is actually not present at all should
1409
 
        # eventually converge
1410
 
        parent_map, missing_keys = c_index.find_ancestry([key4], 0)
1411
 
        self.assertEqual({}, parent_map)
1412
 
        self.assertEqual(set([key4]), missing_keys)
1413
 
 
1414
 
    def test_find_ancestors_no_indexes(self):
1415
 
        c_index = CombinedGraphIndex([])
1416
 
        key1 = ('key-1',)
1417
 
        parent_map, missing_keys = c_index.find_ancestry([key1], 0)
1418
 
        self.assertEqual({}, parent_map)
1419
 
        self.assertEqual(set([key1]), missing_keys)
1420
 
 
1421
 
    def test_find_ancestors_ghost_parent(self):
1422
 
        key1 = ('key-1',)
1423
 
        key2 = ('key-2',)
1424
 
        key3 = ('key-3',)
1425
 
        key4 = ('key-4',)
1426
 
        index1 = self.make_index('12', ref_lists=1, nodes=[
1427
 
            (key1, 'value', ([],)),
1428
 
            (key2, 'value', ([key1],)),
1429
 
            ])
1430
 
        index2 = self.make_index('34', ref_lists=1, nodes=[
1431
 
            (key4, 'value', ([key2, key3],)),
1432
 
            ])
1433
 
        c_index = CombinedGraphIndex([index1, index2])
1434
 
        # Searching for a key which is actually not present at all should
1435
 
        # eventually converge
1436
 
        parent_map, missing_keys = c_index.find_ancestry([key4], 0)
1437
 
        self.assertEqual({key4: (key2, key3), key2: (key1,), key1: ()},
1438
 
                         parent_map)
1439
 
        self.assertEqual(set([key3]), missing_keys)
1440
 
 
1441
 
    def test__find_ancestors_empty_index(self):
1442
 
        index = self.make_index('test', ref_lists=1, key_elements=1, nodes=[])
1443
 
        parent_map = {}
1444
 
        missing_keys = set()
1445
 
        search_keys = index._find_ancestors([('one',), ('two',)], 0, parent_map,
1446
 
                                            missing_keys)
1447
 
        self.assertEqual(set(), search_keys)
1448
 
        self.assertEqual({}, parent_map)
1449
 
        self.assertEqual(set([('one',), ('two',)]), missing_keys)
1450
 
 
1451
 
 
1452
 
class TestInMemoryGraphIndex(TestCaseWithMemoryTransport):
1453
 
 
1454
 
    def make_index(self, ref_lists=0, key_elements=1, nodes=[]):
1455
 
        result = InMemoryGraphIndex(ref_lists, key_elements=key_elements)
1456
 
        result.add_nodes(nodes)
1457
 
        return result
1458
 
 
1459
 
    def test_add_nodes_no_refs(self):
1460
 
        index = self.make_index(0)
1461
 
        index.add_nodes([(('name', ), 'data')])
1462
 
        index.add_nodes([(('name2', ), ''), (('name3', ), '')])
1463
 
        self.assertEqual(set([
1464
 
            (index, ('name', ), 'data'),
1465
 
            (index, ('name2', ), ''),
1466
 
            (index, ('name3', ), ''),
1467
 
            ]), set(index.iter_all_entries()))
1468
 
 
1469
 
    def test_add_nodes(self):
1470
 
        index = self.make_index(1)
1471
 
        index.add_nodes([(('name', ), 'data', ([],))])
1472
 
        index.add_nodes([(('name2', ), '', ([],)), (('name3', ), '', ([('r', )],))])
1473
 
        self.assertEqual(set([
1474
 
            (index, ('name', ), 'data', ((),)),
1475
 
            (index, ('name2', ), '', ((),)),
1476
 
            (index, ('name3', ), '', ((('r', ), ), )),
1477
 
            ]), set(index.iter_all_entries()))
1478
 
 
1479
 
    def test_iter_all_entries_empty(self):
1480
 
        index = self.make_index()
1481
 
        self.assertEqual([], list(index.iter_all_entries()))
1482
 
 
1483
 
    def test_iter_all_entries_simple(self):
1484
 
        index = self.make_index(nodes=[(('name', ), 'data')])
1485
 
        self.assertEqual([(index, ('name', ), 'data')],
1486
 
            list(index.iter_all_entries()))
1487
 
 
1488
 
    def test_iter_all_entries_references(self):
1489
 
        index = self.make_index(1, nodes=[
1490
 
            (('name', ), 'data', ([('ref', )], )),
1491
 
            (('ref', ), 'refdata', ([], ))])
1492
 
        self.assertEqual(set([(index, ('name', ), 'data', ((('ref', ),),)),
1493
 
            (index, ('ref', ), 'refdata', ((), ))]),
1494
 
            set(index.iter_all_entries()))
1495
 
 
1496
 
    def test_iteration_absent_skipped(self):
1497
 
        index = self.make_index(1, nodes=[
1498
 
            (('name', ), 'data', ([('ref', )], ))])
1499
 
        self.assertEqual(set([(index, ('name', ), 'data', ((('ref',),),))]),
1500
 
            set(index.iter_all_entries()))
1501
 
        self.assertEqual(set([(index, ('name', ), 'data', ((('ref',),),))]),
1502
 
            set(index.iter_entries([('name', )])))
1503
 
        self.assertEqual([], list(index.iter_entries([('ref', )])))
1504
 
 
1505
 
    def test_iter_all_keys(self):
1506
 
        index = self.make_index(1, nodes=[
1507
 
            (('name', ), 'data', ([('ref', )], )),
1508
 
            (('ref', ), 'refdata', ([], ))])
1509
 
        self.assertEqual(set([(index, ('name', ), 'data', ((('ref',),),)),
1510
 
            (index, ('ref', ), 'refdata', ((), ))]),
1511
 
            set(index.iter_entries([('name', ), ('ref', )])))
1512
 
 
1513
 
    def test_iter_key_prefix_1_key_element_no_refs(self):
1514
 
        index = self.make_index( nodes=[
1515
 
            (('name', ), 'data'),
1516
 
            (('ref', ), 'refdata')])
1517
 
        self.assertEqual(set([(index, ('name', ), 'data'),
1518
 
            (index, ('ref', ), 'refdata')]),
1519
 
            set(index.iter_entries_prefix([('name', ), ('ref', )])))
1520
 
 
1521
 
    def test_iter_key_prefix_1_key_element_refs(self):
1522
 
        index = self.make_index(1, nodes=[
1523
 
            (('name', ), 'data', ([('ref', )], )),
1524
 
            (('ref', ), 'refdata', ([], ))])
1525
 
        self.assertEqual(set([(index, ('name', ), 'data', ((('ref',),),)),
1526
 
            (index, ('ref', ), 'refdata', ((), ))]),
1527
 
            set(index.iter_entries_prefix([('name', ), ('ref', )])))
1528
 
 
1529
 
    def test_iter_key_prefix_2_key_element_no_refs(self):
1530
 
        index = self.make_index(key_elements=2, nodes=[
1531
 
            (('name', 'fin1'), 'data'),
1532
 
            (('name', 'fin2'), 'beta'),
1533
 
            (('ref', 'erence'), 'refdata')])
1534
 
        self.assertEqual(set([(index, ('name', 'fin1'), 'data'),
1535
 
            (index, ('ref', 'erence'), 'refdata')]),
1536
 
            set(index.iter_entries_prefix([('name', 'fin1'), ('ref', 'erence')])))
1537
 
        self.assertEqual(set([(index, ('name', 'fin1'), 'data'),
1538
 
            (index, ('name', 'fin2'), 'beta')]),
1539
 
            set(index.iter_entries_prefix([('name', None)])))
1540
 
 
1541
 
    def test_iter_key_prefix_2_key_element_refs(self):
1542
 
        index = self.make_index(1, key_elements=2, nodes=[
1543
 
            (('name', 'fin1'), 'data', ([('ref', 'erence')], )),
1544
 
            (('name', 'fin2'), 'beta', ([], )),
1545
 
            (('ref', 'erence'), 'refdata', ([], ))])
1546
 
        self.assertEqual(set([(index, ('name', 'fin1'), 'data', ((('ref', 'erence'),),)),
1547
 
            (index, ('ref', 'erence'), 'refdata', ((), ))]),
1548
 
            set(index.iter_entries_prefix([('name', 'fin1'), ('ref', 'erence')])))
1549
 
        self.assertEqual(set([(index, ('name', 'fin1'), 'data', ((('ref', 'erence'),),)),
1550
 
            (index, ('name', 'fin2'), 'beta', ((), ))]),
1551
 
            set(index.iter_entries_prefix([('name', None)])))
1552
 
 
1553
 
    def test_iter_nothing_empty(self):
1554
 
        index = self.make_index()
1555
 
        self.assertEqual([], list(index.iter_entries([])))
1556
 
 
1557
 
    def test_iter_missing_entry_empty(self):
1558
 
        index = self.make_index()
1559
 
        self.assertEqual([], list(index.iter_entries(['a'])))
1560
 
 
1561
 
    def test_key_count_empty(self):
1562
 
        index = self.make_index()
1563
 
        self.assertEqual(0, index.key_count())
1564
 
 
1565
 
    def test_key_count_one(self):
1566
 
        index = self.make_index(nodes=[(('name', ), '')])
1567
 
        self.assertEqual(1, index.key_count())
1568
 
 
1569
 
    def test_key_count_two(self):
1570
 
        index = self.make_index(nodes=[(('name', ), ''), (('foo', ), '')])
1571
 
        self.assertEqual(2, index.key_count())
1572
 
 
1573
 
    def test_validate_empty(self):
1574
 
        index = self.make_index()
1575
 
        index.validate()
1576
 
 
1577
 
    def test_validate_no_refs_content(self):
1578
 
        index = self.make_index(nodes=[(('key', ), 'value')])
1579
 
        index.validate()
1580
 
 
1581
 
 
1582
 
class TestGraphIndexPrefixAdapter(TestCaseWithMemoryTransport):
1583
 
 
1584
 
    def make_index(self, ref_lists=1, key_elements=2, nodes=[], add_callback=False):
1585
 
        result = InMemoryGraphIndex(ref_lists, key_elements=key_elements)
1586
 
        result.add_nodes(nodes)
1587
 
        if add_callback:
1588
 
            add_nodes_callback = result.add_nodes
1589
 
        else:
1590
 
            add_nodes_callback = None
1591
 
        adapter = GraphIndexPrefixAdapter(result, ('prefix', ), key_elements - 1,
1592
 
            add_nodes_callback=add_nodes_callback)
1593
 
        return result, adapter
1594
 
 
1595
 
    def test_add_node(self):
1596
 
        index, adapter = self.make_index(add_callback=True)
1597
 
        adapter.add_node(('key',), 'value', ((('ref',),),))
1598
 
        self.assertEqual(set([(index, ('prefix', 'key'), 'value', ((('prefix', 'ref'),),))]),
1599
 
            set(index.iter_all_entries()))
1600
 
 
1601
 
    def test_add_nodes(self):
1602
 
        index, adapter = self.make_index(add_callback=True)
1603
 
        adapter.add_nodes((
1604
 
            (('key',), 'value', ((('ref',),),)),
1605
 
            (('key2',), 'value2', ((),)),
1606
 
            ))
1607
 
        self.assertEqual(set([
1608
 
            (index, ('prefix', 'key2'), 'value2', ((),)),
1609
 
            (index, ('prefix', 'key'), 'value', ((('prefix', 'ref'),),))
1610
 
            ]),
1611
 
            set(index.iter_all_entries()))
1612
 
 
1613
 
    def test_construct(self):
1614
 
        index = InMemoryGraphIndex()
1615
 
        adapter = GraphIndexPrefixAdapter(index, ('prefix', ), 1)
1616
 
 
1617
 
    def test_construct_with_callback(self):
1618
 
        index = InMemoryGraphIndex()
1619
 
        adapter = GraphIndexPrefixAdapter(index, ('prefix', ), 1, index.add_nodes)
1620
 
 
1621
 
    def test_iter_all_entries_cross_prefix_map_errors(self):
1622
 
        index, adapter = self.make_index(nodes=[
1623
 
            (('prefix', 'key1'), 'data1', ((('prefixaltered', 'key2'),),))])
1624
 
        self.assertRaises(errors.BadIndexData, list, adapter.iter_all_entries())
1625
 
 
1626
 
    def test_iter_all_entries(self):
1627
 
        index, adapter = self.make_index(nodes=[
1628
 
            (('notprefix', 'key1'), 'data', ((), )),
1629
 
            (('prefix', 'key1'), 'data1', ((), )),
1630
 
            (('prefix', 'key2'), 'data2', ((('prefix', 'key1'),),))])
1631
 
        self.assertEqual(set([(index, ('key1', ), 'data1', ((),)),
1632
 
            (index, ('key2', ), 'data2', ((('key1',),),))]),
1633
 
            set(adapter.iter_all_entries()))
1634
 
 
1635
 
    def test_iter_entries(self):
1636
 
        index, adapter = self.make_index(nodes=[
1637
 
            (('notprefix', 'key1'), 'data', ((), )),
1638
 
            (('prefix', 'key1'), 'data1', ((), )),
1639
 
            (('prefix', 'key2'), 'data2', ((('prefix', 'key1'),),))])
1640
 
        # ask for many - get all
1641
 
        self.assertEqual(set([(index, ('key1', ), 'data1', ((),)),
1642
 
            (index, ('key2', ), 'data2', ((('key1', ),),))]),
1643
 
            set(adapter.iter_entries([('key1', ), ('key2', )])))
1644
 
        # ask for one, get one
1645
 
        self.assertEqual(set([(index, ('key1', ), 'data1', ((),))]),
1646
 
            set(adapter.iter_entries([('key1', )])))
1647
 
        # ask for missing, get none
1648
 
        self.assertEqual(set(),
1649
 
            set(adapter.iter_entries([('key3', )])))
1650
 
 
1651
 
    def test_iter_entries_prefix(self):
1652
 
        index, adapter = self.make_index(key_elements=3, nodes=[
1653
 
            (('notprefix', 'foo', 'key1'), 'data', ((), )),
1654
 
            (('prefix', 'prefix2', 'key1'), 'data1', ((), )),
1655
 
            (('prefix', 'prefix2', 'key2'), 'data2', ((('prefix', 'prefix2', 'key1'),),))])
1656
 
        # ask for a prefix, get the results for just that prefix, adjusted.
1657
 
        self.assertEqual(set([(index, ('prefix2', 'key1', ), 'data1', ((),)),
1658
 
            (index, ('prefix2', 'key2', ), 'data2', ((('prefix2', 'key1', ),),))]),
1659
 
            set(adapter.iter_entries_prefix([('prefix2', None)])))
1660
 
 
1661
 
    def test_key_count_no_matching_keys(self):
1662
 
        index, adapter = self.make_index(nodes=[
1663
 
            (('notprefix', 'key1'), 'data', ((), ))])
1664
 
        self.assertEqual(0, adapter.key_count())
1665
 
 
1666
 
    def test_key_count_some_keys(self):
1667
 
        index, adapter = self.make_index(nodes=[
1668
 
            (('notprefix', 'key1'), 'data', ((), )),
1669
 
            (('prefix', 'key1'), 'data1', ((), )),
1670
 
            (('prefix', 'key2'), 'data2', ((('prefix', 'key1'),),))])
1671
 
        self.assertEqual(2, adapter.key_count())
1672
 
 
1673
 
    def test_validate(self):
1674
 
        index, adapter = self.make_index()
1675
 
        calls = []
1676
 
        def validate():
1677
 
            calls.append('called')
1678
 
        index.validate = validate
1679
 
        adapter.validate()
1680
 
        self.assertEqual(['called'], calls)