~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/btree_index.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2010-02-11 04:02:41 UTC
  • mfrom: (5017.2.2 tariff)
  • Revision ID: pqm@pqm.ubuntu.com-20100211040241-w6n021dz0uus341n
(mbp) add import-tariff tests

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2008, 2009, 2010 Canonical Ltd
 
1
# Copyright (C) 2008 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
33
33
    osutils,
34
34
    static_tuple,
35
35
    trace,
36
 
    transport,
37
36
    )
38
37
from bzrlib.index import _OPTION_NODE_REFS, _OPTION_KEY_ELEMENTS, _OPTION_LEN
 
38
from bzrlib.transport import get_transport
39
39
 
40
40
 
41
41
_BTSIGNATURE = "B+Tree Graph Index 2\n"
193
193
            new_backing_file, size = self._spill_mem_keys_without_combining()
194
194
        # Note: The transport here isn't strictly needed, because we will use
195
195
        #       direct access to the new_backing._file object
196
 
        new_backing = BTreeGraphIndex(transport.get_transport('.'),
197
 
                                      '<temp>', size)
 
196
        new_backing = BTreeGraphIndex(get_transport('.'), '<temp>', size)
198
197
        # GC will clean up the file
199
198
        new_backing._file = new_backing_file
200
199
        if self._combine_backing_indices:
568
567
                    else:
569
568
                        # yield keys
570
569
                        for value in key_dict.itervalues():
571
 
                            yield (self, ) + tuple(value)
 
570
                            yield (self, ) + value
572
571
            else:
573
572
                yield (self, ) + key_dict
574
573
 
602
601
        """In memory index's have no known corruption at the moment."""
603
602
 
604
603
 
605
 
class _LeafNode(dict):
 
604
class _LeafNode(object):
606
605
    """A leaf node for a serialised B+Tree index."""
607
606
 
608
 
    __slots__ = ('min_key', 'max_key', '_keys')
 
607
    __slots__ = ('keys', 'min_key', 'max_key')
609
608
 
610
609
    def __init__(self, bytes, key_length, ref_list_length):
611
610
        """Parse bytes to create a leaf node object."""
617
616
            self.max_key = key_list[-1][0]
618
617
        else:
619
618
            self.min_key = self.max_key = None
620
 
        super(_LeafNode, self).__init__(key_list)
621
 
        self._keys = dict(self)
622
 
 
623
 
    def all_items(self):
624
 
        """Return a sorted list of (key, (value, refs)) items"""
625
 
        items = self.items()
626
 
        items.sort()
627
 
        return items
628
 
 
629
 
    def all_keys(self):
630
 
        """Return a sorted list of all keys."""
631
 
        keys = self.keys()
632
 
        keys.sort()
633
 
        return keys
 
619
        self.keys = dict(key_list)
634
620
 
635
621
 
636
622
class _InternalNode(object):
661
647
    memory except when very large walks are done.
662
648
    """
663
649
 
664
 
    def __init__(self, transport, name, size, unlimited_cache=False,
665
 
                 offset=0):
 
650
    def __init__(self, transport, name, size, unlimited_cache=False):
666
651
        """Create a B+Tree index object on the index name.
667
652
 
668
653
        :param transport: The transport to read data for the index from.
675
660
        :param unlimited_cache: If set to True, then instead of using an
676
661
            LRUCache with size _NODE_CACHE_SIZE, we will use a dict and always
677
662
            cache all leaf nodes.
678
 
        :param offset: The start of the btree index data isn't byte 0 of the
679
 
            file. Instead it starts at some point later.
680
663
        """
681
664
        self._transport = transport
682
665
        self._name = name
684
667
        self._file = None
685
668
        self._recommended_pages = self._compute_recommended_pages()
686
669
        self._root_node = None
687
 
        self._base_offset = offset
688
 
        self._leaf_factory = _LeafNode
689
670
        # Default max size is 100,000 leave values
690
671
        self._leaf_value_cache = None # lru_cache.LRUCache(100*1000)
691
672
        if unlimited_cache:
964
945
        """Cache directly from key => value, skipping the btree."""
965
946
        if self._leaf_value_cache is not None:
966
947
            for node in nodes.itervalues():
967
 
                for key, value in node.all_items():
 
948
                for key, value in node.keys.iteritems():
968
949
                    if key in self._leaf_value_cache:
969
950
                        # Don't add the rest of the keys, we've seen this node
970
951
                        # before.
994
975
        if self._row_offsets[-1] == 1:
995
976
            # There is only the root node, and we read that via key_count()
996
977
            if self.node_ref_lists:
997
 
                for key, (value, refs) in self._root_node.all_items():
 
978
                for key, (value, refs) in sorted(self._root_node.keys.items()):
998
979
                    yield (self, key, value, refs)
999
980
            else:
1000
 
                for key, (value, refs) in self._root_node.all_items():
 
981
                for key, (value, refs) in sorted(self._root_node.keys.items()):
1001
982
                    yield (self, key, value)
1002
983
            return
1003
984
        start_of_leaves = self._row_offsets[-2]
1013
994
        # for spilling index builds to disk.
1014
995
        if self.node_ref_lists:
1015
996
            for _, node in nodes:
1016
 
                for key, (value, refs) in node.all_items():
 
997
                for key, (value, refs) in sorted(node.keys.items()):
1017
998
                    yield (self, key, value, refs)
1018
999
        else:
1019
1000
            for _, node in nodes:
1020
 
                for key, (value, refs) in node.all_items():
 
1001
                for key, (value, refs) in sorted(node.keys.items()):
1021
1002
                    yield (self, key, value)
1022
1003
 
1023
1004
    @staticmethod
1184
1165
                continue
1185
1166
            node = nodes[node_index]
1186
1167
            for next_sub_key in sub_keys:
1187
 
                if next_sub_key in node:
1188
 
                    value, refs = node[next_sub_key]
 
1168
                if next_sub_key in node.keys:
 
1169
                    value, refs = node.keys[next_sub_key]
1189
1170
                    if self.node_ref_lists:
1190
1171
                        yield (self, next_sub_key, value, refs)
1191
1172
                    else:
1259
1240
            # sub_keys is all of the keys we are looking for that should exist
1260
1241
            # on this page, if they aren't here, then they won't be found
1261
1242
            node = nodes[node_index]
 
1243
            node_keys = node.keys
1262
1244
            parents_to_check = set()
1263
1245
            for next_sub_key in sub_keys:
1264
 
                if next_sub_key not in node:
 
1246
                if next_sub_key not in node_keys:
1265
1247
                    # This one is just not present in the index at all
1266
1248
                    missing_keys.add(next_sub_key)
1267
1249
                else:
1268
 
                    value, refs = node[next_sub_key]
 
1250
                    value, refs = node_keys[next_sub_key]
1269
1251
                    parent_keys = refs[ref_list_num]
1270
1252
                    parent_map[next_sub_key] = parent_keys
1271
1253
                    parents_to_check.update(parent_keys)
1278
1260
            while parents_to_check:
1279
1261
                next_parents_to_check = set()
1280
1262
                for key in parents_to_check:
1281
 
                    if key in node:
1282
 
                        value, refs = node[key]
 
1263
                    if key in node_keys:
 
1264
                        value, refs = node_keys[key]
1283
1265
                        parent_keys = refs[ref_list_num]
1284
1266
                        parent_map[key] = parent_keys
1285
1267
                        next_parents_to_check.update(parent_keys)
1512
1494
        # list of (offset, length) regions of the file that should, evenually
1513
1495
        # be read in to data_ranges, either from 'bytes' or from the transport
1514
1496
        ranges = []
1515
 
        base_offset = self._base_offset
1516
1497
        for index in nodes:
1517
 
            offset = (index * _PAGE_SIZE)
 
1498
            offset = index * _PAGE_SIZE
1518
1499
            size = _PAGE_SIZE
1519
1500
            if index == 0:
1520
1501
                # Root node - special case
1524
1505
                    # The only case where we don't know the size, is for very
1525
1506
                    # small indexes. So we read the whole thing
1526
1507
                    bytes = self._transport.get_bytes(self._name)
1527
 
                    num_bytes = len(bytes)
1528
 
                    self._size = num_bytes - base_offset
 
1508
                    self._size = len(bytes)
1529
1509
                    # the whole thing should be parsed out of 'bytes'
1530
 
                    ranges = [(start, min(_PAGE_SIZE, num_bytes - start))
1531
 
                        for start in xrange(base_offset, num_bytes, _PAGE_SIZE)]
 
1510
                    ranges.append((0, len(bytes)))
1532
1511
                    break
1533
1512
            else:
1534
1513
                if offset > self._size:
1536
1515
                                         ' of the file %s > %s'
1537
1516
                                         % (offset, self._size))
1538
1517
                size = min(size, self._size - offset)
1539
 
            ranges.append((base_offset + offset, size))
 
1518
            ranges.append((offset, size))
1540
1519
        if not ranges:
1541
1520
            return
1542
1521
        elif bytes is not None:
1543
1522
            # already have the whole file
1544
 
            data_ranges = [(start, bytes[start:start+size])
1545
 
                           for start, size in ranges]
 
1523
            data_ranges = [(start, bytes[start:start+_PAGE_SIZE])
 
1524
                           for start in xrange(0, len(bytes), _PAGE_SIZE)]
1546
1525
        elif self._file is None:
1547
1526
            data_ranges = self._transport.readv(self._name, ranges)
1548
1527
        else:
1551
1530
                self._file.seek(offset)
1552
1531
                data_ranges.append((offset, self._file.read(size)))
1553
1532
        for offset, data in data_ranges:
1554
 
            offset -= base_offset
1555
1533
            if offset == 0:
1556
1534
                # extract the header
1557
1535
                offset, data = self._parse_header_from_bytes(data)
1559
1537
                    continue
1560
1538
            bytes = zlib.decompress(data)
1561
1539
            if bytes.startswith(_LEAF_FLAG):
1562
 
                node = self._leaf_factory(bytes, self._key_length,
1563
 
                                          self.node_ref_lists)
 
1540
                node = _LeafNode(bytes, self._key_length, self.node_ref_lists)
1564
1541
            elif bytes.startswith(_INTERNAL_FLAG):
1565
1542
                node = _InternalNode(bytes)
1566
1543
            else:
1585
1562
            pass
1586
1563
 
1587
1564
 
1588
 
_gcchk_factory = _LeafNode
1589
 
 
1590
1565
try:
1591
1566
    from bzrlib import _btree_serializer_pyx as _btree_serializer
1592
 
    _gcchk_factory = _btree_serializer._parse_into_chk
1593
1567
except ImportError, e:
1594
1568
    osutils.failed_to_load_extension(e)
1595
1569
    from bzrlib import _btree_serializer_py as _btree_serializer