~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/benchmarks/bench_cache_utf8.py

  • Committer: Martin Pool
  • Date: 2005-05-10 06:07:16 UTC
  • Revision ID: mbp@sourcefrog.net-20050510060716-0f939ce3ddea5d15
- New command update-stat-cache for testing
- work-cache always stored with unix newlines and in ascii

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2006 Canonical Ltd
2
 
#
3
 
# This program is free software; you can redistribute it and/or modify
4
 
# it under the terms of the GNU General Public License as published by
5
 
# the Free Software Foundation; either version 2 of the License, or
6
 
# (at your option) any later version.
7
 
#
8
 
# This program is distributed in the hope that it will be useful,
9
 
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
 
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
 
# GNU General Public License for more details.
12
 
#
13
 
# You should have received a copy of the GNU General Public License
14
 
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
 
 
17
 
 
18
 
"""Tests for encoding performance."""
19
 
 
20
 
from bzrlib import (
21
 
    cache_utf8,
22
 
    osutils,
23
 
    )
24
 
 
25
 
from bzrlib.benchmarks import Benchmark
26
 
 
27
 
 
28
 
_normal_revision_id = (u'john@arbash-meinel.com-20060801200018'
29
 
                       u'-cafa6272d9b8cac4')
30
 
_unicode_revision_id = (u'\u062c\u0648\u062c\u0648@\xe5rbash-meinel.com-'
31
 
                        u'\xb5\xb5\xb5-20060801200018-cafa6272d9b8cac4')
32
 
 
33
 
_normal_revision_id_utf8 = _normal_revision_id.encode('utf-8')
34
 
_unicode_revision_id_utf8 = _unicode_revision_id.encode('utf-8')
35
 
 
36
 
 
37
 
class EncodingBenchmark(Benchmark):
38
 
    """Benchmark the time to encode strings."""
39
 
 
40
 
    def setUp(self):
41
 
        super(EncodingBenchmark, self).setUp()
42
 
        # Make sure we start and end with a clean cache
43
 
        cache_utf8.clear_encoding_cache()
44
 
        self.addCleanup(cache_utf8.clear_encoding_cache)
45
 
 
46
 
    def encode_1M(self, revision_id):
47
 
        """Encode the given revision id 1 million times"""
48
 
        # In a real kernel tree there are 7.7M lines of code
49
 
        # so the initial import actually has to encode a revision
50
 
        # id to store annotated lines one time for every line.
51
 
        for i in xrange(1000000):
52
 
            revision_id.encode('utf8')
53
 
 
54
 
    def encode_cached_1M(self, revision_id):
55
 
        """Encode the given revision id 1 million times using the cache"""
56
 
        encode = cache_utf8.encode
57
 
        for i in xrange(1000000):
58
 
            encode(revision_id)
59
 
 
60
 
    def encode_multi(self, revision_list, count):
61
 
        """Encode each entry in the list count times"""
62
 
        for i in xrange(count):
63
 
            for revision_id in revision_list:
64
 
                revision_id.encode('utf-8')
65
 
 
66
 
    def encode_cached_multi(self, revision_list, count):
67
 
        """Encode each entry in the list count times"""
68
 
        encode = cache_utf8.encode
69
 
        for i in xrange(count):
70
 
            for revision_id in revision_list:
71
 
                encode(revision_id)
72
 
 
73
 
    def test_encode_1_by_1M_ascii(self):
74
 
        """Test encoding a single revision id 1 million times."""
75
 
        self.time(self.encode_1M, _normal_revision_id)
76
 
 
77
 
    def test_encode_1_by_1M_ascii_cached(self):
78
 
        """Test encoding a single revision id 1 million times."""
79
 
        self.time(self.encode_cached_1M, _normal_revision_id)
80
 
 
81
 
    def test_encode_1_by_1M_ascii_str(self):
82
 
        # We have places that think they have a unicode revision id
83
 
        # but actually, they have a plain string. So .encode(utf8)
84
 
        # actually has to decode from ascii, and then encode into utf8
85
 
        self.time(self.encode_1M, str(_normal_revision_id))
86
 
 
87
 
    def test_encode_1_by_1M_ascii_str_cached(self):
88
 
        self.time(self.encode_cached_1M, str(_normal_revision_id))
89
 
 
90
 
    def test_encode_1_by_1M_unicode(self):
91
 
        """Test encoding a single revision id 1 million times."""
92
 
        self.time(self.encode_1M, _unicode_revision_id)
93
 
 
94
 
    def test_encode_1_by_1M_unicode_cached(self):
95
 
        """Test encoding a single revision id 1 million times."""
96
 
        self.time(self.encode_cached_1M, _unicode_revision_id)
97
 
 
98
 
    def test_encode_1k_by_1k_ascii(self):
99
 
        """Test encoding 5 revisions 100k times"""
100
 
        revisions = [unicode(osutils.rand_chars(60)) for x in xrange(1000)]
101
 
        self.time(self.encode_multi, revisions, 1000)
102
 
 
103
 
    def test_encode_1k_by_1k_ascii_cached(self):
104
 
        """Test encoding 5 revisions 100k times"""
105
 
        revisions = [unicode(osutils.rand_chars(60)) for x in xrange(1000)]
106
 
        self.time(self.encode_cached_multi, revisions, 1000)
107
 
 
108
 
    def test_encode_1k_by_1k_unicode(self):
109
 
        """Test encoding 5 revisions 100k times"""
110
 
        revisions = [u'\u062c\u0648\u062c\u0648' +
111
 
                     unicode(osutils.rand_chars(60)) for x in xrange(1000)]
112
 
        self.time(self.encode_multi, revisions, 1000)
113
 
 
114
 
    def test_encode_1k_by_1k_unicode_cached(self):
115
 
        """Test encoding 5 revisions 100k times"""
116
 
        revisions = [u'\u062c\u0648\u062c\u0648' +
117
 
                     unicode(osutils.rand_chars(60)) for x in xrange(1000)]
118
 
        self.time(self.encode_cached_multi, revisions, 1000)
119
 
 
120
 
    def test_encode_500K_by_1_ascii(self):
121
 
        revisions = [unicode("test%07d" % x) for x in xrange(500000)]
122
 
        self.time(self.encode_multi, revisions, 1)
123
 
 
124
 
    def test_encode_500K_by_1_ascii_cached(self):
125
 
        revisions = [unicode("test%07d" % x) for x in xrange(500000)]
126
 
        self.time(self.encode_cached_multi, revisions, 1)
127
 
 
128
 
    def test_encode_500K_by_1_unicode(self):
129
 
        revisions = [u'\u062c\u0648\u062c\u0648' +
130
 
                     unicode("%07d" % x) for x in xrange(500000)]
131
 
        self.time(self.encode_multi, revisions, 1)
132
 
 
133
 
    def test_encode_500K_by_1_unicode_cached(self):
134
 
        revisions = [u'\u062c\u0648\u062c\u0648' +
135
 
                     unicode("%07d" % x) for x in xrange(500000)]
136
 
        self.time(self.encode_cached_multi, revisions, 1)
137
 
 
138
 
 
139
 
class DecodingBenchmarks(Benchmark):
140
 
    """Benchmark the time to decode strings."""
141
 
 
142
 
    def setUp(self):
143
 
        super(DecodingBenchmarks, self).setUp()
144
 
        # Make sure we start and end with a clean cache
145
 
        cache_utf8.clear_encoding_cache()
146
 
        self.addCleanup(cache_utf8.clear_encoding_cache)
147
 
 
148
 
    def decode_1M(self, revision_id):
149
 
        for i in xrange(1000000):
150
 
            revision_id.decode('utf8')
151
 
 
152
 
    def decode_cached_1M(self, revision_id):
153
 
        decode = cache_utf8.decode
154
 
        for i in xrange(1000000):
155
 
            decode(revision_id)
156
 
 
157
 
    def decode_multi(self, revision_list, count):
158
 
        for i in xrange(count):
159
 
            for revision_id in revision_list:
160
 
                revision_id.decode('utf-8')
161
 
 
162
 
    def decode_cached_multi(self, revision_list, count):
163
 
        decode = cache_utf8.decode
164
 
        for i in xrange(count):
165
 
            for revision_id in revision_list:
166
 
                decode(revision_id)
167
 
 
168
 
    def test_decode_1_by_1M_ascii(self):
169
 
        """Test decoding a single revision id 1 million times."""
170
 
        self.time(self.decode_1M, _normal_revision_id_utf8)
171
 
 
172
 
    def test_decode_1_by_1M_ascii_cached(self):
173
 
        """Test decoding a single revision id 1 million times."""
174
 
        self.time(self.decode_cached_1M, _normal_revision_id_utf8)
175
 
 
176
 
    def test_decode_1_by_1M_unicode(self):
177
 
        """Test decoding a single revision id 1 million times."""
178
 
        self.time(self.decode_1M, _unicode_revision_id_utf8)
179
 
 
180
 
    def test_decode_1_by_1M_unicode_cached(self):
181
 
        """Test decoding a single revision id 1 million times."""
182
 
        self.time(self.decode_cached_1M, _unicode_revision_id_utf8)
183
 
 
184
 
    def test_decode_1k_by_1k_ascii(self):
185
 
        """Test decoding 5 revisions 100k times"""
186
 
        revisions = [osutils.rand_chars(60) for x in xrange(1000)]
187
 
        self.time(self.decode_multi, revisions, 1000)
188
 
 
189
 
    def test_decode_1k_by_1k_ascii_cached(self):
190
 
        """Test decoding 5 revisions 100k times"""
191
 
        revisions = [osutils.rand_chars(60) for x in xrange(1000)]
192
 
        self.time(self.decode_cached_multi, revisions, 1000)
193
 
 
194
 
    def test_decode_1k_by_1k_unicode(self):
195
 
        """Test decoding 5 revisions 100k times"""
196
 
        revisions = [(u'\u062c\u0648\u062c\u0648' +
197
 
                      unicode(osutils.rand_chars(60))).encode('utf8')
198
 
                     for x in xrange(1000)]
199
 
        self.time(self.decode_multi, revisions, 1000)
200
 
 
201
 
    def test_decode_1k_by_1k_unicode_cached(self):
202
 
        """Test decoding 5 revisions 100k times"""
203
 
        revisions = [(u'\u062c\u0648\u062c\u0648' +
204
 
                      unicode(osutils.rand_chars(60))).encode('utf8')
205
 
                     for x in xrange(1000)]
206
 
        self.time(self.decode_cached_multi, revisions, 1000)
207
 
 
208
 
    def test_decode_500K_by_1_ascii(self):
209
 
        revisions = [("test%07d" % x) for x in xrange(500000)]
210
 
        self.time(self.decode_multi, revisions, 1)
211
 
 
212
 
    def test_decode_500K_by_1_ascii_cached(self):
213
 
        revisions = [("test%07d" % x) for x in xrange(500000)]
214
 
        self.time(self.decode_cached_multi, revisions, 1)
215
 
 
216
 
    def test_decode_500K_by_1_unicode(self):
217
 
        revisions = [(u'\u062c\u0648\u062c\u0648' +
218
 
                      unicode("%07d" % x)).encode('utf-8')
219
 
                     for x in xrange(500000)]
220
 
        self.time(self.decode_multi, revisions, 1)
221
 
 
222
 
    def test_decode_500K_by_1_unicode_cached(self):
223
 
        revisions = [(u'\u062c\u0648\u062c\u0648' +
224
 
                      unicode("%07d" % x)).encode('utf-8')
225
 
                     for x in xrange(500000)]
226
 
        self.time(self.decode_cached_multi, revisions, 1)