~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/tuned_gzip.py

  • Committer: Vincent Ladeuil
  • Date: 2010-03-10 09:33:04 UTC
  • mto: (5082.1.1 integration)
  • mto: This revision was merged to the branch mainline in revision 5083.
  • Revision ID: v.ladeuil+lp@free.fr-20100310093304-4245t4tazd4sxoav
Cleanup test from overly cautious checks.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2006-2011 Canonical Ltd
 
1
# Copyright (C) 2005, 2006 Canonical Ltd
2
2
# Written by Robert Collins <robert.collins@canonical.com>
3
3
#
4
4
# This program is free software; you can redistribute it and/or modify
17
17
 
18
18
"""Bzrlib specific gzip tunings. We plan to feed these to the upstream gzip."""
19
19
 
20
 
from __future__ import absolute_import
21
 
 
22
20
from cStringIO import StringIO
23
21
 
24
22
# make GzipFile faster:
29
27
import zlib
30
28
 
31
29
# we want a \n preserved, break on \n only splitlines.
32
 
from bzrlib import symbol_versioning
 
30
import bzrlib
33
31
 
34
32
__all__ = ["GzipFile", "bytes_to_gzip"]
35
33
 
120
118
    Yes, its only 1.6 seconds, but they add up.
121
119
    """
122
120
 
123
 
    def __init__(self, *args, **kwargs):
124
 
        symbol_versioning.warn(
125
 
            symbol_versioning.deprecated_in((2, 3, 0))
126
 
            % 'bzrlib.tuned_gzip.GzipFile',
127
 
            DeprecationWarning, stacklevel=2)
128
 
        gzip.GzipFile.__init__(self, *args, **kwargs)
129
 
 
130
 
    if sys.version_info >= (2, 7, 4):
131
 
        def _add_read_data(self, data):
132
 
            # 4169 calls in 183
133
 
            # temp var for len(data) and switch to +='s.
134
 
            # 4169 in 139
135
 
            len_data = len(data)
136
 
            self.crc = zlib.crc32(data, self.crc) & 0xffffffffL
137
 
            offset = self.offset - self.extrastart
138
 
            self.extrabuf = self.extrabuf[offset:] + data
139
 
            self.extrasize = self.extrasize + len_data
140
 
            self.extrastart = self.offset
141
 
            self.size = self.size + len_data
142
 
    else:
143
 
        def _add_read_data(self, data):
144
 
            # 4169 calls in 183
145
 
            # temp var for len(data) and switch to +='s.
146
 
            # 4169 in 139
147
 
            len_data = len(data)
148
 
            self.crc = zlib.crc32(data, self.crc)
149
 
            self.extrabuf += data
150
 
            self.extrasize += len_data
151
 
            self.size += len_data
 
121
    def _add_read_data(self, data):
 
122
        # 4169 calls in 183
 
123
        # temp var for len(data) and switch to +='s.
 
124
        # 4169 in 139
 
125
        len_data = len(data)
 
126
        self.crc = zlib.crc32(data, self.crc)
 
127
        self.extrabuf += data
 
128
        self.extrasize += len_data
 
129
        self.size += len_data
152
130
 
153
131
    def _write_gzip_header(self):
154
132
        """A tuned version of gzip._write_gzip_header
174
152
            ''          #     self.fileobj.write(fname + '\000')
175
153
            )
176
154
 
177
 
    if sys.version_info < (2, 7, 4):
178
 
        def _read(self, size=1024):
179
 
            # various optimisations:
180
 
            # reduces lsprof count from 2500 to
181
 
            # 8337 calls in 1272, 365 internal
182
 
            if self.fileobj is None:
 
155
    def _read(self, size=1024):
 
156
        # various optimisations:
 
157
        # reduces lsprof count from 2500 to
 
158
        # 8337 calls in 1272, 365 internal
 
159
        if self.fileobj is None:
 
160
            raise EOFError, "Reached EOF"
 
161
 
 
162
        if self._new_member:
 
163
            # If the _new_member flag is set, we have to
 
164
            # jump to the next member, if there is one.
 
165
            #
 
166
            # First, check if we're at the end of the file;
 
167
            # if so, it's time to stop; no more members to read.
 
168
            next_header_bytes = self.fileobj.read(10)
 
169
            if next_header_bytes == '':
183
170
                raise EOFError, "Reached EOF"
184
171
 
185
 
            if self._new_member:
186
 
                # If the _new_member flag is set, we have to
187
 
                # jump to the next member, if there is one.
188
 
                #
189
 
                # First, check if we're at the end of the file;
190
 
                # if so, it's time to stop; no more members to read.
191
 
                next_header_bytes = self.fileobj.read(10)
192
 
                if next_header_bytes == '':
193
 
                    raise EOFError, "Reached EOF"
194
 
 
195
 
                self._init_read()
196
 
                self._read_gzip_header(next_header_bytes)
197
 
                self.decompress = zlib.decompressobj(-zlib.MAX_WBITS)
198
 
                self._new_member = False
199
 
 
200
 
            # Read a chunk of data from the file
201
 
            buf = self.fileobj.read(size)
202
 
 
203
 
            # If the EOF has been reached, flush the decompression object
204
 
            # and mark this object as finished.
205
 
 
206
 
            if buf == "":
207
 
                self._add_read_data(self.decompress.flush())
208
 
                if len(self.decompress.unused_data) < 8:
209
 
                    raise AssertionError("what does flush do?")
 
172
            self._init_read()
 
173
            self._read_gzip_header(next_header_bytes)
 
174
            self.decompress = zlib.decompressobj(-zlib.MAX_WBITS)
 
175
            self._new_member = False
 
176
 
 
177
        # Read a chunk of data from the file
 
178
        buf = self.fileobj.read(size)
 
179
 
 
180
        # If the EOF has been reached, flush the decompression object
 
181
        # and mark this object as finished.
 
182
 
 
183
        if buf == "":
 
184
            self._add_read_data(self.decompress.flush())
 
185
            if len(self.decompress.unused_data) < 8:
 
186
                raise AssertionError("what does flush do?")
 
187
            self._gzip_tail = self.decompress.unused_data[0:8]
 
188
            self._read_eof()
 
189
            # tell the driving read() call we have stuffed all the data
 
190
            # in self.extrabuf
 
191
            raise EOFError, 'Reached EOF'
 
192
 
 
193
        self._add_read_data(self.decompress.decompress(buf))
 
194
 
 
195
        if self.decompress.unused_data != "":
 
196
            # Ending case: we've come to the end of a member in the file,
 
197
            # so seek back to the start of the data for the next member which
 
198
            # is the length of the decompress objects unused data - the first
 
199
            # 8 bytes for the end crc and size records.
 
200
            #
 
201
            # so seek back to the start of the unused data, finish up
 
202
            # this member, and read a new gzip header.
 
203
            # (The number of bytes to seek back is the length of the unused
 
204
            # data, minus 8 because those 8 bytes are part of this member.
 
205
            seek_length = len (self.decompress.unused_data) - 8
 
206
            if seek_length > 0:
 
207
                # we read too much data
 
208
                self.fileobj.seek(-seek_length, 1)
210
209
                self._gzip_tail = self.decompress.unused_data[0:8]
211
 
                self._read_eof()
212
 
                # tell the driving read() call we have stuffed all the data
213
 
                # in self.extrabuf
214
 
                raise EOFError, 'Reached EOF'
215
 
 
216
 
            self._add_read_data(self.decompress.decompress(buf))
217
 
 
218
 
            if self.decompress.unused_data != "":
219
 
                # Ending case: we've come to the end of a member in the file,
220
 
                # so seek back to the start of the data for the next member
221
 
                # which is the length of the decompress objects unused data -
222
 
                # the first 8 bytes for the end crc and size records.
223
 
                #
224
 
                # so seek back to the start of the unused data, finish up
225
 
                # this member, and read a new gzip header.
226
 
                # (The number of bytes to seek back is the length of the unused
227
 
                # data, minus 8 because those 8 bytes are part of this member.
228
 
                seek_length = len (self.decompress.unused_data) - 8
229
 
                if seek_length > 0:
230
 
                    # we read too much data
231
 
                    self.fileobj.seek(-seek_length, 1)
232
 
                    self._gzip_tail = self.decompress.unused_data[0:8]
233
 
                elif seek_length < 0:
234
 
                    # we haven't read enough to check the checksum.
235
 
                    if not (-8 < seek_length):
236
 
                        raise AssertionError("too great a seek")
237
 
                    buf = self.fileobj.read(-seek_length)
238
 
                    self._gzip_tail = self.decompress.unused_data + buf
239
 
                else:
240
 
                    self._gzip_tail = self.decompress.unused_data
241
 
 
242
 
                # Check the CRC and file size, and set the flag so we read
243
 
                # a new member on the next call
244
 
                self._read_eof()
245
 
                self._new_member = True
246
 
 
247
 
        def _read_eof(self):
248
 
            """tuned to reduce function calls and eliminate file seeking:
249
 
            pass 1:
250
 
            reduces lsprof count from 800 to 288
251
 
            4168 in 296
252
 
            avoid U32 call by using struct format L
253
 
            4168 in 200
254
 
            """
255
 
            # We've read to the end of the file, so we should have 8 bytes of
256
 
            # unused data in the decompressor. If we don't, there is a corrupt
257
 
            # file.  We use these 8 bytes to calculate the CRC and the recorded
258
 
            # file size.  We then check the that the computed CRC and size of
259
 
            # the uncompressed data matches the stored values.  Note that the
260
 
            # size stored is the true file size mod 2**32.
261
 
            if not (len(self._gzip_tail) == 8):
262
 
                raise AssertionError("gzip trailer is incorrect length.")
263
 
            crc32, isize = struct.unpack("<LL", self._gzip_tail)
264
 
            # note that isize is unsigned - it can exceed 2GB
265
 
            if crc32 != U32(self.crc):
266
 
                raise IOError, "CRC check failed %d %d" % (crc32, U32(self.crc))
267
 
            elif isize != LOWU32(self.size):
268
 
                raise IOError, "Incorrect length of data produced"
 
210
            elif seek_length < 0:
 
211
                # we haven't read enough to check the checksum.
 
212
                if not (-8 < seek_length):
 
213
                    raise AssertionError("too great a seek")
 
214
                buf = self.fileobj.read(-seek_length)
 
215
                self._gzip_tail = self.decompress.unused_data + buf
 
216
            else:
 
217
                self._gzip_tail = self.decompress.unused_data
 
218
 
 
219
            # Check the CRC and file size, and set the flag so we read
 
220
            # a new member on the next call
 
221
            self._read_eof()
 
222
            self._new_member = True
 
223
 
 
224
    def _read_eof(self):
 
225
        """tuned to reduce function calls and eliminate file seeking:
 
226
        pass 1:
 
227
        reduces lsprof count from 800 to 288
 
228
        4168 in 296
 
229
        avoid U32 call by using struct format L
 
230
        4168 in 200
 
231
        """
 
232
        # We've read to the end of the file, so we should have 8 bytes of
 
233
        # unused data in the decompressor. If we don't, there is a corrupt file.
 
234
        # We use these 8 bytes to calculate the CRC and the recorded file size.
 
235
        # We then check the that the computed CRC and size of the
 
236
        # uncompressed data matches the stored values.  Note that the size
 
237
        # stored is the true file size mod 2**32.
 
238
        if not (len(self._gzip_tail) == 8):
 
239
            raise AssertionError("gzip trailer is incorrect length.")
 
240
        crc32, isize = struct.unpack("<LL", self._gzip_tail)
 
241
        # note that isize is unsigned - it can exceed 2GB
 
242
        if crc32 != U32(self.crc):
 
243
            raise IOError, "CRC check failed %d %d" % (crc32, U32(self.crc))
 
244
        elif isize != LOWU32(self.size):
 
245
            raise IOError, "Incorrect length of data produced"
269
246
 
270
247
    def _read_gzip_header(self, bytes=None):
271
248
        """Supply bytes if the minimum header size is already read.
418
395
        # (4 seconds to 1 seconds for the sample upgrades I was testing).
419
396
        self.write(''.join(lines))
420
397
 
421
 
    if sys.version_info > (2, 7):
422
 
        # As of Python 2.7 the crc32 must be positive when close is called
423
 
        def close(self):
424
 
            if self.fileobj is None:
425
 
                return
426
 
            if self.mode == gzip.WRITE:
427
 
                self.crc &= 0xFFFFFFFFL
428
 
            gzip.GzipFile.close(self)
429
398