~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/tuned_gzip.py

  • Committer: Patch Queue Manager
  • Date: 2016-01-31 13:36:59 UTC
  • mfrom: (6613.1.5 1538480-match-hostname)
  • Revision ID: pqm@pqm.ubuntu.com-20160131133659-ouy92ee2wlv9xz8m
(vila) Use ssl.match_hostname instead of our own. (Vincent Ladeuil)

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006 Canonical Ltd
 
1
# Copyright (C) 2006-2011 Canonical Ltd
2
2
# Written by Robert Collins <robert.collins@canonical.com>
3
3
#
4
4
# This program is free software; you can redistribute it and/or modify
17
17
 
18
18
"""Bzrlib specific gzip tunings. We plan to feed these to the upstream gzip."""
19
19
 
 
20
from __future__ import absolute_import
 
21
 
20
22
from cStringIO import StringIO
21
23
 
22
24
# make GzipFile faster:
27
29
import zlib
28
30
 
29
31
# we want a \n preserved, break on \n only splitlines.
30
 
import bzrlib
 
32
from bzrlib import symbol_versioning
31
33
 
32
34
__all__ = ["GzipFile", "bytes_to_gzip"]
33
35
 
118
120
    Yes, its only 1.6 seconds, but they add up.
119
121
    """
120
122
 
121
 
    def _add_read_data(self, data):
122
 
        # 4169 calls in 183
123
 
        # temp var for len(data) and switch to +='s.
124
 
        # 4169 in 139
125
 
        len_data = len(data)
126
 
        self.crc = zlib.crc32(data, self.crc)
127
 
        self.extrabuf += data
128
 
        self.extrasize += len_data
129
 
        self.size += len_data
 
123
    def __init__(self, *args, **kwargs):
 
124
        symbol_versioning.warn(
 
125
            symbol_versioning.deprecated_in((2, 3, 0))
 
126
            % 'bzrlib.tuned_gzip.GzipFile',
 
127
            DeprecationWarning, stacklevel=2)
 
128
        gzip.GzipFile.__init__(self, *args, **kwargs)
 
129
 
 
130
    if sys.version_info >= (2, 7, 4):
 
131
        def _add_read_data(self, data):
 
132
            # 4169 calls in 183
 
133
            # temp var for len(data) and switch to +='s.
 
134
            # 4169 in 139
 
135
            len_data = len(data)
 
136
            self.crc = zlib.crc32(data, self.crc) & 0xffffffffL
 
137
            offset = self.offset - self.extrastart
 
138
            self.extrabuf = self.extrabuf[offset:] + data
 
139
            self.extrasize = self.extrasize + len_data
 
140
            self.extrastart = self.offset
 
141
            self.size = self.size + len_data
 
142
    else:
 
143
        def _add_read_data(self, data):
 
144
            # 4169 calls in 183
 
145
            # temp var for len(data) and switch to +='s.
 
146
            # 4169 in 139
 
147
            len_data = len(data)
 
148
            self.crc = zlib.crc32(data, self.crc)
 
149
            self.extrabuf += data
 
150
            self.extrasize += len_data
 
151
            self.size += len_data
130
152
 
131
153
    def _write_gzip_header(self):
132
154
        """A tuned version of gzip._write_gzip_header
152
174
            ''          #     self.fileobj.write(fname + '\000')
153
175
            )
154
176
 
155
 
    def _read(self, size=1024):
156
 
        # various optimisations:
157
 
        # reduces lsprof count from 2500 to
158
 
        # 8337 calls in 1272, 365 internal
159
 
        if self.fileobj is None:
160
 
            raise EOFError, "Reached EOF"
161
 
 
162
 
        if self._new_member:
163
 
            # If the _new_member flag is set, we have to
164
 
            # jump to the next member, if there is one.
165
 
            #
166
 
            # First, check if we're at the end of the file;
167
 
            # if so, it's time to stop; no more members to read.
168
 
            next_header_bytes = self.fileobj.read(10)
169
 
            if next_header_bytes == '':
 
177
    if sys.version_info < (2, 7, 4):
 
178
        def _read(self, size=1024):
 
179
            # various optimisations:
 
180
            # reduces lsprof count from 2500 to
 
181
            # 8337 calls in 1272, 365 internal
 
182
            if self.fileobj is None:
170
183
                raise EOFError, "Reached EOF"
171
184
 
172
 
            self._init_read()
173
 
            self._read_gzip_header(next_header_bytes)
174
 
            self.decompress = zlib.decompressobj(-zlib.MAX_WBITS)
175
 
            self._new_member = False
176
 
 
177
 
        # Read a chunk of data from the file
178
 
        buf = self.fileobj.read(size)
179
 
 
180
 
        # If the EOF has been reached, flush the decompression object
181
 
        # and mark this object as finished.
182
 
 
183
 
        if buf == "":
184
 
            self._add_read_data(self.decompress.flush())
185
 
            if len(self.decompress.unused_data) < 8:
186
 
                raise AssertionError("what does flush do?")
187
 
            self._gzip_tail = self.decompress.unused_data[0:8]
188
 
            self._read_eof()
189
 
            # tell the driving read() call we have stuffed all the data
190
 
            # in self.extrabuf
191
 
            raise EOFError, 'Reached EOF'
192
 
 
193
 
        self._add_read_data(self.decompress.decompress(buf))
194
 
 
195
 
        if self.decompress.unused_data != "":
196
 
            # Ending case: we've come to the end of a member in the file,
197
 
            # so seek back to the start of the data for the next member which
198
 
            # is the length of the decompress objects unused data - the first
199
 
            # 8 bytes for the end crc and size records.
200
 
            #
201
 
            # so seek back to the start of the unused data, finish up
202
 
            # this member, and read a new gzip header.
203
 
            # (The number of bytes to seek back is the length of the unused
204
 
            # data, minus 8 because those 8 bytes are part of this member.
205
 
            seek_length = len (self.decompress.unused_data) - 8
206
 
            if seek_length > 0:
207
 
                # we read too much data
208
 
                self.fileobj.seek(-seek_length, 1)
 
185
            if self._new_member:
 
186
                # If the _new_member flag is set, we have to
 
187
                # jump to the next member, if there is one.
 
188
                #
 
189
                # First, check if we're at the end of the file;
 
190
                # if so, it's time to stop; no more members to read.
 
191
                next_header_bytes = self.fileobj.read(10)
 
192
                if next_header_bytes == '':
 
193
                    raise EOFError, "Reached EOF"
 
194
 
 
195
                self._init_read()
 
196
                self._read_gzip_header(next_header_bytes)
 
197
                self.decompress = zlib.decompressobj(-zlib.MAX_WBITS)
 
198
                self._new_member = False
 
199
 
 
200
            # Read a chunk of data from the file
 
201
            buf = self.fileobj.read(size)
 
202
 
 
203
            # If the EOF has been reached, flush the decompression object
 
204
            # and mark this object as finished.
 
205
 
 
206
            if buf == "":
 
207
                self._add_read_data(self.decompress.flush())
 
208
                if len(self.decompress.unused_data) < 8:
 
209
                    raise AssertionError("what does flush do?")
209
210
                self._gzip_tail = self.decompress.unused_data[0:8]
210
 
            elif seek_length < 0:
211
 
                # we haven't read enough to check the checksum.
212
 
                if not (-8 < seek_length):
213
 
                    raise AssertionError("too great a seek")
214
 
                buf = self.fileobj.read(-seek_length)
215
 
                self._gzip_tail = self.decompress.unused_data + buf
216
 
            else:
217
 
                self._gzip_tail = self.decompress.unused_data
218
 
 
219
 
            # Check the CRC and file size, and set the flag so we read
220
 
            # a new member on the next call
221
 
            self._read_eof()
222
 
            self._new_member = True
223
 
 
224
 
    def _read_eof(self):
225
 
        """tuned to reduce function calls and eliminate file seeking:
226
 
        pass 1:
227
 
        reduces lsprof count from 800 to 288
228
 
        4168 in 296
229
 
        avoid U32 call by using struct format L
230
 
        4168 in 200
231
 
        """
232
 
        # We've read to the end of the file, so we should have 8 bytes of
233
 
        # unused data in the decompressor. If we don't, there is a corrupt file.
234
 
        # We use these 8 bytes to calculate the CRC and the recorded file size.
235
 
        # We then check the that the computed CRC and size of the
236
 
        # uncompressed data matches the stored values.  Note that the size
237
 
        # stored is the true file size mod 2**32.
238
 
        if not (len(self._gzip_tail) == 8):
239
 
            raise AssertionError("gzip trailer is incorrect length.")
240
 
        crc32, isize = struct.unpack("<LL", self._gzip_tail)
241
 
        # note that isize is unsigned - it can exceed 2GB
242
 
        if crc32 != U32(self.crc):
243
 
            raise IOError, "CRC check failed %d %d" % (crc32, U32(self.crc))
244
 
        elif isize != LOWU32(self.size):
245
 
            raise IOError, "Incorrect length of data produced"
 
211
                self._read_eof()
 
212
                # tell the driving read() call we have stuffed all the data
 
213
                # in self.extrabuf
 
214
                raise EOFError, 'Reached EOF'
 
215
 
 
216
            self._add_read_data(self.decompress.decompress(buf))
 
217
 
 
218
            if self.decompress.unused_data != "":
 
219
                # Ending case: we've come to the end of a member in the file,
 
220
                # so seek back to the start of the data for the next member
 
221
                # which is the length of the decompress objects unused data -
 
222
                # the first 8 bytes for the end crc and size records.
 
223
                #
 
224
                # so seek back to the start of the unused data, finish up
 
225
                # this member, and read a new gzip header.
 
226
                # (The number of bytes to seek back is the length of the unused
 
227
                # data, minus 8 because those 8 bytes are part of this member.
 
228
                seek_length = len (self.decompress.unused_data) - 8
 
229
                if seek_length > 0:
 
230
                    # we read too much data
 
231
                    self.fileobj.seek(-seek_length, 1)
 
232
                    self._gzip_tail = self.decompress.unused_data[0:8]
 
233
                elif seek_length < 0:
 
234
                    # we haven't read enough to check the checksum.
 
235
                    if not (-8 < seek_length):
 
236
                        raise AssertionError("too great a seek")
 
237
                    buf = self.fileobj.read(-seek_length)
 
238
                    self._gzip_tail = self.decompress.unused_data + buf
 
239
                else:
 
240
                    self._gzip_tail = self.decompress.unused_data
 
241
 
 
242
                # Check the CRC and file size, and set the flag so we read
 
243
                # a new member on the next call
 
244
                self._read_eof()
 
245
                self._new_member = True
 
246
 
 
247
        def _read_eof(self):
 
248
            """tuned to reduce function calls and eliminate file seeking:
 
249
            pass 1:
 
250
            reduces lsprof count from 800 to 288
 
251
            4168 in 296
 
252
            avoid U32 call by using struct format L
 
253
            4168 in 200
 
254
            """
 
255
            # We've read to the end of the file, so we should have 8 bytes of
 
256
            # unused data in the decompressor. If we don't, there is a corrupt
 
257
            # file.  We use these 8 bytes to calculate the CRC and the recorded
 
258
            # file size.  We then check the that the computed CRC and size of
 
259
            # the uncompressed data matches the stored values.  Note that the
 
260
            # size stored is the true file size mod 2**32.
 
261
            if not (len(self._gzip_tail) == 8):
 
262
                raise AssertionError("gzip trailer is incorrect length.")
 
263
            crc32, isize = struct.unpack("<LL", self._gzip_tail)
 
264
            # note that isize is unsigned - it can exceed 2GB
 
265
            if crc32 != U32(self.crc):
 
266
                raise IOError, "CRC check failed %d %d" % (crc32, U32(self.crc))
 
267
            elif isize != LOWU32(self.size):
 
268
                raise IOError, "Incorrect length of data produced"
246
269
 
247
270
    def _read_gzip_header(self, bytes=None):
248
271
        """Supply bytes if the minimum header size is already read.