~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/transport/sftp.py

  • Committer: Martin Pool
  • Date: 2005-07-11 07:05:34 UTC
  • Revision ID: mbp@sourcefrog.net-20050711070534-5227696ab167ccde
- merge aaron's append_multiple.patch

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007, 2008, 2009 Canonical Ltd
2
 
#
3
 
# This program is free software; you can redistribute it and/or modify
4
 
# it under the terms of the GNU General Public License as published by
5
 
# the Free Software Foundation; either version 2 of the License, or
6
 
# (at your option) any later version.
7
 
#
8
 
# This program is distributed in the hope that it will be useful,
9
 
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
 
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
 
# GNU General Public License for more details.
12
 
#
13
 
# You should have received a copy of the GNU General Public License
14
 
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
 
 
17
 
"""Implementation of Transport over SFTP, using paramiko."""
18
 
 
19
 
# TODO: Remove the transport-based lock_read and lock_write methods.  They'll
20
 
# then raise TransportNotPossible, which will break remote access to any
21
 
# formats which rely on OS-level locks.  That should be fine as those formats
22
 
# are pretty old, but these combinations may have to be removed from the test
23
 
# suite.  Those formats all date back to 0.7; so we should be able to remove
24
 
# these methods when we officially drop support for those formats.
25
 
 
26
 
import bisect
27
 
import errno
28
 
import itertools
29
 
import os
30
 
import random
31
 
import select
32
 
import socket
33
 
import stat
34
 
import sys
35
 
import time
36
 
import urllib
37
 
import urlparse
38
 
import warnings
39
 
 
40
 
from bzrlib import (
41
 
    config,
42
 
    debug,
43
 
    errors,
44
 
    urlutils,
45
 
    )
46
 
from bzrlib.errors import (FileExists,
47
 
                           NoSuchFile, PathNotChild,
48
 
                           TransportError,
49
 
                           LockError,
50
 
                           PathError,
51
 
                           ParamikoNotPresent,
52
 
                           )
53
 
from bzrlib.osutils import pathjoin, fancy_rename, getcwd
54
 
from bzrlib.symbol_versioning import (
55
 
        deprecated_function,
56
 
        )
57
 
from bzrlib.trace import mutter, warning
58
 
from bzrlib.transport import (
59
 
    FileFileStream,
60
 
    _file_streams,
61
 
    local,
62
 
    Server,
63
 
    ssh,
64
 
    ConnectedTransport,
65
 
    )
66
 
 
67
 
# Disable one particular warning that comes from paramiko in Python2.5; if
68
 
# this is emitted at the wrong time it tends to cause spurious test failures
69
 
# or at least noise in the test case::
70
 
#
71
 
# [1770/7639 in 86s, 1 known failures, 50 skipped, 2 missing features]
72
 
# test_permissions.TestSftpPermissions.test_new_files
73
 
# /var/lib/python-support/python2.5/paramiko/message.py:226: DeprecationWarning: integer argument expected, got float
74
 
#  self.packet.write(struct.pack('>I', n))
75
 
warnings.filterwarnings('ignore',
76
 
        'integer argument expected, got float',
77
 
        category=DeprecationWarning,
78
 
        module='paramiko.message')
79
 
 
80
 
try:
81
 
    import paramiko
82
 
except ImportError, e:
83
 
    raise ParamikoNotPresent(e)
84
 
else:
85
 
    from paramiko.sftp import (SFTP_FLAG_WRITE, SFTP_FLAG_CREATE,
86
 
                               SFTP_FLAG_EXCL, SFTP_FLAG_TRUNC,
87
 
                               CMD_HANDLE, CMD_OPEN)
88
 
    from paramiko.sftp_attr import SFTPAttributes
89
 
    from paramiko.sftp_file import SFTPFile
90
 
 
91
 
 
92
 
_paramiko_version = getattr(paramiko, '__version_info__', (0, 0, 0))
93
 
# don't use prefetch unless paramiko version >= 1.5.5 (there were bugs earlier)
94
 
_default_do_prefetch = (_paramiko_version >= (1, 5, 5))
95
 
 
96
 
 
97
 
class SFTPLock(object):
98
 
    """This fakes a lock in a remote location.
99
 
    
100
 
    A present lock is indicated just by the existence of a file.  This
101
 
    doesn't work well on all transports and they are only used in 
102
 
    deprecated storage formats.
103
 
    """
104
 
    
105
 
    __slots__ = ['path', 'lock_path', 'lock_file', 'transport']
106
 
 
107
 
    def __init__(self, path, transport):
108
 
        self.lock_file = None
109
 
        self.path = path
110
 
        self.lock_path = path + '.write-lock'
111
 
        self.transport = transport
112
 
        try:
113
 
            # RBC 20060103 FIXME should we be using private methods here ?
114
 
            abspath = transport._remote_path(self.lock_path)
115
 
            self.lock_file = transport._sftp_open_exclusive(abspath)
116
 
        except FileExists:
117
 
            raise LockError('File %r already locked' % (self.path,))
118
 
 
119
 
    def __del__(self):
120
 
        """Should this warn, or actually try to cleanup?"""
121
 
        if self.lock_file:
122
 
            warning("SFTPLock %r not explicitly unlocked" % (self.path,))
123
 
            self.unlock()
124
 
 
125
 
    def unlock(self):
126
 
        if not self.lock_file:
127
 
            return
128
 
        self.lock_file.close()
129
 
        self.lock_file = None
130
 
        try:
131
 
            self.transport.delete(self.lock_path)
132
 
        except (NoSuchFile,):
133
 
            # What specific errors should we catch here?
134
 
            pass
135
 
 
136
 
 
137
 
class _SFTPReadvHelper(object):
138
 
    """A class to help with managing the state of a readv request."""
139
 
 
140
 
    # See _get_requests for an explanation.
141
 
    _max_request_size = 32768
142
 
 
143
 
    def __init__(self, original_offsets, relpath, _report_activity):
144
 
        """Create a new readv helper.
145
 
 
146
 
        :param original_offsets: The original requests given by the caller of
147
 
            readv()
148
 
        :param relpath: The name of the file (if known)
149
 
        :param _report_activity: A Transport._report_activity bound method,
150
 
            to be called as data arrives.
151
 
        """
152
 
        self.original_offsets = list(original_offsets)
153
 
        self.relpath = relpath
154
 
        self._report_activity = _report_activity
155
 
 
156
 
    def _get_requests(self):
157
 
        """Break up the offsets into individual requests over sftp.
158
 
 
159
 
        The SFTP spec only requires implementers to support 32kB requests. We
160
 
        could try something larger (openssh supports 64kB), but then we have to
161
 
        handle requests that fail.
162
 
        So instead, we just break up our maximum chunks into 32kB chunks, and
163
 
        asyncronously requests them.
164
 
        Newer versions of paramiko would do the chunking for us, but we want to
165
 
        start processing results right away, so we do it ourselves.
166
 
        """
167
 
        # TODO: Because we issue async requests, we don't 'fudge' any extra
168
 
        #       data.  I'm not 100% sure that is the best choice.
169
 
 
170
 
        # The first thing we do, is to collapse the individual requests as much
171
 
        # as possible, so we don't issues requests <32kB
172
 
        sorted_offsets = sorted(self.original_offsets)
173
 
        coalesced = list(ConnectedTransport._coalesce_offsets(sorted_offsets,
174
 
                                                        limit=0, fudge_factor=0))
175
 
        requests = []
176
 
        for c_offset in coalesced:
177
 
            start = c_offset.start
178
 
            size = c_offset.length
179
 
 
180
 
            # Break this up into 32kB requests
181
 
            while size > 0:
182
 
                next_size = min(size, self._max_request_size)
183
 
                requests.append((start, next_size))
184
 
                size -= next_size
185
 
                start += next_size
186
 
        if 'sftp' in debug.debug_flags:
187
 
            mutter('SFTP.readv(%s) %s offsets => %s coalesced => %s requests',
188
 
                self.relpath, len(sorted_offsets), len(coalesced),
189
 
                len(requests))
190
 
        return requests
191
 
 
192
 
    def request_and_yield_offsets(self, fp):
193
 
        """Request the data from the remote machine, yielding the results.
194
 
 
195
 
        :param fp: A Paramiko SFTPFile object that supports readv.
196
 
        :return: Yield the data requested by the original readv caller, one by
197
 
            one.
198
 
        """
199
 
        requests = self._get_requests()
200
 
        offset_iter = iter(self.original_offsets)
201
 
        cur_offset, cur_size = offset_iter.next()
202
 
        # paramiko .readv() yields strings that are in the order of the requests
203
 
        # So we track the current request to know where the next data is
204
 
        # being returned from.
205
 
        input_start = None
206
 
        last_end = None
207
 
        buffered_data = []
208
 
        buffered_len = 0
209
 
 
210
 
        # This is used to buffer chunks which we couldn't process yet
211
 
        # It is (start, end, data) tuples.
212
 
        data_chunks = []
213
 
        # Create an 'unlimited' data stream, so we stop based on requests,
214
 
        # rather than just because the data stream ended. This lets us detect
215
 
        # short readv.
216
 
        data_stream = itertools.chain(fp.readv(requests),
217
 
                                      itertools.repeat(None))
218
 
        for (start, length), data in itertools.izip(requests, data_stream):
219
 
            if data is None:
220
 
                if cur_coalesced is not None:
221
 
                    raise errors.ShortReadvError(self.relpath,
222
 
                        start, length, len(data))
223
 
            if len(data) != length:
224
 
                raise errors.ShortReadvError(self.relpath,
225
 
                    start, length, len(data))
226
 
            self._report_activity(length, 'read')
227
 
            if last_end is None:
228
 
                # This is the first request, just buffer it
229
 
                buffered_data = [data]
230
 
                buffered_len = length
231
 
                input_start = start
232
 
            elif start == last_end:
233
 
                # The data we are reading fits neatly on the previous
234
 
                # buffer, so this is all part of a larger coalesced range.
235
 
                buffered_data.append(data)
236
 
                buffered_len += length
237
 
            else:
238
 
                # We have an 'interrupt' in the data stream. So we know we are
239
 
                # at a request boundary.
240
 
                if buffered_len > 0:
241
 
                    # We haven't consumed the buffer so far, so put it into
242
 
                    # data_chunks, and continue.
243
 
                    buffered = ''.join(buffered_data)
244
 
                    data_chunks.append((input_start, buffered))
245
 
                input_start = start
246
 
                buffered_data = [data]
247
 
                buffered_len = length
248
 
            last_end = start + length
249
 
            if input_start == cur_offset and cur_size <= buffered_len:
250
 
                # Simplify the next steps a bit by transforming buffered_data
251
 
                # into a single string. We also have the nice property that
252
 
                # when there is only one string ''.join([x]) == x, so there is
253
 
                # no data copying.
254
 
                buffered = ''.join(buffered_data)
255
 
                # Clean out buffered data so that we keep memory
256
 
                # consumption low
257
 
                del buffered_data[:]
258
 
                buffered_offset = 0
259
 
                # TODO: We *could* also consider the case where cur_offset is in
260
 
                #       in the buffered range, even though it doesn't *start*
261
 
                #       the buffered range. But for packs we pretty much always
262
 
                #       read in order, so you won't get any extra data in the
263
 
                #       middle.
264
 
                while (input_start == cur_offset
265
 
                       and (buffered_offset + cur_size) <= buffered_len):
266
 
                    # We've buffered enough data to process this request, spit it
267
 
                    # out
268
 
                    cur_data = buffered[buffered_offset:buffered_offset + cur_size]
269
 
                    # move the direct pointer into our buffered data
270
 
                    buffered_offset += cur_size
271
 
                    # Move the start-of-buffer pointer
272
 
                    input_start += cur_size
273
 
                    # Yield the requested data
274
 
                    yield cur_offset, cur_data
275
 
                    cur_offset, cur_size = offset_iter.next()
276
 
                # at this point, we've consumed as much of buffered as we can,
277
 
                # so break off the portion that we consumed
278
 
                if buffered_offset == len(buffered_data):
279
 
                    # No tail to leave behind
280
 
                    buffered_data = []
281
 
                    buffered_len = 0
282
 
                else:
283
 
                    buffered = buffered[buffered_offset:]
284
 
                    buffered_data = [buffered]
285
 
                    buffered_len = len(buffered)
286
 
        if buffered_len:
287
 
            buffered = ''.join(buffered_data)
288
 
            del buffered_data[:]
289
 
            data_chunks.append((input_start, buffered))
290
 
        if data_chunks:
291
 
            if 'sftp' in debug.debug_flags:
292
 
                mutter('SFTP readv left with %d out-of-order bytes',
293
 
                    sum(map(lambda x: len(x[1]), data_chunks)))
294
 
            # We've processed all the readv data, at this point, anything we
295
 
            # couldn't process is in data_chunks. This doesn't happen often, so
296
 
            # this code path isn't optimized
297
 
            # We use an interesting process for data_chunks
298
 
            # Specifically if we have "bisect_left([(start, len, entries)],
299
 
            #                                       (qstart,)])
300
 
            # If start == qstart, then we get the specific node. Otherwise we
301
 
            # get the previous node
302
 
            while True:
303
 
                idx = bisect.bisect_left(data_chunks, (cur_offset,))
304
 
                if idx < len(data_chunks) and data_chunks[idx][0] == cur_offset:
305
 
                    # The data starts here
306
 
                    data = data_chunks[idx][1][:cur_size]
307
 
                elif idx > 0:
308
 
                    # The data is in a portion of a previous page
309
 
                    idx -= 1
310
 
                    sub_offset = cur_offset - data_chunks[idx][0]
311
 
                    data = data_chunks[idx][1]
312
 
                    data = data[sub_offset:sub_offset + cur_size]
313
 
                else:
314
 
                    # We are missing the page where the data should be found,
315
 
                    # something is wrong
316
 
                    data = ''
317
 
                if len(data) != cur_size:
318
 
                    raise AssertionError('We must have miscalulated.'
319
 
                        ' We expected %d bytes, but only found %d'
320
 
                        % (cur_size, len(data)))
321
 
                yield cur_offset, data
322
 
                cur_offset, cur_size = offset_iter.next()
323
 
 
324
 
 
325
 
class SFTPTransport(ConnectedTransport):
326
 
    """Transport implementation for SFTP access."""
327
 
 
328
 
    _do_prefetch = _default_do_prefetch
329
 
    # TODO: jam 20060717 Conceivably these could be configurable, either
330
 
    #       by auto-tuning at run-time, or by a configuration (per host??)
331
 
    #       but the performance curve is pretty flat, so just going with
332
 
    #       reasonable defaults.
333
 
    _max_readv_combine = 200
334
 
    # Having to round trip to the server means waiting for a response,
335
 
    # so it is better to download extra bytes.
336
 
    # 8KiB had good performance for both local and remote network operations
337
 
    _bytes_to_read_before_seek = 8192
338
 
 
339
 
    # The sftp spec says that implementations SHOULD allow reads
340
 
    # to be at least 32K. paramiko.readv() does an async request
341
 
    # for the chunks. So we need to keep it within a single request
342
 
    # size for paramiko <= 1.6.1. paramiko 1.6.2 will probably chop
343
 
    # up the request itself, rather than us having to worry about it
344
 
    _max_request_size = 32768
345
 
 
346
 
    def __init__(self, base, _from_transport=None):
347
 
        super(SFTPTransport, self).__init__(base,
348
 
                                            _from_transport=_from_transport)
349
 
 
350
 
    def _remote_path(self, relpath):
351
 
        """Return the path to be passed along the sftp protocol for relpath.
352
 
        
353
 
        :param relpath: is a urlencoded string.
354
 
        """
355
 
        relative = urlutils.unescape(relpath).encode('utf-8')
356
 
        remote_path = self._combine_paths(self._path, relative)
357
 
        # the initial slash should be removed from the path, and treated as a
358
 
        # homedir relative path (the path begins with a double slash if it is
359
 
        # absolute).  see draft-ietf-secsh-scp-sftp-ssh-uri-03.txt
360
 
        # RBC 20060118 we are not using this as its too user hostile. instead
361
 
        # we are following lftp and using /~/foo to mean '~/foo'
362
 
        # vila--20070602 and leave absolute paths begin with a single slash.
363
 
        if remote_path.startswith('/~/'):
364
 
            remote_path = remote_path[3:]
365
 
        elif remote_path == '/~':
366
 
            remote_path = ''
367
 
        return remote_path
368
 
 
369
 
    def _create_connection(self, credentials=None):
370
 
        """Create a new connection with the provided credentials.
371
 
 
372
 
        :param credentials: The credentials needed to establish the connection.
373
 
 
374
 
        :return: The created connection and its associated credentials.
375
 
 
376
 
        The credentials are only the password as it may have been entered
377
 
        interactively by the user and may be different from the one provided
378
 
        in base url at transport creation time.
379
 
        """
380
 
        if credentials is None:
381
 
            password = self._password
382
 
        else:
383
 
            password = credentials
384
 
 
385
 
        vendor = ssh._get_ssh_vendor()
386
 
        user = self._user
387
 
        if user is None:
388
 
            auth = config.AuthenticationConfig()
389
 
            user = auth.get_user('ssh', self._host, self._port)
390
 
        connection = vendor.connect_sftp(self._user, password,
391
 
                                         self._host, self._port)
392
 
        return connection, (user, password)
393
 
 
394
 
    def _get_sftp(self):
395
 
        """Ensures that a connection is established"""
396
 
        connection = self._get_connection()
397
 
        if connection is None:
398
 
            # First connection ever
399
 
            connection, credentials = self._create_connection()
400
 
            self._set_connection(connection, credentials)
401
 
        return connection
402
 
 
403
 
    def has(self, relpath):
404
 
        """
405
 
        Does the target location exist?
406
 
        """
407
 
        try:
408
 
            self._get_sftp().stat(self._remote_path(relpath))
409
 
            return True
410
 
        except IOError:
411
 
            return False
412
 
 
413
 
    def get(self, relpath):
414
 
        """Get the file at the given relative path.
415
 
 
416
 
        :param relpath: The relative path to the file
417
 
        """
418
 
        try:
419
 
            path = self._remote_path(relpath)
420
 
            f = self._get_sftp().file(path, mode='rb')
421
 
            if self._do_prefetch and (getattr(f, 'prefetch', None) is not None):
422
 
                f.prefetch()
423
 
            return f
424
 
        except (IOError, paramiko.SSHException), e:
425
 
            self._translate_io_exception(e, path, ': error retrieving',
426
 
                failure_exc=errors.ReadError)
427
 
 
428
 
    def get_bytes(self, relpath):
429
 
        # reimplement this here so that we can report how many bytes came back
430
 
        f = self.get(relpath)
431
 
        try:
432
 
            bytes = f.read()
433
 
            self._report_activity(len(bytes), 'read')
434
 
            return bytes
435
 
        finally:
436
 
            f.close()
437
 
 
438
 
    def _readv(self, relpath, offsets):
439
 
        """See Transport.readv()"""
440
 
        # We overload the default readv() because we want to use a file
441
 
        # that does not have prefetch enabled.
442
 
        # Also, if we have a new paramiko, it implements an async readv()
443
 
        if not offsets:
444
 
            return
445
 
 
446
 
        try:
447
 
            path = self._remote_path(relpath)
448
 
            fp = self._get_sftp().file(path, mode='rb')
449
 
            readv = getattr(fp, 'readv', None)
450
 
            if readv:
451
 
                return self._sftp_readv(fp, offsets, relpath)
452
 
            if 'sftp' in debug.debug_flags:
453
 
                mutter('seek and read %s offsets', len(offsets))
454
 
            return self._seek_and_read(fp, offsets, relpath)
455
 
        except (IOError, paramiko.SSHException), e:
456
 
            self._translate_io_exception(e, path, ': error retrieving')
457
 
 
458
 
    def recommended_page_size(self):
459
 
        """See Transport.recommended_page_size().
460
 
 
461
 
        For SFTP we suggest a large page size to reduce the overhead
462
 
        introduced by latency.
463
 
        """
464
 
        return 64 * 1024
465
 
 
466
 
    def _sftp_readv(self, fp, offsets, relpath):
467
 
        """Use the readv() member of fp to do async readv.
468
 
 
469
 
        Then read them using paramiko.readv(). paramiko.readv()
470
 
        does not support ranges > 64K, so it caps the request size, and
471
 
        just reads until it gets all the stuff it wants.
472
 
        """
473
 
        helper = _SFTPReadvHelper(offsets, relpath, self._report_activity)
474
 
        return helper.request_and_yield_offsets(fp)
475
 
 
476
 
    def put_file(self, relpath, f, mode=None):
477
 
        """
478
 
        Copy the file-like object into the location.
479
 
 
480
 
        :param relpath: Location to put the contents, relative to base.
481
 
        :param f:       File-like object.
482
 
        :param mode: The final mode for the file
483
 
        """
484
 
        final_path = self._remote_path(relpath)
485
 
        return self._put(final_path, f, mode=mode)
486
 
 
487
 
    def _put(self, abspath, f, mode=None):
488
 
        """Helper function so both put() and copy_abspaths can reuse the code"""
489
 
        tmp_abspath = '%s.tmp.%.9f.%d.%d' % (abspath, time.time(),
490
 
                        os.getpid(), random.randint(0,0x7FFFFFFF))
491
 
        fout = self._sftp_open_exclusive(tmp_abspath, mode=mode)
492
 
        closed = False
493
 
        try:
494
 
            try:
495
 
                fout.set_pipelined(True)
496
 
                length = self._pump(f, fout)
497
 
            except (IOError, paramiko.SSHException), e:
498
 
                self._translate_io_exception(e, tmp_abspath)
499
 
            # XXX: This doesn't truly help like we would like it to.
500
 
            #      The problem is that openssh strips sticky bits. So while we
501
 
            #      can properly set group write permission, we lose the group
502
 
            #      sticky bit. So it is probably best to stop chmodding, and
503
 
            #      just tell users that they need to set the umask correctly.
504
 
            #      The attr.st_mode = mode, in _sftp_open_exclusive
505
 
            #      will handle when the user wants the final mode to be more 
506
 
            #      restrictive. And then we avoid a round trip. Unless 
507
 
            #      paramiko decides to expose an async chmod()
508
 
 
509
 
            # This is designed to chmod() right before we close.
510
 
            # Because we set_pipelined() earlier, theoretically we might 
511
 
            # avoid the round trip for fout.close()
512
 
            if mode is not None:
513
 
                self._get_sftp().chmod(tmp_abspath, mode)
514
 
            fout.close()
515
 
            closed = True
516
 
            self._rename_and_overwrite(tmp_abspath, abspath)
517
 
            return length
518
 
        except Exception, e:
519
 
            # If we fail, try to clean up the temporary file
520
 
            # before we throw the exception
521
 
            # but don't let another exception mess things up
522
 
            # Write out the traceback, because otherwise
523
 
            # the catch and throw destroys it
524
 
            import traceback
525
 
            mutter(traceback.format_exc())
526
 
            try:
527
 
                if not closed:
528
 
                    fout.close()
529
 
                self._get_sftp().remove(tmp_abspath)
530
 
            except:
531
 
                # raise the saved except
532
 
                raise e
533
 
            # raise the original with its traceback if we can.
534
 
            raise
535
 
 
536
 
    def _put_non_atomic_helper(self, relpath, writer, mode=None,
537
 
                               create_parent_dir=False,
538
 
                               dir_mode=None):
539
 
        abspath = self._remote_path(relpath)
540
 
 
541
 
        # TODO: jam 20060816 paramiko doesn't publicly expose a way to
542
 
        #       set the file mode at create time. If it does, use it.
543
 
        #       But for now, we just chmod later anyway.
544
 
 
545
 
        def _open_and_write_file():
546
 
            """Try to open the target file, raise error on failure"""
547
 
            fout = None
548
 
            try:
549
 
                try:
550
 
                    fout = self._get_sftp().file(abspath, mode='wb')
551
 
                    fout.set_pipelined(True)
552
 
                    writer(fout)
553
 
                except (paramiko.SSHException, IOError), e:
554
 
                    self._translate_io_exception(e, abspath,
555
 
                                                 ': unable to open')
556
 
 
557
 
                # This is designed to chmod() right before we close.
558
 
                # Because we set_pipelined() earlier, theoretically we might 
559
 
                # avoid the round trip for fout.close()
560
 
                if mode is not None:
561
 
                    self._get_sftp().chmod(abspath, mode)
562
 
            finally:
563
 
                if fout is not None:
564
 
                    fout.close()
565
 
 
566
 
        if not create_parent_dir:
567
 
            _open_and_write_file()
568
 
            return
569
 
 
570
 
        # Try error handling to create the parent directory if we need to
571
 
        try:
572
 
            _open_and_write_file()
573
 
        except NoSuchFile:
574
 
            # Try to create the parent directory, and then go back to
575
 
            # writing the file
576
 
            parent_dir = os.path.dirname(abspath)
577
 
            self._mkdir(parent_dir, dir_mode)
578
 
            _open_and_write_file()
579
 
 
580
 
    def put_file_non_atomic(self, relpath, f, mode=None,
581
 
                            create_parent_dir=False,
582
 
                            dir_mode=None):
583
 
        """Copy the file-like object into the target location.
584
 
 
585
 
        This function is not strictly safe to use. It is only meant to
586
 
        be used when you already know that the target does not exist.
587
 
        It is not safe, because it will open and truncate the remote
588
 
        file. So there may be a time when the file has invalid contents.
589
 
 
590
 
        :param relpath: The remote location to put the contents.
591
 
        :param f:       File-like object.
592
 
        :param mode:    Possible access permissions for new file.
593
 
                        None means do not set remote permissions.
594
 
        :param create_parent_dir: If we cannot create the target file because
595
 
                        the parent directory does not exist, go ahead and
596
 
                        create it, and then try again.
597
 
        """
598
 
        def writer(fout):
599
 
            self._pump(f, fout)
600
 
        self._put_non_atomic_helper(relpath, writer, mode=mode,
601
 
                                    create_parent_dir=create_parent_dir,
602
 
                                    dir_mode=dir_mode)
603
 
 
604
 
    def put_bytes_non_atomic(self, relpath, bytes, mode=None,
605
 
                             create_parent_dir=False,
606
 
                             dir_mode=None):
607
 
        def writer(fout):
608
 
            fout.write(bytes)
609
 
        self._put_non_atomic_helper(relpath, writer, mode=mode,
610
 
                                    create_parent_dir=create_parent_dir,
611
 
                                    dir_mode=dir_mode)
612
 
 
613
 
    def iter_files_recursive(self):
614
 
        """Walk the relative paths of all files in this transport."""
615
 
        queue = list(self.list_dir('.'))
616
 
        while queue:
617
 
            relpath = queue.pop(0)
618
 
            st = self.stat(relpath)
619
 
            if stat.S_ISDIR(st.st_mode):
620
 
                for i, basename in enumerate(self.list_dir(relpath)):
621
 
                    queue.insert(i, relpath+'/'+basename)
622
 
            else:
623
 
                yield relpath
624
 
 
625
 
    def _mkdir(self, abspath, mode=None):
626
 
        if mode is None:
627
 
            local_mode = 0777
628
 
        else:
629
 
            local_mode = mode
630
 
        try:
631
 
            self._get_sftp().mkdir(abspath, local_mode)
632
 
            if mode is not None:
633
 
                # chmod a dir through sftp will erase any sgid bit set
634
 
                # on the server side.  So, if the bit mode are already
635
 
                # set, avoid the chmod.  If the mode is not fine but
636
 
                # the sgid bit is set, report a warning to the user
637
 
                # with the umask fix.
638
 
                stat = self._get_sftp().lstat(abspath)
639
 
                mode = mode & 0777 # can't set special bits anyway
640
 
                if mode != stat.st_mode & 0777:
641
 
                    if stat.st_mode & 06000:
642
 
                        warning('About to chmod %s over sftp, which will result'
643
 
                                ' in its suid or sgid bits being cleared.  If'
644
 
                                ' you want to preserve those bits, change your '
645
 
                                ' environment on the server to use umask 0%03o.'
646
 
                                % (abspath, 0777 - mode))
647
 
                    self._get_sftp().chmod(abspath, mode=mode)
648
 
        except (paramiko.SSHException, IOError), e:
649
 
            self._translate_io_exception(e, abspath, ': unable to mkdir',
650
 
                failure_exc=FileExists)
651
 
 
652
 
    def mkdir(self, relpath, mode=None):
653
 
        """Create a directory at the given path."""
654
 
        self._mkdir(self._remote_path(relpath), mode=mode)
655
 
 
656
 
    def open_write_stream(self, relpath, mode=None):
657
 
        """See Transport.open_write_stream."""
658
 
        # initialise the file to zero-length
659
 
        # this is three round trips, but we don't use this 
660
 
        # api more than once per write_group at the moment so 
661
 
        # it is a tolerable overhead. Better would be to truncate
662
 
        # the file after opening. RBC 20070805
663
 
        self.put_bytes_non_atomic(relpath, "", mode)
664
 
        abspath = self._remote_path(relpath)
665
 
        # TODO: jam 20060816 paramiko doesn't publicly expose a way to
666
 
        #       set the file mode at create time. If it does, use it.
667
 
        #       But for now, we just chmod later anyway.
668
 
        handle = None
669
 
        try:
670
 
            handle = self._get_sftp().file(abspath, mode='wb')
671
 
            handle.set_pipelined(True)
672
 
        except (paramiko.SSHException, IOError), e:
673
 
            self._translate_io_exception(e, abspath,
674
 
                                         ': unable to open')
675
 
        _file_streams[self.abspath(relpath)] = handle
676
 
        return FileFileStream(self, relpath, handle)
677
 
 
678
 
    def _translate_io_exception(self, e, path, more_info='',
679
 
                                failure_exc=PathError):
680
 
        """Translate a paramiko or IOError into a friendlier exception.
681
 
 
682
 
        :param e: The original exception
683
 
        :param path: The path in question when the error is raised
684
 
        :param more_info: Extra information that can be included,
685
 
                          such as what was going on
686
 
        :param failure_exc: Paramiko has the super fun ability to raise completely
687
 
                           opaque errors that just set "e.args = ('Failure',)" with
688
 
                           no more information.
689
 
                           If this parameter is set, it defines the exception 
690
 
                           to raise in these cases.
691
 
        """
692
 
        # paramiko seems to generate detailless errors.
693
 
        self._translate_error(e, path, raise_generic=False)
694
 
        if getattr(e, 'args', None) is not None:
695
 
            if (e.args == ('No such file or directory',) or
696
 
                e.args == ('No such file',)):
697
 
                raise NoSuchFile(path, str(e) + more_info)
698
 
            if (e.args == ('mkdir failed',) or
699
 
                e.args[0].startswith('syserr: File exists')):
700
 
                raise FileExists(path, str(e) + more_info)
701
 
            # strange but true, for the paramiko server.
702
 
            if (e.args == ('Failure',)):
703
 
                raise failure_exc(path, str(e) + more_info)
704
 
            mutter('Raising exception with args %s', e.args)
705
 
        if getattr(e, 'errno', None) is not None:
706
 
            mutter('Raising exception with errno %s', e.errno)
707
 
        raise e
708
 
 
709
 
    def append_file(self, relpath, f, mode=None):
710
 
        """
711
 
        Append the text in the file-like object into the final
712
 
        location.
713
 
        """
714
 
        try:
715
 
            path = self._remote_path(relpath)
716
 
            fout = self._get_sftp().file(path, 'ab')
717
 
            if mode is not None:
718
 
                self._get_sftp().chmod(path, mode)
719
 
            result = fout.tell()
720
 
            self._pump(f, fout)
721
 
            return result
722
 
        except (IOError, paramiko.SSHException), e:
723
 
            self._translate_io_exception(e, relpath, ': unable to append')
724
 
 
725
 
    def rename(self, rel_from, rel_to):
726
 
        """Rename without special overwriting"""
727
 
        try:
728
 
            self._get_sftp().rename(self._remote_path(rel_from),
729
 
                              self._remote_path(rel_to))
730
 
        except (IOError, paramiko.SSHException), e:
731
 
            self._translate_io_exception(e, rel_from,
732
 
                    ': unable to rename to %r' % (rel_to))
733
 
 
734
 
    def _rename_and_overwrite(self, abs_from, abs_to):
735
 
        """Do a fancy rename on the remote server.
736
 
        
737
 
        Using the implementation provided by osutils.
738
 
        """
739
 
        try:
740
 
            sftp = self._get_sftp()
741
 
            fancy_rename(abs_from, abs_to,
742
 
                         rename_func=sftp.rename,
743
 
                         unlink_func=sftp.remove)
744
 
        except (IOError, paramiko.SSHException), e:
745
 
            self._translate_io_exception(e, abs_from,
746
 
                                         ': unable to rename to %r' % (abs_to))
747
 
 
748
 
    def move(self, rel_from, rel_to):
749
 
        """Move the item at rel_from to the location at rel_to"""
750
 
        path_from = self._remote_path(rel_from)
751
 
        path_to = self._remote_path(rel_to)
752
 
        self._rename_and_overwrite(path_from, path_to)
753
 
 
754
 
    def delete(self, relpath):
755
 
        """Delete the item at relpath"""
756
 
        path = self._remote_path(relpath)
757
 
        try:
758
 
            self._get_sftp().remove(path)
759
 
        except (IOError, paramiko.SSHException), e:
760
 
            self._translate_io_exception(e, path, ': unable to delete')
761
 
            
762
 
    def external_url(self):
763
 
        """See bzrlib.transport.Transport.external_url."""
764
 
        # the external path for SFTP is the base
765
 
        return self.base
766
 
 
767
 
    def listable(self):
768
 
        """Return True if this store supports listing."""
769
 
        return True
770
 
 
771
 
    def list_dir(self, relpath):
772
 
        """
773
 
        Return a list of all files at the given location.
774
 
        """
775
 
        # does anything actually use this?
776
 
        # -- Unknown
777
 
        # This is at least used by copy_tree for remote upgrades.
778
 
        # -- David Allouche 2006-08-11
779
 
        path = self._remote_path(relpath)
780
 
        try:
781
 
            entries = self._get_sftp().listdir(path)
782
 
        except (IOError, paramiko.SSHException), e:
783
 
            self._translate_io_exception(e, path, ': failed to list_dir')
784
 
        return [urlutils.escape(entry) for entry in entries]
785
 
 
786
 
    def rmdir(self, relpath):
787
 
        """See Transport.rmdir."""
788
 
        path = self._remote_path(relpath)
789
 
        try:
790
 
            return self._get_sftp().rmdir(path)
791
 
        except (IOError, paramiko.SSHException), e:
792
 
            self._translate_io_exception(e, path, ': failed to rmdir')
793
 
 
794
 
    def stat(self, relpath):
795
 
        """Return the stat information for a file."""
796
 
        path = self._remote_path(relpath)
797
 
        try:
798
 
            return self._get_sftp().stat(path)
799
 
        except (IOError, paramiko.SSHException), e:
800
 
            self._translate_io_exception(e, path, ': unable to stat')
801
 
 
802
 
    def lock_read(self, relpath):
803
 
        """
804
 
        Lock the given file for shared (read) access.
805
 
        :return: A lock object, which has an unlock() member function
806
 
        """
807
 
        # FIXME: there should be something clever i can do here...
808
 
        class BogusLock(object):
809
 
            def __init__(self, path):
810
 
                self.path = path
811
 
            def unlock(self):
812
 
                pass
813
 
        return BogusLock(relpath)
814
 
 
815
 
    def lock_write(self, relpath):
816
 
        """
817
 
        Lock the given file for exclusive (write) access.
818
 
        WARNING: many transports do not support this, so trying avoid using it
819
 
 
820
 
        :return: A lock object, which has an unlock() member function
821
 
        """
822
 
        # This is a little bit bogus, but basically, we create a file
823
 
        # which should not already exist, and if it does, we assume
824
 
        # that there is a lock, and if it doesn't, the we assume
825
 
        # that we have taken the lock.
826
 
        return SFTPLock(relpath, self)
827
 
 
828
 
    def _sftp_open_exclusive(self, abspath, mode=None):
829
 
        """Open a remote path exclusively.
830
 
 
831
 
        SFTP supports O_EXCL (SFTP_FLAG_EXCL), which fails if
832
 
        the file already exists. However it does not expose this
833
 
        at the higher level of SFTPClient.open(), so we have to
834
 
        sneak away with it.
835
 
 
836
 
        WARNING: This breaks the SFTPClient abstraction, so it
837
 
        could easily break against an updated version of paramiko.
838
 
 
839
 
        :param abspath: The remote absolute path where the file should be opened
840
 
        :param mode: The mode permissions bits for the new file
841
 
        """
842
 
        # TODO: jam 20060816 Paramiko >= 1.6.2 (probably earlier) supports
843
 
        #       using the 'x' flag to indicate SFTP_FLAG_EXCL.
844
 
        #       However, there is no way to set the permission mode at open 
845
 
        #       time using the sftp_client.file() functionality.
846
 
        path = self._get_sftp()._adjust_cwd(abspath)
847
 
        # mutter('sftp abspath %s => %s', abspath, path)
848
 
        attr = SFTPAttributes()
849
 
        if mode is not None:
850
 
            attr.st_mode = mode
851
 
        omode = (SFTP_FLAG_WRITE | SFTP_FLAG_CREATE 
852
 
                | SFTP_FLAG_TRUNC | SFTP_FLAG_EXCL)
853
 
        try:
854
 
            t, msg = self._get_sftp()._request(CMD_OPEN, path, omode, attr)
855
 
            if t != CMD_HANDLE:
856
 
                raise TransportError('Expected an SFTP handle')
857
 
            handle = msg.get_string()
858
 
            return SFTPFile(self._get_sftp(), handle, 'wb', -1)
859
 
        except (paramiko.SSHException, IOError), e:
860
 
            self._translate_io_exception(e, abspath, ': unable to open',
861
 
                failure_exc=FileExists)
862
 
 
863
 
    def _can_roundtrip_unix_modebits(self):
864
 
        if sys.platform == 'win32':
865
 
            # anyone else?
866
 
            return False
867
 
        else:
868
 
            return True
869
 
 
870
 
# ------------- server test implementation --------------
871
 
import threading
872
 
 
873
 
from bzrlib.tests.stub_sftp import StubServer, StubSFTPServer
874
 
 
875
 
STUB_SERVER_KEY = """
876
 
-----BEGIN RSA PRIVATE KEY-----
877
 
MIICWgIBAAKBgQDTj1bqB4WmayWNPB+8jVSYpZYk80Ujvj680pOTh2bORBjbIAyz
878
 
oWGW+GUjzKxTiiPvVmxFgx5wdsFvF03v34lEVVhMpouqPAYQ15N37K/ir5XY+9m/
879
 
d8ufMCkjeXsQkKqFbAlQcnWMCRnOoPHS3I4vi6hmnDDeeYTSRvfLbW0fhwIBIwKB
880
 
gBIiOqZYaoqbeD9OS9z2K9KR2atlTxGxOJPXiP4ESqP3NVScWNwyZ3NXHpyrJLa0
881
 
EbVtzsQhLn6rF+TzXnOlcipFvjsem3iYzCpuChfGQ6SovTcOjHV9z+hnpXvQ/fon
882
 
soVRZY65wKnF7IAoUwTmJS9opqgrN6kRgCd3DASAMd1bAkEA96SBVWFt/fJBNJ9H
883
 
tYnBKZGw0VeHOYmVYbvMSstssn8un+pQpUm9vlG/bp7Oxd/m+b9KWEh2xPfv6zqU
884
 
avNwHwJBANqzGZa/EpzF4J8pGti7oIAPUIDGMtfIcmqNXVMckrmzQ2vTfqtkEZsA
885
 
4rE1IERRyiJQx6EJsz21wJmGV9WJQ5kCQQDwkS0uXqVdFzgHO6S++tjmjYcxwr3g
886
 
H0CoFYSgbddOT6miqRskOQF3DZVkJT3kyuBgU2zKygz52ukQZMqxCb1fAkASvuTv
887
 
qfpH87Qq5kQhNKdbbwbmd2NxlNabazPijWuphGTdW0VfJdWfklyS2Kr+iqrs/5wV
888
 
HhathJt636Eg7oIjAkA8ht3MQ+XSl9yIJIS8gVpbPxSw5OMfw0PjVE7tBdQruiSc
889
 
nvuQES5C9BMHjF39LZiGH1iLQy7FgdHyoP+eodI7
890
 
-----END RSA PRIVATE KEY-----
891
 
"""
892
 
 
893
 
 
894
 
class SocketListener(threading.Thread):
895
 
 
896
 
    def __init__(self, callback):
897
 
        threading.Thread.__init__(self)
898
 
        self._callback = callback
899
 
        self._socket = socket.socket()
900
 
        self._socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
901
 
        self._socket.bind(('localhost', 0))
902
 
        self._socket.listen(1)
903
 
        self.port = self._socket.getsockname()[1]
904
 
        self._stop_event = threading.Event()
905
 
 
906
 
    def stop(self):
907
 
        # called from outside this thread
908
 
        self._stop_event.set()
909
 
        # use a timeout here, because if the test fails, the server thread may
910
 
        # never notice the stop_event.
911
 
        self.join(5.0)
912
 
        self._socket.close()
913
 
 
914
 
    def run(self):
915
 
        while True:
916
 
            readable, writable_unused, exception_unused = \
917
 
                select.select([self._socket], [], [], 0.1)
918
 
            if self._stop_event.isSet():
919
 
                return
920
 
            if len(readable) == 0:
921
 
                continue
922
 
            try:
923
 
                s, addr_unused = self._socket.accept()
924
 
                # because the loopback socket is inline, and transports are
925
 
                # never explicitly closed, best to launch a new thread.
926
 
                threading.Thread(target=self._callback, args=(s,)).start()
927
 
            except socket.error, x:
928
 
                sys.excepthook(*sys.exc_info())
929
 
                warning('Socket error during accept() within unit test server'
930
 
                        ' thread: %r' % x)
931
 
            except Exception, x:
932
 
                # probably a failed test; unit test thread will log the
933
 
                # failure/error
934
 
                sys.excepthook(*sys.exc_info())
935
 
                warning('Exception from within unit test server thread: %r' % 
936
 
                        x)
937
 
 
938
 
 
939
 
class SocketDelay(object):
940
 
    """A socket decorator to make TCP appear slower.
941
 
 
942
 
    This changes recv, send, and sendall to add a fixed latency to each python
943
 
    call if a new roundtrip is detected. That is, when a recv is called and the
944
 
    flag new_roundtrip is set, latency is charged. Every send and send_all
945
 
    sets this flag.
946
 
 
947
 
    In addition every send, sendall and recv sleeps a bit per character send to
948
 
    simulate bandwidth.
949
 
 
950
 
    Not all methods are implemented, this is deliberate as this class is not a
951
 
    replacement for the builtin sockets layer. fileno is not implemented to
952
 
    prevent the proxy being bypassed. 
953
 
    """
954
 
 
955
 
    simulated_time = 0
956
 
    _proxied_arguments = dict.fromkeys([
957
 
        "close", "getpeername", "getsockname", "getsockopt", "gettimeout",
958
 
        "setblocking", "setsockopt", "settimeout", "shutdown"])
959
 
 
960
 
    def __init__(self, sock, latency, bandwidth=1.0, 
961
 
                 really_sleep=True):
962
 
        """ 
963
 
        :param bandwith: simulated bandwith (MegaBit)
964
 
        :param really_sleep: If set to false, the SocketDelay will just
965
 
        increase a counter, instead of calling time.sleep. This is useful for
966
 
        unittesting the SocketDelay.
967
 
        """
968
 
        self.sock = sock
969
 
        self.latency = latency
970
 
        self.really_sleep = really_sleep
971
 
        self.time_per_byte = 1 / (bandwidth / 8.0 * 1024 * 1024) 
972
 
        self.new_roundtrip = False
973
 
 
974
 
    def sleep(self, s):
975
 
        if self.really_sleep:
976
 
            time.sleep(s)
977
 
        else:
978
 
            SocketDelay.simulated_time += s
979
 
 
980
 
    def __getattr__(self, attr):
981
 
        if attr in SocketDelay._proxied_arguments:
982
 
            return getattr(self.sock, attr)
983
 
        raise AttributeError("'SocketDelay' object has no attribute %r" %
984
 
                             attr)
985
 
 
986
 
    def dup(self):
987
 
        return SocketDelay(self.sock.dup(), self.latency, self.time_per_byte,
988
 
                           self._sleep)
989
 
 
990
 
    def recv(self, *args):
991
 
        data = self.sock.recv(*args)
992
 
        if data and self.new_roundtrip:
993
 
            self.new_roundtrip = False
994
 
            self.sleep(self.latency)
995
 
        self.sleep(len(data) * self.time_per_byte)
996
 
        return data
997
 
 
998
 
    def sendall(self, data, flags=0):
999
 
        if not self.new_roundtrip:
1000
 
            self.new_roundtrip = True
1001
 
            self.sleep(self.latency)
1002
 
        self.sleep(len(data) * self.time_per_byte)
1003
 
        return self.sock.sendall(data, flags)
1004
 
 
1005
 
    def send(self, data, flags=0):
1006
 
        if not self.new_roundtrip:
1007
 
            self.new_roundtrip = True
1008
 
            self.sleep(self.latency)
1009
 
        bytes_sent = self.sock.send(data, flags)
1010
 
        self.sleep(bytes_sent * self.time_per_byte)
1011
 
        return bytes_sent
1012
 
 
1013
 
 
1014
 
class SFTPServer(Server):
1015
 
    """Common code for SFTP server facilities."""
1016
 
 
1017
 
    def __init__(self, server_interface=StubServer):
1018
 
        self._original_vendor = None
1019
 
        self._homedir = None
1020
 
        self._server_homedir = None
1021
 
        self._listener = None
1022
 
        self._root = None
1023
 
        self._vendor = ssh.ParamikoVendor()
1024
 
        self._server_interface = server_interface
1025
 
        # sftp server logs
1026
 
        self.logs = []
1027
 
        self.add_latency = 0
1028
 
 
1029
 
    def _get_sftp_url(self, path):
1030
 
        """Calculate an sftp url to this server for path."""
1031
 
        return 'sftp://foo:bar@localhost:%d/%s' % (self._listener.port, path)
1032
 
 
1033
 
    def log(self, message):
1034
 
        """StubServer uses this to log when a new server is created."""
1035
 
        self.logs.append(message)
1036
 
 
1037
 
    def _run_server_entry(self, sock):
1038
 
        """Entry point for all implementations of _run_server.
1039
 
        
1040
 
        If self.add_latency is > 0.000001 then sock is given a latency adding
1041
 
        decorator.
1042
 
        """
1043
 
        if self.add_latency > 0.000001:
1044
 
            sock = SocketDelay(sock, self.add_latency)
1045
 
        return self._run_server(sock)
1046
 
 
1047
 
    def _run_server(self, s):
1048
 
        ssh_server = paramiko.Transport(s)
1049
 
        key_file = pathjoin(self._homedir, 'test_rsa.key')
1050
 
        f = open(key_file, 'w')
1051
 
        f.write(STUB_SERVER_KEY)
1052
 
        f.close()
1053
 
        host_key = paramiko.RSAKey.from_private_key_file(key_file)
1054
 
        ssh_server.add_server_key(host_key)
1055
 
        server = self._server_interface(self)
1056
 
        ssh_server.set_subsystem_handler('sftp', paramiko.SFTPServer,
1057
 
                                         StubSFTPServer, root=self._root,
1058
 
                                         home=self._server_homedir)
1059
 
        event = threading.Event()
1060
 
        ssh_server.start_server(event, server)
1061
 
        event.wait(5.0)
1062
 
    
1063
 
    def setUp(self, backing_server=None):
1064
 
        # XXX: TODO: make sftpserver back onto backing_server rather than local
1065
 
        # disk.
1066
 
        if not (backing_server is None or
1067
 
                isinstance(backing_server, local.LocalURLServer)):
1068
 
            raise AssertionError(
1069
 
                "backing_server should not be %r, because this can only serve the "
1070
 
                "local current working directory." % (backing_server,))
1071
 
        self._original_vendor = ssh._ssh_vendor_manager._cached_ssh_vendor
1072
 
        ssh._ssh_vendor_manager._cached_ssh_vendor = self._vendor
1073
 
        if sys.platform == 'win32':
1074
 
            # Win32 needs to use the UNICODE api
1075
 
            self._homedir = getcwd()
1076
 
        else:
1077
 
            # But Linux SFTP servers should just deal in bytestreams
1078
 
            self._homedir = os.getcwd()
1079
 
        if self._server_homedir is None:
1080
 
            self._server_homedir = self._homedir
1081
 
        self._root = '/'
1082
 
        if sys.platform == 'win32':
1083
 
            self._root = ''
1084
 
        self._listener = SocketListener(self._run_server_entry)
1085
 
        self._listener.setDaemon(True)
1086
 
        self._listener.start()
1087
 
 
1088
 
    def tearDown(self):
1089
 
        """See bzrlib.transport.Server.tearDown."""
1090
 
        self._listener.stop()
1091
 
        ssh._ssh_vendor_manager._cached_ssh_vendor = self._original_vendor
1092
 
 
1093
 
    def get_bogus_url(self):
1094
 
        """See bzrlib.transport.Server.get_bogus_url."""
1095
 
        # this is chosen to try to prevent trouble with proxies, wierd dns, etc
1096
 
        # we bind a random socket, so that we get a guaranteed unused port
1097
 
        # we just never listen on that port
1098
 
        s = socket.socket()
1099
 
        s.bind(('localhost', 0))
1100
 
        return 'sftp://%s:%s/' % s.getsockname()
1101
 
 
1102
 
 
1103
 
class SFTPFullAbsoluteServer(SFTPServer):
1104
 
    """A test server for sftp transports, using absolute urls and ssh."""
1105
 
 
1106
 
    def get_url(self):
1107
 
        """See bzrlib.transport.Server.get_url."""
1108
 
        homedir = self._homedir
1109
 
        if sys.platform != 'win32':
1110
 
            # Remove the initial '/' on all platforms but win32
1111
 
            homedir = homedir[1:]
1112
 
        return self._get_sftp_url(urlutils.escape(homedir))
1113
 
 
1114
 
 
1115
 
class SFTPServerWithoutSSH(SFTPServer):
1116
 
    """An SFTP server that uses a simple TCP socket pair rather than SSH."""
1117
 
 
1118
 
    def __init__(self):
1119
 
        super(SFTPServerWithoutSSH, self).__init__()
1120
 
        self._vendor = ssh.LoopbackVendor()
1121
 
 
1122
 
    def _run_server(self, sock):
1123
 
        # Re-import these as locals, so that they're still accessible during
1124
 
        # interpreter shutdown (when all module globals get set to None, leading
1125
 
        # to confusing errors like "'NoneType' object has no attribute 'error'".
1126
 
        class FakeChannel(object):
1127
 
            def get_transport(self):
1128
 
                return self
1129
 
            def get_log_channel(self):
1130
 
                return 'paramiko'
1131
 
            def get_name(self):
1132
 
                return '1'
1133
 
            def get_hexdump(self):
1134
 
                return False
1135
 
            def close(self):
1136
 
                pass
1137
 
 
1138
 
        server = paramiko.SFTPServer(
1139
 
            FakeChannel(), 'sftp', StubServer(self), StubSFTPServer,
1140
 
            root=self._root, home=self._server_homedir)
1141
 
        try:
1142
 
            server.start_subsystem(
1143
 
                'sftp', None, ssh.SocketAsChannelAdapter(sock))
1144
 
        except socket.error, e:
1145
 
            if (len(e.args) > 0) and (e.args[0] == errno.EPIPE):
1146
 
                # it's okay for the client to disconnect abruptly
1147
 
                # (bug in paramiko 1.6: it should absorb this exception)
1148
 
                pass
1149
 
            else:
1150
 
                raise
1151
 
        except Exception, e:
1152
 
            # This typically seems to happen during interpreter shutdown, so
1153
 
            # most of the useful ways to report this error are won't work.
1154
 
            # Writing the exception type, and then the text of the exception,
1155
 
            # seems to be the best we can do.
1156
 
            import sys
1157
 
            sys.stderr.write('\nEXCEPTION %r: ' % (e.__class__,))
1158
 
            sys.stderr.write('%s\n\n' % (e,))
1159
 
        server.finish_subsystem()
1160
 
 
1161
 
 
1162
 
class SFTPAbsoluteServer(SFTPServerWithoutSSH):
1163
 
    """A test server for sftp transports, using absolute urls."""
1164
 
 
1165
 
    def get_url(self):
1166
 
        """See bzrlib.transport.Server.get_url."""
1167
 
        homedir = self._homedir
1168
 
        if sys.platform != 'win32':
1169
 
            # Remove the initial '/' on all platforms but win32
1170
 
            homedir = homedir[1:]
1171
 
        return self._get_sftp_url(urlutils.escape(homedir))
1172
 
 
1173
 
 
1174
 
class SFTPHomeDirServer(SFTPServerWithoutSSH):
1175
 
    """A test server for sftp transports, using homedir relative urls."""
1176
 
 
1177
 
    def get_url(self):
1178
 
        """See bzrlib.transport.Server.get_url."""
1179
 
        return self._get_sftp_url("~/")
1180
 
 
1181
 
 
1182
 
class SFTPSiblingAbsoluteServer(SFTPAbsoluteServer):
1183
 
    """A test server for sftp transports where only absolute paths will work.
1184
 
 
1185
 
    It does this by serving from a deeply-nested directory that doesn't exist.
1186
 
    """
1187
 
 
1188
 
    def setUp(self, backing_server=None):
1189
 
        self._server_homedir = '/dev/noone/runs/tests/here'
1190
 
        super(SFTPSiblingAbsoluteServer, self).setUp(backing_server)
1191
 
 
1192
 
 
1193
 
def get_test_permutations():
1194
 
    """Return the permutations to be used in testing."""
1195
 
    return [(SFTPTransport, SFTPAbsoluteServer),
1196
 
            (SFTPTransport, SFTPHomeDirServer),
1197
 
            (SFTPTransport, SFTPSiblingAbsoluteServer),
1198
 
            ]