~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/transport/sftp.py

Fix BzrDir.create_workingtree for NULL_REVISION

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005 Robey Pointer <robey@lag.net>, Canonical Ltd
2
 
 
 
1
# Copyright (C) 2005 Robey Pointer <robey@lag.net>
 
2
# Copyright (C) 2005, 2006 Canonical Ltd
 
3
#
3
4
# This program is free software; you can redistribute it and/or modify
4
5
# it under the terms of the GNU General Public License as published by
5
6
# the Free Software Foundation; either version 2 of the License, or
6
7
# (at your option) any later version.
7
 
 
 
8
#
8
9
# This program is distributed in the hope that it will be useful,
9
10
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
11
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
12
# GNU General Public License for more details.
12
 
 
 
13
#
13
14
# You should have received a copy of the GNU General Public License
14
15
# along with this program; if not, write to the Free Software
15
16
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
17
18
"""Implementation of Transport over SFTP, using paramiko."""
18
19
 
19
20
import errno
20
 
import getpass
21
21
import os
22
 
import re
 
22
import random
 
23
import select
 
24
import socket
23
25
import stat
 
26
import subprocess
24
27
import sys
 
28
import time
25
29
import urllib
26
30
import urlparse
27
 
import time
28
 
import random
29
 
import subprocess
30
31
import weakref
31
32
 
32
33
from bzrlib.errors import (FileExists, 
33
 
                           TransportNotPossible, NoSuchFile, PathNotChild,
 
34
                           NoSuchFile, PathNotChild,
34
35
                           TransportError,
35
 
                           LockError)
36
 
from bzrlib.config import config_dir, ensure_config_dir_exists
37
 
from bzrlib.trace import mutter, warning, error
38
 
from bzrlib.transport import Transport, register_transport
39
 
from bzrlib.osutils import pathjoin, fancy_rename
40
 
import bzrlib.ui
 
36
                           LockError, 
 
37
                           PathError,
 
38
                           ParamikoNotPresent,
 
39
                           UnknownSSH,
 
40
                           )
 
41
from bzrlib.osutils import pathjoin, fancy_rename, getcwd
 
42
from bzrlib.trace import mutter, warning
 
43
from bzrlib.transport import (
 
44
    register_urlparse_netloc_protocol,
 
45
    Server,
 
46
    split_url,
 
47
    ssh,
 
48
    Transport,
 
49
    )
 
50
import bzrlib.urlutils as urlutils
41
51
 
42
52
try:
43
53
    import paramiko
44
 
except ImportError:
45
 
    error('The SFTP transport requires paramiko.')
46
 
    raise
 
54
except ImportError, e:
 
55
    raise ParamikoNotPresent(e)
47
56
else:
48
57
    from paramiko.sftp import (SFTP_FLAG_WRITE, SFTP_FLAG_CREATE,
49
58
                               SFTP_FLAG_EXCL, SFTP_FLAG_TRUNC,
50
59
                               CMD_HANDLE, CMD_OPEN)
51
60
    from paramiko.sftp_attr import SFTPAttributes
52
61
    from paramiko.sftp_file import SFTPFile
53
 
    from paramiko.sftp_client import SFTPClient
54
 
 
55
 
if 'sftp' not in urlparse.uses_netloc: urlparse.uses_netloc.append('sftp')
56
 
 
57
 
 
58
 
_close_fds = True
59
 
if sys.platform == 'win32':
60
 
    # close_fds not supported on win32
61
 
    _close_fds = False
62
 
 
63
 
_ssh_vendor = None
64
 
def _get_ssh_vendor():
65
 
    """Find out what version of SSH is on the system."""
66
 
    global _ssh_vendor
67
 
    if _ssh_vendor is not None:
68
 
        return _ssh_vendor
69
 
 
70
 
    _ssh_vendor = 'none'
71
 
 
72
 
    try:
73
 
        p = subprocess.Popen(['ssh', '-V'],
74
 
                             close_fds=_close_fds,
75
 
                             stdin=subprocess.PIPE,
76
 
                             stdout=subprocess.PIPE,
77
 
                             stderr=subprocess.PIPE)
78
 
        returncode = p.returncode
79
 
        stdout, stderr = p.communicate()
80
 
    except OSError:
81
 
        returncode = -1
82
 
        stdout = stderr = ''
83
 
    if 'OpenSSH' in stderr:
84
 
        mutter('ssh implementation is OpenSSH')
85
 
        _ssh_vendor = 'openssh'
86
 
    elif 'SSH Secure Shell' in stderr:
87
 
        mutter('ssh implementation is SSH Corp.')
88
 
        _ssh_vendor = 'ssh'
89
 
 
90
 
    if _ssh_vendor != 'none':
91
 
        return _ssh_vendor
92
 
 
93
 
    # XXX: 20051123 jamesh
94
 
    # A check for putty's plink or lsh would go here.
95
 
 
96
 
    mutter('falling back to paramiko implementation')
97
 
    return _ssh_vendor
98
 
 
99
 
 
100
 
class SFTPSubprocess:
101
 
    """A socket-like object that talks to an ssh subprocess via pipes."""
102
 
    def __init__(self, hostname, port=None, user=None):
103
 
        vendor = _get_ssh_vendor()
104
 
        assert vendor in ['openssh', 'ssh']
105
 
        if vendor == 'openssh':
106
 
            args = ['ssh',
107
 
                    '-oForwardX11=no', '-oForwardAgent=no',
108
 
                    '-oClearAllForwardings=yes', '-oProtocol=2',
109
 
                    '-oNoHostAuthenticationForLocalhost=yes']
110
 
            if port is not None:
111
 
                args.extend(['-p', str(port)])
112
 
            if user is not None:
113
 
                args.extend(['-l', user])
114
 
            args.extend(['-s', hostname, 'sftp'])
115
 
        elif vendor == 'ssh':
116
 
            args = ['ssh', '-x']
117
 
            if port is not None:
118
 
                args.extend(['-p', str(port)])
119
 
            if user is not None:
120
 
                args.extend(['-l', user])
121
 
            args.extend(['-s', 'sftp', hostname])
122
 
 
123
 
        self.proc = subprocess.Popen(args, close_fds=_close_fds,
124
 
                                     stdin=subprocess.PIPE,
125
 
                                     stdout=subprocess.PIPE)
126
 
 
127
 
    def send(self, data):
128
 
        return os.write(self.proc.stdin.fileno(), data)
129
 
 
130
 
    def recv_ready(self):
131
 
        # TODO: jam 20051215 this function is necessary to support the
132
 
        # pipelined() function. In reality, it probably should use
133
 
        # poll() or select() to actually return if there is data
134
 
        # available, otherwise we probably don't get any benefit
135
 
        return True
136
 
 
137
 
    def recv(self, count):
138
 
        return os.read(self.proc.stdout.fileno(), count)
139
 
 
140
 
    def close(self):
141
 
        self.proc.stdin.close()
142
 
        self.proc.stdout.close()
143
 
        self.proc.wait()
144
 
 
145
 
 
146
 
SYSTEM_HOSTKEYS = {}
147
 
BZR_HOSTKEYS = {}
 
62
 
 
63
 
 
64
register_urlparse_netloc_protocol('sftp')
 
65
 
148
66
 
149
67
# This is a weakref dictionary, so that we can reuse connections
150
68
# that are still active. Long term, it might be nice to have some
152
70
# X seconds. But that requires a lot more fanciness.
153
71
_connected_hosts = weakref.WeakValueDictionary()
154
72
 
155
 
def load_host_keys():
156
 
    """
157
 
    Load system host keys (probably doesn't work on windows) and any
158
 
    "discovered" keys from previous sessions.
159
 
    """
160
 
    global SYSTEM_HOSTKEYS, BZR_HOSTKEYS
161
 
    try:
162
 
        SYSTEM_HOSTKEYS = paramiko.util.load_host_keys(os.path.expanduser('~/.ssh/known_hosts'))
163
 
    except Exception, e:
164
 
        mutter('failed to load system host keys: ' + str(e))
165
 
    bzr_hostkey_path = pathjoin(config_dir(), 'ssh_host_keys')
166
 
    try:
167
 
        BZR_HOSTKEYS = paramiko.util.load_host_keys(bzr_hostkey_path)
168
 
    except Exception, e:
169
 
        mutter('failed to load bzr host keys: ' + str(e))
170
 
        save_host_keys()
171
 
 
172
 
def save_host_keys():
173
 
    """
174
 
    Save "discovered" host keys in $(config)/ssh_host_keys/.
175
 
    """
176
 
    global SYSTEM_HOSTKEYS, BZR_HOSTKEYS
177
 
    bzr_hostkey_path = pathjoin(config_dir(), 'ssh_host_keys')
178
 
    ensure_config_dir_exists()
179
 
 
180
 
    try:
181
 
        f = open(bzr_hostkey_path, 'w')
182
 
        f.write('# SSH host keys collected by bzr\n')
183
 
        for hostname, keys in BZR_HOSTKEYS.iteritems():
184
 
            for keytype, key in keys.iteritems():
185
 
                f.write('%s %s %s\n' % (hostname, keytype, key.get_base64()))
186
 
        f.close()
187
 
    except IOError, e:
188
 
        mutter('failed to save bzr host keys: ' + str(e))
 
73
 
 
74
_paramiko_version = getattr(paramiko, '__version_info__', (0, 0, 0))
 
75
# don't use prefetch unless paramiko version >= 1.5.5 (there were bugs earlier)
 
76
_default_do_prefetch = (_paramiko_version >= (1, 5, 5))
 
77
 
 
78
 
 
79
def clear_connection_cache():
 
80
    """Remove all hosts from the SFTP connection cache.
 
81
 
 
82
    Primarily useful for test cases wanting to force garbage collection.
 
83
    """
 
84
    _connected_hosts.clear()
189
85
 
190
86
 
191
87
class SFTPLock(object):
199
95
        self.lock_path = path + '.write-lock'
200
96
        self.transport = transport
201
97
        try:
202
 
            abspath = transport._abspath(self.lock_path)
 
98
            # RBC 20060103 FIXME should we be using private methods here ?
 
99
            abspath = transport._remote_path(self.lock_path)
203
100
            self.lock_file = transport._sftp_open_exclusive(abspath)
204
101
        except FileExists:
205
102
            raise LockError('File %r already locked' % (self.path,))
207
104
    def __del__(self):
208
105
        """Should this warn, or actually try to cleanup?"""
209
106
        if self.lock_file:
210
 
            warn("SFTPLock %r not explicitly unlocked" % (self.path,))
 
107
            warning("SFTPLock %r not explicitly unlocked" % (self.path,))
211
108
            self.unlock()
212
109
 
213
110
    def unlock(self):
221
118
            # What specific errors should we catch here?
222
119
            pass
223
120
 
224
 
class SFTPTransport (Transport):
225
 
    """
226
 
    Transport implementation for SFTP access.
227
 
    """
228
 
    _do_prefetch = False # Right now Paramiko's prefetch support causes things to hang
 
121
 
 
122
class SFTPTransport(Transport):
 
123
    """Transport implementation for SFTP access."""
 
124
 
 
125
    _do_prefetch = _default_do_prefetch
 
126
    # TODO: jam 20060717 Conceivably these could be configurable, either
 
127
    #       by auto-tuning at run-time, or by a configuration (per host??)
 
128
    #       but the performance curve is pretty flat, so just going with
 
129
    #       reasonable defaults.
 
130
    _max_readv_combine = 200
 
131
    # Having to round trip to the server means waiting for a response,
 
132
    # so it is better to download extra bytes.
 
133
    # 8KiB had good performance for both local and remote network operations
 
134
    _bytes_to_read_before_seek = 8192
 
135
 
 
136
    # The sftp spec says that implementations SHOULD allow reads
 
137
    # to be at least 32K. paramiko.readv() does an async request
 
138
    # for the chunks. So we need to keep it within a single request
 
139
    # size for paramiko <= 1.6.1. paramiko 1.6.2 will probably chop
 
140
    # up the request itself, rather than us having to worry about it
 
141
    _max_request_size = 32768
229
142
 
230
143
    def __init__(self, base, clone_from=None):
231
144
        assert base.startswith('sftp://')
232
145
        self._parse_url(base)
233
146
        base = self._unparse_url()
 
147
        if base[-1] != '/':
 
148
            base += '/'
234
149
        super(SFTPTransport, self).__init__(base)
235
150
        if clone_from is None:
236
151
            self._sftp_connect()
263
178
        @param relpath: the relative path or path components
264
179
        @type relpath: str or list
265
180
        """
266
 
        return self._unparse_url(self._abspath(relpath))
 
181
        return self._unparse_url(self._remote_path(relpath))
267
182
    
268
 
    def _abspath(self, relpath):
269
 
        """Return the absolute path segment without the SFTP URL."""
 
183
    def _remote_path(self, relpath):
 
184
        """Return the path to be passed along the sftp protocol for relpath.
 
185
        
 
186
        relpath is a urlencoded string.
 
187
        """
270
188
        # FIXME: share the common code across transports
271
189
        assert isinstance(relpath, basestring)
272
 
        relpath = [urllib.unquote(relpath)]
 
190
        relpath = urlutils.unescape(relpath).split('/')
273
191
        basepath = self._path.split('/')
274
192
        if len(basepath) > 0 and basepath[-1] == '':
275
193
            basepath = basepath[:-1]
287
205
                basepath.append(p)
288
206
 
289
207
        path = '/'.join(basepath)
290
 
        # could still be a "relative" path here, but relative on the sftp server
 
208
        # mutter('relpath => remotepath %s => %s', relpath, path)
291
209
        return path
292
210
 
293
211
    def relpath(self, abspath):
305
223
            extra = ': ' + ', '.join(error)
306
224
            raise PathNotChild(abspath, self.base, extra=extra)
307
225
        pl = len(self._path)
308
 
        return path[pl:].lstrip('/')
 
226
        return path[pl:].strip('/')
309
227
 
310
228
    def has(self, relpath):
311
229
        """
312
230
        Does the target location exist?
313
231
        """
314
232
        try:
315
 
            self._sftp.stat(self._abspath(relpath))
 
233
            self._sftp.stat(self._remote_path(relpath))
316
234
            return True
317
235
        except IOError:
318
236
            return False
319
237
 
320
 
    def get(self, relpath, decode=False):
 
238
    def get(self, relpath):
321
239
        """
322
240
        Get the file at the given relative path.
323
241
 
324
242
        :param relpath: The relative path to the file
325
243
        """
326
244
        try:
327
 
            path = self._abspath(relpath)
 
245
            path = self._remote_path(relpath)
328
246
            f = self._sftp.file(path, mode='rb')
329
 
            if self._do_prefetch and hasattr(f, 'prefetch'):
 
247
            if self._do_prefetch and (getattr(f, 'prefetch', None) is not None):
330
248
                f.prefetch()
331
249
            return f
332
250
        except (IOError, paramiko.SSHException), e:
333
251
            self._translate_io_exception(e, path, ': error retrieving')
334
252
 
335
 
    def get_partial(self, relpath, start, length=None):
336
 
        """
337
 
        Get just part of a file.
338
 
 
339
 
        :param relpath: Path to the file, relative to base
340
 
        :param start: The starting position to read from
341
 
        :param length: The length to read. A length of None indicates
342
 
                       read to the end of the file.
343
 
        :return: A file-like object containing at least the specified bytes.
344
 
                 Some implementations may return objects which can be read
345
 
                 past this length, but this is not guaranteed.
346
 
        """
347
 
        # TODO: implement get_partial_multi to help with knit support
348
 
        f = self.get(relpath)
349
 
        f.seek(start)
350
 
        if self._do_prefetch and hasattr(f, 'prefetch'):
351
 
            f.prefetch()
352
 
        return f
 
253
    def readv(self, relpath, offsets):
 
254
        """See Transport.readv()"""
 
255
        # We overload the default readv() because we want to use a file
 
256
        # that does not have prefetch enabled.
 
257
        # Also, if we have a new paramiko, it implements an async readv()
 
258
        if not offsets:
 
259
            return
 
260
 
 
261
        try:
 
262
            path = self._remote_path(relpath)
 
263
            fp = self._sftp.file(path, mode='rb')
 
264
            readv = getattr(fp, 'readv', None)
 
265
            if readv:
 
266
                return self._sftp_readv(fp, offsets)
 
267
            mutter('seek and read %s offsets', len(offsets))
 
268
            return self._seek_and_read(fp, offsets)
 
269
        except (IOError, paramiko.SSHException), e:
 
270
            self._translate_io_exception(e, path, ': error retrieving')
 
271
 
 
272
    def _sftp_readv(self, fp, offsets):
 
273
        """Use the readv() member of fp to do async readv.
 
274
 
 
275
        And then read them using paramiko.readv(). paramiko.readv()
 
276
        does not support ranges > 64K, so it caps the request size, and
 
277
        just reads until it gets all the stuff it wants
 
278
        """
 
279
        offsets = list(offsets)
 
280
        sorted_offsets = sorted(offsets)
 
281
 
 
282
        # The algorithm works as follows:
 
283
        # 1) Coalesce nearby reads into a single chunk
 
284
        #    This generates a list of combined regions, the total size
 
285
        #    and the size of the sub regions. This coalescing step is limited
 
286
        #    in the number of nearby chunks to combine, and is allowed to
 
287
        #    skip small breaks in the requests. Limiting it makes sure that
 
288
        #    we can start yielding some data earlier, and skipping means we
 
289
        #    make fewer requests. (Beneficial even when using async)
 
290
        # 2) Break up this combined regions into chunks that are smaller
 
291
        #    than 64KiB. Technically the limit is 65536, but we are a
 
292
        #    little bit conservative. This is because sftp has a maximum
 
293
        #    return chunk size of 64KiB (max size of an unsigned short)
 
294
        # 3) Issue a readv() to paramiko to create an async request for
 
295
        #    all of this data
 
296
        # 4) Read in the data as it comes back, until we've read one
 
297
        #    continuous section as determined in step 1
 
298
        # 5) Break up the full sections into hunks for the original requested
 
299
        #    offsets. And put them in a cache
 
300
        # 6) Check if the next request is in the cache, and if it is, remove
 
301
        #    it from the cache, and yield its data. Continue until no more
 
302
        #    entries are in the cache.
 
303
        # 7) loop back to step 4 until all data has been read
 
304
        #
 
305
        # TODO: jam 20060725 This could be optimized one step further, by
 
306
        #       attempting to yield whatever data we have read, even before
 
307
        #       the first coallesced section has been fully processed.
 
308
 
 
309
        # When coalescing for use with readv(), we don't really need to
 
310
        # use any fudge factor, because the requests are made asynchronously
 
311
        coalesced = list(self._coalesce_offsets(sorted_offsets,
 
312
                               limit=self._max_readv_combine,
 
313
                               fudge_factor=0,
 
314
                               ))
 
315
        requests = []
 
316
        for c_offset in coalesced:
 
317
            start = c_offset.start
 
318
            size = c_offset.length
 
319
 
 
320
            # We need to break this up into multiple requests
 
321
            while size > 0:
 
322
                next_size = min(size, self._max_request_size)
 
323
                requests.append((start, next_size))
 
324
                size -= next_size
 
325
                start += next_size
 
326
 
 
327
        mutter('SFTP.readv() %s offsets => %s coalesced => %s requests',
 
328
                len(offsets), len(coalesced), len(requests))
 
329
 
 
330
        # Queue the current read until we have read the full coalesced section
 
331
        cur_data = []
 
332
        cur_data_len = 0
 
333
        cur_coalesced_stack = iter(coalesced)
 
334
        cur_coalesced = cur_coalesced_stack.next()
 
335
 
 
336
        # Cache the results, but only until they have been fulfilled
 
337
        data_map = {}
 
338
        # turn the list of offsets into a stack
 
339
        offset_stack = iter(offsets)
 
340
        cur_offset_and_size = offset_stack.next()
 
341
 
 
342
        for data in fp.readv(requests):
 
343
            cur_data += data
 
344
            cur_data_len += len(data)
 
345
 
 
346
            if cur_data_len < cur_coalesced.length:
 
347
                continue
 
348
            assert cur_data_len == cur_coalesced.length, \
 
349
                "Somehow we read too much: %s != %s" % (cur_data_len,
 
350
                                                        cur_coalesced.length)
 
351
            all_data = ''.join(cur_data)
 
352
            cur_data = []
 
353
            cur_data_len = 0
 
354
 
 
355
            for suboffset, subsize in cur_coalesced.ranges:
 
356
                key = (cur_coalesced.start+suboffset, subsize)
 
357
                data_map[key] = all_data[suboffset:suboffset+subsize]
 
358
 
 
359
            # Now that we've read some data, see if we can yield anything back
 
360
            while cur_offset_and_size in data_map:
 
361
                this_data = data_map.pop(cur_offset_and_size)
 
362
                yield cur_offset_and_size[0], this_data
 
363
                cur_offset_and_size = offset_stack.next()
 
364
 
 
365
            # Now that we've read all of the data for this coalesced section
 
366
            # on to the next
 
367
            cur_coalesced = cur_coalesced_stack.next()
353
368
 
354
369
    def put(self, relpath, f, mode=None):
355
370
        """
359
374
        :param f:       File-like or string object.
360
375
        :param mode: The final mode for the file
361
376
        """
362
 
        final_path = self._abspath(relpath)
 
377
        final_path = self._remote_path(relpath)
363
378
        self._put(final_path, f, mode=mode)
364
379
 
365
380
    def _put(self, abspath, f, mode=None):
378
393
                self._sftp.chmod(tmp_abspath, mode)
379
394
            fout.close()
380
395
            closed = True
381
 
            self._rename(tmp_abspath, abspath)
 
396
            self._rename_and_overwrite(tmp_abspath, abspath)
382
397
        except Exception, e:
383
398
            # If we fail, try to clean up the temporary file
384
399
            # before we throw the exception
401
416
        """Walk the relative paths of all files in this transport."""
402
417
        queue = list(self.list_dir('.'))
403
418
        while queue:
404
 
            relpath = urllib.quote(queue.pop(0))
 
419
            relpath = queue.pop(0)
405
420
            st = self.stat(relpath)
406
421
            if stat.S_ISDIR(st.st_mode):
407
422
                for i, basename in enumerate(self.list_dir(relpath)):
411
426
 
412
427
    def mkdir(self, relpath, mode=None):
413
428
        """Create a directory at the given path."""
 
429
        path = self._remote_path(relpath)
414
430
        try:
415
 
            path = self._abspath(relpath)
416
431
            # In the paramiko documentation, it says that passing a mode flag 
417
432
            # will filtered against the server umask.
418
433
            # StubSFTPServer does not do this, which would be nice, because it is
425
440
            self._translate_io_exception(e, path, ': unable to mkdir',
426
441
                failure_exc=FileExists)
427
442
 
428
 
    def _translate_io_exception(self, e, path, more_info='', failure_exc=NoSuchFile):
 
443
    def _translate_io_exception(self, e, path, more_info='', 
 
444
                                failure_exc=PathError):
429
445
        """Translate a paramiko or IOError into a friendlier exception.
430
446
 
431
447
        :param e: The original exception
435
451
        :param failure_exc: Paramiko has the super fun ability to raise completely
436
452
                           opaque errors that just set "e.args = ('Failure',)" with
437
453
                           no more information.
438
 
                           This sometimes means FileExists, but it also sometimes
439
 
                           means NoSuchFile
 
454
                           If this parameter is set, it defines the exception 
 
455
                           to raise in these cases.
440
456
        """
441
457
        # paramiko seems to generate detailless errors.
442
458
        self._translate_error(e, path, raise_generic=False)
454
470
            mutter('Raising exception with errno %s', e.errno)
455
471
        raise e
456
472
 
457
 
    def append(self, relpath, f):
 
473
    def append(self, relpath, f, mode=None):
458
474
        """
459
475
        Append the text in the file-like object into the final
460
476
        location.
461
477
        """
462
478
        try:
463
 
            path = self._abspath(relpath)
 
479
            path = self._remote_path(relpath)
464
480
            fout = self._sftp.file(path, 'ab')
 
481
            if mode is not None:
 
482
                self._sftp.chmod(path, mode)
 
483
            result = fout.tell()
465
484
            self._pump(f, fout)
 
485
            return result
466
486
        except (IOError, paramiko.SSHException), e:
467
487
            self._translate_io_exception(e, relpath, ': unable to append')
468
488
 
469
 
    def copy(self, rel_from, rel_to):
470
 
        """Copy the item at rel_from to the location at rel_to"""
471
 
        path_from = self._abspath(rel_from)
472
 
        path_to = self._abspath(rel_to)
473
 
        self._copy_abspaths(path_from, path_to)
474
 
 
475
 
    def _copy_abspaths(self, path_from, path_to, mode=None):
476
 
        """Copy files given an absolute path
477
 
 
478
 
        :param path_from: Path on remote server to read
479
 
        :param path_to: Path on remote server to write
480
 
        :return: None
481
 
 
482
 
        TODO: Should the destination location be atomically created?
483
 
              This has not been specified
484
 
        TODO: This should use some sort of remote copy, rather than
485
 
              pulling the data locally, and then writing it remotely
486
 
        """
 
489
    def rename(self, rel_from, rel_to):
 
490
        """Rename without special overwriting"""
487
491
        try:
488
 
            fin = self._sftp.file(path_from, 'rb')
489
 
            try:
490
 
                self._put(path_to, fin, mode=mode)
491
 
            finally:
492
 
                fin.close()
 
492
            self._sftp.rename(self._remote_path(rel_from),
 
493
                              self._remote_path(rel_to))
493
494
        except (IOError, paramiko.SSHException), e:
494
 
            self._translate_io_exception(e, path_from, ': unable copy to: %r' % path_to)
495
 
 
496
 
    def copy_to(self, relpaths, other, mode=None, pb=None):
497
 
        """Copy a set of entries from self into another Transport.
498
 
 
499
 
        :param relpaths: A list/generator of entries to be copied.
500
 
        """
501
 
        if isinstance(other, SFTPTransport) and other._sftp is self._sftp:
502
 
            # Both from & to are on the same remote filesystem
503
 
            # We can use a remote copy, instead of pulling locally, and pushing
504
 
 
505
 
            total = self._get_total(relpaths)
506
 
            count = 0
507
 
            for path in relpaths:
508
 
                path_from = self._abspath(relpath)
509
 
                path_to = other._abspath(relpath)
510
 
                self._update_pb(pb, 'copy-to', count, total)
511
 
                self._copy_abspaths(path_from, path_to, mode=mode)
512
 
                count += 1
513
 
            return count
514
 
        else:
515
 
            return super(SFTPTransport, self).copy_to(relpaths, other, mode=mode, pb=pb)
516
 
 
517
 
    def _rename(self, abs_from, abs_to):
 
495
            self._translate_io_exception(e, rel_from,
 
496
                    ': unable to rename to %r' % (rel_to))
 
497
 
 
498
    def _rename_and_overwrite(self, abs_from, abs_to):
518
499
        """Do a fancy rename on the remote server.
519
500
        
520
501
        Using the implementation provided by osutils.
528
509
 
529
510
    def move(self, rel_from, rel_to):
530
511
        """Move the item at rel_from to the location at rel_to"""
531
 
        path_from = self._abspath(rel_from)
532
 
        path_to = self._abspath(rel_to)
533
 
        self._rename(path_from, path_to)
 
512
        path_from = self._remote_path(rel_from)
 
513
        path_to = self._remote_path(rel_to)
 
514
        self._rename_and_overwrite(path_from, path_to)
534
515
 
535
516
    def delete(self, relpath):
536
517
        """Delete the item at relpath"""
537
 
        path = self._abspath(relpath)
 
518
        path = self._remote_path(relpath)
538
519
        try:
539
520
            self._sftp.remove(path)
540
521
        except (IOError, paramiko.SSHException), e:
549
530
        Return a list of all files at the given location.
550
531
        """
551
532
        # does anything actually use this?
552
 
        path = self._abspath(relpath)
 
533
        # -- Unknown
 
534
        # This is at least used by copy_tree for remote upgrades.
 
535
        # -- David Allouche 2006-08-11
 
536
        path = self._remote_path(relpath)
553
537
        try:
554
 
            return self._sftp.listdir(path)
 
538
            entries = self._sftp.listdir(path)
555
539
        except (IOError, paramiko.SSHException), e:
556
540
            self._translate_io_exception(e, path, ': failed to list_dir')
 
541
        return [urlutils.escape(entry) for entry in entries]
 
542
 
 
543
    def rmdir(self, relpath):
 
544
        """See Transport.rmdir."""
 
545
        path = self._remote_path(relpath)
 
546
        try:
 
547
            return self._sftp.rmdir(path)
 
548
        except (IOError, paramiko.SSHException), e:
 
549
            self._translate_io_exception(e, path, ': failed to rmdir')
557
550
 
558
551
    def stat(self, relpath):
559
552
        """Return the stat information for a file."""
560
 
        path = self._abspath(relpath)
 
553
        path = self._remote_path(relpath)
561
554
        try:
562
555
            return self._sftp.stat(path)
563
556
        except (IOError, paramiko.SSHException), e:
589
582
        # that we have taken the lock.
590
583
        return SFTPLock(relpath, self)
591
584
 
592
 
 
593
585
    def _unparse_url(self, path=None):
594
586
        if path is None:
595
587
            path = self._path
596
588
        path = urllib.quote(path)
597
 
        if path.startswith('/'):
598
 
            path = '/%2F' + path[1:]
599
 
        else:
600
 
            path = '/' + path
 
589
        # handle homedir paths
 
590
        if not path.startswith('/'):
 
591
            path = "/~/" + path
601
592
        netloc = urllib.quote(self._host)
602
593
        if self._username is not None:
603
594
            netloc = '%s@%s' % (urllib.quote(self._username), netloc)
604
595
        if self._port is not None:
605
596
            netloc = '%s:%d' % (netloc, self._port)
606
 
 
607
597
        return urlparse.urlunparse(('sftp', netloc, path, '', '', ''))
608
598
 
609
599
    def _split_url(self, url):
610
 
        if isinstance(url, unicode):
611
 
            url = url.encode('utf-8')
612
 
        (scheme, netloc, path, params,
613
 
         query, fragment) = urlparse.urlparse(url, allow_fragments=False)
 
600
        (scheme, username, password, host, port, path) = split_url(url)
614
601
        assert scheme == 'sftp'
615
 
        username = password = host = port = None
616
 
        if '@' in netloc:
617
 
            username, host = netloc.split('@', 1)
618
 
            if ':' in username:
619
 
                username, password = username.split(':', 1)
620
 
                password = urllib.unquote(password)
621
 
            username = urllib.unquote(username)
622
 
        else:
623
 
            host = netloc
624
 
 
625
 
        if ':' in host:
626
 
            host, port = host.rsplit(':', 1)
627
 
            try:
628
 
                port = int(port)
629
 
            except ValueError:
630
 
                # TODO: Should this be ConnectionError?
631
 
                raise TransportError('%s: invalid port number' % port)
632
 
        host = urllib.unquote(host)
633
 
 
634
 
        path = urllib.unquote(path)
635
602
 
636
603
        # the initial slash should be removed from the path, and treated
637
604
        # as a homedir relative path (the path begins with a double slash
638
605
        # if it is absolute).
639
606
        # see draft-ietf-secsh-scp-sftp-ssh-uri-03.txt
640
 
        if path.startswith('/'):
641
 
            path = path[1:]
642
 
 
 
607
        # RBC 20060118 we are not using this as its too user hostile. instead
 
608
        # we are following lftp and using /~/foo to mean '~/foo'.
 
609
        # handle homedir paths
 
610
        if path.startswith('/~/'):
 
611
            path = path[3:]
 
612
        elif path == '/~':
 
613
            path = ''
643
614
        return (username, password, host, port, path)
644
615
 
645
616
    def _parse_url(self, url):
653
624
 
654
625
        TODO: Raise a more reasonable ConnectionFailed exception
655
626
        """
656
 
        global _connected_hosts
657
 
 
658
 
        idx = (self._host, self._port, self._username)
659
 
        try:
660
 
            self._sftp = _connected_hosts[idx]
661
 
            return
662
 
        except KeyError:
663
 
            pass
664
 
        
665
 
        vendor = _get_ssh_vendor()
666
 
        if vendor != 'none':
667
 
            sock = SFTPSubprocess(self._host, self._port, self._username)
668
 
            self._sftp = SFTPClient(sock)
669
 
        else:
670
 
            self._paramiko_connect()
671
 
 
672
 
        _connected_hosts[idx] = self._sftp
673
 
 
674
 
    def _paramiko_connect(self):
675
 
        global SYSTEM_HOSTKEYS, BZR_HOSTKEYS
676
 
        
677
 
        load_host_keys()
678
 
 
679
 
        try:
680
 
            t = paramiko.Transport((self._host, self._port or 22))
681
 
            t.start_client()
682
 
        except paramiko.SSHException, e:
683
 
            raise ConnectionError('Unable to reach SSH host %s:%d' %
684
 
                                  (self._host, self._port), e)
685
 
            
686
 
        server_key = t.get_remote_server_key()
687
 
        server_key_hex = paramiko.util.hexify(server_key.get_fingerprint())
688
 
        keytype = server_key.get_name()
689
 
        if SYSTEM_HOSTKEYS.has_key(self._host) and SYSTEM_HOSTKEYS[self._host].has_key(keytype):
690
 
            our_server_key = SYSTEM_HOSTKEYS[self._host][keytype]
691
 
            our_server_key_hex = paramiko.util.hexify(our_server_key.get_fingerprint())
692
 
        elif BZR_HOSTKEYS.has_key(self._host) and BZR_HOSTKEYS[self._host].has_key(keytype):
693
 
            our_server_key = BZR_HOSTKEYS[self._host][keytype]
694
 
            our_server_key_hex = paramiko.util.hexify(our_server_key.get_fingerprint())
695
 
        else:
696
 
            warning('Adding %s host key for %s: %s' % (keytype, self._host, server_key_hex))
697
 
            if not BZR_HOSTKEYS.has_key(self._host):
698
 
                BZR_HOSTKEYS[self._host] = {}
699
 
            BZR_HOSTKEYS[self._host][keytype] = server_key
700
 
            our_server_key = server_key
701
 
            our_server_key_hex = paramiko.util.hexify(our_server_key.get_fingerprint())
702
 
            save_host_keys()
703
 
        if server_key != our_server_key:
704
 
            filename1 = os.path.expanduser('~/.ssh/known_hosts')
705
 
            filename2 = pathjoin(config_dir(), 'ssh_host_keys')
706
 
            raise TransportError('Host keys for %s do not match!  %s != %s' % \
707
 
                (self._host, our_server_key_hex, server_key_hex),
708
 
                ['Try editing %s or %s' % (filename1, filename2)])
709
 
 
710
 
        self._sftp_auth(t)
711
 
        
712
 
        try:
713
 
            self._sftp = t.open_sftp_client()
714
 
        except paramiko.SSHException, e:
715
 
            raise ConnectionError('Unable to start sftp client %s:%d' %
716
 
                                  (self._host, self._port), e)
717
 
 
718
 
    def _sftp_auth(self, transport):
719
 
        # paramiko requires a username, but it might be none if nothing was supplied
720
 
        # use the local username, just in case.
721
 
        # We don't override self._username, because if we aren't using paramiko,
722
 
        # the username might be specified in ~/.ssh/config and we don't want to
723
 
        # force it to something else
724
 
        # Also, it would mess up the self.relpath() functionality
725
 
        username = self._username or getpass.getuser()
726
 
 
727
 
        # Paramiko tries to open a socket.AF_UNIX in order to connect
728
 
        # to ssh-agent. That attribute doesn't exist on win32 (it does in cygwin)
729
 
        # so we get an AttributeError exception. For now, just don't try to
730
 
        # connect to an agent if we are on win32
731
 
        if sys.platform != 'win32':
732
 
            agent = paramiko.Agent()
733
 
            for key in agent.get_keys():
734
 
                mutter('Trying SSH agent key %s' % paramiko.util.hexify(key.get_fingerprint()))
735
 
                try:
736
 
                    transport.auth_publickey(username, key)
737
 
                    return
738
 
                except paramiko.SSHException, e:
739
 
                    pass
740
 
        
741
 
        # okay, try finding id_rsa or id_dss?  (posix only)
742
 
        if self._try_pkey_auth(transport, paramiko.RSAKey, username, 'id_rsa'):
743
 
            return
744
 
        if self._try_pkey_auth(transport, paramiko.DSSKey, username, 'id_dsa'):
745
 
            return
746
 
 
747
 
 
748
 
        if self._password:
749
 
            try:
750
 
                transport.auth_password(username, self._password)
751
 
                return
752
 
            except paramiko.SSHException, e:
753
 
                pass
754
 
 
755
 
            # FIXME: Don't keep a password held in memory if you can help it
756
 
            #self._password = None
757
 
 
758
 
        # give up and ask for a password
759
 
        password = bzrlib.ui.ui_factory.get_password(
760
 
                prompt='SSH %(user)s@%(host)s password',
761
 
                user=username, host=self._host)
762
 
        try:
763
 
            transport.auth_password(username, password)
764
 
        except paramiko.SSHException, e:
765
 
            raise ConnectionError('Unable to authenticate to SSH host as %s@%s' %
766
 
                                  (username, self._host), e)
767
 
 
768
 
    def _try_pkey_auth(self, transport, pkey_class, username, filename):
769
 
        filename = os.path.expanduser('~/.ssh/' + filename)
770
 
        try:
771
 
            key = pkey_class.from_private_key_file(filename)
772
 
            transport.auth_publickey(username, key)
773
 
            return True
774
 
        except paramiko.PasswordRequiredException:
775
 
            password = bzrlib.ui.ui_factory.get_password(
776
 
                    prompt='SSH %(filename)s password',
777
 
                    filename=filename)
778
 
            try:
779
 
                key = pkey_class.from_private_key_file(filename, password)
780
 
                transport.auth_publickey(username, key)
781
 
                return True
782
 
            except paramiko.SSHException:
783
 
                mutter('SSH authentication via %s key failed.' % (os.path.basename(filename),))
784
 
        except paramiko.SSHException:
785
 
            mutter('SSH authentication via %s key failed.' % (os.path.basename(filename),))
786
 
        except IOError:
787
 
            pass
788
 
        return False
 
627
        self._sftp = _sftp_connect(self._host, self._port, self._username,
 
628
                self._password)
789
629
 
790
630
    def _sftp_open_exclusive(self, abspath, mode=None):
791
631
        """Open a remote path exclusively.
802
642
        :param mode: The mode permissions bits for the new file
803
643
        """
804
644
        path = self._sftp._adjust_cwd(abspath)
 
645
        # mutter('sftp abspath %s => %s', abspath, path)
805
646
        attr = SFTPAttributes()
806
647
        if mode is not None:
807
648
            attr.st_mode = mode
817
658
            self._translate_io_exception(e, abspath, ': unable to open',
818
659
                failure_exc=FileExists)
819
660
 
 
661
 
 
662
# ------------- server test implementation --------------
 
663
import threading
 
664
 
 
665
from bzrlib.tests.stub_sftp import StubServer, StubSFTPServer
 
666
 
 
667
STUB_SERVER_KEY = """
 
668
-----BEGIN RSA PRIVATE KEY-----
 
669
MIICWgIBAAKBgQDTj1bqB4WmayWNPB+8jVSYpZYk80Ujvj680pOTh2bORBjbIAyz
 
670
oWGW+GUjzKxTiiPvVmxFgx5wdsFvF03v34lEVVhMpouqPAYQ15N37K/ir5XY+9m/
 
671
d8ufMCkjeXsQkKqFbAlQcnWMCRnOoPHS3I4vi6hmnDDeeYTSRvfLbW0fhwIBIwKB
 
672
gBIiOqZYaoqbeD9OS9z2K9KR2atlTxGxOJPXiP4ESqP3NVScWNwyZ3NXHpyrJLa0
 
673
EbVtzsQhLn6rF+TzXnOlcipFvjsem3iYzCpuChfGQ6SovTcOjHV9z+hnpXvQ/fon
 
674
soVRZY65wKnF7IAoUwTmJS9opqgrN6kRgCd3DASAMd1bAkEA96SBVWFt/fJBNJ9H
 
675
tYnBKZGw0VeHOYmVYbvMSstssn8un+pQpUm9vlG/bp7Oxd/m+b9KWEh2xPfv6zqU
 
676
avNwHwJBANqzGZa/EpzF4J8pGti7oIAPUIDGMtfIcmqNXVMckrmzQ2vTfqtkEZsA
 
677
4rE1IERRyiJQx6EJsz21wJmGV9WJQ5kCQQDwkS0uXqVdFzgHO6S++tjmjYcxwr3g
 
678
H0CoFYSgbddOT6miqRskOQF3DZVkJT3kyuBgU2zKygz52ukQZMqxCb1fAkASvuTv
 
679
qfpH87Qq5kQhNKdbbwbmd2NxlNabazPijWuphGTdW0VfJdWfklyS2Kr+iqrs/5wV
 
680
HhathJt636Eg7oIjAkA8ht3MQ+XSl9yIJIS8gVpbPxSw5OMfw0PjVE7tBdQruiSc
 
681
nvuQES5C9BMHjF39LZiGH1iLQy7FgdHyoP+eodI7
 
682
-----END RSA PRIVATE KEY-----
 
683
"""
 
684
 
 
685
 
 
686
class SocketListener(threading.Thread):
 
687
 
 
688
    def __init__(self, callback):
 
689
        threading.Thread.__init__(self)
 
690
        self._callback = callback
 
691
        self._socket = socket.socket()
 
692
        self._socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
 
693
        self._socket.bind(('localhost', 0))
 
694
        self._socket.listen(1)
 
695
        self.port = self._socket.getsockname()[1]
 
696
        self._stop_event = threading.Event()
 
697
 
 
698
    def stop(self):
 
699
        # called from outside this thread
 
700
        self._stop_event.set()
 
701
        # use a timeout here, because if the test fails, the server thread may
 
702
        # never notice the stop_event.
 
703
        self.join(5.0)
 
704
        self._socket.close()
 
705
 
 
706
    def run(self):
 
707
        while True:
 
708
            readable, writable_unused, exception_unused = \
 
709
                select.select([self._socket], [], [], 0.1)
 
710
            if self._stop_event.isSet():
 
711
                return
 
712
            if len(readable) == 0:
 
713
                continue
 
714
            try:
 
715
                s, addr_unused = self._socket.accept()
 
716
                # because the loopback socket is inline, and transports are
 
717
                # never explicitly closed, best to launch a new thread.
 
718
                threading.Thread(target=self._callback, args=(s,)).start()
 
719
            except socket.error, x:
 
720
                sys.excepthook(*sys.exc_info())
 
721
                warning('Socket error during accept() within unit test server'
 
722
                        ' thread: %r' % x)
 
723
            except Exception, x:
 
724
                # probably a failed test; unit test thread will log the
 
725
                # failure/error
 
726
                sys.excepthook(*sys.exc_info())
 
727
                warning('Exception from within unit test server thread: %r' % 
 
728
                        x)
 
729
 
 
730
 
 
731
class SocketDelay(object):
 
732
    """A socket decorator to make TCP appear slower.
 
733
 
 
734
    This changes recv, send, and sendall to add a fixed latency to each python
 
735
    call if a new roundtrip is detected. That is, when a recv is called and the
 
736
    flag new_roundtrip is set, latency is charged. Every send and send_all
 
737
    sets this flag.
 
738
 
 
739
    In addition every send, sendall and recv sleeps a bit per character send to
 
740
    simulate bandwidth.
 
741
 
 
742
    Not all methods are implemented, this is deliberate as this class is not a
 
743
    replacement for the builtin sockets layer. fileno is not implemented to
 
744
    prevent the proxy being bypassed. 
 
745
    """
 
746
 
 
747
    simulated_time = 0
 
748
    _proxied_arguments = dict.fromkeys([
 
749
        "close", "getpeername", "getsockname", "getsockopt", "gettimeout",
 
750
        "setblocking", "setsockopt", "settimeout", "shutdown"])
 
751
 
 
752
    def __init__(self, sock, latency, bandwidth=1.0, 
 
753
                 really_sleep=True):
 
754
        """ 
 
755
        :param bandwith: simulated bandwith (MegaBit)
 
756
        :param really_sleep: If set to false, the SocketDelay will just
 
757
        increase a counter, instead of calling time.sleep. This is useful for
 
758
        unittesting the SocketDelay.
 
759
        """
 
760
        self.sock = sock
 
761
        self.latency = latency
 
762
        self.really_sleep = really_sleep
 
763
        self.time_per_byte = 1 / (bandwidth / 8.0 * 1024 * 1024) 
 
764
        self.new_roundtrip = False
 
765
 
 
766
    def sleep(self, s):
 
767
        if self.really_sleep:
 
768
            time.sleep(s)
 
769
        else:
 
770
            SocketDelay.simulated_time += s
 
771
 
 
772
    def __getattr__(self, attr):
 
773
        if attr in SocketDelay._proxied_arguments:
 
774
            return getattr(self.sock, attr)
 
775
        raise AttributeError("'SocketDelay' object has no attribute %r" %
 
776
                             attr)
 
777
 
 
778
    def dup(self):
 
779
        return SocketDelay(self.sock.dup(), self.latency, self.time_per_byte,
 
780
                           self._sleep)
 
781
 
 
782
    def recv(self, *args):
 
783
        data = self.sock.recv(*args)
 
784
        if data and self.new_roundtrip:
 
785
            self.new_roundtrip = False
 
786
            self.sleep(self.latency)
 
787
        self.sleep(len(data) * self.time_per_byte)
 
788
        return data
 
789
 
 
790
    def sendall(self, data, flags=0):
 
791
        if not self.new_roundtrip:
 
792
            self.new_roundtrip = True
 
793
            self.sleep(self.latency)
 
794
        self.sleep(len(data) * self.time_per_byte)
 
795
        return self.sock.sendall(data, flags)
 
796
 
 
797
    def send(self, data, flags=0):
 
798
        if not self.new_roundtrip:
 
799
            self.new_roundtrip = True
 
800
            self.sleep(self.latency)
 
801
        bytes_sent = self.sock.send(data, flags)
 
802
        self.sleep(bytes_sent * self.time_per_byte)
 
803
        return bytes_sent
 
804
 
 
805
 
 
806
class SFTPServer(Server):
 
807
    """Common code for SFTP server facilities."""
 
808
 
 
809
    def __init__(self):
 
810
        self._original_vendor = None
 
811
        self._homedir = None
 
812
        self._server_homedir = None
 
813
        self._listener = None
 
814
        self._root = None
 
815
        self._vendor = ssh.ParamikoVendor()
 
816
        # sftp server logs
 
817
        self.logs = []
 
818
        self.add_latency = 0
 
819
 
 
820
    def _get_sftp_url(self, path):
 
821
        """Calculate an sftp url to this server for path."""
 
822
        return 'sftp://foo:bar@localhost:%d/%s' % (self._listener.port, path)
 
823
 
 
824
    def log(self, message):
 
825
        """StubServer uses this to log when a new server is created."""
 
826
        self.logs.append(message)
 
827
 
 
828
    def _run_server_entry(self, sock):
 
829
        """Entry point for all implementations of _run_server.
 
830
        
 
831
        If self.add_latency is > 0.000001 then sock is given a latency adding
 
832
        decorator.
 
833
        """
 
834
        if self.add_latency > 0.000001:
 
835
            sock = SocketDelay(sock, self.add_latency)
 
836
        return self._run_server(sock)
 
837
 
 
838
    def _run_server(self, s):
 
839
        ssh_server = paramiko.Transport(s)
 
840
        key_file = pathjoin(self._homedir, 'test_rsa.key')
 
841
        f = open(key_file, 'w')
 
842
        f.write(STUB_SERVER_KEY)
 
843
        f.close()
 
844
        host_key = paramiko.RSAKey.from_private_key_file(key_file)
 
845
        ssh_server.add_server_key(host_key)
 
846
        server = StubServer(self)
 
847
        ssh_server.set_subsystem_handler('sftp', paramiko.SFTPServer,
 
848
                                         StubSFTPServer, root=self._root,
 
849
                                         home=self._server_homedir)
 
850
        event = threading.Event()
 
851
        ssh_server.start_server(event, server)
 
852
        event.wait(5.0)
 
853
    
 
854
    def setUp(self):
 
855
        self._original_vendor = ssh._ssh_vendor
 
856
        ssh._ssh_vendor = self._vendor
 
857
        if sys.platform == 'win32':
 
858
            # Win32 needs to use the UNICODE api
 
859
            self._homedir = getcwd()
 
860
        else:
 
861
            # But Linux SFTP servers should just deal in bytestreams
 
862
            self._homedir = os.getcwd()
 
863
        if self._server_homedir is None:
 
864
            self._server_homedir = self._homedir
 
865
        self._root = '/'
 
866
        if sys.platform == 'win32':
 
867
            self._root = ''
 
868
        self._listener = SocketListener(self._run_server_entry)
 
869
        self._listener.setDaemon(True)
 
870
        self._listener.start()
 
871
 
 
872
    def tearDown(self):
 
873
        """See bzrlib.transport.Server.tearDown."""
 
874
        self._listener.stop()
 
875
        ssh._ssh_vendor = self._original_vendor
 
876
 
 
877
    def get_bogus_url(self):
 
878
        """See bzrlib.transport.Server.get_bogus_url."""
 
879
        # this is chosen to try to prevent trouble with proxies, wierd dns, etc
 
880
        # we bind a random socket, so that we get a guaranteed unused port
 
881
        # we just never listen on that port
 
882
        s = socket.socket()
 
883
        s.bind(('localhost', 0))
 
884
        return 'sftp://%s:%s/' % s.getsockname()
 
885
 
 
886
 
 
887
class SFTPFullAbsoluteServer(SFTPServer):
 
888
    """A test server for sftp transports, using absolute urls and ssh."""
 
889
 
 
890
    def get_url(self):
 
891
        """See bzrlib.transport.Server.get_url."""
 
892
        return self._get_sftp_url(urlutils.escape(self._homedir[1:]))
 
893
 
 
894
 
 
895
class SFTPServerWithoutSSH(SFTPServer):
 
896
    """An SFTP server that uses a simple TCP socket pair rather than SSH."""
 
897
 
 
898
    def __init__(self):
 
899
        super(SFTPServerWithoutSSH, self).__init__()
 
900
        self._vendor = ssh.LoopbackVendor()
 
901
 
 
902
    def _run_server(self, sock):
 
903
        # Re-import these as locals, so that they're still accessible during
 
904
        # interpreter shutdown (when all module globals get set to None, leading
 
905
        # to confusing errors like "'NoneType' object has no attribute 'error'".
 
906
        import socket, errno
 
907
        class FakeChannel(object):
 
908
            def get_transport(self):
 
909
                return self
 
910
            def get_log_channel(self):
 
911
                return 'paramiko'
 
912
            def get_name(self):
 
913
                return '1'
 
914
            def get_hexdump(self):
 
915
                return False
 
916
            def close(self):
 
917
                pass
 
918
 
 
919
        server = paramiko.SFTPServer(FakeChannel(), 'sftp', StubServer(self), StubSFTPServer,
 
920
                                     root=self._root, home=self._server_homedir)
 
921
        try:
 
922
            server.start_subsystem('sftp', None, sock)
 
923
        except socket.error, e:
 
924
            if (len(e.args) > 0) and (e.args[0] == errno.EPIPE):
 
925
                # it's okay for the client to disconnect abruptly
 
926
                # (bug in paramiko 1.6: it should absorb this exception)
 
927
                pass
 
928
            else:
 
929
                raise
 
930
        except Exception, e:
 
931
            import sys; sys.stderr.write('\nEXCEPTION %r\n\n' % e.__class__)
 
932
        server.finish_subsystem()
 
933
 
 
934
 
 
935
class SFTPAbsoluteServer(SFTPServerWithoutSSH):
 
936
    """A test server for sftp transports, using absolute urls."""
 
937
 
 
938
    def get_url(self):
 
939
        """See bzrlib.transport.Server.get_url."""
 
940
        if sys.platform == 'win32':
 
941
            return self._get_sftp_url(urlutils.escape(self._homedir))
 
942
        else:
 
943
            return self._get_sftp_url(urlutils.escape(self._homedir[1:]))
 
944
 
 
945
 
 
946
class SFTPHomeDirServer(SFTPServerWithoutSSH):
 
947
    """A test server for sftp transports, using homedir relative urls."""
 
948
 
 
949
    def get_url(self):
 
950
        """See bzrlib.transport.Server.get_url."""
 
951
        return self._get_sftp_url("~/")
 
952
 
 
953
 
 
954
class SFTPSiblingAbsoluteServer(SFTPAbsoluteServer):
 
955
    """A test servere for sftp transports, using absolute urls to non-home."""
 
956
 
 
957
    def setUp(self):
 
958
        self._server_homedir = '/dev/noone/runs/tests/here'
 
959
        super(SFTPSiblingAbsoluteServer, self).setUp()
 
960
 
 
961
 
 
962
def _sftp_connect(host, port, username, password):
 
963
    """Connect to the remote sftp server.
 
964
 
 
965
    :raises: a TransportError 'could not connect'.
 
966
 
 
967
    :returns: an paramiko.sftp_client.SFTPClient
 
968
 
 
969
    TODO: Raise a more reasonable ConnectionFailed exception
 
970
    """
 
971
    idx = (host, port, username)
 
972
    try:
 
973
        return _connected_hosts[idx]
 
974
    except KeyError:
 
975
        pass
 
976
    
 
977
    sftp = _sftp_connect_uncached(host, port, username, password)
 
978
    _connected_hosts[idx] = sftp
 
979
    return sftp
 
980
 
 
981
def _sftp_connect_uncached(host, port, username, password):
 
982
    vendor = ssh._get_ssh_vendor()
 
983
    sftp = vendor.connect_sftp(username, password, host, port)
 
984
    return sftp
 
985
 
 
986
 
 
987
def get_test_permutations():
 
988
    """Return the permutations to be used in testing."""
 
989
    return [(SFTPTransport, SFTPAbsoluteServer),
 
990
            (SFTPTransport, SFTPHomeDirServer),
 
991
            (SFTPTransport, SFTPSiblingAbsoluteServer),
 
992
            ]