~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/transport/sftp.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2006-03-22 12:17:00 UTC
  • mfrom: (1616.1.10 bzr.mbp.integration)
  • Revision ID: pqm@pqm.ubuntu.com-20060322121700-79ce0be81013aba1
(mbp) pycurl fixes, other fixes, weave commands, verbose commit changes from robert

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005 Robey Pointer <robey@lag.net>
2
 
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
3
 
#
 
1
# Copyright (C) 2005 Robey Pointer <robey@lag.net>, Canonical Ltd
 
2
 
4
3
# This program is free software; you can redistribute it and/or modify
5
4
# it under the terms of the GNU General Public License as published by
6
5
# the Free Software Foundation; either version 2 of the License, or
7
6
# (at your option) any later version.
8
 
#
 
7
 
9
8
# This program is distributed in the hope that it will be useful,
10
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
11
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12
11
# GNU General Public License for more details.
13
 
#
 
12
 
14
13
# You should have received a copy of the GNU General Public License
15
14
# along with this program; if not, write to the Free Software
16
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
17
16
 
18
17
"""Implementation of Transport over SFTP, using paramiko."""
19
18
 
20
 
# TODO: Remove the transport-based lock_read and lock_write methods.  They'll
21
 
# then raise TransportNotPossible, which will break remote access to any
22
 
# formats which rely on OS-level locks.  That should be fine as those formats
23
 
# are pretty old, but these combinations may have to be removed from the test
24
 
# suite.  Those formats all date back to 0.7; so we should be able to remove
25
 
# these methods when we officially drop support for those formats.
26
 
 
27
19
import errno
 
20
import getpass
28
21
import os
29
22
import random
30
 
import select
31
 
import socket
 
23
import re
32
24
import stat
 
25
import subprocess
33
26
import sys
34
27
import time
35
28
import urllib
36
29
import urlparse
 
30
import weakref
37
31
 
38
 
from bzrlib import (
39
 
    errors,
40
 
    urlutils,
41
 
    )
42
 
from bzrlib.errors import (FileExists,
43
 
                           NoSuchFile, PathNotChild,
 
32
from bzrlib.config import config_dir, ensure_config_dir_exists
 
33
from bzrlib.errors import (ConnectionError,
 
34
                           FileExists, 
 
35
                           TransportNotPossible, NoSuchFile, PathNotChild,
44
36
                           TransportError,
45
 
                           LockError,
46
 
                           PathError,
47
 
                           ParamikoNotPresent,
 
37
                           LockError, ParamikoNotPresent
48
38
                           )
49
 
from bzrlib.osutils import pathjoin, fancy_rename, getcwd
50
 
from bzrlib.symbol_versioning import (
51
 
        deprecated_function,
52
 
        zero_nineteen,
53
 
        )
54
 
from bzrlib.trace import mutter, warning
55
 
from bzrlib.transport import (
56
 
    local,
57
 
    register_urlparse_netloc_protocol,
58
 
    Server,
59
 
    ssh,
60
 
    ConnectedTransport,
61
 
    )
 
39
from bzrlib.osutils import pathjoin, fancy_rename
 
40
from bzrlib.trace import mutter, warning, error
 
41
from bzrlib.transport import Transport, Server, urlescape
 
42
import bzrlib.ui
62
43
 
63
44
try:
64
45
    import paramiko
70
51
                               CMD_HANDLE, CMD_OPEN)
71
52
    from paramiko.sftp_attr import SFTPAttributes
72
53
    from paramiko.sftp_file import SFTPFile
73
 
 
74
 
 
75
 
register_urlparse_netloc_protocol('sftp')
76
 
 
77
 
 
78
 
_paramiko_version = getattr(paramiko, '__version_info__', (0, 0, 0))
79
 
# don't use prefetch unless paramiko version >= 1.5.5 (there were bugs earlier)
80
 
_default_do_prefetch = (_paramiko_version >= (1, 5, 5))
81
 
 
82
 
 
83
 
@deprecated_function(zero_nineteen)
84
 
def clear_connection_cache():
85
 
    """Remove all hosts from the SFTP connection cache.
86
 
 
87
 
    Primarily useful for test cases wanting to force garbage collection.
88
 
    We don't have a global connection cache anymore.
89
 
    """
 
54
    from paramiko.sftp_client import SFTPClient
 
55
 
 
56
if 'sftp' not in urlparse.uses_netloc:
 
57
    urlparse.uses_netloc.append('sftp')
 
58
 
 
59
# don't use prefetch unless paramiko version >= 1.5.2 (there were bugs earlier)
 
60
_default_do_prefetch = False
 
61
if getattr(paramiko, '__version_info__', (0, 0, 0)) >= (1, 5, 2):
 
62
    _default_do_prefetch = True
 
63
 
 
64
 
 
65
_close_fds = True
 
66
if sys.platform == 'win32':
 
67
    # close_fds not supported on win32
 
68
    _close_fds = False
 
69
 
 
70
_ssh_vendor = None
 
71
 
 
72
def _get_ssh_vendor():
 
73
    """Find out what version of SSH is on the system."""
 
74
    global _ssh_vendor
 
75
    if _ssh_vendor is not None:
 
76
        return _ssh_vendor
 
77
 
 
78
    _ssh_vendor = 'none'
 
79
 
 
80
    if 'BZR_SSH' in os.environ:
 
81
        _ssh_vendor = os.environ['BZR_SSH']
 
82
        if _ssh_vendor == 'paramiko':
 
83
            _ssh_vendor = 'none'
 
84
        return _ssh_vendor
 
85
 
 
86
    try:
 
87
        p = subprocess.Popen(['ssh', '-V'],
 
88
                             close_fds=_close_fds,
 
89
                             stdin=subprocess.PIPE,
 
90
                             stdout=subprocess.PIPE,
 
91
                             stderr=subprocess.PIPE)
 
92
        returncode = p.returncode
 
93
        stdout, stderr = p.communicate()
 
94
    except OSError:
 
95
        returncode = -1
 
96
        stdout = stderr = ''
 
97
    if 'OpenSSH' in stderr:
 
98
        mutter('ssh implementation is OpenSSH')
 
99
        _ssh_vendor = 'openssh'
 
100
    elif 'SSH Secure Shell' in stderr:
 
101
        mutter('ssh implementation is SSH Corp.')
 
102
        _ssh_vendor = 'ssh'
 
103
 
 
104
    if _ssh_vendor != 'none':
 
105
        return _ssh_vendor
 
106
 
 
107
    # XXX: 20051123 jamesh
 
108
    # A check for putty's plink or lsh would go here.
 
109
 
 
110
    mutter('falling back to paramiko implementation')
 
111
    return _ssh_vendor
 
112
 
 
113
 
 
114
class SFTPSubprocess:
 
115
    """A socket-like object that talks to an ssh subprocess via pipes."""
 
116
    def __init__(self, hostname, vendor, port=None, user=None):
 
117
        assert vendor in ['openssh', 'ssh']
 
118
        if vendor == 'openssh':
 
119
            args = ['ssh',
 
120
                    '-oForwardX11=no', '-oForwardAgent=no',
 
121
                    '-oClearAllForwardings=yes', '-oProtocol=2',
 
122
                    '-oNoHostAuthenticationForLocalhost=yes']
 
123
            if port is not None:
 
124
                args.extend(['-p', str(port)])
 
125
            if user is not None:
 
126
                args.extend(['-l', user])
 
127
            args.extend(['-s', hostname, 'sftp'])
 
128
        elif vendor == 'ssh':
 
129
            args = ['ssh', '-x']
 
130
            if port is not None:
 
131
                args.extend(['-p', str(port)])
 
132
            if user is not None:
 
133
                args.extend(['-l', user])
 
134
            args.extend(['-s', 'sftp', hostname])
 
135
 
 
136
        self.proc = subprocess.Popen(args, close_fds=_close_fds,
 
137
                                     stdin=subprocess.PIPE,
 
138
                                     stdout=subprocess.PIPE)
 
139
 
 
140
    def send(self, data):
 
141
        return os.write(self.proc.stdin.fileno(), data)
 
142
 
 
143
    def recv_ready(self):
 
144
        # TODO: jam 20051215 this function is necessary to support the
 
145
        # pipelined() function. In reality, it probably should use
 
146
        # poll() or select() to actually return if there is data
 
147
        # available, otherwise we probably don't get any benefit
 
148
        return True
 
149
 
 
150
    def recv(self, count):
 
151
        return os.read(self.proc.stdout.fileno(), count)
 
152
 
 
153
    def close(self):
 
154
        self.proc.stdin.close()
 
155
        self.proc.stdout.close()
 
156
        self.proc.wait()
 
157
 
 
158
 
 
159
class LoopbackSFTP(object):
 
160
    """Simple wrapper for a socket that pretends to be a paramiko Channel."""
 
161
 
 
162
    def __init__(self, sock):
 
163
        self.__socket = sock
 
164
 
 
165
    def send(self, data):
 
166
        return self.__socket.send(data)
 
167
 
 
168
    def recv(self, n):
 
169
        return self.__socket.recv(n)
 
170
 
 
171
    def recv_ready(self):
 
172
        return True
 
173
 
 
174
    def close(self):
 
175
        self.__socket.close()
 
176
 
 
177
 
 
178
SYSTEM_HOSTKEYS = {}
 
179
BZR_HOSTKEYS = {}
 
180
 
 
181
# This is a weakref dictionary, so that we can reuse connections
 
182
# that are still active. Long term, it might be nice to have some
 
183
# sort of expiration policy, such as disconnect if inactive for
 
184
# X seconds. But that requires a lot more fanciness.
 
185
_connected_hosts = weakref.WeakValueDictionary()
 
186
 
 
187
 
 
188
def load_host_keys():
 
189
    """
 
190
    Load system host keys (probably doesn't work on windows) and any
 
191
    "discovered" keys from previous sessions.
 
192
    """
 
193
    global SYSTEM_HOSTKEYS, BZR_HOSTKEYS
 
194
    try:
 
195
        SYSTEM_HOSTKEYS = paramiko.util.load_host_keys(os.path.expanduser('~/.ssh/known_hosts'))
 
196
    except Exception, e:
 
197
        mutter('failed to load system host keys: ' + str(e))
 
198
    bzr_hostkey_path = pathjoin(config_dir(), 'ssh_host_keys')
 
199
    try:
 
200
        BZR_HOSTKEYS = paramiko.util.load_host_keys(bzr_hostkey_path)
 
201
    except Exception, e:
 
202
        mutter('failed to load bzr host keys: ' + str(e))
 
203
        save_host_keys()
 
204
 
 
205
 
 
206
def save_host_keys():
 
207
    """
 
208
    Save "discovered" host keys in $(config)/ssh_host_keys/.
 
209
    """
 
210
    global SYSTEM_HOSTKEYS, BZR_HOSTKEYS
 
211
    bzr_hostkey_path = pathjoin(config_dir(), 'ssh_host_keys')
 
212
    ensure_config_dir_exists()
 
213
 
 
214
    try:
 
215
        f = open(bzr_hostkey_path, 'w')
 
216
        f.write('# SSH host keys collected by bzr\n')
 
217
        for hostname, keys in BZR_HOSTKEYS.iteritems():
 
218
            for keytype, key in keys.iteritems():
 
219
                f.write('%s %s %s\n' % (hostname, keytype, key.get_base64()))
 
220
        f.close()
 
221
    except IOError, e:
 
222
        mutter('failed to save bzr host keys: ' + str(e))
 
223
 
90
224
 
91
225
class SFTPLock(object):
92
 
    """This fakes a lock in a remote location.
93
 
    
94
 
    A present lock is indicated just by the existence of a file.  This
95
 
    doesn't work well on all transports and they are only used in 
96
 
    deprecated storage formats.
97
 
    """
98
 
    
 
226
    """This fakes a lock in a remote location."""
99
227
    __slots__ = ['path', 'lock_path', 'lock_file', 'transport']
100
 
 
101
228
    def __init__(self, path, transport):
102
229
        assert isinstance(transport, SFTPTransport)
103
230
 
129
256
            # What specific errors should we catch here?
130
257
            pass
131
258
 
132
 
 
133
 
class SFTPTransport(ConnectedTransport):
134
 
    """Transport implementation for SFTP access."""
135
 
 
 
259
class SFTPTransport (Transport):
 
260
    """
 
261
    Transport implementation for SFTP access.
 
262
    """
136
263
    _do_prefetch = _default_do_prefetch
137
 
    # TODO: jam 20060717 Conceivably these could be configurable, either
138
 
    #       by auto-tuning at run-time, or by a configuration (per host??)
139
 
    #       but the performance curve is pretty flat, so just going with
140
 
    #       reasonable defaults.
141
 
    _max_readv_combine = 200
142
 
    # Having to round trip to the server means waiting for a response,
143
 
    # so it is better to download extra bytes.
144
 
    # 8KiB had good performance for both local and remote network operations
145
 
    _bytes_to_read_before_seek = 8192
146
 
 
147
 
    # The sftp spec says that implementations SHOULD allow reads
148
 
    # to be at least 32K. paramiko.readv() does an async request
149
 
    # for the chunks. So we need to keep it within a single request
150
 
    # size for paramiko <= 1.6.1. paramiko 1.6.2 will probably chop
151
 
    # up the request itself, rather than us having to worry about it
152
 
    _max_request_size = 32768
153
 
 
154
 
    def __init__(self, base, from_transport=None):
 
264
 
 
265
    def __init__(self, base, clone_from=None):
155
266
        assert base.startswith('sftp://')
156
 
        super(SFTPTransport, self).__init__(base, from_transport)
157
 
 
 
267
        self._parse_url(base)
 
268
        base = self._unparse_url()
 
269
        if base[-1] != '/':
 
270
            base = base + '/'
 
271
        super(SFTPTransport, self).__init__(base)
 
272
        if clone_from is None:
 
273
            self._sftp_connect()
 
274
        else:
 
275
            # use the same ssh connection, etc
 
276
            self._sftp = clone_from._sftp
 
277
        # super saves 'self.base'
 
278
    
 
279
    def should_cache(self):
 
280
        """
 
281
        Return True if the data pulled across should be cached locally.
 
282
        """
 
283
        return True
 
284
 
 
285
    def clone(self, offset=None):
 
286
        """
 
287
        Return a new SFTPTransport with root at self.base + offset.
 
288
        We share the same SFTP session between such transports, because it's
 
289
        fairly expensive to set them up.
 
290
        """
 
291
        if offset is None:
 
292
            return SFTPTransport(self.base, self)
 
293
        else:
 
294
            return SFTPTransport(self.abspath(offset), self)
 
295
 
 
296
    def abspath(self, relpath):
 
297
        """
 
298
        Return the full url to the given relative path.
 
299
        
 
300
        @param relpath: the relative path or path components
 
301
        @type relpath: str or list
 
302
        """
 
303
        return self._unparse_url(self._remote_path(relpath))
 
304
    
158
305
    def _remote_path(self, relpath):
159
306
        """Return the path to be passed along the sftp protocol for relpath.
160
307
        
161
 
        :param relpath: is a urlencoded string.
162
 
        """
163
 
        relative = urlutils.unescape(relpath).encode('utf-8')
164
 
        remote_path = self._combine_paths(self._path, relative)
165
 
        # the initial slash should be removed from the path, and treated as a
166
 
        # homedir relative path (the path begins with a double slash if it is
167
 
        # absolute).  see draft-ietf-secsh-scp-sftp-ssh-uri-03.txt
168
 
        # RBC 20060118 we are not using this as its too user hostile. instead
169
 
        # we are following lftp and using /~/foo to mean '~/foo'
170
 
        # vila--20070602 and leave absolute paths begin with a single slash.
171
 
        if remote_path.startswith('/~/'):
172
 
            remote_path = remote_path[3:]
173
 
        elif remote_path == '/~':
174
 
            remote_path = ''
175
 
        return remote_path
176
 
 
177
 
    def _create_connection(self, credentials=None):
178
 
        """Create a new connection with the provided credentials.
179
 
 
180
 
        :param credentials: The credentials needed to establish the connection.
181
 
 
182
 
        :return: The created connection and its associated credentials.
183
 
 
184
 
        The credentials are only the password as it may have been entered
185
 
        interactively by the user and may be different from the one provided
186
 
        in base url at transport creation time.
187
 
        """
188
 
        if credentials is None:
189
 
            password = self._password
190
 
        else:
191
 
            password = credentials
192
 
 
193
 
        vendor = ssh._get_ssh_vendor()
194
 
        connection = vendor.connect_sftp(self._user, password,
195
 
                                         self._host, self._port)
196
 
        return connection, password
197
 
 
198
 
    def _get_sftp(self):
199
 
        """Ensures that a connection is established"""
200
 
        connection = self._get_connection()
201
 
        if connection is None:
202
 
            # First connection ever
203
 
            connection, credentials = self._create_connection()
204
 
            self._set_connection(connection, credentials)
205
 
        return connection
206
 
 
207
 
 
208
 
    def should_cache(self):
209
 
        """
210
 
        Return True if the data pulled across should be cached locally.
211
 
        """
212
 
        return True
 
308
        relpath is a urlencoded string.
 
309
        """
 
310
        # FIXME: share the common code across transports
 
311
        assert isinstance(relpath, basestring)
 
312
        relpath = urllib.unquote(relpath).split('/')
 
313
        basepath = self._path.split('/')
 
314
        if len(basepath) > 0 and basepath[-1] == '':
 
315
            basepath = basepath[:-1]
 
316
 
 
317
        for p in relpath:
 
318
            if p == '..':
 
319
                if len(basepath) == 0:
 
320
                    # In most filesystems, a request for the parent
 
321
                    # of root, just returns root.
 
322
                    continue
 
323
                basepath.pop()
 
324
            elif p == '.':
 
325
                continue # No-op
 
326
            else:
 
327
                basepath.append(p)
 
328
 
 
329
        path = '/'.join(basepath)
 
330
        return path
 
331
 
 
332
    def relpath(self, abspath):
 
333
        username, password, host, port, path = self._split_url(abspath)
 
334
        error = []
 
335
        if (username != self._username):
 
336
            error.append('username mismatch')
 
337
        if (host != self._host):
 
338
            error.append('host mismatch')
 
339
        if (port != self._port):
 
340
            error.append('port mismatch')
 
341
        if (not path.startswith(self._path)):
 
342
            error.append('path mismatch')
 
343
        if error:
 
344
            extra = ': ' + ', '.join(error)
 
345
            raise PathNotChild(abspath, self.base, extra=extra)
 
346
        pl = len(self._path)
 
347
        return path[pl:].strip('/')
213
348
 
214
349
    def has(self, relpath):
215
350
        """
216
351
        Does the target location exist?
217
352
        """
218
353
        try:
219
 
            self._get_sftp().stat(self._remote_path(relpath))
 
354
            self._sftp.stat(self._remote_path(relpath))
220
355
            return True
221
356
        except IOError:
222
357
            return False
229
364
        """
230
365
        try:
231
366
            path = self._remote_path(relpath)
232
 
            f = self._get_sftp().file(path, mode='rb')
 
367
            f = self._sftp.file(path, mode='rb')
233
368
            if self._do_prefetch and (getattr(f, 'prefetch', None) is not None):
234
369
                f.prefetch()
235
370
            return f
236
371
        except (IOError, paramiko.SSHException), e:
237
 
            self._translate_io_exception(e, path, ': error retrieving',
238
 
                failure_exc=errors.ReadError)
239
 
 
240
 
    def readv(self, relpath, offsets):
241
 
        """See Transport.readv()"""
242
 
        # We overload the default readv() because we want to use a file
243
 
        # that does not have prefetch enabled.
244
 
        # Also, if we have a new paramiko, it implements an async readv()
245
 
        if not offsets:
246
 
            return
247
 
 
248
 
        try:
249
 
            path = self._remote_path(relpath)
250
 
            fp = self._get_sftp().file(path, mode='rb')
251
 
            readv = getattr(fp, 'readv', None)
252
 
            if readv:
253
 
                return self._sftp_readv(fp, offsets, relpath)
254
 
            mutter('seek and read %s offsets', len(offsets))
255
 
            return self._seek_and_read(fp, offsets, relpath)
256
 
        except (IOError, paramiko.SSHException), e:
257
372
            self._translate_io_exception(e, path, ': error retrieving')
258
373
 
259
 
    def _sftp_readv(self, fp, offsets, relpath='<unknown>'):
260
 
        """Use the readv() member of fp to do async readv.
261
 
 
262
 
        And then read them using paramiko.readv(). paramiko.readv()
263
 
        does not support ranges > 64K, so it caps the request size, and
264
 
        just reads until it gets all the stuff it wants
265
 
        """
266
 
        offsets = list(offsets)
267
 
        sorted_offsets = sorted(offsets)
268
 
 
269
 
        # The algorithm works as follows:
270
 
        # 1) Coalesce nearby reads into a single chunk
271
 
        #    This generates a list of combined regions, the total size
272
 
        #    and the size of the sub regions. This coalescing step is limited
273
 
        #    in the number of nearby chunks to combine, and is allowed to
274
 
        #    skip small breaks in the requests. Limiting it makes sure that
275
 
        #    we can start yielding some data earlier, and skipping means we
276
 
        #    make fewer requests. (Beneficial even when using async)
277
 
        # 2) Break up this combined regions into chunks that are smaller
278
 
        #    than 64KiB. Technically the limit is 65536, but we are a
279
 
        #    little bit conservative. This is because sftp has a maximum
280
 
        #    return chunk size of 64KiB (max size of an unsigned short)
281
 
        # 3) Issue a readv() to paramiko to create an async request for
282
 
        #    all of this data
283
 
        # 4) Read in the data as it comes back, until we've read one
284
 
        #    continuous section as determined in step 1
285
 
        # 5) Break up the full sections into hunks for the original requested
286
 
        #    offsets. And put them in a cache
287
 
        # 6) Check if the next request is in the cache, and if it is, remove
288
 
        #    it from the cache, and yield its data. Continue until no more
289
 
        #    entries are in the cache.
290
 
        # 7) loop back to step 4 until all data has been read
291
 
        #
292
 
        # TODO: jam 20060725 This could be optimized one step further, by
293
 
        #       attempting to yield whatever data we have read, even before
294
 
        #       the first coallesced section has been fully processed.
295
 
 
296
 
        # When coalescing for use with readv(), we don't really need to
297
 
        # use any fudge factor, because the requests are made asynchronously
298
 
        coalesced = list(self._coalesce_offsets(sorted_offsets,
299
 
                               limit=self._max_readv_combine,
300
 
                               fudge_factor=0,
301
 
                               ))
302
 
        requests = []
303
 
        for c_offset in coalesced:
304
 
            start = c_offset.start
305
 
            size = c_offset.length
306
 
 
307
 
            # We need to break this up into multiple requests
308
 
            while size > 0:
309
 
                next_size = min(size, self._max_request_size)
310
 
                requests.append((start, next_size))
311
 
                size -= next_size
312
 
                start += next_size
313
 
 
314
 
        mutter('SFTP.readv() %s offsets => %s coalesced => %s requests',
315
 
                len(offsets), len(coalesced), len(requests))
316
 
 
317
 
        # Queue the current read until we have read the full coalesced section
318
 
        cur_data = []
319
 
        cur_data_len = 0
320
 
        cur_coalesced_stack = iter(coalesced)
321
 
        cur_coalesced = cur_coalesced_stack.next()
322
 
 
323
 
        # Cache the results, but only until they have been fulfilled
324
 
        data_map = {}
325
 
        # turn the list of offsets into a stack
326
 
        offset_stack = iter(offsets)
327
 
        cur_offset_and_size = offset_stack.next()
328
 
 
329
 
        for data in fp.readv(requests):
330
 
            cur_data += data
331
 
            cur_data_len += len(data)
332
 
 
333
 
            if cur_data_len < cur_coalesced.length:
334
 
                continue
335
 
            assert cur_data_len == cur_coalesced.length, \
336
 
                "Somehow we read too much: %s != %s" % (cur_data_len,
337
 
                                                        cur_coalesced.length)
338
 
            all_data = ''.join(cur_data)
339
 
            cur_data = []
340
 
            cur_data_len = 0
341
 
 
342
 
            for suboffset, subsize in cur_coalesced.ranges:
343
 
                key = (cur_coalesced.start+suboffset, subsize)
344
 
                data_map[key] = all_data[suboffset:suboffset+subsize]
345
 
 
346
 
            # Now that we've read some data, see if we can yield anything back
347
 
            while cur_offset_and_size in data_map:
348
 
                this_data = data_map.pop(cur_offset_and_size)
349
 
                yield cur_offset_and_size[0], this_data
350
 
                cur_offset_and_size = offset_stack.next()
351
 
 
352
 
            # We read a coalesced entry, so mark it as done
353
 
            cur_coalesced = None
354
 
            # Now that we've read all of the data for this coalesced section
355
 
            # on to the next
356
 
            cur_coalesced = cur_coalesced_stack.next()
357
 
 
358
 
        if cur_coalesced is not None:
359
 
            raise errors.ShortReadvError(relpath, cur_coalesced.start,
360
 
                cur_coalesced.length, len(data))
361
 
 
362
 
    def put_file(self, relpath, f, mode=None):
363
 
        """
364
 
        Copy the file-like object into the location.
 
374
    def get_partial(self, relpath, start, length=None):
 
375
        """
 
376
        Get just part of a file.
 
377
 
 
378
        :param relpath: Path to the file, relative to base
 
379
        :param start: The starting position to read from
 
380
        :param length: The length to read. A length of None indicates
 
381
                       read to the end of the file.
 
382
        :return: A file-like object containing at least the specified bytes.
 
383
                 Some implementations may return objects which can be read
 
384
                 past this length, but this is not guaranteed.
 
385
        """
 
386
        # TODO: implement get_partial_multi to help with knit support
 
387
        f = self.get(relpath)
 
388
        f.seek(start)
 
389
        if self._do_prefetch and hasattr(f, 'prefetch'):
 
390
            f.prefetch()
 
391
        return f
 
392
 
 
393
    def put(self, relpath, f, mode=None):
 
394
        """
 
395
        Copy the file-like or string object into the location.
365
396
 
366
397
        :param relpath: Location to put the contents, relative to base.
367
 
        :param f:       File-like object.
 
398
        :param f:       File-like or string object.
368
399
        :param mode: The final mode for the file
369
400
        """
370
401
        final_path = self._remote_path(relpath)
382
413
                self._pump(f, fout)
383
414
            except (IOError, paramiko.SSHException), e:
384
415
                self._translate_io_exception(e, tmp_abspath)
385
 
            # XXX: This doesn't truly help like we would like it to.
386
 
            #      The problem is that openssh strips sticky bits. So while we
387
 
            #      can properly set group write permission, we lose the group
388
 
            #      sticky bit. So it is probably best to stop chmodding, and
389
 
            #      just tell users that they need to set the umask correctly.
390
 
            #      The attr.st_mode = mode, in _sftp_open_exclusive
391
 
            #      will handle when the user wants the final mode to be more 
392
 
            #      restrictive. And then we avoid a round trip. Unless 
393
 
            #      paramiko decides to expose an async chmod()
394
 
 
395
 
            # This is designed to chmod() right before we close.
396
 
            # Because we set_pipelined() earlier, theoretically we might 
397
 
            # avoid the round trip for fout.close()
398
416
            if mode is not None:
399
 
                self._get_sftp().chmod(tmp_abspath, mode)
 
417
                self._sftp.chmod(tmp_abspath, mode)
400
418
            fout.close()
401
419
            closed = True
402
420
            self._rename_and_overwrite(tmp_abspath, abspath)
411
429
            try:
412
430
                if not closed:
413
431
                    fout.close()
414
 
                self._get_sftp().remove(tmp_abspath)
 
432
                self._sftp.remove(tmp_abspath)
415
433
            except:
416
434
                # raise the saved except
417
435
                raise e
418
436
            # raise the original with its traceback if we can.
419
437
            raise
420
438
 
421
 
    def _put_non_atomic_helper(self, relpath, writer, mode=None,
422
 
                               create_parent_dir=False,
423
 
                               dir_mode=None):
424
 
        abspath = self._remote_path(relpath)
425
 
 
426
 
        # TODO: jam 20060816 paramiko doesn't publicly expose a way to
427
 
        #       set the file mode at create time. If it does, use it.
428
 
        #       But for now, we just chmod later anyway.
429
 
 
430
 
        def _open_and_write_file():
431
 
            """Try to open the target file, raise error on failure"""
432
 
            fout = None
433
 
            try:
434
 
                try:
435
 
                    fout = self._get_sftp().file(abspath, mode='wb')
436
 
                    fout.set_pipelined(True)
437
 
                    writer(fout)
438
 
                except (paramiko.SSHException, IOError), e:
439
 
                    self._translate_io_exception(e, abspath,
440
 
                                                 ': unable to open')
441
 
 
442
 
                # This is designed to chmod() right before we close.
443
 
                # Because we set_pipelined() earlier, theoretically we might 
444
 
                # avoid the round trip for fout.close()
445
 
                if mode is not None:
446
 
                    self._get_sftp().chmod(abspath, mode)
447
 
            finally:
448
 
                if fout is not None:
449
 
                    fout.close()
450
 
 
451
 
        if not create_parent_dir:
452
 
            _open_and_write_file()
453
 
            return
454
 
 
455
 
        # Try error handling to create the parent directory if we need to
456
 
        try:
457
 
            _open_and_write_file()
458
 
        except NoSuchFile:
459
 
            # Try to create the parent directory, and then go back to
460
 
            # writing the file
461
 
            parent_dir = os.path.dirname(abspath)
462
 
            self._mkdir(parent_dir, dir_mode)
463
 
            _open_and_write_file()
464
 
 
465
 
    def put_file_non_atomic(self, relpath, f, mode=None,
466
 
                            create_parent_dir=False,
467
 
                            dir_mode=None):
468
 
        """Copy the file-like object into the target location.
469
 
 
470
 
        This function is not strictly safe to use. It is only meant to
471
 
        be used when you already know that the target does not exist.
472
 
        It is not safe, because it will open and truncate the remote
473
 
        file. So there may be a time when the file has invalid contents.
474
 
 
475
 
        :param relpath: The remote location to put the contents.
476
 
        :param f:       File-like object.
477
 
        :param mode:    Possible access permissions for new file.
478
 
                        None means do not set remote permissions.
479
 
        :param create_parent_dir: If we cannot create the target file because
480
 
                        the parent directory does not exist, go ahead and
481
 
                        create it, and then try again.
482
 
        """
483
 
        def writer(fout):
484
 
            self._pump(f, fout)
485
 
        self._put_non_atomic_helper(relpath, writer, mode=mode,
486
 
                                    create_parent_dir=create_parent_dir,
487
 
                                    dir_mode=dir_mode)
488
 
 
489
 
    def put_bytes_non_atomic(self, relpath, bytes, mode=None,
490
 
                             create_parent_dir=False,
491
 
                             dir_mode=None):
492
 
        def writer(fout):
493
 
            fout.write(bytes)
494
 
        self._put_non_atomic_helper(relpath, writer, mode=mode,
495
 
                                    create_parent_dir=create_parent_dir,
496
 
                                    dir_mode=dir_mode)
497
 
 
498
439
    def iter_files_recursive(self):
499
440
        """Walk the relative paths of all files in this transport."""
500
441
        queue = list(self.list_dir('.'))
501
442
        while queue:
502
 
            relpath = queue.pop(0)
 
443
            relpath = urllib.quote(queue.pop(0))
503
444
            st = self.stat(relpath)
504
445
            if stat.S_ISDIR(st.st_mode):
505
446
                for i, basename in enumerate(self.list_dir(relpath)):
507
448
            else:
508
449
                yield relpath
509
450
 
510
 
    def _mkdir(self, abspath, mode=None):
511
 
        if mode is None:
512
 
            local_mode = 0777
513
 
        else:
514
 
            local_mode = mode
515
 
        try:
516
 
            self._get_sftp().mkdir(abspath, local_mode)
517
 
            if mode is not None:
518
 
                self._get_sftp().chmod(abspath, mode=mode)
519
 
        except (paramiko.SSHException, IOError), e:
520
 
            self._translate_io_exception(e, abspath, ': unable to mkdir',
521
 
                failure_exc=FileExists)
522
 
 
523
451
    def mkdir(self, relpath, mode=None):
524
452
        """Create a directory at the given path."""
525
 
        self._mkdir(self._remote_path(relpath), mode=mode)
 
453
        try:
 
454
            path = self._remote_path(relpath)
 
455
            # In the paramiko documentation, it says that passing a mode flag 
 
456
            # will filtered against the server umask.
 
457
            # StubSFTPServer does not do this, which would be nice, because it is
 
458
            # what we really want :)
 
459
            # However, real servers do use umask, so we really should do it that way
 
460
            self._sftp.mkdir(path)
 
461
            if mode is not None:
 
462
                self._sftp.chmod(path, mode=mode)
 
463
        except (paramiko.SSHException, IOError), e:
 
464
            self._translate_io_exception(e, path, ': unable to mkdir',
 
465
                failure_exc=FileExists)
526
466
 
527
 
    def _translate_io_exception(self, e, path, more_info='',
528
 
                                failure_exc=PathError):
 
467
    def _translate_io_exception(self, e, path, more_info='', failure_exc=NoSuchFile):
529
468
        """Translate a paramiko or IOError into a friendlier exception.
530
469
 
531
470
        :param e: The original exception
535
474
        :param failure_exc: Paramiko has the super fun ability to raise completely
536
475
                           opaque errors that just set "e.args = ('Failure',)" with
537
476
                           no more information.
538
 
                           If this parameter is set, it defines the exception 
539
 
                           to raise in these cases.
 
477
                           This sometimes means FileExists, but it also sometimes
 
478
                           means NoSuchFile
540
479
        """
541
480
        # paramiko seems to generate detailless errors.
542
481
        self._translate_error(e, path, raise_generic=False)
543
 
        if getattr(e, 'args', None) is not None:
 
482
        if hasattr(e, 'args'):
544
483
            if (e.args == ('No such file or directory',) or
545
484
                e.args == ('No such file',)):
546
485
                raise NoSuchFile(path, str(e) + more_info)
550
489
            if (e.args == ('Failure',)):
551
490
                raise failure_exc(path, str(e) + more_info)
552
491
            mutter('Raising exception with args %s', e.args)
553
 
        if getattr(e, 'errno', None) is not None:
 
492
        if hasattr(e, 'errno'):
554
493
            mutter('Raising exception with errno %s', e.errno)
555
494
        raise e
556
495
 
557
 
    def append_file(self, relpath, f, mode=None):
 
496
    def append(self, relpath, f):
558
497
        """
559
498
        Append the text in the file-like object into the final
560
499
        location.
561
500
        """
562
501
        try:
563
502
            path = self._remote_path(relpath)
564
 
            fout = self._get_sftp().file(path, 'ab')
565
 
            if mode is not None:
566
 
                self._get_sftp().chmod(path, mode)
 
503
            fout = self._sftp.file(path, 'ab')
567
504
            result = fout.tell()
568
505
            self._pump(f, fout)
569
506
            return result
573
510
    def rename(self, rel_from, rel_to):
574
511
        """Rename without special overwriting"""
575
512
        try:
576
 
            self._get_sftp().rename(self._remote_path(rel_from),
 
513
            self._sftp.rename(self._remote_path(rel_from),
577
514
                              self._remote_path(rel_to))
578
515
        except (IOError, paramiko.SSHException), e:
579
516
            self._translate_io_exception(e, rel_from,
585
522
        Using the implementation provided by osutils.
586
523
        """
587
524
        try:
588
 
            sftp = self._get_sftp()
589
525
            fancy_rename(abs_from, abs_to,
590
 
                         rename_func=sftp.rename,
591
 
                         unlink_func=sftp.remove)
 
526
                    rename_func=self._sftp.rename,
 
527
                    unlink_func=self._sftp.remove)
592
528
        except (IOError, paramiko.SSHException), e:
593
 
            self._translate_io_exception(e, abs_from,
594
 
                                         ': unable to rename to %r' % (abs_to))
 
529
            self._translate_io_exception(e, abs_from, ': unable to rename to %r' % (abs_to))
595
530
 
596
531
    def move(self, rel_from, rel_to):
597
532
        """Move the item at rel_from to the location at rel_to"""
603
538
        """Delete the item at relpath"""
604
539
        path = self._remote_path(relpath)
605
540
        try:
606
 
            self._get_sftp().remove(path)
 
541
            self._sftp.remove(path)
607
542
        except (IOError, paramiko.SSHException), e:
608
543
            self._translate_io_exception(e, path, ': unable to delete')
609
544
            
616
551
        Return a list of all files at the given location.
617
552
        """
618
553
        # does anything actually use this?
619
 
        # -- Unknown
620
 
        # This is at least used by copy_tree for remote upgrades.
621
 
        # -- David Allouche 2006-08-11
622
554
        path = self._remote_path(relpath)
623
555
        try:
624
 
            entries = self._get_sftp().listdir(path)
 
556
            return self._sftp.listdir(path)
625
557
        except (IOError, paramiko.SSHException), e:
626
558
            self._translate_io_exception(e, path, ': failed to list_dir')
627
 
        return [urlutils.escape(entry) for entry in entries]
628
559
 
629
560
    def rmdir(self, relpath):
630
561
        """See Transport.rmdir."""
631
562
        path = self._remote_path(relpath)
632
563
        try:
633
 
            return self._get_sftp().rmdir(path)
 
564
            return self._sftp.rmdir(path)
634
565
        except (IOError, paramiko.SSHException), e:
635
566
            self._translate_io_exception(e, path, ': failed to rmdir')
636
567
 
638
569
        """Return the stat information for a file."""
639
570
        path = self._remote_path(relpath)
640
571
        try:
641
 
            return self._get_sftp().stat(path)
 
572
            return self._sftp.stat(path)
642
573
        except (IOError, paramiko.SSHException), e:
643
574
            self._translate_io_exception(e, path, ': unable to stat')
644
575
 
668
599
        # that we have taken the lock.
669
600
        return SFTPLock(relpath, self)
670
601
 
 
602
    def _unparse_url(self, path=None):
 
603
        if path is None:
 
604
            path = self._path
 
605
        path = urllib.quote(path)
 
606
        # handle homedir paths
 
607
        if not path.startswith('/'):
 
608
            path = "/~/" + path
 
609
        netloc = urllib.quote(self._host)
 
610
        if self._username is not None:
 
611
            netloc = '%s@%s' % (urllib.quote(self._username), netloc)
 
612
        if self._port is not None:
 
613
            netloc = '%s:%d' % (netloc, self._port)
 
614
 
 
615
        return urlparse.urlunparse(('sftp', netloc, path, '', '', ''))
 
616
 
 
617
    def _split_url(self, url):
 
618
        if isinstance(url, unicode):
 
619
            url = url.encode('utf-8')
 
620
        (scheme, netloc, path, params,
 
621
         query, fragment) = urlparse.urlparse(url, allow_fragments=False)
 
622
        assert scheme == 'sftp'
 
623
        username = password = host = port = None
 
624
        if '@' in netloc:
 
625
            username, host = netloc.split('@', 1)
 
626
            if ':' in username:
 
627
                username, password = username.split(':', 1)
 
628
                password = urllib.unquote(password)
 
629
            username = urllib.unquote(username)
 
630
        else:
 
631
            host = netloc
 
632
 
 
633
        if ':' in host:
 
634
            host, port = host.rsplit(':', 1)
 
635
            try:
 
636
                port = int(port)
 
637
            except ValueError:
 
638
                # TODO: Should this be ConnectionError?
 
639
                raise TransportError('%s: invalid port number' % port)
 
640
        host = urllib.unquote(host)
 
641
 
 
642
        path = urllib.unquote(path)
 
643
 
 
644
        # the initial slash should be removed from the path, and treated
 
645
        # as a homedir relative path (the path begins with a double slash
 
646
        # if it is absolute).
 
647
        # see draft-ietf-secsh-scp-sftp-ssh-uri-03.txt
 
648
        # RBC 20060118 we are not using this as its too user hostile. instead
 
649
        # we are following lftp and using /~/foo to mean '~/foo'.
 
650
        # handle homedir paths
 
651
        if path.startswith('/~/'):
 
652
            path = path[3:]
 
653
        elif path == '/~':
 
654
            path = ''
 
655
        return (username, password, host, port, path)
 
656
 
 
657
    def _parse_url(self, url):
 
658
        (self._username, self._password,
 
659
         self._host, self._port, self._path) = self._split_url(url)
 
660
 
 
661
    def _sftp_connect(self):
 
662
        """Connect to the remote sftp server.
 
663
        After this, self._sftp should have a valid connection (or
 
664
        we raise an TransportError 'could not connect').
 
665
 
 
666
        TODO: Raise a more reasonable ConnectionFailed exception
 
667
        """
 
668
        global _connected_hosts
 
669
 
 
670
        idx = (self._host, self._port, self._username)
 
671
        try:
 
672
            self._sftp = _connected_hosts[idx]
 
673
            return
 
674
        except KeyError:
 
675
            pass
 
676
        
 
677
        vendor = _get_ssh_vendor()
 
678
        if vendor == 'loopback':
 
679
            sock = socket.socket()
 
680
            sock.connect((self._host, self._port))
 
681
            self._sftp = SFTPClient(LoopbackSFTP(sock))
 
682
        elif vendor != 'none':
 
683
            sock = SFTPSubprocess(self._host, vendor, self._port,
 
684
                                  self._username)
 
685
            self._sftp = SFTPClient(sock)
 
686
        else:
 
687
            self._paramiko_connect()
 
688
 
 
689
        _connected_hosts[idx] = self._sftp
 
690
 
 
691
    def _paramiko_connect(self):
 
692
        global SYSTEM_HOSTKEYS, BZR_HOSTKEYS
 
693
        
 
694
        load_host_keys()
 
695
 
 
696
        try:
 
697
            t = paramiko.Transport((self._host, self._port or 22))
 
698
            t.set_log_channel('bzr.paramiko')
 
699
            t.start_client()
 
700
        except paramiko.SSHException, e:
 
701
            raise ConnectionError('Unable to reach SSH host %s:%d' %
 
702
                                  (self._host, self._port), e)
 
703
            
 
704
        server_key = t.get_remote_server_key()
 
705
        server_key_hex = paramiko.util.hexify(server_key.get_fingerprint())
 
706
        keytype = server_key.get_name()
 
707
        if SYSTEM_HOSTKEYS.has_key(self._host) and SYSTEM_HOSTKEYS[self._host].has_key(keytype):
 
708
            our_server_key = SYSTEM_HOSTKEYS[self._host][keytype]
 
709
            our_server_key_hex = paramiko.util.hexify(our_server_key.get_fingerprint())
 
710
        elif BZR_HOSTKEYS.has_key(self._host) and BZR_HOSTKEYS[self._host].has_key(keytype):
 
711
            our_server_key = BZR_HOSTKEYS[self._host][keytype]
 
712
            our_server_key_hex = paramiko.util.hexify(our_server_key.get_fingerprint())
 
713
        else:
 
714
            warning('Adding %s host key for %s: %s' % (keytype, self._host, server_key_hex))
 
715
            if not BZR_HOSTKEYS.has_key(self._host):
 
716
                BZR_HOSTKEYS[self._host] = {}
 
717
            BZR_HOSTKEYS[self._host][keytype] = server_key
 
718
            our_server_key = server_key
 
719
            our_server_key_hex = paramiko.util.hexify(our_server_key.get_fingerprint())
 
720
            save_host_keys()
 
721
        if server_key != our_server_key:
 
722
            filename1 = os.path.expanduser('~/.ssh/known_hosts')
 
723
            filename2 = pathjoin(config_dir(), 'ssh_host_keys')
 
724
            raise TransportError('Host keys for %s do not match!  %s != %s' % \
 
725
                (self._host, our_server_key_hex, server_key_hex),
 
726
                ['Try editing %s or %s' % (filename1, filename2)])
 
727
 
 
728
        self._sftp_auth(t)
 
729
        
 
730
        try:
 
731
            self._sftp = t.open_sftp_client()
 
732
        except paramiko.SSHException, e:
 
733
            raise ConnectionError('Unable to start sftp client %s:%d' %
 
734
                                  (self._host, self._port), e)
 
735
 
 
736
    def _sftp_auth(self, transport):
 
737
        # paramiko requires a username, but it might be none if nothing was supplied
 
738
        # use the local username, just in case.
 
739
        # We don't override self._username, because if we aren't using paramiko,
 
740
        # the username might be specified in ~/.ssh/config and we don't want to
 
741
        # force it to something else
 
742
        # Also, it would mess up the self.relpath() functionality
 
743
        username = self._username or getpass.getuser()
 
744
 
 
745
        # Paramiko tries to open a socket.AF_UNIX in order to connect
 
746
        # to ssh-agent. That attribute doesn't exist on win32 (it does in cygwin)
 
747
        # so we get an AttributeError exception. For now, just don't try to
 
748
        # connect to an agent if we are on win32
 
749
        if sys.platform != 'win32':
 
750
            agent = paramiko.Agent()
 
751
            for key in agent.get_keys():
 
752
                mutter('Trying SSH agent key %s' % paramiko.util.hexify(key.get_fingerprint()))
 
753
                try:
 
754
                    transport.auth_publickey(username, key)
 
755
                    return
 
756
                except paramiko.SSHException, e:
 
757
                    pass
 
758
        
 
759
        # okay, try finding id_rsa or id_dss?  (posix only)
 
760
        if self._try_pkey_auth(transport, paramiko.RSAKey, username, 'id_rsa'):
 
761
            return
 
762
        if self._try_pkey_auth(transport, paramiko.DSSKey, username, 'id_dsa'):
 
763
            return
 
764
 
 
765
        if self._password:
 
766
            try:
 
767
                transport.auth_password(username, self._password)
 
768
                return
 
769
            except paramiko.SSHException, e:
 
770
                pass
 
771
 
 
772
            # FIXME: Don't keep a password held in memory if you can help it
 
773
            #self._password = None
 
774
 
 
775
        # give up and ask for a password
 
776
        password = bzrlib.ui.ui_factory.get_password(
 
777
                prompt='SSH %(user)s@%(host)s password',
 
778
                user=username, host=self._host)
 
779
        try:
 
780
            transport.auth_password(username, password)
 
781
        except paramiko.SSHException, e:
 
782
            raise ConnectionError('Unable to authenticate to SSH host as %s@%s' %
 
783
                                  (username, self._host), e)
 
784
 
 
785
    def _try_pkey_auth(self, transport, pkey_class, username, filename):
 
786
        filename = os.path.expanduser('~/.ssh/' + filename)
 
787
        try:
 
788
            key = pkey_class.from_private_key_file(filename)
 
789
            transport.auth_publickey(username, key)
 
790
            return True
 
791
        except paramiko.PasswordRequiredException:
 
792
            password = bzrlib.ui.ui_factory.get_password(
 
793
                    prompt='SSH %(filename)s password',
 
794
                    filename=filename)
 
795
            try:
 
796
                key = pkey_class.from_private_key_file(filename, password)
 
797
                transport.auth_publickey(username, key)
 
798
                return True
 
799
            except paramiko.SSHException:
 
800
                mutter('SSH authentication via %s key failed.' % (os.path.basename(filename),))
 
801
        except paramiko.SSHException:
 
802
            mutter('SSH authentication via %s key failed.' % (os.path.basename(filename),))
 
803
        except IOError:
 
804
            pass
 
805
        return False
 
806
 
671
807
    def _sftp_open_exclusive(self, abspath, mode=None):
672
808
        """Open a remote path exclusively.
673
809
 
682
818
        :param abspath: The remote absolute path where the file should be opened
683
819
        :param mode: The mode permissions bits for the new file
684
820
        """
685
 
        # TODO: jam 20060816 Paramiko >= 1.6.2 (probably earlier) supports
686
 
        #       using the 'x' flag to indicate SFTP_FLAG_EXCL.
687
 
        #       However, there is no way to set the permission mode at open 
688
 
        #       time using the sftp_client.file() functionality.
689
 
        path = self._get_sftp()._adjust_cwd(abspath)
690
 
        # mutter('sftp abspath %s => %s', abspath, path)
 
821
        path = self._sftp._adjust_cwd(abspath)
691
822
        attr = SFTPAttributes()
692
823
        if mode is not None:
693
824
            attr.st_mode = mode
694
825
        omode = (SFTP_FLAG_WRITE | SFTP_FLAG_CREATE 
695
826
                | SFTP_FLAG_TRUNC | SFTP_FLAG_EXCL)
696
827
        try:
697
 
            t, msg = self._get_sftp()._request(CMD_OPEN, path, omode, attr)
 
828
            t, msg = self._sftp._request(CMD_OPEN, path, omode, attr)
698
829
            if t != CMD_HANDLE:
699
830
                raise TransportError('Expected an SFTP handle')
700
831
            handle = msg.get_string()
701
 
            return SFTPFile(self._get_sftp(), handle, 'wb', -1)
 
832
            return SFTPFile(self._sftp, handle, 'wb', -1)
702
833
        except (paramiko.SSHException, IOError), e:
703
834
            self._translate_io_exception(e, abspath, ': unable to open',
704
835
                failure_exc=FileExists)
705
836
 
706
 
    def _can_roundtrip_unix_modebits(self):
707
 
        if sys.platform == 'win32':
708
 
            # anyone else?
709
 
            return False
710
 
        else:
711
 
            return True
712
837
 
713
838
# ------------- server test implementation --------------
 
839
import socket
714
840
import threading
715
841
 
716
842
from bzrlib.tests.stub_sftp import StubServer, StubSFTPServer
732
858
nvuQES5C9BMHjF39LZiGH1iLQy7FgdHyoP+eodI7
733
859
-----END RSA PRIVATE KEY-----
734
860
"""
735
 
 
736
 
 
737
 
class SocketListener(threading.Thread):
 
861
    
 
862
 
 
863
class SingleListener(threading.Thread):
738
864
 
739
865
    def __init__(self, callback):
740
866
        threading.Thread.__init__(self)
744
870
        self._socket.bind(('localhost', 0))
745
871
        self._socket.listen(1)
746
872
        self.port = self._socket.getsockname()[1]
747
 
        self._stop_event = threading.Event()
 
873
        self.stop_event = threading.Event()
 
874
 
 
875
    def run(self):
 
876
        s, _ = self._socket.accept()
 
877
        # now close the listen socket
 
878
        self._socket.close()
 
879
        try:
 
880
            self._callback(s, self.stop_event)
 
881
        except socket.error:
 
882
            pass #Ignore socket errors
 
883
        except Exception, x:
 
884
            # probably a failed test
 
885
            warning('Exception from within unit test server thread: %r' % x)
748
886
 
749
887
    def stop(self):
750
 
        # called from outside this thread
751
 
        self._stop_event.set()
 
888
        self.stop_event.set()
752
889
        # use a timeout here, because if the test fails, the server thread may
753
890
        # never notice the stop_event.
754
891
        self.join(5.0)
755
 
        self._socket.close()
756
 
 
757
 
    def run(self):
758
 
        while True:
759
 
            readable, writable_unused, exception_unused = \
760
 
                select.select([self._socket], [], [], 0.1)
761
 
            if self._stop_event.isSet():
762
 
                return
763
 
            if len(readable) == 0:
764
 
                continue
765
 
            try:
766
 
                s, addr_unused = self._socket.accept()
767
 
                # because the loopback socket is inline, and transports are
768
 
                # never explicitly closed, best to launch a new thread.
769
 
                threading.Thread(target=self._callback, args=(s,)).start()
770
 
            except socket.error, x:
771
 
                sys.excepthook(*sys.exc_info())
772
 
                warning('Socket error during accept() within unit test server'
773
 
                        ' thread: %r' % x)
774
 
            except Exception, x:
775
 
                # probably a failed test; unit test thread will log the
776
 
                # failure/error
777
 
                sys.excepthook(*sys.exc_info())
778
 
                warning('Exception from within unit test server thread: %r' % 
779
 
                        x)
780
 
 
781
 
 
782
 
class SocketDelay(object):
783
 
    """A socket decorator to make TCP appear slower.
784
 
 
785
 
    This changes recv, send, and sendall to add a fixed latency to each python
786
 
    call if a new roundtrip is detected. That is, when a recv is called and the
787
 
    flag new_roundtrip is set, latency is charged. Every send and send_all
788
 
    sets this flag.
789
 
 
790
 
    In addition every send, sendall and recv sleeps a bit per character send to
791
 
    simulate bandwidth.
792
 
 
793
 
    Not all methods are implemented, this is deliberate as this class is not a
794
 
    replacement for the builtin sockets layer. fileno is not implemented to
795
 
    prevent the proxy being bypassed. 
796
 
    """
797
 
 
798
 
    simulated_time = 0
799
 
    _proxied_arguments = dict.fromkeys([
800
 
        "close", "getpeername", "getsockname", "getsockopt", "gettimeout",
801
 
        "setblocking", "setsockopt", "settimeout", "shutdown"])
802
 
 
803
 
    def __init__(self, sock, latency, bandwidth=1.0, 
804
 
                 really_sleep=True):
805
 
        """ 
806
 
        :param bandwith: simulated bandwith (MegaBit)
807
 
        :param really_sleep: If set to false, the SocketDelay will just
808
 
        increase a counter, instead of calling time.sleep. This is useful for
809
 
        unittesting the SocketDelay.
810
 
        """
811
 
        self.sock = sock
812
 
        self.latency = latency
813
 
        self.really_sleep = really_sleep
814
 
        self.time_per_byte = 1 / (bandwidth / 8.0 * 1024 * 1024) 
815
 
        self.new_roundtrip = False
816
 
 
817
 
    def sleep(self, s):
818
 
        if self.really_sleep:
819
 
            time.sleep(s)
820
 
        else:
821
 
            SocketDelay.simulated_time += s
822
 
 
823
 
    def __getattr__(self, attr):
824
 
        if attr in SocketDelay._proxied_arguments:
825
 
            return getattr(self.sock, attr)
826
 
        raise AttributeError("'SocketDelay' object has no attribute %r" %
827
 
                             attr)
828
 
 
829
 
    def dup(self):
830
 
        return SocketDelay(self.sock.dup(), self.latency, self.time_per_byte,
831
 
                           self._sleep)
832
 
 
833
 
    def recv(self, *args):
834
 
        data = self.sock.recv(*args)
835
 
        if data and self.new_roundtrip:
836
 
            self.new_roundtrip = False
837
 
            self.sleep(self.latency)
838
 
        self.sleep(len(data) * self.time_per_byte)
839
 
        return data
840
 
 
841
 
    def sendall(self, data, flags=0):
842
 
        if not self.new_roundtrip:
843
 
            self.new_roundtrip = True
844
 
            self.sleep(self.latency)
845
 
        self.sleep(len(data) * self.time_per_byte)
846
 
        return self.sock.sendall(data, flags)
847
 
 
848
 
    def send(self, data, flags=0):
849
 
        if not self.new_roundtrip:
850
 
            self.new_roundtrip = True
851
 
            self.sleep(self.latency)
852
 
        bytes_sent = self.sock.send(data, flags)
853
 
        self.sleep(bytes_sent * self.time_per_byte)
854
 
        return bytes_sent
855
892
 
856
893
 
857
894
class SFTPServer(Server):
858
895
    """Common code for SFTP server facilities."""
859
896
 
860
 
    def __init__(self, server_interface=StubServer):
 
897
    def __init__(self):
861
898
        self._original_vendor = None
862
899
        self._homedir = None
863
900
        self._server_homedir = None
864
901
        self._listener = None
865
902
        self._root = None
866
 
        self._vendor = ssh.ParamikoVendor()
867
 
        self._server_interface = server_interface
 
903
        self._vendor = 'none'
868
904
        # sftp server logs
869
905
        self.logs = []
870
 
        self.add_latency = 0
871
906
 
872
907
    def _get_sftp_url(self, path):
873
908
        """Calculate an sftp url to this server for path."""
877
912
        """StubServer uses this to log when a new server is created."""
878
913
        self.logs.append(message)
879
914
 
880
 
    def _run_server_entry(self, sock):
881
 
        """Entry point for all implementations of _run_server.
882
 
        
883
 
        If self.add_latency is > 0.000001 then sock is given a latency adding
884
 
        decorator.
885
 
        """
886
 
        if self.add_latency > 0.000001:
887
 
            sock = SocketDelay(sock, self.add_latency)
888
 
        return self._run_server(sock)
889
 
 
890
 
    def _run_server(self, s):
 
915
    def _run_server(self, s, stop_event):
891
916
        ssh_server = paramiko.Transport(s)
892
 
        key_file = pathjoin(self._homedir, 'test_rsa.key')
893
 
        f = open(key_file, 'w')
894
 
        f.write(STUB_SERVER_KEY)
895
 
        f.close()
 
917
        key_file = os.path.join(self._homedir, 'test_rsa.key')
 
918
        file(key_file, 'w').write(STUB_SERVER_KEY)
896
919
        host_key = paramiko.RSAKey.from_private_key_file(key_file)
897
920
        ssh_server.add_server_key(host_key)
898
 
        server = self._server_interface(self)
 
921
        server = StubServer(self)
899
922
        ssh_server.set_subsystem_handler('sftp', paramiko.SFTPServer,
900
923
                                         StubSFTPServer, root=self._root,
901
924
                                         home=self._server_homedir)
902
925
        event = threading.Event()
903
926
        ssh_server.start_server(event, server)
904
927
        event.wait(5.0)
 
928
        stop_event.wait(30.0)
905
929
    
906
 
    def setUp(self, backing_server=None):
907
 
        # XXX: TODO: make sftpserver back onto backing_server rather than local
908
 
        # disk.
909
 
        assert (backing_server is None or
910
 
                isinstance(backing_server, local.LocalURLServer)), (
911
 
            "backing_server should not be %r, because this can only serve the "
912
 
            "local current working directory." % (backing_server,))
913
 
        self._original_vendor = ssh._ssh_vendor_manager._cached_ssh_vendor
914
 
        ssh._ssh_vendor_manager._cached_ssh_vendor = self._vendor
915
 
        if sys.platform == 'win32':
916
 
            # Win32 needs to use the UNICODE api
917
 
            self._homedir = getcwd()
918
 
        else:
919
 
            # But Linux SFTP servers should just deal in bytestreams
920
 
            self._homedir = os.getcwd()
 
930
    def setUp(self):
 
931
        global _ssh_vendor
 
932
        self._original_vendor = _ssh_vendor
 
933
        _ssh_vendor = self._vendor
 
934
        self._homedir = os.getcwdu()
921
935
        if self._server_homedir is None:
922
936
            self._server_homedir = self._homedir
923
937
        self._root = '/'
924
 
        if sys.platform == 'win32':
925
 
            self._root = ''
926
 
        self._listener = SocketListener(self._run_server_entry)
 
938
        # FIXME WINDOWS: _root should be _server_homedir[0]:/
 
939
        self._listener = SingleListener(self._run_server)
927
940
        self._listener.setDaemon(True)
928
941
        self._listener.start()
929
942
 
930
943
    def tearDown(self):
931
944
        """See bzrlib.transport.Server.tearDown."""
 
945
        global _ssh_vendor
932
946
        self._listener.stop()
933
 
        ssh._ssh_vendor_manager._cached_ssh_vendor = self._original_vendor
934
 
 
935
 
    def get_bogus_url(self):
936
 
        """See bzrlib.transport.Server.get_bogus_url."""
937
 
        # this is chosen to try to prevent trouble with proxies, wierd dns, etc
938
 
        # we bind a random socket, so that we get a guaranteed unused port
939
 
        # we just never listen on that port
940
 
        s = socket.socket()
941
 
        s.bind(('localhost', 0))
942
 
        return 'sftp://%s:%s/' % s.getsockname()
 
947
        _ssh_vendor = self._original_vendor
943
948
 
944
949
 
945
950
class SFTPFullAbsoluteServer(SFTPServer):
947
952
 
948
953
    def get_url(self):
949
954
        """See bzrlib.transport.Server.get_url."""
950
 
        homedir = self._homedir
951
 
        if sys.platform != 'win32':
952
 
            # Remove the initial '/' on all platforms but win32
953
 
            homedir = homedir[1:]
954
 
        return self._get_sftp_url(urlutils.escape(homedir))
 
955
        return self._get_sftp_url(urlescape(self._homedir[1:]))
955
956
 
956
957
 
957
958
class SFTPServerWithoutSSH(SFTPServer):
959
960
 
960
961
    def __init__(self):
961
962
        super(SFTPServerWithoutSSH, self).__init__()
962
 
        self._vendor = ssh.LoopbackVendor()
 
963
        self._vendor = 'loopback'
963
964
 
964
 
    def _run_server(self, sock):
965
 
        # Re-import these as locals, so that they're still accessible during
966
 
        # interpreter shutdown (when all module globals get set to None, leading
967
 
        # to confusing errors like "'NoneType' object has no attribute 'error'".
 
965
    def _run_server(self, sock, stop_event):
968
966
        class FakeChannel(object):
969
967
            def get_transport(self):
970
968
                return self
974
972
                return '1'
975
973
            def get_hexdump(self):
976
974
                return False
977
 
            def close(self):
978
 
                pass
979
975
 
980
976
        server = paramiko.SFTPServer(FakeChannel(), 'sftp', StubServer(self), StubSFTPServer,
981
977
                                     root=self._root, home=self._server_homedir)
982
 
        try:
983
 
            server.start_subsystem('sftp', None, sock)
984
 
        except socket.error, e:
985
 
            if (len(e.args) > 0) and (e.args[0] == errno.EPIPE):
986
 
                # it's okay for the client to disconnect abruptly
987
 
                # (bug in paramiko 1.6: it should absorb this exception)
988
 
                pass
989
 
            else:
990
 
                raise
991
 
        except Exception, e:
992
 
            # This typically seems to happen during interpreter shutdown, so
993
 
            # most of the useful ways to report this error are won't work.
994
 
            # Writing the exception type, and then the text of the exception,
995
 
            # seems to be the best we can do.
996
 
            import sys
997
 
            sys.stderr.write('\nEXCEPTION %r: ' % (e.__class__,))
998
 
            sys.stderr.write('%s\n\n' % (e,))
 
978
        server.start_subsystem('sftp', None, sock)
999
979
        server.finish_subsystem()
1000
980
 
1001
981
 
1004
984
 
1005
985
    def get_url(self):
1006
986
        """See bzrlib.transport.Server.get_url."""
1007
 
        homedir = self._homedir
1008
 
        if sys.platform != 'win32':
1009
 
            # Remove the initial '/' on all platforms but win32
1010
 
            homedir = homedir[1:]
1011
 
        return self._get_sftp_url(urlutils.escape(homedir))
 
987
        return self._get_sftp_url(urlescape(self._homedir[1:]))
1012
988
 
1013
989
 
1014
990
class SFTPHomeDirServer(SFTPServerWithoutSSH):
1020
996
 
1021
997
 
1022
998
class SFTPSiblingAbsoluteServer(SFTPAbsoluteServer):
1023
 
    """A test server for sftp transports where only absolute paths will work.
1024
 
 
1025
 
    It does this by serving from a deeply-nested directory that doesn't exist.
1026
 
    """
1027
 
 
1028
 
    def setUp(self, backing_server=None):
 
999
    """A test servere for sftp transports, using absolute urls to non-home."""
 
1000
 
 
1001
    def setUp(self):
1029
1002
        self._server_homedir = '/dev/noone/runs/tests/here'
1030
 
        super(SFTPSiblingAbsoluteServer, self).setUp(backing_server)
 
1003
        super(SFTPSiblingAbsoluteServer, self).setUp()
1031
1004
 
1032
1005
 
1033
1006
def get_test_permutations():