~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/transport/sftp.py

  • Committer: Robert Collins
  • Date: 2006-02-11 11:58:06 UTC
  • mto: (1534.1.22 integration)
  • mto: This revision was merged to the branch mainline in revision 1554.
  • Revision ID: robertc@robertcollins.net-20060211115806-732dabc1e35714ed
Give format3 working trees their own last-revision marker.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005 Robey Pointer <robey@lag.net>
2
 
# Copyright (C) 2005, 2006 Canonical Ltd
3
 
#
 
1
# Copyright (C) 2005 Robey Pointer <robey@lag.net>, Canonical Ltd
 
2
 
4
3
# This program is free software; you can redistribute it and/or modify
5
4
# it under the terms of the GNU General Public License as published by
6
5
# the Free Software Foundation; either version 2 of the License, or
7
6
# (at your option) any later version.
8
 
#
 
7
 
9
8
# This program is distributed in the hope that it will be useful,
10
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
11
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12
11
# GNU General Public License for more details.
13
 
#
 
12
 
14
13
# You should have received a copy of the GNU General Public License
15
14
# along with this program; if not, write to the Free Software
16
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
19
18
 
20
19
import errno
21
20
import getpass
22
 
import itertools
23
21
import os
24
 
import random
25
22
import re
26
 
import select
27
 
import socket
28
23
import stat
29
 
import subprocess
30
24
import sys
31
 
import time
32
25
import urllib
33
26
import urlparse
 
27
import time
 
28
import random
 
29
import subprocess
34
30
import weakref
35
31
 
36
32
from bzrlib.config import config_dir, ensure_config_dir_exists
38
34
                           FileExists, 
39
35
                           TransportNotPossible, NoSuchFile, PathNotChild,
40
36
                           TransportError,
41
 
                           LockError, 
42
 
                           PathError,
43
 
                           ParamikoNotPresent,
 
37
                           LockError, ParamikoNotPresent
44
38
                           )
45
 
from bzrlib.osutils import pathjoin, fancy_rename, getcwd
 
39
from bzrlib.osutils import pathjoin, fancy_rename
46
40
from bzrlib.trace import mutter, warning, error
47
 
from bzrlib.transport import (
48
 
    register_urlparse_netloc_protocol,
49
 
    Server,
50
 
    split_url,
51
 
    Transport,
52
 
    )
 
41
from bzrlib.transport import Transport, Server, urlescape
53
42
import bzrlib.ui
54
 
import bzrlib.urlutils as urlutils
55
43
 
56
44
try:
57
45
    import paramiko
65
53
    from paramiko.sftp_file import SFTPFile
66
54
    from paramiko.sftp_client import SFTPClient
67
55
 
68
 
 
69
 
register_urlparse_netloc_protocol('sftp')
70
 
 
71
 
 
72
 
def _ignore_sigint():
73
 
    # TODO: This should possibly ignore SIGHUP as well, but bzr currently
74
 
    # doesn't handle it itself.
75
 
    # <https://launchpad.net/products/bzr/+bug/41433/+index>
76
 
    import signal
77
 
    signal.signal(signal.SIGINT, signal.SIG_IGN)
78
 
    
79
 
 
80
 
def os_specific_subprocess_params():
81
 
    """Get O/S specific subprocess parameters."""
82
 
    if sys.platform == 'win32':
83
 
        # setting the process group and closing fds is not supported on 
84
 
        # win32
85
 
        return {}
86
 
    else:
87
 
        # We close fds other than the pipes as the child process does not need 
88
 
        # them to be open.
89
 
        #
90
 
        # We also set the child process to ignore SIGINT.  Normally the signal
91
 
        # would be sent to every process in the foreground process group, but
92
 
        # this causes it to be seen only by bzr and not by ssh.  Python will
93
 
        # generate a KeyboardInterrupt in bzr, and we will then have a chance
94
 
        # to release locks or do other cleanup over ssh before the connection
95
 
        # goes away.  
96
 
        # <https://launchpad.net/products/bzr/+bug/5987>
97
 
        #
98
 
        # Running it in a separate process group is not good because then it
99
 
        # can't get non-echoed input of a password or passphrase.
100
 
        # <https://launchpad.net/products/bzr/+bug/40508>
101
 
        return {'preexec_fn': _ignore_sigint,
102
 
                'close_fds': True,
103
 
                }
104
 
 
105
 
 
106
 
_paramiko_version = getattr(paramiko, '__version_info__', (0, 0, 0))
107
 
# don't use prefetch unless paramiko version >= 1.5.5 (there were bugs earlier)
108
 
_default_do_prefetch = (_paramiko_version >= (1, 5, 5))
109
 
 
110
 
# Paramiko 1.5 tries to open a socket.AF_UNIX in order to connect
111
 
# to ssh-agent. That attribute doesn't exist on win32 (it does in cygwin)
112
 
# so we get an AttributeError exception. So we will not try to
113
 
# connect to an agent if we are on win32 and using Paramiko older than 1.6
114
 
_use_ssh_agent = (sys.platform != 'win32' or _paramiko_version >= (1, 6, 0))
115
 
 
 
56
if 'sftp' not in urlparse.uses_netloc: urlparse.uses_netloc.append('sftp')
 
57
 
 
58
 
 
59
_close_fds = True
 
60
if sys.platform == 'win32':
 
61
    # close_fds not supported on win32
 
62
    _close_fds = False
116
63
 
117
64
_ssh_vendor = None
118
65
def _get_ssh_vendor():
123
70
 
124
71
    _ssh_vendor = 'none'
125
72
 
126
 
    if 'BZR_SSH' in os.environ:
127
 
        _ssh_vendor = os.environ['BZR_SSH']
128
 
        if _ssh_vendor == 'paramiko':
129
 
            _ssh_vendor = 'none'
130
 
        return _ssh_vendor
131
 
 
132
73
    try:
133
74
        p = subprocess.Popen(['ssh', '-V'],
 
75
                             close_fds=_close_fds,
134
76
                             stdin=subprocess.PIPE,
135
77
                             stdout=subprocess.PIPE,
136
 
                             stderr=subprocess.PIPE,
137
 
                             **os_specific_subprocess_params())
 
78
                             stderr=subprocess.PIPE)
138
79
        returncode = p.returncode
139
80
        stdout, stderr = p.communicate()
140
81
    except OSError:
179
120
                args.extend(['-l', user])
180
121
            args.extend(['-s', 'sftp', hostname])
181
122
 
182
 
        self.proc = subprocess.Popen(args,
 
123
        self.proc = subprocess.Popen(args, close_fds=_close_fds,
183
124
                                     stdin=subprocess.PIPE,
184
 
                                     stdout=subprocess.PIPE,
185
 
                                     **os_specific_subprocess_params())
 
125
                                     stdout=subprocess.PIPE)
186
126
 
187
127
    def send(self, data):
188
128
        return os.write(self.proc.stdin.fileno(), data)
231
171
# X seconds. But that requires a lot more fanciness.
232
172
_connected_hosts = weakref.WeakValueDictionary()
233
173
 
234
 
def clear_connection_cache():
235
 
    """Remove all hosts from the SFTP connection cache.
236
 
 
237
 
    Primarily useful for test cases wanting to force garbage collection.
238
 
    """
239
 
    _connected_hosts.clear()
240
 
 
241
174
 
242
175
def load_host_keys():
243
176
    """
311
244
            pass
312
245
 
313
246
 
314
 
class SFTPTransport(Transport):
315
 
    """Transport implementation for SFTP access."""
316
 
 
317
 
    _do_prefetch = _default_do_prefetch
318
 
    # TODO: jam 20060717 Conceivably these could be configurable, either
319
 
    #       by auto-tuning at run-time, or by a configuration (per host??)
320
 
    #       but the performance curve is pretty flat, so just going with
321
 
    #       reasonable defaults.
322
 
    _max_readv_combine = 200
323
 
    # Having to round trip to the server means waiting for a response,
324
 
    # so it is better to download extra bytes.
325
 
    # 8KiB had good performance for both local and remote network operations
326
 
    _bytes_to_read_before_seek = 8192
327
 
 
328
 
    # The sftp spec says that implementations SHOULD allow reads
329
 
    # to be at least 32K. paramiko.readv() does an async request
330
 
    # for the chunks. So we need to keep it within a single request
331
 
    # size for paramiko <= 1.6.1. paramiko 1.6.2 will probably chop
332
 
    # up the request itself, rather than us having to worry about it
333
 
    _max_request_size = 32768
 
247
class SFTPTransport (Transport):
 
248
    """
 
249
    Transport implementation for SFTP access.
 
250
    """
 
251
    _do_prefetch = False # Right now Paramiko's prefetch support causes things to hang
334
252
 
335
253
    def __init__(self, base, clone_from=None):
336
254
        assert base.startswith('sftp://')
337
255
        self._parse_url(base)
338
256
        base = self._unparse_url()
339
257
        if base[-1] != '/':
340
 
            base += '/'
 
258
            base = base + '/'
341
259
        super(SFTPTransport, self).__init__(base)
342
260
        if clone_from is None:
343
261
            self._sftp_connect()
379
297
        """
380
298
        # FIXME: share the common code across transports
381
299
        assert isinstance(relpath, basestring)
382
 
        relpath = urlutils.unescape(relpath).split('/')
 
300
        relpath = urllib.unquote(relpath).split('/')
383
301
        basepath = self._path.split('/')
384
302
        if len(basepath) > 0 and basepath[-1] == '':
385
303
            basepath = basepath[:-1]
397
315
                basepath.append(p)
398
316
 
399
317
        path = '/'.join(basepath)
400
 
        # mutter('relpath => remotepath %s => %s', relpath, path)
401
318
        return path
402
319
 
403
320
    def relpath(self, abspath):
427
344
        except IOError:
428
345
            return False
429
346
 
430
 
    def get(self, relpath):
 
347
    def get(self, relpath, decode=False):
431
348
        """
432
349
        Get the file at the given relative path.
433
350
 
436
353
        try:
437
354
            path = self._remote_path(relpath)
438
355
            f = self._sftp.file(path, mode='rb')
439
 
            if self._do_prefetch and (getattr(f, 'prefetch', None) is not None):
 
356
            if self._do_prefetch and hasattr(f, 'prefetch'):
440
357
                f.prefetch()
441
358
            return f
442
359
        except (IOError, paramiko.SSHException), e:
443
360
            self._translate_io_exception(e, path, ': error retrieving')
444
361
 
445
 
    def readv(self, relpath, offsets):
446
 
        """See Transport.readv()"""
447
 
        # We overload the default readv() because we want to use a file
448
 
        # that does not have prefetch enabled.
449
 
        # Also, if we have a new paramiko, it implements an async readv()
450
 
        if not offsets:
451
 
            return
452
 
 
453
 
        try:
454
 
            path = self._remote_path(relpath)
455
 
            fp = self._sftp.file(path, mode='rb')
456
 
            readv = getattr(fp, 'readv', None)
457
 
            if readv:
458
 
                return self._sftp_readv(fp, offsets)
459
 
            mutter('seek and read %s offsets', len(offsets))
460
 
            return self._seek_and_read(fp, offsets)
461
 
        except (IOError, paramiko.SSHException), e:
462
 
            self._translate_io_exception(e, path, ': error retrieving')
463
 
 
464
 
    def _sftp_readv(self, fp, offsets):
465
 
        """Use the readv() member of fp to do async readv.
466
 
 
467
 
        And then read them using paramiko.readv(). paramiko.readv()
468
 
        does not support ranges > 64K, so it caps the request size, and
469
 
        just reads until it gets all the stuff it wants
470
 
        """
471
 
        offsets = list(offsets)
472
 
        sorted_offsets = sorted(offsets)
473
 
 
474
 
        # The algorithm works as follows:
475
 
        # 1) Coalesce nearby reads into a single chunk
476
 
        #    This generates a list of combined regions, the total size
477
 
        #    and the size of the sub regions. This coalescing step is limited
478
 
        #    in the number of nearby chunks to combine, and is allowed to
479
 
        #    skip small breaks in the requests. Limiting it makes sure that
480
 
        #    we can start yielding some data earlier, and skipping means we
481
 
        #    make fewer requests. (Beneficial even when using async)
482
 
        # 2) Break up this combined regions into chunks that are smaller
483
 
        #    than 64KiB. Technically the limit is 65536, but we are a
484
 
        #    little bit conservative. This is because sftp has a maximum
485
 
        #    return chunk size of 64KiB (max size of an unsigned short)
486
 
        # 3) Issue a readv() to paramiko to create an async request for
487
 
        #    all of this data
488
 
        # 4) Read in the data as it comes back, until we've read one
489
 
        #    continuous section as determined in step 1
490
 
        # 5) Break up the full sections into hunks for the original requested
491
 
        #    offsets. And put them in a cache
492
 
        # 6) Check if the next request is in the cache, and if it is, remove
493
 
        #    it from the cache, and yield its data. Continue until no more
494
 
        #    entries are in the cache.
495
 
        # 7) loop back to step 4 until all data has been read
496
 
        #
497
 
        # TODO: jam 20060725 This could be optimized one step further, by
498
 
        #       attempting to yield whatever data we have read, even before
499
 
        #       the first coallesced section has been fully processed.
500
 
 
501
 
        # When coalescing for use with readv(), we don't really need to
502
 
        # use any fudge factor, because the requests are made asynchronously
503
 
        coalesced = list(self._coalesce_offsets(sorted_offsets,
504
 
                               limit=self._max_readv_combine,
505
 
                               fudge_factor=0,
506
 
                               ))
507
 
        requests = []
508
 
        for c_offset in coalesced:
509
 
            start = c_offset.start
510
 
            size = c_offset.length
511
 
 
512
 
            # We need to break this up into multiple requests
513
 
            while size > 0:
514
 
                next_size = min(size, self._max_request_size)
515
 
                requests.append((start, next_size))
516
 
                size -= next_size
517
 
                start += next_size
518
 
 
519
 
        mutter('SFTP.readv() %s offsets => %s coalesced => %s requests',
520
 
                len(offsets), len(coalesced), len(requests))
521
 
 
522
 
        # Queue the current read until we have read the full coalesced section
523
 
        cur_data = []
524
 
        cur_data_len = 0
525
 
        cur_coalesced_stack = iter(coalesced)
526
 
        cur_coalesced = cur_coalesced_stack.next()
527
 
 
528
 
        # Cache the results, but only until they have been fulfilled
529
 
        data_map = {}
530
 
        # turn the list of offsets into a stack
531
 
        offset_stack = iter(offsets)
532
 
        cur_offset_and_size = offset_stack.next()
533
 
 
534
 
        for data in fp.readv(requests):
535
 
            cur_data += data
536
 
            cur_data_len += len(data)
537
 
 
538
 
            if cur_data_len < cur_coalesced.length:
539
 
                continue
540
 
            assert cur_data_len == cur_coalesced.length, \
541
 
                "Somehow we read too much: %s != %s" % (cur_data_len,
542
 
                                                        cur_coalesced.length)
543
 
            all_data = ''.join(cur_data)
544
 
            cur_data = []
545
 
            cur_data_len = 0
546
 
 
547
 
            for suboffset, subsize in cur_coalesced.ranges:
548
 
                key = (cur_coalesced.start+suboffset, subsize)
549
 
                data_map[key] = all_data[suboffset:suboffset+subsize]
550
 
 
551
 
            # Now that we've read some data, see if we can yield anything back
552
 
            while cur_offset_and_size in data_map:
553
 
                this_data = data_map.pop(cur_offset_and_size)
554
 
                yield cur_offset_and_size[0], this_data
555
 
                cur_offset_and_size = offset_stack.next()
556
 
 
557
 
            # Now that we've read all of the data for this coalesced section
558
 
            # on to the next
559
 
            cur_coalesced = cur_coalesced_stack.next()
 
362
    def get_partial(self, relpath, start, length=None):
 
363
        """
 
364
        Get just part of a file.
 
365
 
 
366
        :param relpath: Path to the file, relative to base
 
367
        :param start: The starting position to read from
 
368
        :param length: The length to read. A length of None indicates
 
369
                       read to the end of the file.
 
370
        :return: A file-like object containing at least the specified bytes.
 
371
                 Some implementations may return objects which can be read
 
372
                 past this length, but this is not guaranteed.
 
373
        """
 
374
        # TODO: implement get_partial_multi to help with knit support
 
375
        f = self.get(relpath)
 
376
        f.seek(start)
 
377
        if self._do_prefetch and hasattr(f, 'prefetch'):
 
378
            f.prefetch()
 
379
        return f
560
380
 
561
381
    def put(self, relpath, f, mode=None):
562
382
        """
585
405
                self._sftp.chmod(tmp_abspath, mode)
586
406
            fout.close()
587
407
            closed = True
588
 
            self._rename_and_overwrite(tmp_abspath, abspath)
 
408
            self._rename(tmp_abspath, abspath)
589
409
        except Exception, e:
590
410
            # If we fail, try to clean up the temporary file
591
411
            # before we throw the exception
618
438
 
619
439
    def mkdir(self, relpath, mode=None):
620
440
        """Create a directory at the given path."""
621
 
        path = self._remote_path(relpath)
622
441
        try:
 
442
            path = self._remote_path(relpath)
623
443
            # In the paramiko documentation, it says that passing a mode flag 
624
444
            # will filtered against the server umask.
625
445
            # StubSFTPServer does not do this, which would be nice, because it is
632
452
            self._translate_io_exception(e, path, ': unable to mkdir',
633
453
                failure_exc=FileExists)
634
454
 
635
 
    def _translate_io_exception(self, e, path, more_info='', 
636
 
                                failure_exc=PathError):
 
455
    def _translate_io_exception(self, e, path, more_info='', failure_exc=NoSuchFile):
637
456
        """Translate a paramiko or IOError into a friendlier exception.
638
457
 
639
458
        :param e: The original exception
643
462
        :param failure_exc: Paramiko has the super fun ability to raise completely
644
463
                           opaque errors that just set "e.args = ('Failure',)" with
645
464
                           no more information.
646
 
                           If this parameter is set, it defines the exception 
647
 
                           to raise in these cases.
 
465
                           This sometimes means FileExists, but it also sometimes
 
466
                           means NoSuchFile
648
467
        """
649
468
        # paramiko seems to generate detailless errors.
650
469
        self._translate_error(e, path, raise_generic=False)
662
481
            mutter('Raising exception with errno %s', e.errno)
663
482
        raise e
664
483
 
665
 
    def append(self, relpath, f, mode=None):
 
484
    def append(self, relpath, f):
666
485
        """
667
486
        Append the text in the file-like object into the final
668
487
        location.
670
489
        try:
671
490
            path = self._remote_path(relpath)
672
491
            fout = self._sftp.file(path, 'ab')
673
 
            if mode is not None:
674
 
                self._sftp.chmod(path, mode)
675
 
            result = fout.tell()
676
492
            self._pump(f, fout)
677
 
            return result
678
493
        except (IOError, paramiko.SSHException), e:
679
494
            self._translate_io_exception(e, relpath, ': unable to append')
680
495
 
681
 
    def rename(self, rel_from, rel_to):
682
 
        """Rename without special overwriting"""
683
 
        try:
684
 
            self._sftp.rename(self._remote_path(rel_from),
685
 
                              self._remote_path(rel_to))
686
 
        except (IOError, paramiko.SSHException), e:
687
 
            self._translate_io_exception(e, rel_from,
688
 
                    ': unable to rename to %r' % (rel_to))
689
 
 
690
 
    def _rename_and_overwrite(self, abs_from, abs_to):
 
496
    def _rename(self, abs_from, abs_to):
691
497
        """Do a fancy rename on the remote server.
692
498
        
693
499
        Using the implementation provided by osutils.
703
509
        """Move the item at rel_from to the location at rel_to"""
704
510
        path_from = self._remote_path(rel_from)
705
511
        path_to = self._remote_path(rel_to)
706
 
        self._rename_and_overwrite(path_from, path_to)
 
512
        self._rename(path_from, path_to)
707
513
 
708
514
    def delete(self, relpath):
709
515
        """Delete the item at relpath"""
782
588
            netloc = '%s@%s' % (urllib.quote(self._username), netloc)
783
589
        if self._port is not None:
784
590
            netloc = '%s:%d' % (netloc, self._port)
 
591
 
785
592
        return urlparse.urlunparse(('sftp', netloc, path, '', '', ''))
786
593
 
787
594
    def _split_url(self, url):
788
 
        (scheme, username, password, host, port, path) = split_url(url)
 
595
        if isinstance(url, unicode):
 
596
            url = url.encode('utf-8')
 
597
        (scheme, netloc, path, params,
 
598
         query, fragment) = urlparse.urlparse(url, allow_fragments=False)
789
599
        assert scheme == 'sftp'
 
600
        username = password = host = port = None
 
601
        if '@' in netloc:
 
602
            username, host = netloc.split('@', 1)
 
603
            if ':' in username:
 
604
                username, password = username.split(':', 1)
 
605
                password = urllib.unquote(password)
 
606
            username = urllib.unquote(username)
 
607
        else:
 
608
            host = netloc
 
609
 
 
610
        if ':' in host:
 
611
            host, port = host.rsplit(':', 1)
 
612
            try:
 
613
                port = int(port)
 
614
            except ValueError:
 
615
                # TODO: Should this be ConnectionError?
 
616
                raise TransportError('%s: invalid port number' % port)
 
617
        host = urllib.unquote(host)
 
618
 
 
619
        path = urllib.unquote(path)
790
620
 
791
621
        # the initial slash should be removed from the path, and treated
792
622
        # as a homedir relative path (the path begins with a double slash
824
654
        vendor = _get_ssh_vendor()
825
655
        if vendor == 'loopback':
826
656
            sock = socket.socket()
827
 
            try:
828
 
                sock.connect((self._host, self._port))
829
 
            except socket.error, e:
830
 
                raise ConnectionError('Unable to connect to SSH host %s:%s: %s'
831
 
                                      % (self._host, self._port, e))
 
657
            sock.connect((self._host, self._port))
832
658
            self._sftp = SFTPClient(LoopbackSFTP(sock))
833
659
        elif vendor != 'none':
834
 
            try:
835
 
                sock = SFTPSubprocess(self._host, vendor, self._port,
836
 
                                      self._username)
837
 
                self._sftp = SFTPClient(sock)
838
 
            except (EOFError, paramiko.SSHException), e:
839
 
                raise ConnectionError('Unable to connect to SSH host %s:%s: %s'
840
 
                                      % (self._host, self._port, e))
841
 
            except (OSError, IOError), e:
842
 
                # If the machine is fast enough, ssh can actually exit
843
 
                # before we try and send it the sftp request, which
844
 
                # raises a Broken Pipe
845
 
                if e.errno not in (errno.EPIPE,):
846
 
                    raise
847
 
                raise ConnectionError('Unable to connect to SSH host %s:%s: %s'
848
 
                                      % (self._host, self._port, e))
 
660
            sock = SFTPSubprocess(self._host, vendor, self._port,
 
661
                                  self._username)
 
662
            self._sftp = SFTPClient(sock)
849
663
        else:
850
664
            self._paramiko_connect()
851
665
 
860
674
            t = paramiko.Transport((self._host, self._port or 22))
861
675
            t.set_log_channel('bzr.paramiko')
862
676
            t.start_client()
863
 
        except (paramiko.SSHException, socket.error), e:
864
 
            raise ConnectionError('Unable to reach SSH host %s:%s: %s' 
865
 
                                  % (self._host, self._port, e))
 
677
        except paramiko.SSHException, e:
 
678
            raise ConnectionError('Unable to reach SSH host %s:%d' %
 
679
                                  (self._host, self._port), e)
866
680
            
867
681
        server_key = t.get_remote_server_key()
868
682
        server_key_hex = paramiko.util.hexify(server_key.get_fingerprint())
905
719
        # Also, it would mess up the self.relpath() functionality
906
720
        username = self._username or getpass.getuser()
907
721
 
908
 
        if _use_ssh_agent:
 
722
        # Paramiko tries to open a socket.AF_UNIX in order to connect
 
723
        # to ssh-agent. That attribute doesn't exist on win32 (it does in cygwin)
 
724
        # so we get an AttributeError exception. For now, just don't try to
 
725
        # connect to an agent if we are on win32
 
726
        if sys.platform != 'win32':
909
727
            agent = paramiko.Agent()
910
728
            for key in agent.get_keys():
911
729
                mutter('Trying SSH agent key %s' % paramiko.util.hexify(key.get_fingerprint()))
978
796
        :param mode: The mode permissions bits for the new file
979
797
        """
980
798
        path = self._sftp._adjust_cwd(abspath)
981
 
        # mutter('sftp abspath %s => %s', abspath, path)
982
799
        attr = SFTPAttributes()
983
800
        if mode is not None:
984
801
            attr.st_mode = mode
1018
835
nvuQES5C9BMHjF39LZiGH1iLQy7FgdHyoP+eodI7
1019
836
-----END RSA PRIVATE KEY-----
1020
837
"""
1021
 
 
1022
 
 
1023
 
class SocketListener(threading.Thread):
 
838
    
 
839
 
 
840
class SingleListener(threading.Thread):
1024
841
 
1025
842
    def __init__(self, callback):
1026
843
        threading.Thread.__init__(self)
1030
847
        self._socket.bind(('localhost', 0))
1031
848
        self._socket.listen(1)
1032
849
        self.port = self._socket.getsockname()[1]
1033
 
        self._stop_event = threading.Event()
 
850
        self.stop_event = threading.Event()
 
851
 
 
852
    def run(self):
 
853
        s, _ = self._socket.accept()
 
854
        # now close the listen socket
 
855
        self._socket.close()
 
856
        try:
 
857
            self._callback(s, self.stop_event)
 
858
        except socket.error:
 
859
            pass #Ignore socket errors
 
860
        except Exception, x:
 
861
            # probably a failed test
 
862
            warning('Exception from within unit test server thread: %r' % x)
1034
863
 
1035
864
    def stop(self):
1036
 
        # called from outside this thread
1037
 
        self._stop_event.set()
 
865
        self.stop_event.set()
1038
866
        # use a timeout here, because if the test fails, the server thread may
1039
867
        # never notice the stop_event.
1040
868
        self.join(5.0)
1041
 
        self._socket.close()
1042
 
 
1043
 
    def run(self):
1044
 
        while True:
1045
 
            readable, writable_unused, exception_unused = \
1046
 
                select.select([self._socket], [], [], 0.1)
1047
 
            if self._stop_event.isSet():
1048
 
                return
1049
 
            if len(readable) == 0:
1050
 
                continue
1051
 
            try:
1052
 
                s, addr_unused = self._socket.accept()
1053
 
                # because the loopback socket is inline, and transports are
1054
 
                # never explicitly closed, best to launch a new thread.
1055
 
                threading.Thread(target=self._callback, args=(s,)).start()
1056
 
            except socket.error, x:
1057
 
                sys.excepthook(*sys.exc_info())
1058
 
                warning('Socket error during accept() within unit test server'
1059
 
                        ' thread: %r' % x)
1060
 
            except Exception, x:
1061
 
                # probably a failed test; unit test thread will log the
1062
 
                # failure/error
1063
 
                sys.excepthook(*sys.exc_info())
1064
 
                warning('Exception from within unit test server thread: %r' % 
1065
 
                        x)
1066
 
 
1067
 
 
1068
 
class SocketDelay(object):
1069
 
    """A socket decorator to make TCP appear slower.
1070
 
 
1071
 
    This changes recv, send, and sendall to add a fixed latency to each python
1072
 
    call if a new roundtrip is detected. That is, when a recv is called and the
1073
 
    flag new_roundtrip is set, latency is charged. Every send and send_all
1074
 
    sets this flag.
1075
 
 
1076
 
    In addition every send, sendall and recv sleeps a bit per character send to
1077
 
    simulate bandwidth.
1078
 
 
1079
 
    Not all methods are implemented, this is deliberate as this class is not a
1080
 
    replacement for the builtin sockets layer. fileno is not implemented to
1081
 
    prevent the proxy being bypassed. 
1082
 
    """
1083
 
 
1084
 
    simulated_time = 0
1085
 
    _proxied_arguments = dict.fromkeys([
1086
 
        "close", "getpeername", "getsockname", "getsockopt", "gettimeout",
1087
 
        "setblocking", "setsockopt", "settimeout", "shutdown"])
1088
 
 
1089
 
    def __init__(self, sock, latency, bandwidth=1.0, 
1090
 
                 really_sleep=True):
1091
 
        """ 
1092
 
        :param bandwith: simulated bandwith (MegaBit)
1093
 
        :param really_sleep: If set to false, the SocketDelay will just
1094
 
        increase a counter, instead of calling time.sleep. This is useful for
1095
 
        unittesting the SocketDelay.
1096
 
        """
1097
 
        self.sock = sock
1098
 
        self.latency = latency
1099
 
        self.really_sleep = really_sleep
1100
 
        self.time_per_byte = 1 / (bandwidth / 8.0 * 1024 * 1024) 
1101
 
        self.new_roundtrip = False
1102
 
 
1103
 
    def sleep(self, s):
1104
 
        if self.really_sleep:
1105
 
            time.sleep(s)
1106
 
        else:
1107
 
            SocketDelay.simulated_time += s
1108
 
 
1109
 
    def __getattr__(self, attr):
1110
 
        if attr in SocketDelay._proxied_arguments:
1111
 
            return getattr(self.sock, attr)
1112
 
        raise AttributeError("'SocketDelay' object has no attribute %r" %
1113
 
                             attr)
1114
 
 
1115
 
    def dup(self):
1116
 
        return SocketDelay(self.sock.dup(), self.latency, self.time_per_byte,
1117
 
                           self._sleep)
1118
 
 
1119
 
    def recv(self, *args):
1120
 
        data = self.sock.recv(*args)
1121
 
        if data and self.new_roundtrip:
1122
 
            self.new_roundtrip = False
1123
 
            self.sleep(self.latency)
1124
 
        self.sleep(len(data) * self.time_per_byte)
1125
 
        return data
1126
 
 
1127
 
    def sendall(self, data, flags=0):
1128
 
        if not self.new_roundtrip:
1129
 
            self.new_roundtrip = True
1130
 
            self.sleep(self.latency)
1131
 
        self.sleep(len(data) * self.time_per_byte)
1132
 
        return self.sock.sendall(data, flags)
1133
 
 
1134
 
    def send(self, data, flags=0):
1135
 
        if not self.new_roundtrip:
1136
 
            self.new_roundtrip = True
1137
 
            self.sleep(self.latency)
1138
 
        bytes_sent = self.sock.send(data, flags)
1139
 
        self.sleep(bytes_sent * self.time_per_byte)
1140
 
        return bytes_sent
1141
869
 
1142
870
 
1143
871
class SFTPServer(Server):
1152
880
        self._vendor = 'none'
1153
881
        # sftp server logs
1154
882
        self.logs = []
1155
 
        self.add_latency = 0
1156
883
 
1157
884
    def _get_sftp_url(self, path):
1158
885
        """Calculate an sftp url to this server for path."""
1162
889
        """StubServer uses this to log when a new server is created."""
1163
890
        self.logs.append(message)
1164
891
 
1165
 
    def _run_server_entry(self, sock):
1166
 
        """Entry point for all implementations of _run_server.
1167
 
        
1168
 
        If self.add_latency is > 0.000001 then sock is given a latency adding
1169
 
        decorator.
1170
 
        """
1171
 
        if self.add_latency > 0.000001:
1172
 
            sock = SocketDelay(sock, self.add_latency)
1173
 
        return self._run_server(sock)
1174
 
 
1175
 
    def _run_server(self, s):
 
892
    def _run_server(self, s, stop_event):
1176
893
        ssh_server = paramiko.Transport(s)
1177
 
        key_file = pathjoin(self._homedir, 'test_rsa.key')
1178
 
        f = open(key_file, 'w')
1179
 
        f.write(STUB_SERVER_KEY)
1180
 
        f.close()
 
894
        key_file = os.path.join(self._homedir, 'test_rsa.key')
 
895
        file(key_file, 'w').write(STUB_SERVER_KEY)
1181
896
        host_key = paramiko.RSAKey.from_private_key_file(key_file)
1182
897
        ssh_server.add_server_key(host_key)
1183
898
        server = StubServer(self)
1187
902
        event = threading.Event()
1188
903
        ssh_server.start_server(event, server)
1189
904
        event.wait(5.0)
 
905
        stop_event.wait(30.0)
1190
906
    
1191
907
    def setUp(self):
1192
908
        global _ssh_vendor
1193
909
        self._original_vendor = _ssh_vendor
1194
910
        _ssh_vendor = self._vendor
1195
 
        if sys.platform == 'win32':
1196
 
            # Win32 needs to use the UNICODE api
1197
 
            self._homedir = getcwd()
1198
 
        else:
1199
 
            # But Linux SFTP servers should just deal in bytestreams
1200
 
            self._homedir = os.getcwd()
 
911
        self._homedir = os.getcwdu()
1201
912
        if self._server_homedir is None:
1202
913
            self._server_homedir = self._homedir
1203
914
        self._root = '/'
1204
 
        if sys.platform == 'win32':
1205
 
            self._root = ''
1206
 
        self._listener = SocketListener(self._run_server_entry)
 
915
        # FIXME WINDOWS: _root should be _server_homedir[0]:/
 
916
        self._listener = SingleListener(self._run_server)
1207
917
        self._listener.setDaemon(True)
1208
918
        self._listener.start()
1209
919
 
1213
923
        self._listener.stop()
1214
924
        _ssh_vendor = self._original_vendor
1215
925
 
1216
 
    def get_bogus_url(self):
1217
 
        """See bzrlib.transport.Server.get_bogus_url."""
1218
 
        # this is chosen to try to prevent trouble with proxies, wierd dns, etc
1219
 
        # we bind a random socket, so that we get a guaranteed unused port
1220
 
        # we just never listen on that port
1221
 
        s = socket.socket()
1222
 
        s.bind(('localhost', 0))
1223
 
        return 'sftp://%s:%s/' % s.getsockname()
1224
 
 
1225
926
 
1226
927
class SFTPFullAbsoluteServer(SFTPServer):
1227
928
    """A test server for sftp transports, using absolute urls and ssh."""
1228
929
 
1229
930
    def get_url(self):
1230
931
        """See bzrlib.transport.Server.get_url."""
1231
 
        return self._get_sftp_url(urlutils.escape(self._homedir[1:]))
 
932
        return self._get_sftp_url(urlescape(self._homedir[1:]))
1232
933
 
1233
934
 
1234
935
class SFTPServerWithoutSSH(SFTPServer):
1238
939
        super(SFTPServerWithoutSSH, self).__init__()
1239
940
        self._vendor = 'loopback'
1240
941
 
1241
 
    def _run_server(self, sock):
 
942
    def _run_server(self, sock, stop_event):
1242
943
        class FakeChannel(object):
1243
944
            def get_transport(self):
1244
945
                return self
1248
949
                return '1'
1249
950
            def get_hexdump(self):
1250
951
                return False
1251
 
            def close(self):
1252
 
                pass
1253
952
 
1254
953
        server = paramiko.SFTPServer(FakeChannel(), 'sftp', StubServer(self), StubSFTPServer,
1255
954
                                     root=self._root, home=self._server_homedir)
1256
 
        try:
1257
 
            server.start_subsystem('sftp', None, sock)
1258
 
        except socket.error, e:
1259
 
            if (len(e.args) > 0) and (e.args[0] == errno.EPIPE):
1260
 
                # it's okay for the client to disconnect abruptly
1261
 
                # (bug in paramiko 1.6: it should absorb this exception)
1262
 
                pass
1263
 
            else:
1264
 
                raise
1265
 
        except Exception, e:
1266
 
            import sys; sys.stderr.write('\nEXCEPTION %r\n\n' % e.__class__)
 
955
        server.start_subsystem('sftp', None, sock)
1267
956
        server.finish_subsystem()
1268
957
 
1269
958
 
1272
961
 
1273
962
    def get_url(self):
1274
963
        """See bzrlib.transport.Server.get_url."""
1275
 
        if sys.platform == 'win32':
1276
 
            return self._get_sftp_url(urlutils.escape(self._homedir))
1277
 
        else:
1278
 
            return self._get_sftp_url(urlutils.escape(self._homedir[1:]))
 
964
        return self._get_sftp_url(urlescape(self._homedir[1:]))
1279
965
 
1280
966
 
1281
967
class SFTPHomeDirServer(SFTPServerWithoutSSH):