~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/osutils.py

  • Committer: Tarmac
  • Author(s): Vincent Ladeuil, Patch Queue Manager, Jelmer Vernooij
  • Date: 2017-01-17 16:20:41 UTC
  • mfrom: (6619.1.2 trunk)
  • Revision ID: tarmac-20170117162041-oo62uk1qsmgc9j31
Merge 2.7 into trunk including fixes for bugs #1622039, #1644003, #1579093 and #1645017. [r=vila]

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Bazaar-NG -- distributed version control
2
 
#
3
 
# Copyright (C) 2005 by Canonical Ltd
 
1
# Copyright (C) 2005-2011 Canonical Ltd
4
2
#
5
3
# This program is free software; you can redistribute it and/or modify
6
4
# it under the terms of the GNU General Public License as published by
14
12
#
15
13
# You should have received a copy of the GNU General Public License
16
14
# along with this program; if not, write to the Free Software
17
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
18
 
 
19
 
from shutil import copyfile
20
 
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
21
 
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
22
 
from cStringIO import StringIO
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
16
 
 
17
from __future__ import absolute_import
 
18
 
23
19
import errno
24
20
import os
25
21
import re
26
 
import sha
27
 
import string
 
22
import stat
28
23
import sys
29
24
import time
30
 
import types
 
25
import codecs
 
26
 
 
27
from bzrlib.lazy_import import lazy_import
 
28
lazy_import(globals(), """
 
29
from datetime import datetime
 
30
import getpass
 
31
import locale
 
32
import ntpath
 
33
import posixpath
 
34
import select
 
35
# We need to import both shutil and rmtree as we export the later on posix
 
36
# and need the former on windows
 
37
import shutil
 
38
from shutil import rmtree
 
39
import socket
 
40
import subprocess
 
41
# We need to import both tempfile and mkdtemp as we export the later on posix
 
42
# and need the former on windows
 
43
import tempfile
 
44
from tempfile import mkdtemp
 
45
import unicodedata
 
46
 
 
47
from bzrlib import (
 
48
    cache_utf8,
 
49
    config,
 
50
    errors,
 
51
    trace,
 
52
    win32utils,
 
53
    )
 
54
from bzrlib.i18n import gettext
 
55
""")
 
56
 
 
57
from bzrlib.symbol_versioning import (
 
58
    DEPRECATED_PARAMETER,
 
59
    deprecated_function,
 
60
    deprecated_in,
 
61
    deprecated_passed,
 
62
    warn as warn_deprecated,
 
63
    )
 
64
 
 
65
from hashlib import (
 
66
    md5,
 
67
    sha1 as sha,
 
68
    )
 
69
 
31
70
 
32
71
import bzrlib
33
 
from bzrlib.errors import BzrError, PathNotChild
34
 
from bzrlib.trace import mutter
 
72
from bzrlib import symbol_versioning, _fs_enc
 
73
 
 
74
 
 
75
# Cross platform wall-clock time functionality with decent resolution.
 
76
# On Linux ``time.clock`` returns only CPU time. On Windows, ``time.time()``
 
77
# only has a resolution of ~15ms. Note that ``time.clock()`` is not
 
78
# synchronized with ``time.time()``, this is only meant to be used to find
 
79
# delta times by subtracting from another call to this function.
 
80
timer_func = time.time
 
81
if sys.platform == 'win32':
 
82
    timer_func = time.clock
 
83
 
 
84
# On win32, O_BINARY is used to indicate the file should
 
85
# be opened in binary mode, rather than text mode.
 
86
# On other platforms, O_BINARY doesn't exist, because
 
87
# they always open in binary mode, so it is okay to
 
88
# OR with 0 on those platforms.
 
89
# O_NOINHERIT and O_TEXT exists only on win32 too.
 
90
O_BINARY = getattr(os, 'O_BINARY', 0)
 
91
O_TEXT = getattr(os, 'O_TEXT', 0)
 
92
O_NOINHERIT = getattr(os, 'O_NOINHERIT', 0)
 
93
 
 
94
 
 
95
def get_unicode_argv():
 
96
    try:
 
97
        user_encoding = get_user_encoding()
 
98
        return [a.decode(user_encoding) for a in sys.argv[1:]]
 
99
    except UnicodeDecodeError:
 
100
        raise errors.BzrError(gettext("Parameter {0!r} encoding is unsupported by {1} "
 
101
            "application locale.").format(a, user_encoding))
35
102
 
36
103
 
37
104
def make_readonly(filename):
38
105
    """Make a filename read-only."""
39
 
    mod = os.stat(filename).st_mode
40
 
    mod = mod & 0777555
41
 
    os.chmod(filename, mod)
 
106
    mod = os.lstat(filename).st_mode
 
107
    if not stat.S_ISLNK(mod):
 
108
        mod = mod & 0777555
 
109
        chmod_if_possible(filename, mod)
42
110
 
43
111
 
44
112
def make_writable(filename):
45
 
    mod = os.stat(filename).st_mode
46
 
    mod = mod | 0200
47
 
    os.chmod(filename, mod)
 
113
    mod = os.lstat(filename).st_mode
 
114
    if not stat.S_ISLNK(mod):
 
115
        mod = mod | 0200
 
116
        chmod_if_possible(filename, mod)
 
117
 
 
118
 
 
119
def chmod_if_possible(filename, mode):
 
120
    # Set file mode if that can be safely done.
 
121
    # Sometimes even on unix the filesystem won't allow it - see
 
122
    # https://bugs.launchpad.net/bzr/+bug/606537
 
123
    try:
 
124
        # It is probably faster to just do the chmod, rather than
 
125
        # doing a stat, and then trying to compare
 
126
        os.chmod(filename, mode)
 
127
    except (IOError, OSError),e:
 
128
        # Permission/access denied seems to commonly happen on smbfs; there's
 
129
        # probably no point warning about it.
 
130
        # <https://bugs.launchpad.net/bzr/+bug/606537>
 
131
        if getattr(e, 'errno') in (errno.EPERM, errno.EACCES):
 
132
            trace.mutter("ignore error on chmod of %r: %r" % (
 
133
                filename, e))
 
134
            return
 
135
        raise
 
136
 
 
137
 
 
138
def minimum_path_selection(paths):
 
139
    """Return the smallset subset of paths which are outside paths.
 
140
 
 
141
    :param paths: A container (and hence not None) of paths.
 
142
    :return: A set of paths sufficient to include everything in paths via
 
143
        is_inside, drawn from the paths parameter.
 
144
    """
 
145
    if len(paths) < 2:
 
146
        return set(paths)
 
147
 
 
148
    def sort_key(path):
 
149
        return path.split('/')
 
150
    sorted_paths = sorted(list(paths), key=sort_key)
 
151
 
 
152
    search_paths = [sorted_paths[0]]
 
153
    for path in sorted_paths[1:]:
 
154
        if not is_inside(search_paths[-1], path):
 
155
            # This path is unique, add it
 
156
            search_paths.append(path)
 
157
 
 
158
    return set(search_paths)
48
159
 
49
160
 
50
161
_QUOTE_RE = None
57
168
    Windows."""
58
169
    # TODO: I'm not really sure this is the best format either.x
59
170
    global _QUOTE_RE
60
 
    if _QUOTE_RE == None:
 
171
    if _QUOTE_RE is None:
61
172
        _QUOTE_RE = re.compile(r'([^a-zA-Z0-9.,:/\\_~-])')
62
 
        
 
173
 
63
174
    if _QUOTE_RE.search(f):
64
175
        return '"' + f + '"'
65
176
    else:
66
177
        return f
67
178
 
68
179
 
69
 
def file_kind(f):
70
 
    mode = os.lstat(f)[ST_MODE]
71
 
    if S_ISREG(mode):
72
 
        return 'file'
73
 
    elif S_ISDIR(mode):
74
 
        return 'directory'
75
 
    elif S_ISLNK(mode):
76
 
        return 'symlink'
77
 
    elif S_ISCHR(mode):
78
 
        return 'chardev'
79
 
    elif S_ISBLK(mode):
80
 
        return 'block'
81
 
    elif S_ISFIFO(mode):
82
 
        return 'fifo'
83
 
    elif S_ISSOCK(mode):
84
 
        return 'socket'
85
 
    else:
86
 
        return 'unknown'
 
180
_directory_kind = 'directory'
 
181
 
 
182
def get_umask():
 
183
    """Return the current umask"""
 
184
    # Assume that people aren't messing with the umask while running
 
185
    # XXX: This is not thread safe, but there is no way to get the
 
186
    #      umask without setting it
 
187
    umask = os.umask(0)
 
188
    os.umask(umask)
 
189
    return umask
 
190
 
 
191
 
 
192
_kind_marker_map = {
 
193
    "file": "",
 
194
    _directory_kind: "/",
 
195
    "symlink": "@",
 
196
    'tree-reference': '+',
 
197
}
87
198
 
88
199
 
89
200
def kind_marker(kind):
90
 
    if kind == 'file':
 
201
    try:
 
202
        return _kind_marker_map[kind]
 
203
    except KeyError:
 
204
        # Slightly faster than using .get(, '') when the common case is that
 
205
        # kind will be found
91
206
        return ''
92
 
    elif kind == 'directory':
93
 
        return '/'
94
 
    elif kind == 'symlink':
95
 
        return '@'
96
 
    else:
97
 
        raise BzrError('invalid file kind %r' % kind)
98
 
 
99
 
def lexists(f):
100
 
    try:
101
 
        if hasattr(os, 'lstat'):
102
 
            os.lstat(f)
103
 
        else:
104
 
            os.stat(f)
105
 
        return True
106
 
    except OSError,e:
107
 
        if e.errno == errno.ENOENT:
108
 
            return False;
109
 
        else:
110
 
            raise BzrError("lstat/stat of (%r): %r" % (f, e))
 
207
 
 
208
 
 
209
lexists = getattr(os.path, 'lexists', None)
 
210
if lexists is None:
 
211
    def lexists(f):
 
212
        try:
 
213
            stat = getattr(os, 'lstat', os.stat)
 
214
            stat(f)
 
215
            return True
 
216
        except OSError, e:
 
217
            if e.errno == errno.ENOENT:
 
218
                return False;
 
219
            else:
 
220
                raise errors.BzrError(gettext("lstat/stat of ({0!r}): {1!r}").format(f, e))
 
221
 
 
222
 
 
223
def fancy_rename(old, new, rename_func, unlink_func):
 
224
    """A fancy rename, when you don't have atomic rename.
 
225
 
 
226
    :param old: The old path, to rename from
 
227
    :param new: The new path, to rename to
 
228
    :param rename_func: The potentially non-atomic rename function
 
229
    :param unlink_func: A way to delete the target file if the full rename
 
230
        succeeds
 
231
    """
 
232
    # sftp rename doesn't allow overwriting, so play tricks:
 
233
    base = os.path.basename(new)
 
234
    dirname = os.path.dirname(new)
 
235
    # callers use different encodings for the paths so the following MUST
 
236
    # respect that. We rely on python upcasting to unicode if new is unicode
 
237
    # and keeping a str if not.
 
238
    tmp_name = 'tmp.%s.%.9f.%d.%s' % (base, time.time(),
 
239
                                      os.getpid(), rand_chars(10))
 
240
    tmp_name = pathjoin(dirname, tmp_name)
 
241
 
 
242
    # Rename the file out of the way, but keep track if it didn't exist
 
243
    # We don't want to grab just any exception
 
244
    # something like EACCES should prevent us from continuing
 
245
    # The downside is that the rename_func has to throw an exception
 
246
    # with an errno = ENOENT, or NoSuchFile
 
247
    file_existed = False
 
248
    try:
 
249
        rename_func(new, tmp_name)
 
250
    except (errors.NoSuchFile,), e:
 
251
        pass
 
252
    except IOError, e:
 
253
        # RBC 20060103 abstraction leakage: the paramiko SFTP clients rename
 
254
        # function raises an IOError with errno is None when a rename fails.
 
255
        # This then gets caught here.
 
256
        if e.errno not in (None, errno.ENOENT, errno.ENOTDIR):
 
257
            raise
 
258
    except Exception, e:
 
259
        if (getattr(e, 'errno', None) is None
 
260
            or e.errno not in (errno.ENOENT, errno.ENOTDIR)):
 
261
            raise
 
262
    else:
 
263
        file_existed = True
 
264
 
 
265
    failure_exc = None
 
266
    success = False
 
267
    try:
 
268
        try:
 
269
            # This may throw an exception, in which case success will
 
270
            # not be set.
 
271
            rename_func(old, new)
 
272
            success = True
 
273
        except (IOError, OSError), e:
 
274
            # source and target may be aliases of each other (e.g. on a
 
275
            # case-insensitive filesystem), so we may have accidentally renamed
 
276
            # source by when we tried to rename target
 
277
            failure_exc = sys.exc_info()
 
278
            if (file_existed and e.errno in (None, errno.ENOENT)
 
279
                and old.lower() == new.lower()):
 
280
                # source and target are the same file on a case-insensitive
 
281
                # filesystem, so we don't generate an exception
 
282
                failure_exc = None
 
283
    finally:
 
284
        if file_existed:
 
285
            # If the file used to exist, rename it back into place
 
286
            # otherwise just delete it from the tmp location
 
287
            if success:
 
288
                unlink_func(tmp_name)
 
289
            else:
 
290
                rename_func(tmp_name, new)
 
291
    if failure_exc is not None:
 
292
        try:
 
293
            raise failure_exc[0], failure_exc[1], failure_exc[2]
 
294
        finally:
 
295
            del failure_exc
 
296
 
 
297
 
 
298
# In Python 2.4.2 and older, os.path.abspath and os.path.realpath
 
299
# choke on a Unicode string containing a relative path if
 
300
# os.getcwd() returns a non-sys.getdefaultencoding()-encoded
 
301
# string.
 
302
def _posix_abspath(path):
 
303
    # jam 20060426 rather than encoding to fsencoding
 
304
    # copy posixpath.abspath, but use os.getcwdu instead
 
305
    if not posixpath.isabs(path):
 
306
        path = posixpath.join(getcwd(), path)
 
307
    return _posix_normpath(path)
 
308
 
 
309
 
 
310
def _posix_realpath(path):
 
311
    return posixpath.realpath(path.encode(_fs_enc)).decode(_fs_enc)
 
312
 
 
313
 
 
314
def _posix_normpath(path):
 
315
    path = posixpath.normpath(path)
 
316
    # Bug 861008: posixpath.normpath() returns a path normalized according to
 
317
    # the POSIX standard, which stipulates (for compatibility reasons) that two
 
318
    # leading slashes must not be simplified to one, and only if there are 3 or
 
319
    # more should they be simplified as one. So we treat the leading 2 slashes
 
320
    # as a special case here by simply removing the first slash, as we consider
 
321
    # that breaking POSIX compatibility for this obscure feature is acceptable.
 
322
    # This is not a paranoid precaution, as we notably get paths like this when
 
323
    # the repo is hosted at the root of the filesystem, i.e. in "/".    
 
324
    if path.startswith('//'):
 
325
        path = path[1:]
 
326
    return path
 
327
 
 
328
 
 
329
def _posix_path_from_environ(key):
 
330
    """Get unicode path from `key` in environment or None if not present
 
331
 
 
332
    Note that posix systems use arbitrary byte strings for filesystem objects,
 
333
    so a path that raises BadFilenameEncoding here may still be accessible.
 
334
    """
 
335
    val = os.environ.get(key, None)
 
336
    if val is None:
 
337
        return val
 
338
    try:
 
339
        return val.decode(_fs_enc)
 
340
    except UnicodeDecodeError:
 
341
        # GZ 2011-12-12:Ideally want to include `key` in the exception message
 
342
        raise errors.BadFilenameEncoding(val, _fs_enc)
 
343
 
 
344
 
 
345
def _posix_get_home_dir():
 
346
    """Get the home directory of the current user as a unicode path"""
 
347
    path = posixpath.expanduser("~")
 
348
    try:
 
349
        return path.decode(_fs_enc)
 
350
    except UnicodeDecodeError:
 
351
        raise errors.BadFilenameEncoding(path, _fs_enc)
 
352
 
 
353
 
 
354
def _posix_getuser_unicode():
 
355
    """Get username from environment or password database as unicode"""
 
356
    name = getpass.getuser()
 
357
    user_encoding = get_user_encoding()
 
358
    try:
 
359
        return name.decode(user_encoding)
 
360
    except UnicodeDecodeError:
 
361
        raise errors.BzrError("Encoding of username %r is unsupported by %s "
 
362
            "application locale." % (name, user_encoding))
 
363
 
 
364
 
 
365
def _win32_fixdrive(path):
 
366
    """Force drive letters to be consistent.
 
367
 
 
368
    win32 is inconsistent whether it returns lower or upper case
 
369
    and even if it was consistent the user might type the other
 
370
    so we force it to uppercase
 
371
    running python.exe under cmd.exe return capital C:\\
 
372
    running win32 python inside a cygwin shell returns lowercase c:\\
 
373
    """
 
374
    drive, path = ntpath.splitdrive(path)
 
375
    return drive.upper() + path
 
376
 
 
377
 
 
378
def _win32_abspath(path):
 
379
    # Real ntpath.abspath doesn't have a problem with a unicode cwd
 
380
    return _win32_fixdrive(ntpath.abspath(unicode(path)).replace('\\', '/'))
 
381
 
 
382
 
 
383
def _win98_abspath(path):
 
384
    """Return the absolute version of a path.
 
385
    Windows 98 safe implementation (python reimplementation
 
386
    of Win32 API function GetFullPathNameW)
 
387
    """
 
388
    # Corner cases:
 
389
    #   C:\path     => C:/path
 
390
    #   C:/path     => C:/path
 
391
    #   \\HOST\path => //HOST/path
 
392
    #   //HOST/path => //HOST/path
 
393
    #   path        => C:/cwd/path
 
394
    #   /path       => C:/path
 
395
    path = unicode(path)
 
396
    # check for absolute path
 
397
    drive = ntpath.splitdrive(path)[0]
 
398
    if drive == '' and path[:2] not in('//','\\\\'):
 
399
        cwd = os.getcwdu()
 
400
        # we cannot simply os.path.join cwd and path
 
401
        # because os.path.join('C:','/path') produce '/path'
 
402
        # and this is incorrect
 
403
        if path[:1] in ('/','\\'):
 
404
            cwd = ntpath.splitdrive(cwd)[0]
 
405
            path = path[1:]
 
406
        path = cwd + '\\' + path
 
407
    return _win32_fixdrive(ntpath.normpath(path).replace('\\', '/'))
 
408
 
 
409
 
 
410
def _win32_realpath(path):
 
411
    # Real ntpath.realpath doesn't have a problem with a unicode cwd
 
412
    return _win32_fixdrive(ntpath.realpath(unicode(path)).replace('\\', '/'))
 
413
 
 
414
 
 
415
def _win32_pathjoin(*args):
 
416
    return ntpath.join(*args).replace('\\', '/')
 
417
 
 
418
 
 
419
def _win32_normpath(path):
 
420
    return _win32_fixdrive(ntpath.normpath(unicode(path)).replace('\\', '/'))
 
421
 
 
422
 
 
423
def _win32_getcwd():
 
424
    return _win32_fixdrive(os.getcwdu().replace('\\', '/'))
 
425
 
 
426
 
 
427
def _win32_mkdtemp(*args, **kwargs):
 
428
    return _win32_fixdrive(tempfile.mkdtemp(*args, **kwargs).replace('\\', '/'))
 
429
 
 
430
 
 
431
def _win32_rename(old, new):
 
432
    """We expect to be able to atomically replace 'new' with old.
 
433
 
 
434
    On win32, if new exists, it must be moved out of the way first,
 
435
    and then deleted.
 
436
    """
 
437
    try:
 
438
        fancy_rename(old, new, rename_func=os.rename, unlink_func=os.unlink)
 
439
    except OSError, e:
 
440
        if e.errno in (errno.EPERM, errno.EACCES, errno.EBUSY, errno.EINVAL):
 
441
            # If we try to rename a non-existant file onto cwd, we get
 
442
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT
 
443
            # if the old path doesn't exist, sometimes we get EACCES
 
444
            # On Linux, we seem to get EBUSY, on Mac we get EINVAL
 
445
            os.lstat(old)
 
446
        raise
 
447
 
 
448
 
 
449
def _mac_getcwd():
 
450
    return unicodedata.normalize('NFC', os.getcwdu())
 
451
 
 
452
 
 
453
def _rename_wrap_exception(rename_func):
 
454
    """Adds extra information to any exceptions that come from rename().
 
455
 
 
456
    The exception has an updated message and 'old_filename' and 'new_filename'
 
457
    attributes.
 
458
    """
 
459
 
 
460
    def _rename_wrapper(old, new):
 
461
        try:
 
462
            rename_func(old, new)
 
463
        except OSError, e:
 
464
            detailed_error = OSError(e.errno, e.strerror +
 
465
                                " [occurred when renaming '%s' to '%s']" %
 
466
                                (old, new))
 
467
            detailed_error.old_filename = old
 
468
            detailed_error.new_filename = new
 
469
            raise detailed_error
 
470
 
 
471
    return _rename_wrapper
 
472
 
 
473
# Default rename wraps os.rename()
 
474
rename = _rename_wrap_exception(os.rename)
 
475
 
 
476
# Default is to just use the python builtins, but these can be rebound on
 
477
# particular platforms.
 
478
abspath = _posix_abspath
 
479
realpath = _posix_realpath
 
480
pathjoin = os.path.join
 
481
normpath = _posix_normpath
 
482
path_from_environ = _posix_path_from_environ
 
483
_get_home_dir = _posix_get_home_dir
 
484
getuser_unicode = _posix_getuser_unicode
 
485
getcwd = os.getcwdu
 
486
dirname = os.path.dirname
 
487
basename = os.path.basename
 
488
split = os.path.split
 
489
splitext = os.path.splitext
 
490
# These were already lazily imported into local scope
 
491
# mkdtemp = tempfile.mkdtemp
 
492
# rmtree = shutil.rmtree
 
493
lstat = os.lstat
 
494
fstat = os.fstat
 
495
 
 
496
def wrap_stat(st):
 
497
    return st
 
498
 
 
499
 
 
500
MIN_ABS_PATHLENGTH = 1
 
501
 
 
502
 
 
503
if sys.platform == 'win32':
 
504
    if win32utils.winver == 'Windows 98':
 
505
        abspath = _win98_abspath
 
506
    else:
 
507
        abspath = _win32_abspath
 
508
    realpath = _win32_realpath
 
509
    pathjoin = _win32_pathjoin
 
510
    normpath = _win32_normpath
 
511
    getcwd = _win32_getcwd
 
512
    mkdtemp = _win32_mkdtemp
 
513
    rename = _rename_wrap_exception(_win32_rename)
 
514
    try:
 
515
        from bzrlib import _walkdirs_win32
 
516
    except ImportError:
 
517
        pass
 
518
    else:
 
519
        lstat = _walkdirs_win32.lstat
 
520
        fstat = _walkdirs_win32.fstat
 
521
        wrap_stat = _walkdirs_win32.wrap_stat
 
522
 
 
523
    MIN_ABS_PATHLENGTH = 3
 
524
 
 
525
    def _win32_delete_readonly(function, path, excinfo):
 
526
        """Error handler for shutil.rmtree function [for win32]
 
527
        Helps to remove files and dirs marked as read-only.
 
528
        """
 
529
        exception = excinfo[1]
 
530
        if function in (os.remove, os.rmdir) \
 
531
            and isinstance(exception, OSError) \
 
532
            and exception.errno == errno.EACCES:
 
533
            make_writable(path)
 
534
            function(path)
 
535
        else:
 
536
            raise
 
537
 
 
538
    def rmtree(path, ignore_errors=False, onerror=_win32_delete_readonly):
 
539
        """Replacer for shutil.rmtree: could remove readonly dirs/files"""
 
540
        return shutil.rmtree(path, ignore_errors, onerror)
 
541
 
 
542
    f = win32utils.get_unicode_argv     # special function or None
 
543
    if f is not None:
 
544
        get_unicode_argv = f
 
545
    path_from_environ = win32utils.get_environ_unicode
 
546
    _get_home_dir = win32utils.get_home_location
 
547
    getuser_unicode = win32utils.get_user_name
 
548
 
 
549
elif sys.platform == 'darwin':
 
550
    getcwd = _mac_getcwd
 
551
 
 
552
 
 
553
def get_terminal_encoding(trace=False):
 
554
    """Find the best encoding for printing to the screen.
 
555
 
 
556
    This attempts to check both sys.stdout and sys.stdin to see
 
557
    what encoding they are in, and if that fails it falls back to
 
558
    osutils.get_user_encoding().
 
559
    The problem is that on Windows, locale.getpreferredencoding()
 
560
    is not the same encoding as that used by the console:
 
561
    http://mail.python.org/pipermail/python-list/2003-May/162357.html
 
562
 
 
563
    On my standard US Windows XP, the preferred encoding is
 
564
    cp1252, but the console is cp437
 
565
 
 
566
    :param trace: If True trace the selected encoding via mutter().
 
567
    """
 
568
    from bzrlib.trace import mutter
 
569
    output_encoding = getattr(sys.stdout, 'encoding', None)
 
570
    if not output_encoding:
 
571
        input_encoding = getattr(sys.stdin, 'encoding', None)
 
572
        if not input_encoding:
 
573
            output_encoding = get_user_encoding()
 
574
            if trace:
 
575
                mutter('encoding stdout as osutils.get_user_encoding() %r',
 
576
                   output_encoding)
 
577
        else:
 
578
            output_encoding = input_encoding
 
579
            if trace:
 
580
                mutter('encoding stdout as sys.stdin encoding %r',
 
581
                    output_encoding)
 
582
    else:
 
583
        if trace:
 
584
            mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
 
585
    if output_encoding == 'cp0':
 
586
        # invalid encoding (cp0 means 'no codepage' on Windows)
 
587
        output_encoding = get_user_encoding()
 
588
        if trace:
 
589
            mutter('cp0 is invalid encoding.'
 
590
               ' encoding stdout as osutils.get_user_encoding() %r',
 
591
               output_encoding)
 
592
    # check encoding
 
593
    try:
 
594
        codecs.lookup(output_encoding)
 
595
    except LookupError:
 
596
        sys.stderr.write('bzr: warning:'
 
597
                         ' unknown terminal encoding %s.\n'
 
598
                         '  Using encoding %s instead.\n'
 
599
                         % (output_encoding, get_user_encoding())
 
600
                        )
 
601
        output_encoding = get_user_encoding()
 
602
 
 
603
    return output_encoding
 
604
 
111
605
 
112
606
def normalizepath(f):
113
 
    if hasattr(os.path, 'realpath'):
114
 
        F = os.path.realpath
 
607
    if getattr(os.path, 'realpath', None) is not None:
 
608
        F = realpath
115
609
    else:
116
 
        F = os.path.abspath
 
610
        F = abspath
117
611
    [p,e] = os.path.split(f)
118
612
    if e == "" or e == "." or e == "..":
119
613
        return F(f)
120
614
    else:
121
 
        return os.path.join(F(p), e)
122
 
 
123
 
if os.name == "posix":
124
 
    # In Python 2.4.2 and older, os.path.abspath and os.path.realpath
125
 
    # choke on a Unicode string containing a relative path if
126
 
    # os.getcwd() returns a non-sys.getdefaultencoding()-encoded
127
 
    # string.
128
 
    _fs_enc = sys.getfilesystemencoding()
129
 
    def abspath(path):
130
 
        return os.path.abspath(path.encode(_fs_enc)).decode(_fs_enc)
131
 
    def realpath(path):
132
 
        return os.path.realpath(path.encode(_fs_enc)).decode(_fs_enc)
133
 
else:
134
 
    # We need to use the Unicode-aware os.path.abspath and
135
 
    # os.path.realpath on Windows systems.
136
 
    abspath = os.path.abspath
137
 
    realpath = os.path.realpath
138
 
 
139
 
def backup_file(fn):
140
 
    """Copy a file to a backup.
141
 
 
142
 
    Backups are named in GNU-style, with a ~ suffix.
143
 
 
144
 
    If the file is already a backup, it's not copied.
145
 
    """
146
 
    if fn[-1] == '~':
147
 
        return
148
 
    bfn = fn + '~'
149
 
 
150
 
    if has_symlinks() and os.path.islink(fn):
151
 
        target = os.readlink(fn)
152
 
        os.symlink(target, bfn)
153
 
        return
154
 
    inf = file(fn, 'rb')
155
 
    try:
156
 
        content = inf.read()
157
 
    finally:
158
 
        inf.close()
159
 
    
160
 
    outf = file(bfn, 'wb')
161
 
    try:
162
 
        outf.write(content)
163
 
    finally:
164
 
        outf.close()
165
 
 
166
 
if os.name == 'nt':
167
 
    import shutil
168
 
    rename = shutil.move
169
 
else:
170
 
    rename = os.rename
 
615
        return pathjoin(F(p), e)
171
616
 
172
617
 
173
618
def isdir(f):
174
619
    """True if f is an accessible directory."""
175
620
    try:
176
 
        return S_ISDIR(os.lstat(f)[ST_MODE])
 
621
        return stat.S_ISDIR(os.lstat(f)[stat.ST_MODE])
177
622
    except OSError:
178
623
        return False
179
624
 
181
626
def isfile(f):
182
627
    """True if f is a regular file."""
183
628
    try:
184
 
        return S_ISREG(os.lstat(f)[ST_MODE])
 
629
        return stat.S_ISREG(os.lstat(f)[stat.ST_MODE])
185
630
    except OSError:
186
631
        return False
187
632
 
188
633
def islink(f):
189
634
    """True if f is a symlink."""
190
635
    try:
191
 
        return S_ISLNK(os.lstat(f)[ST_MODE])
 
636
        return stat.S_ISLNK(os.lstat(f)[stat.ST_MODE])
192
637
    except OSError:
193
638
        return False
194
639
 
195
640
def is_inside(dir, fname):
196
641
    """True if fname is inside dir.
197
 
    
198
 
    The parameters should typically be passed to os.path.normpath first, so
 
642
 
 
643
    The parameters should typically be passed to osutils.normpath first, so
199
644
    that . and .. and repeated slashes are eliminated, and the separators
200
645
    are canonical for the platform.
201
 
    
202
 
    The empty string as a dir name is taken as top-of-tree and matches 
 
646
 
 
647
    The empty string as a dir name is taken as top-of-tree and matches
203
648
    everything.
204
 
    
205
 
    >>> is_inside('src', os.path.join('src', 'foo.c'))
206
 
    True
207
 
    >>> is_inside('src', 'srccontrol')
208
 
    False
209
 
    >>> is_inside('src', os.path.join('src', 'a', 'a', 'a', 'foo.c'))
210
 
    True
211
 
    >>> is_inside('foo.c', 'foo.c')
212
 
    True
213
 
    >>> is_inside('foo.c', '')
214
 
    False
215
 
    >>> is_inside('', 'foo.c')
216
 
    True
217
649
    """
218
 
    # XXX: Most callers of this can actually do something smarter by 
 
650
    # XXX: Most callers of this can actually do something smarter by
219
651
    # looking at the inventory
220
652
    if dir == fname:
221
653
        return True
222
 
    
 
654
 
223
655
    if dir == '':
224
656
        return True
225
657
 
226
 
    if dir[-1] != os.sep:
227
 
        dir += os.sep
 
658
    if dir[-1] != '/':
 
659
        dir += '/'
228
660
 
229
661
    return fname.startswith(dir)
230
662
 
234
666
    for dirname in dir_list:
235
667
        if is_inside(dirname, fname):
236
668
            return True
 
669
    return False
 
670
 
 
671
 
 
672
def is_inside_or_parent_of_any(dir_list, fname):
 
673
    """True if fname is a child or a parent of any of the given files."""
 
674
    for dirname in dir_list:
 
675
        if is_inside(dirname, fname) or is_inside(fname, dirname):
 
676
            return True
 
677
    return False
 
678
 
 
679
 
 
680
def pumpfile(from_file, to_file, read_length=-1, buff_size=32768,
 
681
             report_activity=None, direction='read'):
 
682
    """Copy contents of one file to another.
 
683
 
 
684
    The read_length can either be -1 to read to end-of-file (EOF) or
 
685
    it can specify the maximum number of bytes to read.
 
686
 
 
687
    The buff_size represents the maximum size for each read operation
 
688
    performed on from_file.
 
689
 
 
690
    :param report_activity: Call this as bytes are read, see
 
691
        Transport._report_activity
 
692
    :param direction: Will be passed to report_activity
 
693
 
 
694
    :return: The number of bytes copied.
 
695
    """
 
696
    length = 0
 
697
    if read_length >= 0:
 
698
        # read specified number of bytes
 
699
 
 
700
        while read_length > 0:
 
701
            num_bytes_to_read = min(read_length, buff_size)
 
702
 
 
703
            block = from_file.read(num_bytes_to_read)
 
704
            if not block:
 
705
                # EOF reached
 
706
                break
 
707
            if report_activity is not None:
 
708
                report_activity(len(block), direction)
 
709
            to_file.write(block)
 
710
 
 
711
            actual_bytes_read = len(block)
 
712
            read_length -= actual_bytes_read
 
713
            length += actual_bytes_read
237
714
    else:
238
 
        return False
239
 
 
240
 
 
241
 
def pumpfile(fromfile, tofile):
242
 
    """Copy contents of one file to another."""
243
 
    BUFSIZE = 32768
 
715
        # read to EOF
 
716
        while True:
 
717
            block = from_file.read(buff_size)
 
718
            if not block:
 
719
                # EOF reached
 
720
                break
 
721
            if report_activity is not None:
 
722
                report_activity(len(block), direction)
 
723
            to_file.write(block)
 
724
            length += len(block)
 
725
    return length
 
726
 
 
727
 
 
728
def pump_string_file(bytes, file_handle, segment_size=None):
 
729
    """Write bytes to file_handle in many smaller writes.
 
730
 
 
731
    :param bytes: The string to write.
 
732
    :param file_handle: The file to write to.
 
733
    """
 
734
    # Write data in chunks rather than all at once, because very large
 
735
    # writes fail on some platforms (e.g. Windows with SMB  mounted
 
736
    # drives).
 
737
    if not segment_size:
 
738
        segment_size = 5242880 # 5MB
 
739
    segments = range(len(bytes) / segment_size + 1)
 
740
    write = file_handle.write
 
741
    for segment_index in segments:
 
742
        segment = buffer(bytes, segment_index * segment_size, segment_size)
 
743
        write(segment)
 
744
 
 
745
 
 
746
def file_iterator(input_file, readsize=32768):
244
747
    while True:
245
 
        b = fromfile.read(BUFSIZE)
246
 
        if not b:
 
748
        b = input_file.read(readsize)
 
749
        if len(b) == 0:
247
750
            break
248
 
        tofile.write(b)
 
751
        yield b
249
752
 
250
753
 
251
754
def sha_file(f):
252
 
    if hasattr(f, 'tell'):
253
 
        assert f.tell() == 0
254
 
    s = sha.new()
 
755
    """Calculate the hexdigest of an open file.
 
756
 
 
757
    The file cursor should be already at the start.
 
758
    """
 
759
    s = sha()
255
760
    BUFSIZE = 128<<10
256
761
    while True:
257
762
        b = f.read(BUFSIZE)
261
766
    return s.hexdigest()
262
767
 
263
768
 
264
 
 
265
 
def sha_strings(strings):
 
769
def size_sha_file(f):
 
770
    """Calculate the size and hexdigest of an open file.
 
771
 
 
772
    The file cursor should be already at the start and
 
773
    the caller is responsible for closing the file afterwards.
 
774
    """
 
775
    size = 0
 
776
    s = sha()
 
777
    BUFSIZE = 128<<10
 
778
    while True:
 
779
        b = f.read(BUFSIZE)
 
780
        if not b:
 
781
            break
 
782
        size += len(b)
 
783
        s.update(b)
 
784
    return size, s.hexdigest()
 
785
 
 
786
 
 
787
def sha_file_by_name(fname):
 
788
    """Calculate the SHA1 of a file by reading the full text"""
 
789
    s = sha()
 
790
    f = os.open(fname, os.O_RDONLY | O_BINARY | O_NOINHERIT)
 
791
    try:
 
792
        while True:
 
793
            b = os.read(f, 1<<16)
 
794
            if not b:
 
795
                return s.hexdigest()
 
796
            s.update(b)
 
797
    finally:
 
798
        os.close(f)
 
799
 
 
800
 
 
801
def sha_strings(strings, _factory=sha):
266
802
    """Return the sha-1 of concatenation of strings"""
267
 
    s = sha.new()
 
803
    s = _factory()
268
804
    map(s.update, strings)
269
805
    return s.hexdigest()
270
806
 
271
807
 
272
 
def sha_string(f):
273
 
    s = sha.new()
274
 
    s.update(f)
275
 
    return s.hexdigest()
 
808
def sha_string(f, _factory=sha):
 
809
    return _factory(f).hexdigest()
276
810
 
277
811
 
278
812
def fingerprint_file(f):
279
 
    s = sha.new()
280
813
    b = f.read()
281
 
    s.update(b)
282
 
    size = len(b)
283
 
    return {'size': size,
284
 
            'sha1': s.hexdigest()}
 
814
    return {'size': len(b),
 
815
            'sha1': sha(b).hexdigest()}
285
816
 
286
817
 
287
818
def compare_files(a, b):
298
829
 
299
830
def local_time_offset(t=None):
300
831
    """Return offset of local zone from GMT, either at present or at time t."""
301
 
    # python2.3 localtime() can't take None
302
 
    if t == None:
 
832
    if t is None:
303
833
        t = time.time()
304
 
        
305
 
    if time.localtime(t).tm_isdst and time.daylight:
306
 
        return -time.altzone
307
 
    else:
308
 
        return -time.timezone
309
 
 
310
 
    
311
 
def format_date(t, offset=0, timezone='original', date_fmt=None, 
 
834
    offset = datetime.fromtimestamp(t) - datetime.utcfromtimestamp(t)
 
835
    return offset.days * 86400 + offset.seconds
 
836
 
 
837
weekdays = ['Mon', 'Tue', 'Wed', 'Thu', 'Fri', 'Sat', 'Sun']
 
838
_default_format_by_weekday_num = [wd + " %Y-%m-%d %H:%M:%S" for wd in weekdays]
 
839
 
 
840
 
 
841
def format_date(t, offset=0, timezone='original', date_fmt=None,
312
842
                show_offset=True):
313
 
    ## TODO: Perhaps a global option to use either universal or local time?
314
 
    ## Or perhaps just let people set $TZ?
315
 
    assert isinstance(t, float)
316
 
    
 
843
    """Return a formatted date string.
 
844
 
 
845
    :param t: Seconds since the epoch.
 
846
    :param offset: Timezone offset in seconds east of utc.
 
847
    :param timezone: How to display the time: 'utc', 'original' for the
 
848
         timezone specified by offset, or 'local' for the process's current
 
849
         timezone.
 
850
    :param date_fmt: strftime format.
 
851
    :param show_offset: Whether to append the timezone.
 
852
    """
 
853
    (date_fmt, tt, offset_str) = \
 
854
               _format_date(t, offset, timezone, date_fmt, show_offset)
 
855
    date_fmt = date_fmt.replace('%a', weekdays[tt[6]])
 
856
    date_str = time.strftime(date_fmt, tt)
 
857
    return date_str + offset_str
 
858
 
 
859
 
 
860
# Cache of formatted offset strings
 
861
_offset_cache = {}
 
862
 
 
863
 
 
864
def format_date_with_offset_in_original_timezone(t, offset=0,
 
865
    _cache=_offset_cache):
 
866
    """Return a formatted date string in the original timezone.
 
867
 
 
868
    This routine may be faster then format_date.
 
869
 
 
870
    :param t: Seconds since the epoch.
 
871
    :param offset: Timezone offset in seconds east of utc.
 
872
    """
 
873
    if offset is None:
 
874
        offset = 0
 
875
    tt = time.gmtime(t + offset)
 
876
    date_fmt = _default_format_by_weekday_num[tt[6]]
 
877
    date_str = time.strftime(date_fmt, tt)
 
878
    offset_str = _cache.get(offset, None)
 
879
    if offset_str is None:
 
880
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
 
881
        _cache[offset] = offset_str
 
882
    return date_str + offset_str
 
883
 
 
884
 
 
885
def format_local_date(t, offset=0, timezone='original', date_fmt=None,
 
886
                      show_offset=True):
 
887
    """Return an unicode date string formatted according to the current locale.
 
888
 
 
889
    :param t: Seconds since the epoch.
 
890
    :param offset: Timezone offset in seconds east of utc.
 
891
    :param timezone: How to display the time: 'utc', 'original' for the
 
892
         timezone specified by offset, or 'local' for the process's current
 
893
         timezone.
 
894
    :param date_fmt: strftime format.
 
895
    :param show_offset: Whether to append the timezone.
 
896
    """
 
897
    (date_fmt, tt, offset_str) = \
 
898
               _format_date(t, offset, timezone, date_fmt, show_offset)
 
899
    date_str = time.strftime(date_fmt, tt)
 
900
    if not isinstance(date_str, unicode):
 
901
        date_str = date_str.decode(get_user_encoding(), 'replace')
 
902
    return date_str + offset_str
 
903
 
 
904
 
 
905
def _format_date(t, offset, timezone, date_fmt, show_offset):
317
906
    if timezone == 'utc':
318
907
        tt = time.gmtime(t)
319
908
        offset = 0
320
909
    elif timezone == 'original':
321
 
        if offset == None:
 
910
        if offset is None:
322
911
            offset = 0
323
912
        tt = time.gmtime(t + offset)
324
913
    elif timezone == 'local':
325
914
        tt = time.localtime(t)
326
915
        offset = local_time_offset(t)
327
916
    else:
328
 
        raise BzrError("unsupported timezone format %r" % timezone,
329
 
                       ['options are "utc", "original", "local"'])
 
917
        raise errors.UnsupportedTimezoneFormat(timezone)
330
918
    if date_fmt is None:
331
919
        date_fmt = "%a %Y-%m-%d %H:%M:%S"
332
920
    if show_offset:
333
921
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
334
922
    else:
335
923
        offset_str = ''
336
 
    return (time.strftime(date_fmt, tt) +  offset_str)
 
924
    return (date_fmt, tt, offset_str)
337
925
 
338
926
 
339
927
def compact_date(when):
340
928
    return time.strftime('%Y%m%d%H%M%S', time.gmtime(when))
341
 
    
342
 
 
 
929
 
 
930
 
 
931
def format_delta(delta):
 
932
    """Get a nice looking string for a time delta.
 
933
 
 
934
    :param delta: The time difference in seconds, can be positive or negative.
 
935
        positive indicates time in the past, negative indicates time in the
 
936
        future. (usually time.time() - stored_time)
 
937
    :return: String formatted to show approximate resolution
 
938
    """
 
939
    delta = int(delta)
 
940
    if delta >= 0:
 
941
        direction = 'ago'
 
942
    else:
 
943
        direction = 'in the future'
 
944
        delta = -delta
 
945
 
 
946
    seconds = delta
 
947
    if seconds < 90: # print seconds up to 90 seconds
 
948
        if seconds == 1:
 
949
            return '%d second %s' % (seconds, direction,)
 
950
        else:
 
951
            return '%d seconds %s' % (seconds, direction)
 
952
 
 
953
    minutes = int(seconds / 60)
 
954
    seconds -= 60 * minutes
 
955
    if seconds == 1:
 
956
        plural_seconds = ''
 
957
    else:
 
958
        plural_seconds = 's'
 
959
    if minutes < 90: # print minutes, seconds up to 90 minutes
 
960
        if minutes == 1:
 
961
            return '%d minute, %d second%s %s' % (
 
962
                    minutes, seconds, plural_seconds, direction)
 
963
        else:
 
964
            return '%d minutes, %d second%s %s' % (
 
965
                    minutes, seconds, plural_seconds, direction)
 
966
 
 
967
    hours = int(minutes / 60)
 
968
    minutes -= 60 * hours
 
969
    if minutes == 1:
 
970
        plural_minutes = ''
 
971
    else:
 
972
        plural_minutes = 's'
 
973
 
 
974
    if hours == 1:
 
975
        return '%d hour, %d minute%s %s' % (hours, minutes,
 
976
                                            plural_minutes, direction)
 
977
    return '%d hours, %d minute%s %s' % (hours, minutes,
 
978
                                         plural_minutes, direction)
343
979
 
344
980
def filesize(f):
345
981
    """Return size of given open file."""
346
 
    return os.fstat(f.fileno())[ST_SIZE]
347
 
 
348
 
# Define rand_bytes based on platform.
349
 
try:
350
 
    # Python 2.4 and later have os.urandom,
351
 
    # but it doesn't work on some arches
352
 
    os.urandom(1)
353
 
    rand_bytes = os.urandom
354
 
except (NotImplementedError, AttributeError):
355
 
    # If python doesn't have os.urandom, or it doesn't work,
356
 
    # then try to first pull random data from /dev/urandom
357
 
    if os.path.exists("/dev/urandom"):
358
 
        rand_bytes = file('/dev/urandom', 'rb').read
359
 
    # Otherwise, use this hack as a last resort
360
 
    else:
 
982
    return os.fstat(f.fileno())[stat.ST_SIZE]
 
983
 
 
984
 
 
985
# Alias os.urandom to support platforms (which?) without /dev/urandom and 
 
986
# override if it doesn't work. Avoid checking on windows where there is
 
987
# significant initialisation cost that can be avoided for some bzr calls.
 
988
 
 
989
rand_bytes = os.urandom
 
990
 
 
991
if rand_bytes.__module__ != "nt":
 
992
    try:
 
993
        rand_bytes(1)
 
994
    except NotImplementedError:
361
995
        # not well seeded, but better than nothing
362
996
        def rand_bytes(n):
363
997
            import random
367
1001
                n -= 1
368
1002
            return s
369
1003
 
 
1004
 
 
1005
ALNUM = '0123456789abcdefghijklmnopqrstuvwxyz'
 
1006
def rand_chars(num):
 
1007
    """Return a random string of num alphanumeric characters
 
1008
 
 
1009
    The result only contains lowercase chars because it may be used on
 
1010
    case-insensitive filesystems.
 
1011
    """
 
1012
    s = ''
 
1013
    for raw_byte in rand_bytes(num):
 
1014
        s += ALNUM[ord(raw_byte) % 36]
 
1015
    return s
 
1016
 
 
1017
 
370
1018
## TODO: We could later have path objects that remember their list
371
1019
## decomposition (might be too tricksy though.)
372
1020
 
373
1021
def splitpath(p):
374
 
    """Turn string into list of parts.
375
 
 
376
 
    >>> splitpath('a')
377
 
    ['a']
378
 
    >>> splitpath('a/b')
379
 
    ['a', 'b']
380
 
    >>> splitpath('a/./b')
381
 
    ['a', 'b']
382
 
    >>> splitpath('a/.b')
383
 
    ['a', '.b']
384
 
    >>> splitpath('a/../b')
385
 
    Traceback (most recent call last):
386
 
    ...
387
 
    BzrError: sorry, '..' not allowed in path
388
 
    """
389
 
    assert isinstance(p, types.StringTypes)
390
 
 
 
1022
    """Turn string into list of parts."""
391
1023
    # split on either delimiter because people might use either on
392
1024
    # Windows
393
1025
    ps = re.split(r'[\\/]', p)
395
1027
    rps = []
396
1028
    for f in ps:
397
1029
        if f == '..':
398
 
            raise BzrError("sorry, %r not allowed in path" % f)
 
1030
            raise errors.BzrError(gettext("sorry, %r not allowed in path") % f)
399
1031
        elif (f == '.') or (f == ''):
400
1032
            pass
401
1033
        else:
402
1034
            rps.append(f)
403
1035
    return rps
404
1036
 
 
1037
 
405
1038
def joinpath(p):
406
 
    assert isinstance(p, list)
407
1039
    for f in p:
408
 
        if (f == '..') or (f == None) or (f == ''):
409
 
            raise BzrError("sorry, %r not allowed in path" % f)
410
 
    return os.path.join(*p)
411
 
 
412
 
 
413
 
def appendpath(p1, p2):
414
 
    if p1 == '':
415
 
        return p2
416
 
    else:
417
 
        return os.path.join(p1, p2)
418
 
    
 
1040
        if (f == '..') or (f is None) or (f == ''):
 
1041
            raise errors.BzrError(gettext("sorry, %r not allowed in path") % f)
 
1042
    return pathjoin(*p)
 
1043
 
 
1044
 
 
1045
def parent_directories(filename):
 
1046
    """Return the list of parent directories, deepest first.
 
1047
 
 
1048
    For example, parent_directories("a/b/c") -> ["a/b", "a"].
 
1049
    """
 
1050
    parents = []
 
1051
    parts = splitpath(dirname(filename))
 
1052
    while parts:
 
1053
        parents.append(joinpath(parts))
 
1054
        parts.pop()
 
1055
    return parents
 
1056
 
 
1057
 
 
1058
_extension_load_failures = []
 
1059
 
 
1060
 
 
1061
def failed_to_load_extension(exception):
 
1062
    """Handle failing to load a binary extension.
 
1063
 
 
1064
    This should be called from the ImportError block guarding the attempt to
 
1065
    import the native extension.  If this function returns, the pure-Python
 
1066
    implementation should be loaded instead::
 
1067
 
 
1068
    >>> try:
 
1069
    >>>     import bzrlib._fictional_extension_pyx
 
1070
    >>> except ImportError, e:
 
1071
    >>>     bzrlib.osutils.failed_to_load_extension(e)
 
1072
    >>>     import bzrlib._fictional_extension_py
 
1073
    """
 
1074
    # NB: This docstring is just an example, not a doctest, because doctest
 
1075
    # currently can't cope with the use of lazy imports in this namespace --
 
1076
    # mbp 20090729
 
1077
 
 
1078
    # This currently doesn't report the failure at the time it occurs, because
 
1079
    # they tend to happen very early in startup when we can't check config
 
1080
    # files etc, and also we want to report all failures but not spam the user
 
1081
    # with 10 warnings.
 
1082
    exception_str = str(exception)
 
1083
    if exception_str not in _extension_load_failures:
 
1084
        trace.mutter("failed to load compiled extension: %s" % exception_str)
 
1085
        _extension_load_failures.append(exception_str)
 
1086
 
 
1087
 
 
1088
def report_extension_load_failures():
 
1089
    if not _extension_load_failures:
 
1090
        return
 
1091
    if config.GlobalStack().get('ignore_missing_extensions'):
 
1092
        return
 
1093
    # the warnings framework should by default show this only once
 
1094
    from bzrlib.trace import warning
 
1095
    warning(
 
1096
        "bzr: warning: some compiled extensions could not be loaded; "
 
1097
        "see <https://answers.launchpad.net/bzr/+faq/703>")
 
1098
    # we no longer show the specific missing extensions here, because it makes
 
1099
    # the message too long and scary - see
 
1100
    # https://bugs.launchpad.net/bzr/+bug/430529
 
1101
 
 
1102
 
 
1103
try:
 
1104
    from bzrlib._chunks_to_lines_pyx import chunks_to_lines
 
1105
except ImportError, e:
 
1106
    failed_to_load_extension(e)
 
1107
    from bzrlib._chunks_to_lines_py import chunks_to_lines
 
1108
 
419
1109
 
420
1110
def split_lines(s):
421
1111
    """Split s into lines, but without removing the newline characters."""
422
 
    return StringIO(s).readlines()
 
1112
    # Trivially convert a fulltext into a 'chunked' representation, and let
 
1113
    # chunks_to_lines do the heavy lifting.
 
1114
    if isinstance(s, str):
 
1115
        # chunks_to_lines only supports 8-bit strings
 
1116
        return chunks_to_lines([s])
 
1117
    else:
 
1118
        return _split_lines(s)
 
1119
 
 
1120
 
 
1121
def _split_lines(s):
 
1122
    """Split s into lines, but without removing the newline characters.
 
1123
 
 
1124
    This supports Unicode or plain string objects.
 
1125
    """
 
1126
    lines = s.split('\n')
 
1127
    result = [line + '\n' for line in lines[:-1]]
 
1128
    if lines[-1]:
 
1129
        result.append(lines[-1])
 
1130
    return result
423
1131
 
424
1132
 
425
1133
def hardlinks_good():
429
1137
def link_or_copy(src, dest):
430
1138
    """Hardlink a file, or copy it if it can't be hardlinked."""
431
1139
    if not hardlinks_good():
432
 
        copyfile(src, dest)
 
1140
        shutil.copyfile(src, dest)
433
1141
        return
434
1142
    try:
435
1143
        os.link(src, dest)
436
1144
    except (OSError, IOError), e:
437
1145
        if e.errno != errno.EXDEV:
438
1146
            raise
439
 
        copyfile(src, dest)
 
1147
        shutil.copyfile(src, dest)
 
1148
 
 
1149
 
 
1150
def delete_any(path):
 
1151
    """Delete a file, symlink or directory.
 
1152
 
 
1153
    Will delete even if readonly.
 
1154
    """
 
1155
    try:
 
1156
       _delete_file_or_dir(path)
 
1157
    except (OSError, IOError), e:
 
1158
        if e.errno in (errno.EPERM, errno.EACCES):
 
1159
            # make writable and try again
 
1160
            try:
 
1161
                make_writable(path)
 
1162
            except (OSError, IOError):
 
1163
                pass
 
1164
            _delete_file_or_dir(path)
 
1165
        else:
 
1166
            raise
 
1167
 
 
1168
 
 
1169
def _delete_file_or_dir(path):
 
1170
    # Look Before You Leap (LBYL) is appropriate here instead of Easier to Ask for
 
1171
    # Forgiveness than Permission (EAFP) because:
 
1172
    # - root can damage a solaris file system by using unlink,
 
1173
    # - unlink raises different exceptions on different OSes (linux: EISDIR, win32:
 
1174
    #   EACCES, OSX: EPERM) when invoked on a directory.
 
1175
    if isdir(path): # Takes care of symlinks
 
1176
        os.rmdir(path)
 
1177
    else:
 
1178
        os.unlink(path)
440
1179
 
441
1180
 
442
1181
def has_symlinks():
443
 
    if hasattr(os, 'symlink'):
444
 
        return True
445
 
    else:
446
 
        return False
447
 
        
 
1182
    if getattr(os, 'symlink', None) is not None:
 
1183
        return True
 
1184
    else:
 
1185
        return False
 
1186
 
 
1187
 
 
1188
def has_hardlinks():
 
1189
    if getattr(os, 'link', None) is not None:
 
1190
        return True
 
1191
    else:
 
1192
        return False
 
1193
 
 
1194
 
 
1195
def host_os_dereferences_symlinks():
 
1196
    return (has_symlinks()
 
1197
            and sys.platform not in ('cygwin', 'win32'))
 
1198
 
 
1199
 
 
1200
def readlink(abspath):
 
1201
    """Return a string representing the path to which the symbolic link points.
 
1202
 
 
1203
    :param abspath: The link absolute unicode path.
 
1204
 
 
1205
    This his guaranteed to return the symbolic link in unicode in all python
 
1206
    versions.
 
1207
    """
 
1208
    link = abspath.encode(_fs_enc)
 
1209
    target = os.readlink(link)
 
1210
    target = target.decode(_fs_enc)
 
1211
    return target
 
1212
 
448
1213
 
449
1214
def contains_whitespace(s):
450
1215
    """True if there are any whitespace characters in s."""
451
 
    for ch in string.whitespace:
 
1216
    # string.whitespace can include '\xa0' in certain locales, because it is
 
1217
    # considered "non-breaking-space" as part of ISO-8859-1. But it
 
1218
    # 1) Isn't a breaking whitespace
 
1219
    # 2) Isn't one of ' \t\r\n' which are characters we sometimes use as
 
1220
    #    separators
 
1221
    # 3) '\xa0' isn't unicode safe since it is >128.
 
1222
 
 
1223
    # This should *not* be a unicode set of characters in case the source
 
1224
    # string is not a Unicode string. We can auto-up-cast the characters since
 
1225
    # they are ascii, but we don't want to auto-up-cast the string in case it
 
1226
    # is utf-8
 
1227
    for ch in ' \t\n\r\v\f':
452
1228
        if ch in s:
453
1229
            return True
454
1230
    else:
465
1241
 
466
1242
 
467
1243
def relpath(base, path):
468
 
    """Return path relative to base, or raise exception.
 
1244
    """Return path relative to base, or raise PathNotChild exception.
469
1245
 
470
1246
    The path may be either an absolute path or a path relative to the
471
1247
    current working directory.
472
1248
 
473
1249
    os.path.commonprefix (python2.4) has a bad bug that it works just
474
1250
    on string prefixes, assuming that '/u' is a prefix of '/u2'.  This
475
 
    avoids that problem."""
 
1251
    avoids that problem.
 
1252
 
 
1253
    NOTE: `base` should not have a trailing slash otherwise you'll get
 
1254
    PathNotChild exceptions regardless of `path`.
 
1255
    """
 
1256
 
 
1257
    if len(base) < MIN_ABS_PATHLENGTH:
 
1258
        # must have space for e.g. a drive letter
 
1259
        raise ValueError(gettext('%r is too short to calculate a relative path')
 
1260
            % (base,))
 
1261
 
476
1262
    rp = abspath(path)
477
1263
 
478
1264
    s = []
479
1265
    head = rp
480
 
    while len(head) >= len(base):
 
1266
    while True:
 
1267
        if len(head) <= len(base) and head != base:
 
1268
            raise errors.PathNotChild(rp, base)
481
1269
        if head == base:
482
1270
            break
483
 
        head, tail = os.path.split(head)
 
1271
        head, tail = split(head)
484
1272
        if tail:
485
 
            s.insert(0, tail)
486
 
    else:
487
 
        # XXX This should raise a NotChildPath exception, as its not tied
488
 
        # to branch anymore.
489
 
        raise PathNotChild(rp, base)
490
 
 
491
 
    return os.sep.join(s)
492
 
 
493
 
 
 
1273
            s.append(tail)
 
1274
 
 
1275
    if s:
 
1276
        return pathjoin(*reversed(s))
 
1277
    else:
 
1278
        return ''
 
1279
 
 
1280
 
 
1281
def _cicp_canonical_relpath(base, path):
 
1282
    """Return the canonical path relative to base.
 
1283
 
 
1284
    Like relpath, but on case-insensitive-case-preserving file-systems, this
 
1285
    will return the relpath as stored on the file-system rather than in the
 
1286
    case specified in the input string, for all existing portions of the path.
 
1287
 
 
1288
    This will cause O(N) behaviour if called for every path in a tree; if you
 
1289
    have a number of paths to convert, you should use canonical_relpaths().
 
1290
    """
 
1291
    # TODO: it should be possible to optimize this for Windows by using the
 
1292
    # win32 API FindFiles function to look for the specified name - but using
 
1293
    # os.listdir() still gives us the correct, platform agnostic semantics in
 
1294
    # the short term.
 
1295
 
 
1296
    rel = relpath(base, path)
 
1297
    # '.' will have been turned into ''
 
1298
    if not rel:
 
1299
        return rel
 
1300
 
 
1301
    abs_base = abspath(base)
 
1302
    current = abs_base
 
1303
    _listdir = os.listdir
 
1304
 
 
1305
    # use an explicit iterator so we can easily consume the rest on early exit.
 
1306
    bit_iter = iter(rel.split('/'))
 
1307
    for bit in bit_iter:
 
1308
        lbit = bit.lower()
 
1309
        try:
 
1310
            next_entries = _listdir(current)
 
1311
        except OSError: # enoent, eperm, etc
 
1312
            # We can't find this in the filesystem, so just append the
 
1313
            # remaining bits.
 
1314
            current = pathjoin(current, bit, *list(bit_iter))
 
1315
            break
 
1316
        for look in next_entries:
 
1317
            if lbit == look.lower():
 
1318
                current = pathjoin(current, look)
 
1319
                break
 
1320
        else:
 
1321
            # got to the end, nothing matched, so we just return the
 
1322
            # non-existing bits as they were specified (the filename may be
 
1323
            # the target of a move, for example).
 
1324
            current = pathjoin(current, bit, *list(bit_iter))
 
1325
            break
 
1326
    return current[len(abs_base):].lstrip('/')
 
1327
 
 
1328
# XXX - TODO - we need better detection/integration of case-insensitive
 
1329
# file-systems; Linux often sees FAT32 devices (or NFS-mounted OSX
 
1330
# filesystems), for example, so could probably benefit from the same basic
 
1331
# support there.  For now though, only Windows and OSX get that support, and
 
1332
# they get it for *all* file-systems!
 
1333
if sys.platform in ('win32', 'darwin'):
 
1334
    canonical_relpath = _cicp_canonical_relpath
 
1335
else:
 
1336
    canonical_relpath = relpath
 
1337
 
 
1338
def canonical_relpaths(base, paths):
 
1339
    """Create an iterable to canonicalize a sequence of relative paths.
 
1340
 
 
1341
    The intent is for this implementation to use a cache, vastly speeding
 
1342
    up multiple transformations in the same directory.
 
1343
    """
 
1344
    # but for now, we haven't optimized...
 
1345
    return [canonical_relpath(base, p) for p in paths]
 
1346
 
 
1347
 
 
1348
def decode_filename(filename):
 
1349
    """Decode the filename using the filesystem encoding
 
1350
 
 
1351
    If it is unicode, it is returned.
 
1352
    Otherwise it is decoded from the the filesystem's encoding. If decoding
 
1353
    fails, a errors.BadFilenameEncoding exception is raised.
 
1354
    """
 
1355
    if type(filename) is unicode:
 
1356
        return filename
 
1357
    try:
 
1358
        return filename.decode(_fs_enc)
 
1359
    except UnicodeDecodeError:
 
1360
        raise errors.BadFilenameEncoding(filename, _fs_enc)
 
1361
 
 
1362
 
 
1363
def safe_unicode(unicode_or_utf8_string):
 
1364
    """Coerce unicode_or_utf8_string into unicode.
 
1365
 
 
1366
    If it is unicode, it is returned.
 
1367
    Otherwise it is decoded from utf-8. If decoding fails, the exception is
 
1368
    wrapped in a BzrBadParameterNotUnicode exception.
 
1369
    """
 
1370
    if isinstance(unicode_or_utf8_string, unicode):
 
1371
        return unicode_or_utf8_string
 
1372
    try:
 
1373
        return unicode_or_utf8_string.decode('utf8')
 
1374
    except UnicodeDecodeError:
 
1375
        raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1376
 
 
1377
 
 
1378
def safe_utf8(unicode_or_utf8_string):
 
1379
    """Coerce unicode_or_utf8_string to a utf8 string.
 
1380
 
 
1381
    If it is a str, it is returned.
 
1382
    If it is Unicode, it is encoded into a utf-8 string.
 
1383
    """
 
1384
    if isinstance(unicode_or_utf8_string, str):
 
1385
        # TODO: jam 20070209 This is overkill, and probably has an impact on
 
1386
        #       performance if we are dealing with lots of apis that want a
 
1387
        #       utf-8 revision id
 
1388
        try:
 
1389
            # Make sure it is a valid utf-8 string
 
1390
            unicode_or_utf8_string.decode('utf-8')
 
1391
        except UnicodeDecodeError:
 
1392
            raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1393
        return unicode_or_utf8_string
 
1394
    return unicode_or_utf8_string.encode('utf-8')
 
1395
 
 
1396
 
 
1397
_revision_id_warning = ('Unicode revision ids were deprecated in bzr 0.15.'
 
1398
                        ' Revision id generators should be creating utf8'
 
1399
                        ' revision ids.')
 
1400
 
 
1401
 
 
1402
def safe_revision_id(unicode_or_utf8_string, warn=True):
 
1403
    """Revision ids should now be utf8, but at one point they were unicode.
 
1404
 
 
1405
    :param unicode_or_utf8_string: A possibly Unicode revision_id. (can also be
 
1406
        utf8 or None).
 
1407
    :param warn: Functions that are sanitizing user data can set warn=False
 
1408
    :return: None or a utf8 revision id.
 
1409
    """
 
1410
    if (unicode_or_utf8_string is None
 
1411
        or unicode_or_utf8_string.__class__ == str):
 
1412
        return unicode_or_utf8_string
 
1413
    if warn:
 
1414
        symbol_versioning.warn(_revision_id_warning, DeprecationWarning,
 
1415
                               stacklevel=2)
 
1416
    return cache_utf8.encode(unicode_or_utf8_string)
 
1417
 
 
1418
 
 
1419
_file_id_warning = ('Unicode file ids were deprecated in bzr 0.15. File id'
 
1420
                    ' generators should be creating utf8 file ids.')
 
1421
 
 
1422
 
 
1423
def safe_file_id(unicode_or_utf8_string, warn=True):
 
1424
    """File ids should now be utf8, but at one point they were unicode.
 
1425
 
 
1426
    This is the same as safe_utf8, except it uses the cached encode functions
 
1427
    to save a little bit of performance.
 
1428
 
 
1429
    :param unicode_or_utf8_string: A possibly Unicode file_id. (can also be
 
1430
        utf8 or None).
 
1431
    :param warn: Functions that are sanitizing user data can set warn=False
 
1432
    :return: None or a utf8 file id.
 
1433
    """
 
1434
    if (unicode_or_utf8_string is None
 
1435
        or unicode_or_utf8_string.__class__ == str):
 
1436
        return unicode_or_utf8_string
 
1437
    if warn:
 
1438
        symbol_versioning.warn(_file_id_warning, DeprecationWarning,
 
1439
                               stacklevel=2)
 
1440
    return cache_utf8.encode(unicode_or_utf8_string)
 
1441
 
 
1442
 
 
1443
_platform_normalizes_filenames = False
 
1444
if sys.platform == 'darwin':
 
1445
    _platform_normalizes_filenames = True
 
1446
 
 
1447
 
 
1448
def normalizes_filenames():
 
1449
    """Return True if this platform normalizes unicode filenames.
 
1450
 
 
1451
    Only Mac OSX.
 
1452
    """
 
1453
    return _platform_normalizes_filenames
 
1454
 
 
1455
 
 
1456
def _accessible_normalized_filename(path):
 
1457
    """Get the unicode normalized path, and if you can access the file.
 
1458
 
 
1459
    On platforms where the system normalizes filenames (Mac OSX),
 
1460
    you can access a file by any path which will normalize correctly.
 
1461
    On platforms where the system does not normalize filenames
 
1462
    (everything else), you have to access a file by its exact path.
 
1463
 
 
1464
    Internally, bzr only supports NFC normalization, since that is
 
1465
    the standard for XML documents.
 
1466
 
 
1467
    So return the normalized path, and a flag indicating if the file
 
1468
    can be accessed by that path.
 
1469
    """
 
1470
 
 
1471
    return unicodedata.normalize('NFC', unicode(path)), True
 
1472
 
 
1473
 
 
1474
def _inaccessible_normalized_filename(path):
 
1475
    __doc__ = _accessible_normalized_filename.__doc__
 
1476
 
 
1477
    normalized = unicodedata.normalize('NFC', unicode(path))
 
1478
    return normalized, normalized == path
 
1479
 
 
1480
 
 
1481
if _platform_normalizes_filenames:
 
1482
    normalized_filename = _accessible_normalized_filename
 
1483
else:
 
1484
    normalized_filename = _inaccessible_normalized_filename
 
1485
 
 
1486
 
 
1487
def set_signal_handler(signum, handler, restart_syscall=True):
 
1488
    """A wrapper for signal.signal that also calls siginterrupt(signum, False)
 
1489
    on platforms that support that.
 
1490
 
 
1491
    :param restart_syscall: if set, allow syscalls interrupted by a signal to
 
1492
        automatically restart (by calling `signal.siginterrupt(signum,
 
1493
        False)`).  May be ignored if the feature is not available on this
 
1494
        platform or Python version.
 
1495
    """
 
1496
    try:
 
1497
        import signal
 
1498
        siginterrupt = signal.siginterrupt
 
1499
    except ImportError:
 
1500
        # This python implementation doesn't provide signal support, hence no
 
1501
        # handler exists
 
1502
        return None
 
1503
    except AttributeError:
 
1504
        # siginterrupt doesn't exist on this platform, or for this version
 
1505
        # of Python.
 
1506
        siginterrupt = lambda signum, flag: None
 
1507
    if restart_syscall:
 
1508
        def sig_handler(*args):
 
1509
            # Python resets the siginterrupt flag when a signal is
 
1510
            # received.  <http://bugs.python.org/issue8354>
 
1511
            # As a workaround for some cases, set it back the way we want it.
 
1512
            siginterrupt(signum, False)
 
1513
            # Now run the handler function passed to set_signal_handler.
 
1514
            handler(*args)
 
1515
    else:
 
1516
        sig_handler = handler
 
1517
    old_handler = signal.signal(signum, sig_handler)
 
1518
    if restart_syscall:
 
1519
        siginterrupt(signum, False)
 
1520
    return old_handler
 
1521
 
 
1522
 
 
1523
default_terminal_width = 80
 
1524
"""The default terminal width for ttys.
 
1525
 
 
1526
This is defined so that higher levels can share a common fallback value when
 
1527
terminal_width() returns None.
 
1528
"""
 
1529
 
 
1530
# Keep some state so that terminal_width can detect if _terminal_size has
 
1531
# returned a different size since the process started.  See docstring and
 
1532
# comments of terminal_width for details.
 
1533
# _terminal_size_state has 3 possible values: no_data, unchanged, and changed.
 
1534
_terminal_size_state = 'no_data'
 
1535
_first_terminal_size = None
494
1536
 
495
1537
def terminal_width():
496
 
    """Return estimated terminal width."""
497
 
 
498
 
    # TODO: Do something smart on Windows?
499
 
 
500
 
    # TODO: Is there anything that gets a better update when the window
501
 
    # is resized while the program is running? We could use the Python termcap
502
 
    # library.
 
1538
    """Return terminal width.
 
1539
 
 
1540
    None is returned if the width can't established precisely.
 
1541
 
 
1542
    The rules are:
 
1543
    - if BZR_COLUMNS is set, returns its value
 
1544
    - if there is no controlling terminal, returns None
 
1545
    - query the OS, if the queried size has changed since the last query,
 
1546
      return its value,
 
1547
    - if COLUMNS is set, returns its value,
 
1548
    - if the OS has a value (even though it's never changed), return its value.
 
1549
 
 
1550
    From there, we need to query the OS to get the size of the controlling
 
1551
    terminal.
 
1552
 
 
1553
    On Unices we query the OS by:
 
1554
    - get termios.TIOCGWINSZ
 
1555
    - if an error occurs or a negative value is obtained, returns None
 
1556
 
 
1557
    On Windows we query the OS by:
 
1558
    - win32utils.get_console_size() decides,
 
1559
    - returns None on error (provided default value)
 
1560
    """
 
1561
    # Note to implementors: if changing the rules for determining the width,
 
1562
    # make sure you've considered the behaviour in these cases:
 
1563
    #  - M-x shell in emacs, where $COLUMNS is set and TIOCGWINSZ returns 0,0.
 
1564
    #  - bzr log | less, in bash, where $COLUMNS not set and TIOCGWINSZ returns
 
1565
    #    0,0.
 
1566
    #  - (add more interesting cases here, if you find any)
 
1567
    # Some programs implement "Use $COLUMNS (if set) until SIGWINCH occurs",
 
1568
    # but we don't want to register a signal handler because it is impossible
 
1569
    # to do so without risking EINTR errors in Python <= 2.6.5 (see
 
1570
    # <http://bugs.python.org/issue8354>).  Instead we check TIOCGWINSZ every
 
1571
    # time so we can notice if the reported size has changed, which should have
 
1572
    # a similar effect.
 
1573
 
 
1574
    # If BZR_COLUMNS is set, take it, user is always right
 
1575
    # Except if they specified 0 in which case, impose no limit here
 
1576
    try:
 
1577
        width = int(os.environ['BZR_COLUMNS'])
 
1578
    except (KeyError, ValueError):
 
1579
        width = None
 
1580
    if width is not None:
 
1581
        if width > 0:
 
1582
            return width
 
1583
        else:
 
1584
            return None
 
1585
 
 
1586
    isatty = getattr(sys.stdout, 'isatty', None)
 
1587
    if isatty is None or not isatty():
 
1588
        # Don't guess, setting BZR_COLUMNS is the recommended way to override.
 
1589
        return None
 
1590
 
 
1591
    # Query the OS
 
1592
    width, height = os_size = _terminal_size(None, None)
 
1593
    global _first_terminal_size, _terminal_size_state
 
1594
    if _terminal_size_state == 'no_data':
 
1595
        _first_terminal_size = os_size
 
1596
        _terminal_size_state = 'unchanged'
 
1597
    elif (_terminal_size_state == 'unchanged' and
 
1598
          _first_terminal_size != os_size):
 
1599
        _terminal_size_state = 'changed'
 
1600
 
 
1601
    # If the OS claims to know how wide the terminal is, and this value has
 
1602
    # ever changed, use that.
 
1603
    if _terminal_size_state == 'changed':
 
1604
        if width is not None and width > 0:
 
1605
            return width
 
1606
 
 
1607
    # If COLUMNS is set, use it.
503
1608
    try:
504
1609
        return int(os.environ['COLUMNS'])
505
 
    except (IndexError, KeyError, ValueError):
506
 
        return 80
 
1610
    except (KeyError, ValueError):
 
1611
        pass
 
1612
 
 
1613
    # Finally, use an unchanged size from the OS, if we have one.
 
1614
    if _terminal_size_state == 'unchanged':
 
1615
        if width is not None and width > 0:
 
1616
            return width
 
1617
 
 
1618
    # The width could not be determined.
 
1619
    return None
 
1620
 
 
1621
 
 
1622
def _win32_terminal_size(width, height):
 
1623
    width, height = win32utils.get_console_size(defaultx=width, defaulty=height)
 
1624
    return width, height
 
1625
 
 
1626
 
 
1627
def _ioctl_terminal_size(width, height):
 
1628
    try:
 
1629
        import struct, fcntl, termios
 
1630
        s = struct.pack('HHHH', 0, 0, 0, 0)
 
1631
        x = fcntl.ioctl(1, termios.TIOCGWINSZ, s)
 
1632
        height, width = struct.unpack('HHHH', x)[0:2]
 
1633
    except (IOError, AttributeError):
 
1634
        pass
 
1635
    return width, height
 
1636
 
 
1637
_terminal_size = None
 
1638
"""Returns the terminal size as (width, height).
 
1639
 
 
1640
:param width: Default value for width.
 
1641
:param height: Default value for height.
 
1642
 
 
1643
This is defined specifically for each OS and query the size of the controlling
 
1644
terminal. If any error occurs, the provided default values should be returned.
 
1645
"""
 
1646
if sys.platform == 'win32':
 
1647
    _terminal_size = _win32_terminal_size
 
1648
else:
 
1649
    _terminal_size = _ioctl_terminal_size
 
1650
 
 
1651
 
 
1652
def supports_executable():
 
1653
    return sys.platform != "win32"
 
1654
 
 
1655
 
 
1656
def supports_posix_readonly():
 
1657
    """Return True if 'readonly' has POSIX semantics, False otherwise.
 
1658
 
 
1659
    Notably, a win32 readonly file cannot be deleted, unlike POSIX where the
 
1660
    directory controls creation/deletion, etc.
 
1661
 
 
1662
    And under win32, readonly means that the directory itself cannot be
 
1663
    deleted.  The contents of a readonly directory can be changed, unlike POSIX
 
1664
    where files in readonly directories cannot be added, deleted or renamed.
 
1665
    """
 
1666
    return sys.platform != "win32"
 
1667
 
 
1668
 
 
1669
def set_or_unset_env(env_variable, value):
 
1670
    """Modify the environment, setting or removing the env_variable.
 
1671
 
 
1672
    :param env_variable: The environment variable in question
 
1673
    :param value: The value to set the environment to. If None, then
 
1674
        the variable will be removed.
 
1675
    :return: The original value of the environment variable.
 
1676
    """
 
1677
    orig_val = os.environ.get(env_variable)
 
1678
    if value is None:
 
1679
        if orig_val is not None:
 
1680
            del os.environ[env_variable]
 
1681
    else:
 
1682
        if isinstance(value, unicode):
 
1683
            value = value.encode(get_user_encoding())
 
1684
        os.environ[env_variable] = value
 
1685
    return orig_val
 
1686
 
 
1687
 
 
1688
_validWin32PathRE = re.compile(r'^([A-Za-z]:[/\\])?[^:<>*"?\|]*$')
 
1689
 
 
1690
 
 
1691
def check_legal_path(path):
 
1692
    """Check whether the supplied path is legal.
 
1693
    This is only required on Windows, so we don't test on other platforms
 
1694
    right now.
 
1695
    """
 
1696
    if sys.platform != "win32":
 
1697
        return
 
1698
    if _validWin32PathRE.match(path) is None:
 
1699
        raise errors.IllegalPath(path)
 
1700
 
 
1701
 
 
1702
_WIN32_ERROR_DIRECTORY = 267 # Similar to errno.ENOTDIR
 
1703
 
 
1704
def _is_error_enotdir(e):
 
1705
    """Check if this exception represents ENOTDIR.
 
1706
 
 
1707
    Unfortunately, python is very inconsistent about the exception
 
1708
    here. The cases are:
 
1709
      1) Linux, Mac OSX all versions seem to set errno == ENOTDIR
 
1710
      2) Windows, Python2.4, uses errno == ERROR_DIRECTORY (267)
 
1711
         which is the windows error code.
 
1712
      3) Windows, Python2.5 uses errno == EINVAL and
 
1713
         winerror == ERROR_DIRECTORY
 
1714
 
 
1715
    :param e: An Exception object (expected to be OSError with an errno
 
1716
        attribute, but we should be able to cope with anything)
 
1717
    :return: True if this represents an ENOTDIR error. False otherwise.
 
1718
    """
 
1719
    en = getattr(e, 'errno', None)
 
1720
    if (en == errno.ENOTDIR
 
1721
        or (sys.platform == 'win32'
 
1722
            and (en == _WIN32_ERROR_DIRECTORY
 
1723
                 or (en == errno.EINVAL
 
1724
                     and getattr(e, 'winerror', None) == _WIN32_ERROR_DIRECTORY)
 
1725
        ))):
 
1726
        return True
 
1727
    return False
 
1728
 
 
1729
 
 
1730
def walkdirs(top, prefix=""):
 
1731
    """Yield data about all the directories in a tree.
 
1732
 
 
1733
    This yields all the data about the contents of a directory at a time.
 
1734
    After each directory has been yielded, if the caller has mutated the list
 
1735
    to exclude some directories, they are then not descended into.
 
1736
 
 
1737
    The data yielded is of the form:
 
1738
    ((directory-relpath, directory-path-from-top),
 
1739
    [(relpath, basename, kind, lstat, path-from-top), ...]),
 
1740
     - directory-relpath is the relative path of the directory being returned
 
1741
       with respect to top. prefix is prepended to this.
 
1742
     - directory-path-from-root is the path including top for this directory.
 
1743
       It is suitable for use with os functions.
 
1744
     - relpath is the relative path within the subtree being walked.
 
1745
     - basename is the basename of the path
 
1746
     - kind is the kind of the file now. If unknown then the file is not
 
1747
       present within the tree - but it may be recorded as versioned. See
 
1748
       versioned_kind.
 
1749
     - lstat is the stat data *if* the file was statted.
 
1750
     - planned, not implemented:
 
1751
       path_from_tree_root is the path from the root of the tree.
 
1752
 
 
1753
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This
 
1754
        allows one to walk a subtree but get paths that are relative to a tree
 
1755
        rooted higher up.
 
1756
    :return: an iterator over the dirs.
 
1757
    """
 
1758
    #TODO there is a bit of a smell where the results of the directory-
 
1759
    # summary in this, and the path from the root, may not agree
 
1760
    # depending on top and prefix - i.e. ./foo and foo as a pair leads to
 
1761
    # potentially confusing output. We should make this more robust - but
 
1762
    # not at a speed cost. RBC 20060731
 
1763
    _lstat = os.lstat
 
1764
    _directory = _directory_kind
 
1765
    _listdir = os.listdir
 
1766
    _kind_from_mode = file_kind_from_stat_mode
 
1767
    pending = [(safe_unicode(prefix), "", _directory, None, safe_unicode(top))]
 
1768
    while pending:
 
1769
        # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
 
1770
        relroot, _, _, _, top = pending.pop()
 
1771
        if relroot:
 
1772
            relprefix = relroot + u'/'
 
1773
        else:
 
1774
            relprefix = ''
 
1775
        top_slash = top + u'/'
 
1776
 
 
1777
        dirblock = []
 
1778
        append = dirblock.append
 
1779
        try:
 
1780
            names = sorted(map(decode_filename, _listdir(top)))
 
1781
        except OSError, e:
 
1782
            if not _is_error_enotdir(e):
 
1783
                raise
 
1784
        else:
 
1785
            for name in names:
 
1786
                abspath = top_slash + name
 
1787
                statvalue = _lstat(abspath)
 
1788
                kind = _kind_from_mode(statvalue.st_mode)
 
1789
                append((relprefix + name, name, kind, statvalue, abspath))
 
1790
        yield (relroot, top), dirblock
 
1791
 
 
1792
        # push the user specified dirs from dirblock
 
1793
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
 
1794
 
 
1795
 
 
1796
class DirReader(object):
 
1797
    """An interface for reading directories."""
 
1798
 
 
1799
    def top_prefix_to_starting_dir(self, top, prefix=""):
 
1800
        """Converts top and prefix to a starting dir entry
 
1801
 
 
1802
        :param top: A utf8 path
 
1803
        :param prefix: An optional utf8 path to prefix output relative paths
 
1804
            with.
 
1805
        :return: A tuple starting with prefix, and ending with the native
 
1806
            encoding of top.
 
1807
        """
 
1808
        raise NotImplementedError(self.top_prefix_to_starting_dir)
 
1809
 
 
1810
    def read_dir(self, prefix, top):
 
1811
        """Read a specific dir.
 
1812
 
 
1813
        :param prefix: A utf8 prefix to be preprended to the path basenames.
 
1814
        :param top: A natively encoded path to read.
 
1815
        :return: A list of the directories contents. Each item contains:
 
1816
            (utf8_relpath, utf8_name, kind, lstatvalue, native_abspath)
 
1817
        """
 
1818
        raise NotImplementedError(self.read_dir)
 
1819
 
 
1820
 
 
1821
_selected_dir_reader = None
 
1822
 
 
1823
 
 
1824
def _walkdirs_utf8(top, prefix=""):
 
1825
    """Yield data about all the directories in a tree.
 
1826
 
 
1827
    This yields the same information as walkdirs() only each entry is yielded
 
1828
    in utf-8. On platforms which have a filesystem encoding of utf8 the paths
 
1829
    are returned as exact byte-strings.
 
1830
 
 
1831
    :return: yields a tuple of (dir_info, [file_info])
 
1832
        dir_info is (utf8_relpath, path-from-top)
 
1833
        file_info is (utf8_relpath, utf8_name, kind, lstat, path-from-top)
 
1834
        if top is an absolute path, path-from-top is also an absolute path.
 
1835
        path-from-top might be unicode or utf8, but it is the correct path to
 
1836
        pass to os functions to affect the file in question. (such as os.lstat)
 
1837
    """
 
1838
    global _selected_dir_reader
 
1839
    if _selected_dir_reader is None:
 
1840
        if sys.platform == "win32" and win32utils.winver == 'Windows NT':
 
1841
            # Win98 doesn't have unicode apis like FindFirstFileW
 
1842
            # TODO: We possibly could support Win98 by falling back to the
 
1843
            #       original FindFirstFile, and using TCHAR instead of WCHAR,
 
1844
            #       but that gets a bit tricky, and requires custom compiling
 
1845
            #       for win98 anyway.
 
1846
            try:
 
1847
                from bzrlib._walkdirs_win32 import Win32ReadDir
 
1848
                _selected_dir_reader = Win32ReadDir()
 
1849
            except ImportError:
 
1850
                pass
 
1851
        elif _fs_enc in ('utf-8', 'ascii'):
 
1852
            try:
 
1853
                from bzrlib._readdir_pyx import UTF8DirReader
 
1854
                _selected_dir_reader = UTF8DirReader()
 
1855
            except ImportError, e:
 
1856
                failed_to_load_extension(e)
 
1857
                pass
 
1858
 
 
1859
    if _selected_dir_reader is None:
 
1860
        # Fallback to the python version
 
1861
        _selected_dir_reader = UnicodeDirReader()
 
1862
 
 
1863
    # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
 
1864
    # But we don't actually uses 1-3 in pending, so set them to None
 
1865
    pending = [[_selected_dir_reader.top_prefix_to_starting_dir(top, prefix)]]
 
1866
    read_dir = _selected_dir_reader.read_dir
 
1867
    _directory = _directory_kind
 
1868
    while pending:
 
1869
        relroot, _, _, _, top = pending[-1].pop()
 
1870
        if not pending[-1]:
 
1871
            pending.pop()
 
1872
        dirblock = sorted(read_dir(relroot, top))
 
1873
        yield (relroot, top), dirblock
 
1874
        # push the user specified dirs from dirblock
 
1875
        next = [d for d in reversed(dirblock) if d[2] == _directory]
 
1876
        if next:
 
1877
            pending.append(next)
 
1878
 
 
1879
 
 
1880
class UnicodeDirReader(DirReader):
 
1881
    """A dir reader for non-utf8 file systems, which transcodes."""
 
1882
 
 
1883
    __slots__ = ['_utf8_encode']
 
1884
 
 
1885
    def __init__(self):
 
1886
        self._utf8_encode = codecs.getencoder('utf8')
 
1887
 
 
1888
    def top_prefix_to_starting_dir(self, top, prefix=""):
 
1889
        """See DirReader.top_prefix_to_starting_dir."""
 
1890
        return (safe_utf8(prefix), None, None, None, safe_unicode(top))
 
1891
 
 
1892
    def read_dir(self, prefix, top):
 
1893
        """Read a single directory from a non-utf8 file system.
 
1894
 
 
1895
        top, and the abspath element in the output are unicode, all other paths
 
1896
        are utf8. Local disk IO is done via unicode calls to listdir etc.
 
1897
 
 
1898
        This is currently the fallback code path when the filesystem encoding is
 
1899
        not UTF-8. It may be better to implement an alternative so that we can
 
1900
        safely handle paths that are not properly decodable in the current
 
1901
        encoding.
 
1902
 
 
1903
        See DirReader.read_dir for details.
 
1904
        """
 
1905
        _utf8_encode = self._utf8_encode
 
1906
        _lstat = os.lstat
 
1907
        _listdir = os.listdir
 
1908
        _kind_from_mode = file_kind_from_stat_mode
 
1909
 
 
1910
        if prefix:
 
1911
            relprefix = prefix + '/'
 
1912
        else:
 
1913
            relprefix = ''
 
1914
        top_slash = top + u'/'
 
1915
 
 
1916
        dirblock = []
 
1917
        append = dirblock.append
 
1918
        for name in sorted(_listdir(top)):
 
1919
            try:
 
1920
                name_utf8 = _utf8_encode(name)[0]
 
1921
            except UnicodeDecodeError:
 
1922
                raise errors.BadFilenameEncoding(
 
1923
                    _utf8_encode(relprefix)[0] + name, _fs_enc)
 
1924
            abspath = top_slash + name
 
1925
            statvalue = _lstat(abspath)
 
1926
            kind = _kind_from_mode(statvalue.st_mode)
 
1927
            append((relprefix + name_utf8, name_utf8, kind, statvalue, abspath))
 
1928
        return dirblock
 
1929
 
 
1930
 
 
1931
def copy_tree(from_path, to_path, handlers={}):
 
1932
    """Copy all of the entries in from_path into to_path.
 
1933
 
 
1934
    :param from_path: The base directory to copy.
 
1935
    :param to_path: The target directory. If it does not exist, it will
 
1936
        be created.
 
1937
    :param handlers: A dictionary of functions, which takes a source and
 
1938
        destinations for files, directories, etc.
 
1939
        It is keyed on the file kind, such as 'directory', 'symlink', or 'file'
 
1940
        'file', 'directory', and 'symlink' should always exist.
 
1941
        If they are missing, they will be replaced with 'os.mkdir()',
 
1942
        'os.readlink() + os.symlink()', and 'shutil.copy2()', respectively.
 
1943
    """
 
1944
    # Now, just copy the existing cached tree to the new location
 
1945
    # We use a cheap trick here.
 
1946
    # Absolute paths are prefixed with the first parameter
 
1947
    # relative paths are prefixed with the second.
 
1948
    # So we can get both the source and target returned
 
1949
    # without any extra work.
 
1950
 
 
1951
    def copy_dir(source, dest):
 
1952
        os.mkdir(dest)
 
1953
 
 
1954
    def copy_link(source, dest):
 
1955
        """Copy the contents of a symlink"""
 
1956
        link_to = os.readlink(source)
 
1957
        os.symlink(link_to, dest)
 
1958
 
 
1959
    real_handlers = {'file':shutil.copy2,
 
1960
                     'symlink':copy_link,
 
1961
                     'directory':copy_dir,
 
1962
                    }
 
1963
    real_handlers.update(handlers)
 
1964
 
 
1965
    if not os.path.exists(to_path):
 
1966
        real_handlers['directory'](from_path, to_path)
 
1967
 
 
1968
    for dir_info, entries in walkdirs(from_path, prefix=to_path):
 
1969
        for relpath, name, kind, st, abspath in entries:
 
1970
            real_handlers[kind](abspath, relpath)
 
1971
 
 
1972
 
 
1973
def copy_ownership_from_path(dst, src=None):
 
1974
    """Copy usr/grp ownership from src file/dir to dst file/dir.
 
1975
 
 
1976
    If src is None, the containing directory is used as source. If chown
 
1977
    fails, the error is ignored and a warning is printed.
 
1978
    """
 
1979
    chown = getattr(os, 'chown', None)
 
1980
    if chown is None:
 
1981
        return
 
1982
 
 
1983
    if src == None:
 
1984
        src = os.path.dirname(dst)
 
1985
        if src == '':
 
1986
            src = '.'
 
1987
 
 
1988
    try:
 
1989
        s = os.stat(src)
 
1990
        chown(dst, s.st_uid, s.st_gid)
 
1991
    except OSError, e:
 
1992
        trace.warning(
 
1993
            'Unable to copy ownership from "%s" to "%s". '
 
1994
            'You may want to set it manually.', src, dst)
 
1995
        trace.log_exception_quietly()
 
1996
 
 
1997
 
 
1998
def path_prefix_key(path):
 
1999
    """Generate a prefix-order path key for path.
 
2000
 
 
2001
    This can be used to sort paths in the same way that walkdirs does.
 
2002
    """
 
2003
    return (dirname(path) , path)
 
2004
 
 
2005
 
 
2006
def compare_paths_prefix_order(path_a, path_b):
 
2007
    """Compare path_a and path_b to generate the same order walkdirs uses."""
 
2008
    key_a = path_prefix_key(path_a)
 
2009
    key_b = path_prefix_key(path_b)
 
2010
    return cmp(key_a, key_b)
 
2011
 
 
2012
 
 
2013
_cached_user_encoding = None
 
2014
 
 
2015
 
 
2016
def get_user_encoding(use_cache=DEPRECATED_PARAMETER):
 
2017
    """Find out what the preferred user encoding is.
 
2018
 
 
2019
    This is generally the encoding that is used for command line parameters
 
2020
    and file contents. This may be different from the terminal encoding
 
2021
    or the filesystem encoding.
 
2022
 
 
2023
    :return: A string defining the preferred user encoding
 
2024
    """
 
2025
    global _cached_user_encoding
 
2026
    if deprecated_passed(use_cache):
 
2027
        warn_deprecated("use_cache should only have been used for tests",
 
2028
            DeprecationWarning, stacklevel=2) 
 
2029
    if _cached_user_encoding is not None:
 
2030
        return _cached_user_encoding
 
2031
 
 
2032
    if os.name == 'posix' and getattr(locale, 'CODESET', None) is not None:
 
2033
        # Use the existing locale settings and call nl_langinfo directly
 
2034
        # rather than going through getpreferredencoding. This avoids
 
2035
        # <http://bugs.python.org/issue6202> on OSX Python 2.6 and the
 
2036
        # possibility of the setlocale call throwing an error.
 
2037
        user_encoding = locale.nl_langinfo(locale.CODESET)
 
2038
    else:
 
2039
        # GZ 2011-12-19: On windows could call GetACP directly instead.
 
2040
        user_encoding = locale.getpreferredencoding(False)
 
2041
 
 
2042
    try:
 
2043
        user_encoding = codecs.lookup(user_encoding).name
 
2044
    except LookupError:
 
2045
        if user_encoding not in ("", "cp0"):
 
2046
            sys.stderr.write('bzr: warning:'
 
2047
                             ' unknown encoding %s.'
 
2048
                             ' Continuing with ascii encoding.\n'
 
2049
                             % user_encoding
 
2050
                            )
 
2051
        user_encoding = 'ascii'
 
2052
    else:
 
2053
        # Get 'ascii' when setlocale has not been called or LANG=C or unset.
 
2054
        if user_encoding == 'ascii':
 
2055
            if sys.platform == 'darwin':
 
2056
                # OSX is special-cased in Python to have a UTF-8 filesystem
 
2057
                # encoding and previously had LANG set here if not present.
 
2058
                user_encoding = 'utf-8'
 
2059
            # GZ 2011-12-19: Maybe UTF-8 should be the default in this case
 
2060
            #                for some other posix platforms as well.
 
2061
 
 
2062
    _cached_user_encoding = user_encoding
 
2063
    return user_encoding
 
2064
 
 
2065
 
 
2066
def get_diff_header_encoding():
 
2067
    return get_terminal_encoding()
 
2068
 
 
2069
 
 
2070
def get_host_name():
 
2071
    """Return the current unicode host name.
 
2072
 
 
2073
    This is meant to be used in place of socket.gethostname() because that
 
2074
    behaves inconsistently on different platforms.
 
2075
    """
 
2076
    if sys.platform == "win32":
 
2077
        return win32utils.get_host_name()
 
2078
    else:
 
2079
        import socket
 
2080
        return socket.gethostname().decode(get_user_encoding())
 
2081
 
 
2082
 
 
2083
# We must not read/write any more than 64k at a time from/to a socket so we
 
2084
# don't risk "no buffer space available" errors on some platforms.  Windows in
 
2085
# particular is likely to throw WSAECONNABORTED or WSAENOBUFS if given too much
 
2086
# data at once.
 
2087
MAX_SOCKET_CHUNK = 64 * 1024
 
2088
 
 
2089
_end_of_stream_errors = [errno.ECONNRESET, errno.EPIPE, errno.EINVAL]
 
2090
for _eno in ['WSAECONNRESET', 'WSAECONNABORTED']:
 
2091
    _eno = getattr(errno, _eno, None)
 
2092
    if _eno is not None:
 
2093
        _end_of_stream_errors.append(_eno)
 
2094
del _eno
 
2095
 
 
2096
 
 
2097
def read_bytes_from_socket(sock, report_activity=None,
 
2098
        max_read_size=MAX_SOCKET_CHUNK):
 
2099
    """Read up to max_read_size of bytes from sock and notify of progress.
 
2100
 
 
2101
    Translates "Connection reset by peer" into file-like EOF (return an
 
2102
    empty string rather than raise an error), and repeats the recv if
 
2103
    interrupted by a signal.
 
2104
    """
 
2105
    while 1:
 
2106
        try:
 
2107
            bytes = sock.recv(max_read_size)
 
2108
        except socket.error, e:
 
2109
            eno = e.args[0]
 
2110
            if eno in _end_of_stream_errors:
 
2111
                # The connection was closed by the other side.  Callers expect
 
2112
                # an empty string to signal end-of-stream.
 
2113
                return ""
 
2114
            elif eno == errno.EINTR:
 
2115
                # Retry the interrupted recv.
 
2116
                continue
 
2117
            raise
 
2118
        else:
 
2119
            if report_activity is not None:
 
2120
                report_activity(len(bytes), 'read')
 
2121
            return bytes
 
2122
 
 
2123
 
 
2124
def recv_all(socket, count):
 
2125
    """Receive an exact number of bytes.
 
2126
 
 
2127
    Regular Socket.recv() may return less than the requested number of bytes,
 
2128
    depending on what's in the OS buffer.  MSG_WAITALL is not available
 
2129
    on all platforms, but this should work everywhere.  This will return
 
2130
    less than the requested amount if the remote end closes.
 
2131
 
 
2132
    This isn't optimized and is intended mostly for use in testing.
 
2133
    """
 
2134
    b = ''
 
2135
    while len(b) < count:
 
2136
        new = read_bytes_from_socket(socket, None, count - len(b))
 
2137
        if new == '':
 
2138
            break # eof
 
2139
        b += new
 
2140
    return b
 
2141
 
 
2142
 
 
2143
def send_all(sock, bytes, report_activity=None):
 
2144
    """Send all bytes on a socket.
 
2145
 
 
2146
    Breaks large blocks in smaller chunks to avoid buffering limitations on
 
2147
    some platforms, and catches EINTR which may be thrown if the send is
 
2148
    interrupted by a signal.
 
2149
 
 
2150
    This is preferred to socket.sendall(), because it avoids portability bugs
 
2151
    and provides activity reporting.
 
2152
 
 
2153
    :param report_activity: Call this as bytes are read, see
 
2154
        Transport._report_activity
 
2155
    """
 
2156
    sent_total = 0
 
2157
    byte_count = len(bytes)
 
2158
    while sent_total < byte_count:
 
2159
        try:
 
2160
            sent = sock.send(buffer(bytes, sent_total, MAX_SOCKET_CHUNK))
 
2161
        except (socket.error, IOError), e:
 
2162
            if e.args[0] in _end_of_stream_errors:
 
2163
                raise errors.ConnectionReset(
 
2164
                    "Error trying to write to socket", e)
 
2165
            if e.args[0] != errno.EINTR:
 
2166
                raise
 
2167
        else:
 
2168
            if sent == 0:
 
2169
                raise errors.ConnectionReset('Sending to %s returned 0 bytes'
 
2170
                                             % (sock,))
 
2171
            sent_total += sent
 
2172
            if report_activity is not None:
 
2173
                report_activity(sent, 'write')
 
2174
 
 
2175
 
 
2176
def connect_socket(address):
 
2177
    # Slight variation of the socket.create_connection() function (provided by
 
2178
    # python-2.6) that can fail if getaddrinfo returns an empty list. We also
 
2179
    # provide it for previous python versions. Also, we don't use the timeout
 
2180
    # parameter (provided by the python implementation) so we don't implement
 
2181
    # it either).
 
2182
    err = socket.error('getaddrinfo returns an empty list')
 
2183
    host, port = address
 
2184
    for res in socket.getaddrinfo(host, port, 0, socket.SOCK_STREAM):
 
2185
        af, socktype, proto, canonname, sa = res
 
2186
        sock = None
 
2187
        try:
 
2188
            sock = socket.socket(af, socktype, proto)
 
2189
            sock.connect(sa)
 
2190
            return sock
 
2191
 
 
2192
        except socket.error, err:
 
2193
            # 'err' is now the most recent error
 
2194
            if sock is not None:
 
2195
                sock.close()
 
2196
    raise err
 
2197
 
 
2198
 
 
2199
def dereference_path(path):
 
2200
    """Determine the real path to a file.
 
2201
 
 
2202
    All parent elements are dereferenced.  But the file itself is not
 
2203
    dereferenced.
 
2204
    :param path: The original path.  May be absolute or relative.
 
2205
    :return: the real path *to* the file
 
2206
    """
 
2207
    parent, base = os.path.split(path)
 
2208
    # The pathjoin for '.' is a workaround for Python bug #1213894.
 
2209
    # (initial path components aren't dereferenced)
 
2210
    return pathjoin(realpath(pathjoin('.', parent)), base)
 
2211
 
 
2212
 
 
2213
def supports_mapi():
 
2214
    """Return True if we can use MAPI to launch a mail client."""
 
2215
    return sys.platform == "win32"
 
2216
 
 
2217
 
 
2218
def resource_string(package, resource_name):
 
2219
    """Load a resource from a package and return it as a string.
 
2220
 
 
2221
    Note: Only packages that start with bzrlib are currently supported.
 
2222
 
 
2223
    This is designed to be a lightweight implementation of resource
 
2224
    loading in a way which is API compatible with the same API from
 
2225
    pkg_resources. See
 
2226
    http://peak.telecommunity.com/DevCenter/PkgResources#basic-resource-access.
 
2227
    If and when pkg_resources becomes a standard library, this routine
 
2228
    can delegate to it.
 
2229
    """
 
2230
    # Check package name is within bzrlib
 
2231
    if package == "bzrlib":
 
2232
        resource_relpath = resource_name
 
2233
    elif package.startswith("bzrlib."):
 
2234
        package = package[len("bzrlib."):].replace('.', os.sep)
 
2235
        resource_relpath = pathjoin(package, resource_name)
 
2236
    else:
 
2237
        raise errors.BzrError('resource package %s not in bzrlib' % package)
 
2238
 
 
2239
    # Map the resource to a file and read its contents
 
2240
    base = dirname(bzrlib.__file__)
 
2241
    if getattr(sys, 'frozen', None):    # bzr.exe
 
2242
        base = abspath(pathjoin(base, '..', '..'))
 
2243
    f = file(pathjoin(base, resource_relpath), "rU")
 
2244
    try:
 
2245
        return f.read()
 
2246
    finally:
 
2247
        f.close()
 
2248
 
 
2249
def file_kind_from_stat_mode_thunk(mode):
 
2250
    global file_kind_from_stat_mode
 
2251
    if file_kind_from_stat_mode is file_kind_from_stat_mode_thunk:
 
2252
        try:
 
2253
            from bzrlib._readdir_pyx import UTF8DirReader
 
2254
            file_kind_from_stat_mode = UTF8DirReader().kind_from_mode
 
2255
        except ImportError, e:
 
2256
            # This is one time where we won't warn that an extension failed to
 
2257
            # load. The extension is never available on Windows anyway.
 
2258
            from bzrlib._readdir_py import (
 
2259
                _kind_from_mode as file_kind_from_stat_mode
 
2260
                )
 
2261
    return file_kind_from_stat_mode(mode)
 
2262
file_kind_from_stat_mode = file_kind_from_stat_mode_thunk
 
2263
 
 
2264
def file_stat(f, _lstat=os.lstat):
 
2265
    try:
 
2266
        # XXX cache?
 
2267
        return _lstat(f)
 
2268
    except OSError, e:
 
2269
        if getattr(e, 'errno', None) in (errno.ENOENT, errno.ENOTDIR):
 
2270
            raise errors.NoSuchFile(f)
 
2271
        raise
 
2272
 
 
2273
def file_kind(f, _lstat=os.lstat):
 
2274
    stat_value = file_stat(f, _lstat)
 
2275
    return file_kind_from_stat_mode(stat_value.st_mode)
 
2276
 
 
2277
def until_no_eintr(f, *a, **kw):
 
2278
    """Run f(*a, **kw), retrying if an EINTR error occurs.
 
2279
 
 
2280
    WARNING: you must be certain that it is safe to retry the call repeatedly
 
2281
    if EINTR does occur.  This is typically only true for low-level operations
 
2282
    like os.read.  If in any doubt, don't use this.
 
2283
 
 
2284
    Keep in mind that this is not a complete solution to EINTR.  There is
 
2285
    probably code in the Python standard library and other dependencies that
 
2286
    may encounter EINTR if a signal arrives (and there is signal handler for
 
2287
    that signal).  So this function can reduce the impact for IO that bzrlib
 
2288
    directly controls, but it is not a complete solution.
 
2289
    """
 
2290
    # Borrowed from Twisted's twisted.python.util.untilConcludes function.
 
2291
    while True:
 
2292
        try:
 
2293
            return f(*a, **kw)
 
2294
        except (IOError, OSError), e:
 
2295
            if e.errno == errno.EINTR:
 
2296
                continue
 
2297
            raise
 
2298
 
 
2299
 
 
2300
@deprecated_function(deprecated_in((2, 2, 0)))
 
2301
def re_compile_checked(re_string, flags=0, where=""):
 
2302
    """Return a compiled re, or raise a sensible error.
 
2303
 
 
2304
    This should only be used when compiling user-supplied REs.
 
2305
 
 
2306
    :param re_string: Text form of regular expression.
 
2307
    :param flags: eg re.IGNORECASE
 
2308
    :param where: Message explaining to the user the context where
 
2309
        it occurred, eg 'log search filter'.
 
2310
    """
 
2311
    # from https://bugs.launchpad.net/bzr/+bug/251352
 
2312
    try:
 
2313
        re_obj = re.compile(re_string, flags)
 
2314
        re_obj.search("")
 
2315
        return re_obj
 
2316
    except errors.InvalidPattern, e:
 
2317
        if where:
 
2318
            where = ' in ' + where
 
2319
        # despite the name 'error' is a type
 
2320
        raise errors.BzrCommandError('Invalid regular expression%s: %s'
 
2321
            % (where, e.msg))
 
2322
 
 
2323
 
 
2324
if sys.platform == "win32":
 
2325
    def getchar():
 
2326
        import msvcrt
 
2327
        return msvcrt.getch()
 
2328
else:
 
2329
    def getchar():
 
2330
        import tty
 
2331
        import termios
 
2332
        fd = sys.stdin.fileno()
 
2333
        settings = termios.tcgetattr(fd)
 
2334
        try:
 
2335
            tty.setraw(fd)
 
2336
            ch = sys.stdin.read(1)
 
2337
        finally:
 
2338
            termios.tcsetattr(fd, termios.TCSADRAIN, settings)
 
2339
        return ch
 
2340
 
 
2341
if sys.platform.startswith('linux'):
 
2342
    def _local_concurrency():
 
2343
        try:
 
2344
            return os.sysconf('SC_NPROCESSORS_ONLN')
 
2345
        except (ValueError, OSError, AttributeError):
 
2346
            return None
 
2347
elif sys.platform == 'darwin':
 
2348
    def _local_concurrency():
 
2349
        return subprocess.Popen(['sysctl', '-n', 'hw.availcpu'],
 
2350
                                stdout=subprocess.PIPE).communicate()[0]
 
2351
elif "bsd" in sys.platform:
 
2352
    def _local_concurrency():
 
2353
        return subprocess.Popen(['sysctl', '-n', 'hw.ncpu'],
 
2354
                                stdout=subprocess.PIPE).communicate()[0]
 
2355
elif sys.platform == 'sunos5':
 
2356
    def _local_concurrency():
 
2357
        return subprocess.Popen(['psrinfo', '-p',],
 
2358
                                stdout=subprocess.PIPE).communicate()[0]
 
2359
elif sys.platform == "win32":
 
2360
    def _local_concurrency():
 
2361
        # This appears to return the number of cores.
 
2362
        return os.environ.get('NUMBER_OF_PROCESSORS')
 
2363
else:
 
2364
    def _local_concurrency():
 
2365
        # Who knows ?
 
2366
        return None
 
2367
 
 
2368
 
 
2369
_cached_local_concurrency = None
 
2370
 
 
2371
def local_concurrency(use_cache=True):
 
2372
    """Return how many processes can be run concurrently.
 
2373
 
 
2374
    Rely on platform specific implementations and default to 1 (one) if
 
2375
    anything goes wrong.
 
2376
    """
 
2377
    global _cached_local_concurrency
 
2378
 
 
2379
    if _cached_local_concurrency is not None and use_cache:
 
2380
        return _cached_local_concurrency
 
2381
 
 
2382
    concurrency = os.environ.get('BZR_CONCURRENCY', None)
 
2383
    if concurrency is None:
 
2384
        try:
 
2385
            import multiprocessing
 
2386
            concurrency = multiprocessing.cpu_count()
 
2387
        except (ImportError, NotImplementedError):
 
2388
            # multiprocessing is only available on Python >= 2.6
 
2389
            # and multiprocessing.cpu_count() isn't implemented on all
 
2390
            # platforms
 
2391
            try:
 
2392
                concurrency = _local_concurrency()
 
2393
            except (OSError, IOError):
 
2394
                pass
 
2395
    try:
 
2396
        concurrency = int(concurrency)
 
2397
    except (TypeError, ValueError):
 
2398
        concurrency = 1
 
2399
    if use_cache:
 
2400
        _cached_concurrency = concurrency
 
2401
    return concurrency
 
2402
 
 
2403
 
 
2404
class UnicodeOrBytesToBytesWriter(codecs.StreamWriter):
 
2405
    """A stream writer that doesn't decode str arguments."""
 
2406
 
 
2407
    def __init__(self, encode, stream, errors='strict'):
 
2408
        codecs.StreamWriter.__init__(self, stream, errors)
 
2409
        self.encode = encode
 
2410
 
 
2411
    def write(self, object):
 
2412
        if type(object) is str:
 
2413
            self.stream.write(object)
 
2414
        else:
 
2415
            data, _ = self.encode(object, self.errors)
 
2416
            self.stream.write(data)
 
2417
 
 
2418
if sys.platform == 'win32':
 
2419
    def open_file(filename, mode='r', bufsize=-1):
 
2420
        """This function is used to override the ``open`` builtin.
 
2421
 
 
2422
        But it uses O_NOINHERIT flag so the file handle is not inherited by
 
2423
        child processes.  Deleting or renaming a closed file opened with this
 
2424
        function is not blocking child processes.
 
2425
        """
 
2426
        writing = 'w' in mode
 
2427
        appending = 'a' in mode
 
2428
        updating = '+' in mode
 
2429
        binary = 'b' in mode
 
2430
 
 
2431
        flags = O_NOINHERIT
 
2432
        # see http://msdn.microsoft.com/en-us/library/yeby3zcb%28VS.71%29.aspx
 
2433
        # for flags for each modes.
 
2434
        if binary:
 
2435
            flags |= O_BINARY
 
2436
        else:
 
2437
            flags |= O_TEXT
 
2438
 
 
2439
        if writing:
 
2440
            if updating:
 
2441
                flags |= os.O_RDWR
 
2442
            else:
 
2443
                flags |= os.O_WRONLY
 
2444
            flags |= os.O_CREAT | os.O_TRUNC
 
2445
        elif appending:
 
2446
            if updating:
 
2447
                flags |= os.O_RDWR
 
2448
            else:
 
2449
                flags |= os.O_WRONLY
 
2450
            flags |= os.O_CREAT | os.O_APPEND
 
2451
        else: #reading
 
2452
            if updating:
 
2453
                flags |= os.O_RDWR
 
2454
            else:
 
2455
                flags |= os.O_RDONLY
 
2456
 
 
2457
        return os.fdopen(os.open(filename, flags), mode, bufsize)
 
2458
else:
 
2459
    open_file = open
 
2460
 
 
2461
 
 
2462
def available_backup_name(base, exists):
 
2463
    """Find a non-existing backup file name.
 
2464
 
 
2465
    This will *not* create anything, this only return a 'free' entry.  This
 
2466
    should be used for checking names in a directory below a locked
 
2467
    tree/branch/repo to avoid race conditions. This is LBYL (Look Before You
 
2468
    Leap) and generally discouraged.
 
2469
 
 
2470
    :param base: The base name.
 
2471
 
 
2472
    :param exists: A callable returning True if the path parameter exists.
 
2473
    """
 
2474
    counter = 1
 
2475
    name = "%s.~%d~" % (base, counter)
 
2476
    while exists(name):
 
2477
        counter += 1
 
2478
        name = "%s.~%d~" % (base, counter)
 
2479
    return name
 
2480
 
 
2481
 
 
2482
def set_fd_cloexec(fd):
 
2483
    """Set a Unix file descriptor's FD_CLOEXEC flag.  Do nothing if platform
 
2484
    support for this is not available.
 
2485
    """
 
2486
    try:
 
2487
        import fcntl
 
2488
        old = fcntl.fcntl(fd, fcntl.F_GETFD)
 
2489
        fcntl.fcntl(fd, fcntl.F_SETFD, old | fcntl.FD_CLOEXEC)
 
2490
    except (ImportError, AttributeError):
 
2491
        # Either the fcntl module or specific constants are not present
 
2492
        pass
 
2493
 
 
2494
 
 
2495
def find_executable_on_path(name):
 
2496
    """Finds an executable on the PATH.
 
2497
    
 
2498
    On Windows, this will try to append each extension in the PATHEXT
 
2499
    environment variable to the name, if it cannot be found with the name
 
2500
    as given.
 
2501
    
 
2502
    :param name: The base name of the executable.
 
2503
    :return: The path to the executable found or None.
 
2504
    """
 
2505
    if sys.platform == 'win32':
 
2506
        exts = os.environ.get('PATHEXT', '').split(os.pathsep)
 
2507
        exts = [ext.lower() for ext in exts]
 
2508
        base, ext = os.path.splitext(name)
 
2509
        if ext != '':
 
2510
            if ext.lower() not in exts:
 
2511
                return None
 
2512
            name = base
 
2513
            exts = [ext]
 
2514
    else:
 
2515
        exts = ['']
 
2516
    path = os.environ.get('PATH')
 
2517
    if path is not None:
 
2518
        path = path.split(os.pathsep)
 
2519
        for ext in exts:
 
2520
            for d in path:
 
2521
                f = os.path.join(d, name) + ext
 
2522
                if os.access(f, os.X_OK):
 
2523
                    return f
 
2524
    if sys.platform == 'win32':
 
2525
        app_path = win32utils.get_app_path(name)
 
2526
        if app_path != name:
 
2527
            return app_path
 
2528
    return None
 
2529
 
 
2530
 
 
2531
def _posix_is_local_pid_dead(pid):
 
2532
    """True if pid doesn't correspond to live process on this machine"""
 
2533
    try:
 
2534
        # Special meaning of unix kill: just check if it's there.
 
2535
        os.kill(pid, 0)
 
2536
    except OSError, e:
 
2537
        if e.errno == errno.ESRCH:
 
2538
            # On this machine, and really not found: as sure as we can be
 
2539
            # that it's dead.
 
2540
            return True
 
2541
        elif e.errno == errno.EPERM:
 
2542
            # exists, though not ours
 
2543
            return False
 
2544
        else:
 
2545
            mutter("os.kill(%d, 0) failed: %s" % (pid, e))
 
2546
            # Don't really know.
 
2547
            return False
 
2548
    else:
 
2549
        # Exists and our process: not dead.
 
2550
        return False
 
2551
 
 
2552
if sys.platform == "win32":
 
2553
    is_local_pid_dead = win32utils.is_local_pid_dead
 
2554
else:
 
2555
    is_local_pid_dead = _posix_is_local_pid_dead
 
2556
 
 
2557
_maybe_ignored = ['EAGAIN', 'EINTR', 'ENOTSUP', 'EOPNOTSUPP', 'EACCES']
 
2558
_fdatasync_ignored = [getattr(errno, name) for name in _maybe_ignored
 
2559
                      if getattr(errno, name, None) is not None]
 
2560
 
 
2561
 
 
2562
def fdatasync(fileno):
 
2563
    """Flush file contents to disk if possible.
 
2564
    
 
2565
    :param fileno: Integer OS file handle.
 
2566
    :raises TransportNotPossible: If flushing to disk is not possible.
 
2567
    """
 
2568
    fn = getattr(os, 'fdatasync', getattr(os, 'fsync', None))
 
2569
    if fn is not None:
 
2570
        try:
 
2571
            fn(fileno)
 
2572
        except IOError, e:
 
2573
            # See bug #1075108, on some platforms fdatasync exists, but can
 
2574
            # raise ENOTSUP. However, we are calling fdatasync to be helpful
 
2575
            # and reduce the chance of corruption-on-powerloss situations. It
 
2576
            # is not a mandatory call, so it is ok to suppress failures.
 
2577
            trace.mutter("ignoring error calling fdatasync: %s" % (e,))
 
2578
            if getattr(e, 'errno', None) not in _fdatasync_ignored:
 
2579
                raise
 
2580
 
 
2581
 
 
2582
def ensure_empty_directory_exists(path, exception_class):
 
2583
    """Make sure a local directory exists and is empty.
 
2584
    
 
2585
    If it does not exist, it is created.  If it exists and is not empty, an
 
2586
    instance of exception_class is raised.
 
2587
    """
 
2588
    try:
 
2589
        os.mkdir(path)
 
2590
    except OSError, e:
 
2591
        if e.errno != errno.EEXIST:
 
2592
            raise
 
2593
        if os.listdir(path) != []:
 
2594
            raise exception_class(path)
 
2595
 
 
2596
 
 
2597
def is_environment_error(evalue):
 
2598
    """True if exception instance is due to a process environment issue
 
2599
 
 
2600
    This includes OSError and IOError, but also other errors that come from
 
2601
    the operating system or core libraries but are not subclasses of those.
 
2602
    """
 
2603
    if isinstance(evalue, (EnvironmentError, select.error)):
 
2604
        return True
 
2605
    if sys.platform == "win32" and win32utils._is_pywintypes_error(evalue):
 
2606
        return True
 
2607
    return False