~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/osutils.py

  • Committer: Vincent Ladeuil
  • Date: 2010-10-26 08:08:23 UTC
  • mfrom: (5514.1.1 665100-content-type)
  • mto: This revision was merged to the branch mainline in revision 5516.
  • Revision ID: v.ladeuil+lp@free.fr-20101026080823-3wggo03b7cpn9908
Correctly set the Content-Type header when POSTing http requests

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Bazaar-NG -- distributed version control
2
 
#
3
 
# Copyright (C) 2005 by Canonical Ltd
 
1
# Copyright (C) 2005-2010 Canonical Ltd
4
2
#
5
3
# This program is free software; you can redistribute it and/or modify
6
4
# it under the terms of the GNU General Public License as published by
14
12
#
15
13
# You should have received a copy of the GNU General Public License
16
14
# along with this program; if not, write to the Free Software
17
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
18
16
 
19
 
from cStringIO import StringIO
20
17
import errno
21
 
from ntpath import (abspath as _nt_abspath,
22
 
                    join as _nt_join,
23
 
                    normpath as _nt_normpath,
24
 
                    realpath as _nt_realpath,
25
 
                    splitdrive as _nt_splitdrive,
26
 
                    )
27
18
import os
28
 
from os import listdir
29
 
import posixpath
30
19
import re
31
 
import sha
32
 
import shutil
33
 
from shutil import copyfile
34
20
import stat
35
 
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
36
 
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
37
 
import string
38
21
import sys
39
22
import time
40
 
import types
 
23
import codecs
 
24
 
 
25
from bzrlib.lazy_import import lazy_import
 
26
lazy_import(globals(), """
 
27
from datetime import datetime
 
28
import getpass
 
29
import ntpath
 
30
import posixpath
 
31
# We need to import both shutil and rmtree as we export the later on posix
 
32
# and need the former on windows
 
33
import shutil
 
34
from shutil import rmtree
 
35
import socket
 
36
import subprocess
 
37
# We need to import both tempfile and mkdtemp as we export the later on posix
 
38
# and need the former on windows
41
39
import tempfile
 
40
from tempfile import mkdtemp
42
41
import unicodedata
43
42
 
 
43
from bzrlib import (
 
44
    cache_utf8,
 
45
    errors,
 
46
    trace,
 
47
    win32utils,
 
48
    )
 
49
""")
 
50
 
 
51
from bzrlib.symbol_versioning import (
 
52
    deprecated_function,
 
53
    deprecated_in,
 
54
    )
 
55
 
 
56
# sha and md5 modules are deprecated in python2.6 but hashlib is available as
 
57
# of 2.5
 
58
if sys.version_info < (2, 5):
 
59
    import md5 as _mod_md5
 
60
    md5 = _mod_md5.new
 
61
    import sha as _mod_sha
 
62
    sha = _mod_sha.new
 
63
else:
 
64
    from hashlib import (
 
65
        md5,
 
66
        sha1 as sha,
 
67
        )
 
68
 
 
69
 
44
70
import bzrlib
45
 
from bzrlib.errors import (BzrError,
46
 
                           BzrBadParameterNotUnicode,
47
 
                           NoSuchFile,
48
 
                           PathNotChild,
49
 
                           IllegalPath,
50
 
                           )
51
 
from bzrlib.symbol_versioning import (deprecated_function, 
52
 
        zero_nine)
53
 
from bzrlib.trace import mutter
 
71
from bzrlib import symbol_versioning
 
72
 
 
73
 
 
74
# Cross platform wall-clock time functionality with decent resolution.
 
75
# On Linux ``time.clock`` returns only CPU time. On Windows, ``time.time()``
 
76
# only has a resolution of ~15ms. Note that ``time.clock()`` is not
 
77
# synchronized with ``time.time()``, this is only meant to be used to find
 
78
# delta times by subtracting from another call to this function.
 
79
timer_func = time.time
 
80
if sys.platform == 'win32':
 
81
    timer_func = time.clock
 
82
 
 
83
# On win32, O_BINARY is used to indicate the file should
 
84
# be opened in binary mode, rather than text mode.
 
85
# On other platforms, O_BINARY doesn't exist, because
 
86
# they always open in binary mode, so it is okay to
 
87
# OR with 0 on those platforms.
 
88
# O_NOINHERIT and O_TEXT exists only on win32 too.
 
89
O_BINARY = getattr(os, 'O_BINARY', 0)
 
90
O_TEXT = getattr(os, 'O_TEXT', 0)
 
91
O_NOINHERIT = getattr(os, 'O_NOINHERIT', 0)
 
92
 
 
93
 
 
94
def get_unicode_argv():
 
95
    try:
 
96
        user_encoding = get_user_encoding()
 
97
        return [a.decode(user_encoding) for a in sys.argv[1:]]
 
98
    except UnicodeDecodeError:
 
99
        raise errors.BzrError(("Parameter '%r' is unsupported by the current "
 
100
                                                            "encoding." % a))
54
101
 
55
102
 
56
103
def make_readonly(filename):
57
104
    """Make a filename read-only."""
58
 
    mod = os.stat(filename).st_mode
59
 
    mod = mod & 0777555
60
 
    os.chmod(filename, mod)
 
105
    mod = os.lstat(filename).st_mode
 
106
    if not stat.S_ISLNK(mod):
 
107
        mod = mod & 0777555
 
108
        os.chmod(filename, mod)
61
109
 
62
110
 
63
111
def make_writable(filename):
64
 
    mod = os.stat(filename).st_mode
65
 
    mod = mod | 0200
66
 
    os.chmod(filename, mod)
 
112
    mod = os.lstat(filename).st_mode
 
113
    if not stat.S_ISLNK(mod):
 
114
        mod = mod | 0200
 
115
        os.chmod(filename, mod)
 
116
 
 
117
 
 
118
def minimum_path_selection(paths):
 
119
    """Return the smallset subset of paths which are outside paths.
 
120
 
 
121
    :param paths: A container (and hence not None) of paths.
 
122
    :return: A set of paths sufficient to include everything in paths via
 
123
        is_inside, drawn from the paths parameter.
 
124
    """
 
125
    if len(paths) < 2:
 
126
        return set(paths)
 
127
 
 
128
    def sort_key(path):
 
129
        return path.split('/')
 
130
    sorted_paths = sorted(list(paths), key=sort_key)
 
131
 
 
132
    search_paths = [sorted_paths[0]]
 
133
    for path in sorted_paths[1:]:
 
134
        if not is_inside(search_paths[-1], path):
 
135
            # This path is unique, add it
 
136
            search_paths.append(path)
 
137
 
 
138
    return set(search_paths)
67
139
 
68
140
 
69
141
_QUOTE_RE = None
76
148
    Windows."""
77
149
    # TODO: I'm not really sure this is the best format either.x
78
150
    global _QUOTE_RE
79
 
    if _QUOTE_RE == None:
 
151
    if _QUOTE_RE is None:
80
152
        _QUOTE_RE = re.compile(r'([^a-zA-Z0-9.,:/\\_~-])')
81
 
        
 
153
 
82
154
    if _QUOTE_RE.search(f):
83
155
        return '"' + f + '"'
84
156
    else:
87
159
 
88
160
_directory_kind = 'directory'
89
161
 
90
 
_formats = {
91
 
    stat.S_IFDIR:_directory_kind,
92
 
    stat.S_IFCHR:'chardev',
93
 
    stat.S_IFBLK:'block',
94
 
    stat.S_IFREG:'file',
95
 
    stat.S_IFIFO:'fifo',
96
 
    stat.S_IFLNK:'symlink',
97
 
    stat.S_IFSOCK:'socket',
 
162
def get_umask():
 
163
    """Return the current umask"""
 
164
    # Assume that people aren't messing with the umask while running
 
165
    # XXX: This is not thread safe, but there is no way to get the
 
166
    #      umask without setting it
 
167
    umask = os.umask(0)
 
168
    os.umask(umask)
 
169
    return umask
 
170
 
 
171
 
 
172
_kind_marker_map = {
 
173
    "file": "",
 
174
    _directory_kind: "/",
 
175
    "symlink": "@",
 
176
    'tree-reference': '+',
98
177
}
99
178
 
100
179
 
101
 
def file_kind_from_stat_mode(stat_mode, _formats=_formats, _unknown='unknown'):
102
 
    """Generate a file kind from a stat mode. This is used in walkdirs.
103
 
 
104
 
    Its performance is critical: Do not mutate without careful benchmarking.
105
 
    """
 
180
def kind_marker(kind):
106
181
    try:
107
 
        return _formats[stat_mode & 0170000]
 
182
        return _kind_marker_map[kind]
108
183
    except KeyError:
109
 
        return _unknown
110
 
 
111
 
 
112
 
def file_kind(f, _lstat=os.lstat, _mapper=file_kind_from_stat_mode):
113
 
    try:
114
 
        return _mapper(_lstat(f).st_mode)
115
 
    except OSError, e:
116
 
        if getattr(e, 'errno', None) == errno.ENOENT:
117
 
            raise bzrlib.errors.NoSuchFile(f)
118
 
        raise
119
 
 
120
 
 
121
 
def kind_marker(kind):
122
 
    if kind == 'file':
 
184
        # Slightly faster than using .get(, '') when the common case is that
 
185
        # kind will be found
123
186
        return ''
124
 
    elif kind == _directory_kind:
125
 
        return '/'
126
 
    elif kind == 'symlink':
127
 
        return '@'
128
 
    else:
129
 
        raise BzrError('invalid file kind %r' % kind)
 
187
 
130
188
 
131
189
lexists = getattr(os.path, 'lexists', None)
132
190
if lexists is None:
133
191
    def lexists(f):
134
192
        try:
135
 
            if hasattr(os, 'lstat'):
136
 
                os.lstat(f)
137
 
            else:
138
 
                os.stat(f)
 
193
            stat = getattr(os, 'lstat', os.stat)
 
194
            stat(f)
139
195
            return True
140
 
        except OSError,e:
 
196
        except OSError, e:
141
197
            if e.errno == errno.ENOENT:
142
198
                return False;
143
199
            else:
144
 
                raise BzrError("lstat/stat of (%r): %r" % (f, e))
 
200
                raise errors.BzrError("lstat/stat of (%r): %r" % (f, e))
145
201
 
146
202
 
147
203
def fancy_rename(old, new, rename_func, unlink_func):
148
204
    """A fancy rename, when you don't have atomic rename.
149
 
    
 
205
 
150
206
    :param old: The old path, to rename from
151
207
    :param new: The new path, to rename to
152
208
    :param rename_func: The potentially non-atomic rename function
153
 
    :param unlink_func: A way to delete the target file if the full rename succeeds
 
209
    :param unlink_func: A way to delete the target file if the full rename
 
210
        succeeds
154
211
    """
155
 
 
156
212
    # sftp rename doesn't allow overwriting, so play tricks:
157
 
    import random
158
213
    base = os.path.basename(new)
159
214
    dirname = os.path.dirname(new)
160
 
    tmp_name = u'tmp.%s.%.9f.%d.%s' % (base, time.time(), os.getpid(), rand_chars(10))
 
215
    # callers use different encodings for the paths so the following MUST
 
216
    # respect that. We rely on python upcasting to unicode if new is unicode
 
217
    # and keeping a str if not.
 
218
    tmp_name = 'tmp.%s.%.9f.%d.%s' % (base, time.time(),
 
219
                                      os.getpid(), rand_chars(10))
161
220
    tmp_name = pathjoin(dirname, tmp_name)
162
221
 
163
222
    # Rename the file out of the way, but keep track if it didn't exist
168
227
    file_existed = False
169
228
    try:
170
229
        rename_func(new, tmp_name)
171
 
    except (NoSuchFile,), e:
 
230
    except (errors.NoSuchFile,), e:
172
231
        pass
173
232
    except IOError, e:
174
233
        # RBC 20060103 abstraction leakage: the paramiko SFTP clients rename
175
 
        # function raises an IOError with errno == None when a rename fails.
 
234
        # function raises an IOError with errno is None when a rename fails.
176
235
        # This then gets caught here.
177
236
        if e.errno not in (None, errno.ENOENT, errno.ENOTDIR):
178
237
            raise
179
238
    except Exception, e:
180
 
        if (not hasattr(e, 'errno') 
 
239
        if (getattr(e, 'errno', None) is None
181
240
            or e.errno not in (errno.ENOENT, errno.ENOTDIR)):
182
241
            raise
183
242
    else:
184
243
        file_existed = True
185
244
 
 
245
    failure_exc = None
186
246
    success = False
187
247
    try:
188
 
        # This may throw an exception, in which case success will
189
 
        # not be set.
190
 
        rename_func(old, new)
191
 
        success = True
 
248
        try:
 
249
            # This may throw an exception, in which case success will
 
250
            # not be set.
 
251
            rename_func(old, new)
 
252
            success = True
 
253
        except (IOError, OSError), e:
 
254
            # source and target may be aliases of each other (e.g. on a
 
255
            # case-insensitive filesystem), so we may have accidentally renamed
 
256
            # source by when we tried to rename target
 
257
            failure_exc = sys.exc_info()
 
258
            if (file_existed and e.errno in (None, errno.ENOENT)
 
259
                and old.lower() == new.lower()):
 
260
                # source and target are the same file on a case-insensitive
 
261
                # filesystem, so we don't generate an exception
 
262
                failure_exc = None
192
263
    finally:
193
264
        if file_existed:
194
265
            # If the file used to exist, rename it back into place
197
268
                unlink_func(tmp_name)
198
269
            else:
199
270
                rename_func(tmp_name, new)
 
271
    if failure_exc is not None:
 
272
        raise failure_exc[0], failure_exc[1], failure_exc[2]
200
273
 
201
274
 
202
275
# In Python 2.4.2 and older, os.path.abspath and os.path.realpath
203
276
# choke on a Unicode string containing a relative path if
204
277
# os.getcwd() returns a non-sys.getdefaultencoding()-encoded
205
278
# string.
206
 
_fs_enc = sys.getfilesystemencoding()
 
279
_fs_enc = sys.getfilesystemencoding() or 'utf-8'
207
280
def _posix_abspath(path):
208
281
    # jam 20060426 rather than encoding to fsencoding
209
282
    # copy posixpath.abspath, but use os.getcwdu instead
225
298
    running python.exe under cmd.exe return capital C:\\
226
299
    running win32 python inside a cygwin shell returns lowercase c:\\
227
300
    """
228
 
    drive, path = _nt_splitdrive(path)
 
301
    drive, path = ntpath.splitdrive(path)
229
302
    return drive.upper() + path
230
303
 
231
304
 
232
305
def _win32_abspath(path):
233
 
    # Real _nt_abspath doesn't have a problem with a unicode cwd
234
 
    return _win32_fixdrive(_nt_abspath(unicode(path)).replace('\\', '/'))
 
306
    # Real ntpath.abspath doesn't have a problem with a unicode cwd
 
307
    return _win32_fixdrive(ntpath.abspath(unicode(path)).replace('\\', '/'))
 
308
 
 
309
 
 
310
def _win98_abspath(path):
 
311
    """Return the absolute version of a path.
 
312
    Windows 98 safe implementation (python reimplementation
 
313
    of Win32 API function GetFullPathNameW)
 
314
    """
 
315
    # Corner cases:
 
316
    #   C:\path     => C:/path
 
317
    #   C:/path     => C:/path
 
318
    #   \\HOST\path => //HOST/path
 
319
    #   //HOST/path => //HOST/path
 
320
    #   path        => C:/cwd/path
 
321
    #   /path       => C:/path
 
322
    path = unicode(path)
 
323
    # check for absolute path
 
324
    drive = ntpath.splitdrive(path)[0]
 
325
    if drive == '' and path[:2] not in('//','\\\\'):
 
326
        cwd = os.getcwdu()
 
327
        # we cannot simply os.path.join cwd and path
 
328
        # because os.path.join('C:','/path') produce '/path'
 
329
        # and this is incorrect
 
330
        if path[:1] in ('/','\\'):
 
331
            cwd = ntpath.splitdrive(cwd)[0]
 
332
            path = path[1:]
 
333
        path = cwd + '\\' + path
 
334
    return _win32_fixdrive(ntpath.normpath(path).replace('\\', '/'))
235
335
 
236
336
 
237
337
def _win32_realpath(path):
238
 
    # Real _nt_realpath doesn't have a problem with a unicode cwd
239
 
    return _win32_fixdrive(_nt_realpath(unicode(path)).replace('\\', '/'))
 
338
    # Real ntpath.realpath doesn't have a problem with a unicode cwd
 
339
    return _win32_fixdrive(ntpath.realpath(unicode(path)).replace('\\', '/'))
240
340
 
241
341
 
242
342
def _win32_pathjoin(*args):
243
 
    return _nt_join(*args).replace('\\', '/')
 
343
    return ntpath.join(*args).replace('\\', '/')
244
344
 
245
345
 
246
346
def _win32_normpath(path):
247
 
    return _win32_fixdrive(_nt_normpath(unicode(path)).replace('\\', '/'))
 
347
    return _win32_fixdrive(ntpath.normpath(unicode(path)).replace('\\', '/'))
248
348
 
249
349
 
250
350
def _win32_getcwd():
259
359
    """We expect to be able to atomically replace 'new' with old.
260
360
 
261
361
    On win32, if new exists, it must be moved out of the way first,
262
 
    and then deleted. 
 
362
    and then deleted.
263
363
    """
264
364
    try:
265
365
        fancy_rename(old, new, rename_func=os.rename, unlink_func=os.unlink)
266
366
    except OSError, e:
267
367
        if e.errno in (errno.EPERM, errno.EACCES, errno.EBUSY, errno.EINVAL):
268
 
            # If we try to rename a non-existant file onto cwd, we get 
269
 
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT 
 
368
            # If we try to rename a non-existant file onto cwd, we get
 
369
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT
270
370
            # if the old path doesn't exist, sometimes we get EACCES
271
371
            # On Linux, we seem to get EBUSY, on Mac we get EINVAL
272
372
            os.lstat(old)
274
374
 
275
375
 
276
376
def _mac_getcwd():
277
 
    return unicodedata.normalize('NFKC', os.getcwdu())
 
377
    return unicodedata.normalize('NFC', os.getcwdu())
278
378
 
279
379
 
280
380
# Default is to just use the python builtins, but these can be rebound on
284
384
pathjoin = os.path.join
285
385
normpath = os.path.normpath
286
386
getcwd = os.getcwdu
287
 
mkdtemp = tempfile.mkdtemp
288
387
rename = os.rename
289
388
dirname = os.path.dirname
290
389
basename = os.path.basename
291
 
rmtree = shutil.rmtree
 
390
split = os.path.split
 
391
splitext = os.path.splitext
 
392
# These were already lazily imported into local scope
 
393
# mkdtemp = tempfile.mkdtemp
 
394
# rmtree = shutil.rmtree
292
395
 
293
396
MIN_ABS_PATHLENGTH = 1
294
397
 
295
398
 
296
399
if sys.platform == 'win32':
297
 
    abspath = _win32_abspath
 
400
    if win32utils.winver == 'Windows 98':
 
401
        abspath = _win98_abspath
 
402
    else:
 
403
        abspath = _win32_abspath
298
404
    realpath = _win32_realpath
299
405
    pathjoin = _win32_pathjoin
300
406
    normpath = _win32_normpath
308
414
        """Error handler for shutil.rmtree function [for win32]
309
415
        Helps to remove files and dirs marked as read-only.
310
416
        """
311
 
        type_, value = excinfo[:2]
 
417
        exception = excinfo[1]
312
418
        if function in (os.remove, os.rmdir) \
313
 
            and type_ == OSError \
314
 
            and value.errno == errno.EACCES:
315
 
            bzrlib.osutils.make_writable(path)
 
419
            and isinstance(exception, OSError) \
 
420
            and exception.errno == errno.EACCES:
 
421
            make_writable(path)
316
422
            function(path)
317
423
        else:
318
424
            raise
320
426
    def rmtree(path, ignore_errors=False, onerror=_win32_delete_readonly):
321
427
        """Replacer for shutil.rmtree: could remove readonly dirs/files"""
322
428
        return shutil.rmtree(path, ignore_errors, onerror)
 
429
 
 
430
    f = win32utils.get_unicode_argv     # special function or None
 
431
    if f is not None:
 
432
        get_unicode_argv = f
 
433
 
323
434
elif sys.platform == 'darwin':
324
435
    getcwd = _mac_getcwd
325
436
 
326
437
 
327
 
def get_terminal_encoding():
 
438
def get_terminal_encoding(trace=False):
328
439
    """Find the best encoding for printing to the screen.
329
440
 
330
441
    This attempts to check both sys.stdout and sys.stdin to see
331
442
    what encoding they are in, and if that fails it falls back to
332
 
    bzrlib.user_encoding.
 
443
    osutils.get_user_encoding().
333
444
    The problem is that on Windows, locale.getpreferredencoding()
334
445
    is not the same encoding as that used by the console:
335
446
    http://mail.python.org/pipermail/python-list/2003-May/162357.html
336
447
 
337
448
    On my standard US Windows XP, the preferred encoding is
338
449
    cp1252, but the console is cp437
 
450
 
 
451
    :param trace: If True trace the selected encoding via mutter().
339
452
    """
 
453
    from bzrlib.trace import mutter
340
454
    output_encoding = getattr(sys.stdout, 'encoding', None)
341
455
    if not output_encoding:
342
456
        input_encoding = getattr(sys.stdin, 'encoding', None)
343
457
        if not input_encoding:
344
 
            output_encoding = bzrlib.user_encoding
345
 
            mutter('encoding stdout as bzrlib.user_encoding %r', output_encoding)
 
458
            output_encoding = get_user_encoding()
 
459
            if trace:
 
460
                mutter('encoding stdout as osutils.get_user_encoding() %r',
 
461
                   output_encoding)
346
462
        else:
347
463
            output_encoding = input_encoding
348
 
            mutter('encoding stdout as sys.stdin encoding %r', output_encoding)
 
464
            if trace:
 
465
                mutter('encoding stdout as sys.stdin encoding %r',
 
466
                    output_encoding)
349
467
    else:
350
 
        mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
 
468
        if trace:
 
469
            mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
 
470
    if output_encoding == 'cp0':
 
471
        # invalid encoding (cp0 means 'no codepage' on Windows)
 
472
        output_encoding = get_user_encoding()
 
473
        if trace:
 
474
            mutter('cp0 is invalid encoding.'
 
475
               ' encoding stdout as osutils.get_user_encoding() %r',
 
476
               output_encoding)
 
477
    # check encoding
 
478
    try:
 
479
        codecs.lookup(output_encoding)
 
480
    except LookupError:
 
481
        sys.stderr.write('bzr: warning:'
 
482
                         ' unknown terminal encoding %s.\n'
 
483
                         '  Using encoding %s instead.\n'
 
484
                         % (output_encoding, get_user_encoding())
 
485
                        )
 
486
        output_encoding = get_user_encoding()
 
487
 
351
488
    return output_encoding
352
489
 
353
490
 
354
491
def normalizepath(f):
355
 
    if hasattr(os.path, 'realpath'):
 
492
    if getattr(os.path, 'realpath', None) is not None:
356
493
        F = realpath
357
494
    else:
358
495
        F = abspath
363
500
        return pathjoin(F(p), e)
364
501
 
365
502
 
366
 
def backup_file(fn):
367
 
    """Copy a file to a backup.
368
 
 
369
 
    Backups are named in GNU-style, with a ~ suffix.
370
 
 
371
 
    If the file is already a backup, it's not copied.
372
 
    """
373
 
    if fn[-1] == '~':
374
 
        return
375
 
    bfn = fn + '~'
376
 
 
377
 
    if has_symlinks() and os.path.islink(fn):
378
 
        target = os.readlink(fn)
379
 
        os.symlink(target, bfn)
380
 
        return
381
 
    inf = file(fn, 'rb')
382
 
    try:
383
 
        content = inf.read()
384
 
    finally:
385
 
        inf.close()
386
 
    
387
 
    outf = file(bfn, 'wb')
388
 
    try:
389
 
        outf.write(content)
390
 
    finally:
391
 
        outf.close()
392
 
 
393
 
 
394
503
def isdir(f):
395
504
    """True if f is an accessible directory."""
396
505
    try:
397
 
        return S_ISDIR(os.lstat(f)[ST_MODE])
 
506
        return stat.S_ISDIR(os.lstat(f)[stat.ST_MODE])
398
507
    except OSError:
399
508
        return False
400
509
 
402
511
def isfile(f):
403
512
    """True if f is a regular file."""
404
513
    try:
405
 
        return S_ISREG(os.lstat(f)[ST_MODE])
 
514
        return stat.S_ISREG(os.lstat(f)[stat.ST_MODE])
406
515
    except OSError:
407
516
        return False
408
517
 
409
518
def islink(f):
410
519
    """True if f is a symlink."""
411
520
    try:
412
 
        return S_ISLNK(os.lstat(f)[ST_MODE])
 
521
        return stat.S_ISLNK(os.lstat(f)[stat.ST_MODE])
413
522
    except OSError:
414
523
        return False
415
524
 
416
525
def is_inside(dir, fname):
417
526
    """True if fname is inside dir.
418
 
    
 
527
 
419
528
    The parameters should typically be passed to osutils.normpath first, so
420
529
    that . and .. and repeated slashes are eliminated, and the separators
421
530
    are canonical for the platform.
422
 
    
423
 
    The empty string as a dir name is taken as top-of-tree and matches 
 
531
 
 
532
    The empty string as a dir name is taken as top-of-tree and matches
424
533
    everything.
425
 
    
426
 
    >>> is_inside('src', pathjoin('src', 'foo.c'))
427
 
    True
428
 
    >>> is_inside('src', 'srccontrol')
429
 
    False
430
 
    >>> is_inside('src', pathjoin('src', 'a', 'a', 'a', 'foo.c'))
431
 
    True
432
 
    >>> is_inside('foo.c', 'foo.c')
433
 
    True
434
 
    >>> is_inside('foo.c', '')
435
 
    False
436
 
    >>> is_inside('', 'foo.c')
437
 
    True
438
534
    """
439
 
    # XXX: Most callers of this can actually do something smarter by 
 
535
    # XXX: Most callers of this can actually do something smarter by
440
536
    # looking at the inventory
441
537
    if dir == fname:
442
538
        return True
443
 
    
 
539
 
444
540
    if dir == '':
445
541
        return True
446
542
 
455
551
    for dirname in dir_list:
456
552
        if is_inside(dirname, fname):
457
553
            return True
458
 
    else:
459
 
        return False
 
554
    return False
460
555
 
461
556
 
462
557
def is_inside_or_parent_of_any(dir_list, fname):
464
559
    for dirname in dir_list:
465
560
        if is_inside(dirname, fname) or is_inside(fname, dirname):
466
561
            return True
 
562
    return False
 
563
 
 
564
 
 
565
def pumpfile(from_file, to_file, read_length=-1, buff_size=32768,
 
566
             report_activity=None, direction='read'):
 
567
    """Copy contents of one file to another.
 
568
 
 
569
    The read_length can either be -1 to read to end-of-file (EOF) or
 
570
    it can specify the maximum number of bytes to read.
 
571
 
 
572
    The buff_size represents the maximum size for each read operation
 
573
    performed on from_file.
 
574
 
 
575
    :param report_activity: Call this as bytes are read, see
 
576
        Transport._report_activity
 
577
    :param direction: Will be passed to report_activity
 
578
 
 
579
    :return: The number of bytes copied.
 
580
    """
 
581
    length = 0
 
582
    if read_length >= 0:
 
583
        # read specified number of bytes
 
584
 
 
585
        while read_length > 0:
 
586
            num_bytes_to_read = min(read_length, buff_size)
 
587
 
 
588
            block = from_file.read(num_bytes_to_read)
 
589
            if not block:
 
590
                # EOF reached
 
591
                break
 
592
            if report_activity is not None:
 
593
                report_activity(len(block), direction)
 
594
            to_file.write(block)
 
595
 
 
596
            actual_bytes_read = len(block)
 
597
            read_length -= actual_bytes_read
 
598
            length += actual_bytes_read
467
599
    else:
468
 
        return False
469
 
 
470
 
 
471
 
def pumpfile(fromfile, tofile):
472
 
    """Copy contents of one file to another."""
473
 
    BUFSIZE = 32768
474
 
    while True:
475
 
        b = fromfile.read(BUFSIZE)
476
 
        if not b:
477
 
            break
478
 
        tofile.write(b)
 
600
        # read to EOF
 
601
        while True:
 
602
            block = from_file.read(buff_size)
 
603
            if not block:
 
604
                # EOF reached
 
605
                break
 
606
            if report_activity is not None:
 
607
                report_activity(len(block), direction)
 
608
            to_file.write(block)
 
609
            length += len(block)
 
610
    return length
 
611
 
 
612
 
 
613
def pump_string_file(bytes, file_handle, segment_size=None):
 
614
    """Write bytes to file_handle in many smaller writes.
 
615
 
 
616
    :param bytes: The string to write.
 
617
    :param file_handle: The file to write to.
 
618
    """
 
619
    # Write data in chunks rather than all at once, because very large
 
620
    # writes fail on some platforms (e.g. Windows with SMB  mounted
 
621
    # drives).
 
622
    if not segment_size:
 
623
        segment_size = 5242880 # 5MB
 
624
    segments = range(len(bytes) / segment_size + 1)
 
625
    write = file_handle.write
 
626
    for segment_index in segments:
 
627
        segment = buffer(bytes, segment_index * segment_size, segment_size)
 
628
        write(segment)
479
629
 
480
630
 
481
631
def file_iterator(input_file, readsize=32768):
487
637
 
488
638
 
489
639
def sha_file(f):
490
 
    if hasattr(f, 'tell'):
491
 
        assert f.tell() == 0
492
 
    s = sha.new()
 
640
    """Calculate the hexdigest of an open file.
 
641
 
 
642
    The file cursor should be already at the start.
 
643
    """
 
644
    s = sha()
493
645
    BUFSIZE = 128<<10
494
646
    while True:
495
647
        b = f.read(BUFSIZE)
499
651
    return s.hexdigest()
500
652
 
501
653
 
502
 
 
503
 
def sha_strings(strings):
 
654
def size_sha_file(f):
 
655
    """Calculate the size and hexdigest of an open file.
 
656
 
 
657
    The file cursor should be already at the start and
 
658
    the caller is responsible for closing the file afterwards.
 
659
    """
 
660
    size = 0
 
661
    s = sha()
 
662
    BUFSIZE = 128<<10
 
663
    while True:
 
664
        b = f.read(BUFSIZE)
 
665
        if not b:
 
666
            break
 
667
        size += len(b)
 
668
        s.update(b)
 
669
    return size, s.hexdigest()
 
670
 
 
671
 
 
672
def sha_file_by_name(fname):
 
673
    """Calculate the SHA1 of a file by reading the full text"""
 
674
    s = sha()
 
675
    f = os.open(fname, os.O_RDONLY | O_BINARY | O_NOINHERIT)
 
676
    try:
 
677
        while True:
 
678
            b = os.read(f, 1<<16)
 
679
            if not b:
 
680
                return s.hexdigest()
 
681
            s.update(b)
 
682
    finally:
 
683
        os.close(f)
 
684
 
 
685
 
 
686
def sha_strings(strings, _factory=sha):
504
687
    """Return the sha-1 of concatenation of strings"""
505
 
    s = sha.new()
 
688
    s = _factory()
506
689
    map(s.update, strings)
507
690
    return s.hexdigest()
508
691
 
509
692
 
510
 
def sha_string(f):
511
 
    s = sha.new()
512
 
    s.update(f)
513
 
    return s.hexdigest()
 
693
def sha_string(f, _factory=sha):
 
694
    return _factory(f).hexdigest()
514
695
 
515
696
 
516
697
def fingerprint_file(f):
517
 
    s = sha.new()
518
698
    b = f.read()
519
 
    s.update(b)
520
 
    size = len(b)
521
 
    return {'size': size,
522
 
            'sha1': s.hexdigest()}
 
699
    return {'size': len(b),
 
700
            'sha1': sha(b).hexdigest()}
523
701
 
524
702
 
525
703
def compare_files(a, b):
536
714
 
537
715
def local_time_offset(t=None):
538
716
    """Return offset of local zone from GMT, either at present or at time t."""
539
 
    # python2.3 localtime() can't take None
540
 
    if t == None:
 
717
    if t is None:
541
718
        t = time.time()
542
 
        
543
 
    if time.localtime(t).tm_isdst and time.daylight:
544
 
        return -time.altzone
545
 
    else:
546
 
        return -time.timezone
547
 
 
548
 
    
549
 
def format_date(t, offset=0, timezone='original', date_fmt=None, 
 
719
    offset = datetime.fromtimestamp(t) - datetime.utcfromtimestamp(t)
 
720
    return offset.days * 86400 + offset.seconds
 
721
 
 
722
weekdays = ['Mon', 'Tue', 'Wed', 'Thu', 'Fri', 'Sat', 'Sun']
 
723
_default_format_by_weekday_num = [wd + " %Y-%m-%d %H:%M:%S" for wd in weekdays]
 
724
 
 
725
 
 
726
def format_date(t, offset=0, timezone='original', date_fmt=None,
550
727
                show_offset=True):
551
 
    ## TODO: Perhaps a global option to use either universal or local time?
552
 
    ## Or perhaps just let people set $TZ?
553
 
    assert isinstance(t, float)
554
 
    
 
728
    """Return a formatted date string.
 
729
 
 
730
    :param t: Seconds since the epoch.
 
731
    :param offset: Timezone offset in seconds east of utc.
 
732
    :param timezone: How to display the time: 'utc', 'original' for the
 
733
         timezone specified by offset, or 'local' for the process's current
 
734
         timezone.
 
735
    :param date_fmt: strftime format.
 
736
    :param show_offset: Whether to append the timezone.
 
737
    """
 
738
    (date_fmt, tt, offset_str) = \
 
739
               _format_date(t, offset, timezone, date_fmt, show_offset)
 
740
    date_fmt = date_fmt.replace('%a', weekdays[tt[6]])
 
741
    date_str = time.strftime(date_fmt, tt)
 
742
    return date_str + offset_str
 
743
 
 
744
 
 
745
# Cache of formatted offset strings
 
746
_offset_cache = {}
 
747
 
 
748
 
 
749
def format_date_with_offset_in_original_timezone(t, offset=0,
 
750
    _cache=_offset_cache):
 
751
    """Return a formatted date string in the original timezone.
 
752
 
 
753
    This routine may be faster then format_date.
 
754
 
 
755
    :param t: Seconds since the epoch.
 
756
    :param offset: Timezone offset in seconds east of utc.
 
757
    """
 
758
    if offset is None:
 
759
        offset = 0
 
760
    tt = time.gmtime(t + offset)
 
761
    date_fmt = _default_format_by_weekday_num[tt[6]]
 
762
    date_str = time.strftime(date_fmt, tt)
 
763
    offset_str = _cache.get(offset, None)
 
764
    if offset_str is None:
 
765
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
 
766
        _cache[offset] = offset_str
 
767
    return date_str + offset_str
 
768
 
 
769
 
 
770
def format_local_date(t, offset=0, timezone='original', date_fmt=None,
 
771
                      show_offset=True):
 
772
    """Return an unicode date string formatted according to the current locale.
 
773
 
 
774
    :param t: Seconds since the epoch.
 
775
    :param offset: Timezone offset in seconds east of utc.
 
776
    :param timezone: How to display the time: 'utc', 'original' for the
 
777
         timezone specified by offset, or 'local' for the process's current
 
778
         timezone.
 
779
    :param date_fmt: strftime format.
 
780
    :param show_offset: Whether to append the timezone.
 
781
    """
 
782
    (date_fmt, tt, offset_str) = \
 
783
               _format_date(t, offset, timezone, date_fmt, show_offset)
 
784
    date_str = time.strftime(date_fmt, tt)
 
785
    if not isinstance(date_str, unicode):
 
786
        date_str = date_str.decode(get_user_encoding(), 'replace')
 
787
    return date_str + offset_str
 
788
 
 
789
 
 
790
def _format_date(t, offset, timezone, date_fmt, show_offset):
555
791
    if timezone == 'utc':
556
792
        tt = time.gmtime(t)
557
793
        offset = 0
558
794
    elif timezone == 'original':
559
 
        if offset == None:
 
795
        if offset is None:
560
796
            offset = 0
561
797
        tt = time.gmtime(t + offset)
562
798
    elif timezone == 'local':
563
799
        tt = time.localtime(t)
564
800
        offset = local_time_offset(t)
565
801
    else:
566
 
        raise BzrError("unsupported timezone format %r" % timezone,
567
 
                       ['options are "utc", "original", "local"'])
 
802
        raise errors.UnsupportedTimezoneFormat(timezone)
568
803
    if date_fmt is None:
569
804
        date_fmt = "%a %Y-%m-%d %H:%M:%S"
570
805
    if show_offset:
571
806
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
572
807
    else:
573
808
        offset_str = ''
574
 
    return (time.strftime(date_fmt, tt) +  offset_str)
 
809
    return (date_fmt, tt, offset_str)
575
810
 
576
811
 
577
812
def compact_date(when):
578
813
    return time.strftime('%Y%m%d%H%M%S', time.gmtime(when))
579
 
    
580
 
 
 
814
 
 
815
 
 
816
def format_delta(delta):
 
817
    """Get a nice looking string for a time delta.
 
818
 
 
819
    :param delta: The time difference in seconds, can be positive or negative.
 
820
        positive indicates time in the past, negative indicates time in the
 
821
        future. (usually time.time() - stored_time)
 
822
    :return: String formatted to show approximate resolution
 
823
    """
 
824
    delta = int(delta)
 
825
    if delta >= 0:
 
826
        direction = 'ago'
 
827
    else:
 
828
        direction = 'in the future'
 
829
        delta = -delta
 
830
 
 
831
    seconds = delta
 
832
    if seconds < 90: # print seconds up to 90 seconds
 
833
        if seconds == 1:
 
834
            return '%d second %s' % (seconds, direction,)
 
835
        else:
 
836
            return '%d seconds %s' % (seconds, direction)
 
837
 
 
838
    minutes = int(seconds / 60)
 
839
    seconds -= 60 * minutes
 
840
    if seconds == 1:
 
841
        plural_seconds = ''
 
842
    else:
 
843
        plural_seconds = 's'
 
844
    if minutes < 90: # print minutes, seconds up to 90 minutes
 
845
        if minutes == 1:
 
846
            return '%d minute, %d second%s %s' % (
 
847
                    minutes, seconds, plural_seconds, direction)
 
848
        else:
 
849
            return '%d minutes, %d second%s %s' % (
 
850
                    minutes, seconds, plural_seconds, direction)
 
851
 
 
852
    hours = int(minutes / 60)
 
853
    minutes -= 60 * hours
 
854
    if minutes == 1:
 
855
        plural_minutes = ''
 
856
    else:
 
857
        plural_minutes = 's'
 
858
 
 
859
    if hours == 1:
 
860
        return '%d hour, %d minute%s %s' % (hours, minutes,
 
861
                                            plural_minutes, direction)
 
862
    return '%d hours, %d minute%s %s' % (hours, minutes,
 
863
                                         plural_minutes, direction)
581
864
 
582
865
def filesize(f):
583
866
    """Return size of given open file."""
584
 
    return os.fstat(f.fileno())[ST_SIZE]
 
867
    return os.fstat(f.fileno())[stat.ST_SIZE]
585
868
 
586
869
 
587
870
# Define rand_bytes based on platform.
593
876
except (NotImplementedError, AttributeError):
594
877
    # If python doesn't have os.urandom, or it doesn't work,
595
878
    # then try to first pull random data from /dev/urandom
596
 
    if os.path.exists("/dev/urandom"):
 
879
    try:
597
880
        rand_bytes = file('/dev/urandom', 'rb').read
598
881
    # Otherwise, use this hack as a last resort
599
 
    else:
 
882
    except (IOError, OSError):
600
883
        # not well seeded, but better than nothing
601
884
        def rand_bytes(n):
602
885
            import random
610
893
ALNUM = '0123456789abcdefghijklmnopqrstuvwxyz'
611
894
def rand_chars(num):
612
895
    """Return a random string of num alphanumeric characters
613
 
    
614
 
    The result only contains lowercase chars because it may be used on 
 
896
 
 
897
    The result only contains lowercase chars because it may be used on
615
898
    case-insensitive filesystems.
616
899
    """
617
900
    s = ''
624
907
## decomposition (might be too tricksy though.)
625
908
 
626
909
def splitpath(p):
627
 
    """Turn string into list of parts.
628
 
 
629
 
    >>> splitpath('a')
630
 
    ['a']
631
 
    >>> splitpath('a/b')
632
 
    ['a', 'b']
633
 
    >>> splitpath('a/./b')
634
 
    ['a', 'b']
635
 
    >>> splitpath('a/.b')
636
 
    ['a', '.b']
637
 
    >>> splitpath('a/../b')
638
 
    Traceback (most recent call last):
639
 
    ...
640
 
    BzrError: sorry, '..' not allowed in path
641
 
    """
642
 
    assert isinstance(p, types.StringTypes)
643
 
 
 
910
    """Turn string into list of parts."""
644
911
    # split on either delimiter because people might use either on
645
912
    # Windows
646
913
    ps = re.split(r'[\\/]', p)
648
915
    rps = []
649
916
    for f in ps:
650
917
        if f == '..':
651
 
            raise BzrError("sorry, %r not allowed in path" % f)
 
918
            raise errors.BzrError("sorry, %r not allowed in path" % f)
652
919
        elif (f == '.') or (f == ''):
653
920
            pass
654
921
        else:
655
922
            rps.append(f)
656
923
    return rps
657
924
 
 
925
 
658
926
def joinpath(p):
659
 
    assert isinstance(p, list)
660
927
    for f in p:
661
 
        if (f == '..') or (f == None) or (f == ''):
662
 
            raise BzrError("sorry, %r not allowed in path" % f)
 
928
        if (f == '..') or (f is None) or (f == ''):
 
929
            raise errors.BzrError("sorry, %r not allowed in path" % f)
663
930
    return pathjoin(*p)
664
931
 
665
932
 
666
 
@deprecated_function(zero_nine)
667
 
def appendpath(p1, p2):
668
 
    if p1 == '':
669
 
        return p2
670
 
    else:
671
 
        return pathjoin(p1, p2)
672
 
    
 
933
def parent_directories(filename):
 
934
    """Return the list of parent directories, deepest first.
 
935
 
 
936
    For example, parent_directories("a/b/c") -> ["a/b", "a"].
 
937
    """
 
938
    parents = []
 
939
    parts = splitpath(dirname(filename))
 
940
    while parts:
 
941
        parents.append(joinpath(parts))
 
942
        parts.pop()
 
943
    return parents
 
944
 
 
945
 
 
946
_extension_load_failures = []
 
947
 
 
948
 
 
949
def failed_to_load_extension(exception):
 
950
    """Handle failing to load a binary extension.
 
951
 
 
952
    This should be called from the ImportError block guarding the attempt to
 
953
    import the native extension.  If this function returns, the pure-Python
 
954
    implementation should be loaded instead::
 
955
 
 
956
    >>> try:
 
957
    >>>     import bzrlib._fictional_extension_pyx
 
958
    >>> except ImportError, e:
 
959
    >>>     bzrlib.osutils.failed_to_load_extension(e)
 
960
    >>>     import bzrlib._fictional_extension_py
 
961
    """
 
962
    # NB: This docstring is just an example, not a doctest, because doctest
 
963
    # currently can't cope with the use of lazy imports in this namespace --
 
964
    # mbp 20090729
 
965
 
 
966
    # This currently doesn't report the failure at the time it occurs, because
 
967
    # they tend to happen very early in startup when we can't check config
 
968
    # files etc, and also we want to report all failures but not spam the user
 
969
    # with 10 warnings.
 
970
    from bzrlib import trace
 
971
    exception_str = str(exception)
 
972
    if exception_str not in _extension_load_failures:
 
973
        trace.mutter("failed to load compiled extension: %s" % exception_str)
 
974
        _extension_load_failures.append(exception_str)
 
975
 
 
976
 
 
977
def report_extension_load_failures():
 
978
    if not _extension_load_failures:
 
979
        return
 
980
    from bzrlib.config import GlobalConfig
 
981
    if GlobalConfig().get_user_option_as_bool('ignore_missing_extensions'):
 
982
        return
 
983
    # the warnings framework should by default show this only once
 
984
    from bzrlib.trace import warning
 
985
    warning(
 
986
        "bzr: warning: some compiled extensions could not be loaded; "
 
987
        "see <https://answers.launchpad.net/bzr/+faq/703>")
 
988
    # we no longer show the specific missing extensions here, because it makes
 
989
    # the message too long and scary - see
 
990
    # https://bugs.launchpad.net/bzr/+bug/430529
 
991
 
 
992
 
 
993
try:
 
994
    from bzrlib._chunks_to_lines_pyx import chunks_to_lines
 
995
except ImportError, e:
 
996
    failed_to_load_extension(e)
 
997
    from bzrlib._chunks_to_lines_py import chunks_to_lines
 
998
 
673
999
 
674
1000
def split_lines(s):
675
1001
    """Split s into lines, but without removing the newline characters."""
 
1002
    # Trivially convert a fulltext into a 'chunked' representation, and let
 
1003
    # chunks_to_lines do the heavy lifting.
 
1004
    if isinstance(s, str):
 
1005
        # chunks_to_lines only supports 8-bit strings
 
1006
        return chunks_to_lines([s])
 
1007
    else:
 
1008
        return _split_lines(s)
 
1009
 
 
1010
 
 
1011
def _split_lines(s):
 
1012
    """Split s into lines, but without removing the newline characters.
 
1013
 
 
1014
    This supports Unicode or plain string objects.
 
1015
    """
676
1016
    lines = s.split('\n')
677
1017
    result = [line + '\n' for line in lines[:-1]]
678
1018
    if lines[-1]:
687
1027
def link_or_copy(src, dest):
688
1028
    """Hardlink a file, or copy it if it can't be hardlinked."""
689
1029
    if not hardlinks_good():
690
 
        copyfile(src, dest)
 
1030
        shutil.copyfile(src, dest)
691
1031
        return
692
1032
    try:
693
1033
        os.link(src, dest)
694
1034
    except (OSError, IOError), e:
695
1035
        if e.errno != errno.EXDEV:
696
1036
            raise
697
 
        copyfile(src, dest)
698
 
 
699
 
def delete_any(full_path):
700
 
    """Delete a file or directory."""
 
1037
        shutil.copyfile(src, dest)
 
1038
 
 
1039
 
 
1040
def delete_any(path):
 
1041
    """Delete a file, symlink or directory.
 
1042
 
 
1043
    Will delete even if readonly.
 
1044
    """
701
1045
    try:
702
 
        os.unlink(full_path)
703
 
    except OSError, e:
704
 
    # We may be renaming a dangling inventory id
705
 
        if e.errno not in (errno.EISDIR, errno.EACCES, errno.EPERM):
 
1046
       _delete_file_or_dir(path)
 
1047
    except (OSError, IOError), e:
 
1048
        if e.errno in (errno.EPERM, errno.EACCES):
 
1049
            # make writable and try again
 
1050
            try:
 
1051
                make_writable(path)
 
1052
            except (OSError, IOError):
 
1053
                pass
 
1054
            _delete_file_or_dir(path)
 
1055
        else:
706
1056
            raise
707
 
        os.rmdir(full_path)
 
1057
 
 
1058
 
 
1059
def _delete_file_or_dir(path):
 
1060
    # Look Before You Leap (LBYL) is appropriate here instead of Easier to Ask for
 
1061
    # Forgiveness than Permission (EAFP) because:
 
1062
    # - root can damage a solaris file system by using unlink,
 
1063
    # - unlink raises different exceptions on different OSes (linux: EISDIR, win32:
 
1064
    #   EACCES, OSX: EPERM) when invoked on a directory.
 
1065
    if isdir(path): # Takes care of symlinks
 
1066
        os.rmdir(path)
 
1067
    else:
 
1068
        os.unlink(path)
708
1069
 
709
1070
 
710
1071
def has_symlinks():
711
 
    if hasattr(os, 'symlink'):
712
 
        return True
713
 
    else:
714
 
        return False
715
 
        
 
1072
    if getattr(os, 'symlink', None) is not None:
 
1073
        return True
 
1074
    else:
 
1075
        return False
 
1076
 
 
1077
 
 
1078
def has_hardlinks():
 
1079
    if getattr(os, 'link', None) is not None:
 
1080
        return True
 
1081
    else:
 
1082
        return False
 
1083
 
 
1084
 
 
1085
def host_os_dereferences_symlinks():
 
1086
    return (has_symlinks()
 
1087
            and sys.platform not in ('cygwin', 'win32'))
 
1088
 
 
1089
 
 
1090
def readlink(abspath):
 
1091
    """Return a string representing the path to which the symbolic link points.
 
1092
 
 
1093
    :param abspath: The link absolute unicode path.
 
1094
 
 
1095
    This his guaranteed to return the symbolic link in unicode in all python
 
1096
    versions.
 
1097
    """
 
1098
    link = abspath.encode(_fs_enc)
 
1099
    target = os.readlink(link)
 
1100
    target = target.decode(_fs_enc)
 
1101
    return target
 
1102
 
716
1103
 
717
1104
def contains_whitespace(s):
718
1105
    """True if there are any whitespace characters in s."""
719
 
    for ch in string.whitespace:
 
1106
    # string.whitespace can include '\xa0' in certain locales, because it is
 
1107
    # considered "non-breaking-space" as part of ISO-8859-1. But it
 
1108
    # 1) Isn't a breaking whitespace
 
1109
    # 2) Isn't one of ' \t\r\n' which are characters we sometimes use as
 
1110
    #    separators
 
1111
    # 3) '\xa0' isn't unicode safe since it is >128.
 
1112
 
 
1113
    # This should *not* be a unicode set of characters in case the source
 
1114
    # string is not a Unicode string. We can auto-up-cast the characters since
 
1115
    # they are ascii, but we don't want to auto-up-cast the string in case it
 
1116
    # is utf-8
 
1117
    for ch in ' \t\n\r\v\f':
720
1118
        if ch in s:
721
1119
            return True
722
1120
    else:
733
1131
 
734
1132
 
735
1133
def relpath(base, path):
736
 
    """Return path relative to base, or raise exception.
 
1134
    """Return path relative to base, or raise PathNotChild exception.
737
1135
 
738
1136
    The path may be either an absolute path or a path relative to the
739
1137
    current working directory.
741
1139
    os.path.commonprefix (python2.4) has a bad bug that it works just
742
1140
    on string prefixes, assuming that '/u' is a prefix of '/u2'.  This
743
1141
    avoids that problem.
 
1142
 
 
1143
    NOTE: `base` should not have a trailing slash otherwise you'll get
 
1144
    PathNotChild exceptions regardless of `path`.
744
1145
    """
745
1146
 
746
 
    assert len(base) >= MIN_ABS_PATHLENGTH, ('Length of base must be equal or'
747
 
        ' exceed the platform minimum length (which is %d)' % 
748
 
        MIN_ABS_PATHLENGTH)
 
1147
    if len(base) < MIN_ABS_PATHLENGTH:
 
1148
        # must have space for e.g. a drive letter
 
1149
        raise ValueError('%r is too short to calculate a relative path'
 
1150
            % (base,))
749
1151
 
750
1152
    rp = abspath(path)
751
1153
 
752
1154
    s = []
753
1155
    head = rp
754
 
    while len(head) >= len(base):
 
1156
    while True:
 
1157
        if len(head) <= len(base) and head != base:
 
1158
            raise errors.PathNotChild(rp, base)
755
1159
        if head == base:
756
1160
            break
757
 
        head, tail = os.path.split(head)
 
1161
        head, tail = split(head)
758
1162
        if tail:
759
 
            s.insert(0, tail)
760
 
    else:
761
 
        raise PathNotChild(rp, base)
 
1163
            s.append(tail)
762
1164
 
763
1165
    if s:
764
 
        return pathjoin(*s)
 
1166
        return pathjoin(*reversed(s))
765
1167
    else:
766
1168
        return ''
767
1169
 
768
1170
 
 
1171
def _cicp_canonical_relpath(base, path):
 
1172
    """Return the canonical path relative to base.
 
1173
 
 
1174
    Like relpath, but on case-insensitive-case-preserving file-systems, this
 
1175
    will return the relpath as stored on the file-system rather than in the
 
1176
    case specified in the input string, for all existing portions of the path.
 
1177
 
 
1178
    This will cause O(N) behaviour if called for every path in a tree; if you
 
1179
    have a number of paths to convert, you should use canonical_relpaths().
 
1180
    """
 
1181
    # TODO: it should be possible to optimize this for Windows by using the
 
1182
    # win32 API FindFiles function to look for the specified name - but using
 
1183
    # os.listdir() still gives us the correct, platform agnostic semantics in
 
1184
    # the short term.
 
1185
 
 
1186
    rel = relpath(base, path)
 
1187
    # '.' will have been turned into ''
 
1188
    if not rel:
 
1189
        return rel
 
1190
 
 
1191
    abs_base = abspath(base)
 
1192
    current = abs_base
 
1193
    _listdir = os.listdir
 
1194
 
 
1195
    # use an explicit iterator so we can easily consume the rest on early exit.
 
1196
    bit_iter = iter(rel.split('/'))
 
1197
    for bit in bit_iter:
 
1198
        lbit = bit.lower()
 
1199
        try:
 
1200
            next_entries = _listdir(current)
 
1201
        except OSError: # enoent, eperm, etc
 
1202
            # We can't find this in the filesystem, so just append the
 
1203
            # remaining bits.
 
1204
            current = pathjoin(current, bit, *list(bit_iter))
 
1205
            break
 
1206
        for look in next_entries:
 
1207
            if lbit == look.lower():
 
1208
                current = pathjoin(current, look)
 
1209
                break
 
1210
        else:
 
1211
            # got to the end, nothing matched, so we just return the
 
1212
            # non-existing bits as they were specified (the filename may be
 
1213
            # the target of a move, for example).
 
1214
            current = pathjoin(current, bit, *list(bit_iter))
 
1215
            break
 
1216
    return current[len(abs_base):].lstrip('/')
 
1217
 
 
1218
# XXX - TODO - we need better detection/integration of case-insensitive
 
1219
# file-systems; Linux often sees FAT32 devices (or NFS-mounted OSX
 
1220
# filesystems), for example, so could probably benefit from the same basic
 
1221
# support there.  For now though, only Windows and OSX get that support, and
 
1222
# they get it for *all* file-systems!
 
1223
if sys.platform in ('win32', 'darwin'):
 
1224
    canonical_relpath = _cicp_canonical_relpath
 
1225
else:
 
1226
    canonical_relpath = relpath
 
1227
 
 
1228
def canonical_relpaths(base, paths):
 
1229
    """Create an iterable to canonicalize a sequence of relative paths.
 
1230
 
 
1231
    The intent is for this implementation to use a cache, vastly speeding
 
1232
    up multiple transformations in the same directory.
 
1233
    """
 
1234
    # but for now, we haven't optimized...
 
1235
    return [canonical_relpath(base, p) for p in paths]
 
1236
 
 
1237
 
 
1238
def decode_filename(filename):
 
1239
    """Decode the filename using the filesystem encoding
 
1240
 
 
1241
    If it is unicode, it is returned.
 
1242
    Otherwise it is decoded from the the filesystem's encoding. If decoding
 
1243
    fails, a errors.BadFilenameEncoding exception is raised.
 
1244
    """
 
1245
    if type(filename) is unicode:
 
1246
        return filename
 
1247
    try:
 
1248
        return filename.decode(_fs_enc)
 
1249
    except UnicodeDecodeError:
 
1250
        raise errors.BadFilenameEncoding(filename, _fs_enc)
 
1251
 
 
1252
 
769
1253
def safe_unicode(unicode_or_utf8_string):
770
1254
    """Coerce unicode_or_utf8_string into unicode.
771
1255
 
772
1256
    If it is unicode, it is returned.
773
 
    Otherwise it is decoded from utf-8. If a decoding error
774
 
    occurs, it is wrapped as a If the decoding fails, the exception is wrapped 
775
 
    as a BzrBadParameter exception.
 
1257
    Otherwise it is decoded from utf-8. If decoding fails, the exception is
 
1258
    wrapped in a BzrBadParameterNotUnicode exception.
776
1259
    """
777
1260
    if isinstance(unicode_or_utf8_string, unicode):
778
1261
        return unicode_or_utf8_string
779
1262
    try:
780
1263
        return unicode_or_utf8_string.decode('utf8')
781
1264
    except UnicodeDecodeError:
782
 
        raise BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1265
        raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1266
 
 
1267
 
 
1268
def safe_utf8(unicode_or_utf8_string):
 
1269
    """Coerce unicode_or_utf8_string to a utf8 string.
 
1270
 
 
1271
    If it is a str, it is returned.
 
1272
    If it is Unicode, it is encoded into a utf-8 string.
 
1273
    """
 
1274
    if isinstance(unicode_or_utf8_string, str):
 
1275
        # TODO: jam 20070209 This is overkill, and probably has an impact on
 
1276
        #       performance if we are dealing with lots of apis that want a
 
1277
        #       utf-8 revision id
 
1278
        try:
 
1279
            # Make sure it is a valid utf-8 string
 
1280
            unicode_or_utf8_string.decode('utf-8')
 
1281
        except UnicodeDecodeError:
 
1282
            raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1283
        return unicode_or_utf8_string
 
1284
    return unicode_or_utf8_string.encode('utf-8')
 
1285
 
 
1286
 
 
1287
_revision_id_warning = ('Unicode revision ids were deprecated in bzr 0.15.'
 
1288
                        ' Revision id generators should be creating utf8'
 
1289
                        ' revision ids.')
 
1290
 
 
1291
 
 
1292
def safe_revision_id(unicode_or_utf8_string, warn=True):
 
1293
    """Revision ids should now be utf8, but at one point they were unicode.
 
1294
 
 
1295
    :param unicode_or_utf8_string: A possibly Unicode revision_id. (can also be
 
1296
        utf8 or None).
 
1297
    :param warn: Functions that are sanitizing user data can set warn=False
 
1298
    :return: None or a utf8 revision id.
 
1299
    """
 
1300
    if (unicode_or_utf8_string is None
 
1301
        or unicode_or_utf8_string.__class__ == str):
 
1302
        return unicode_or_utf8_string
 
1303
    if warn:
 
1304
        symbol_versioning.warn(_revision_id_warning, DeprecationWarning,
 
1305
                               stacklevel=2)
 
1306
    return cache_utf8.encode(unicode_or_utf8_string)
 
1307
 
 
1308
 
 
1309
_file_id_warning = ('Unicode file ids were deprecated in bzr 0.15. File id'
 
1310
                    ' generators should be creating utf8 file ids.')
 
1311
 
 
1312
 
 
1313
def safe_file_id(unicode_or_utf8_string, warn=True):
 
1314
    """File ids should now be utf8, but at one point they were unicode.
 
1315
 
 
1316
    This is the same as safe_utf8, except it uses the cached encode functions
 
1317
    to save a little bit of performance.
 
1318
 
 
1319
    :param unicode_or_utf8_string: A possibly Unicode file_id. (can also be
 
1320
        utf8 or None).
 
1321
    :param warn: Functions that are sanitizing user data can set warn=False
 
1322
    :return: None or a utf8 file id.
 
1323
    """
 
1324
    if (unicode_or_utf8_string is None
 
1325
        or unicode_or_utf8_string.__class__ == str):
 
1326
        return unicode_or_utf8_string
 
1327
    if warn:
 
1328
        symbol_versioning.warn(_file_id_warning, DeprecationWarning,
 
1329
                               stacklevel=2)
 
1330
    return cache_utf8.encode(unicode_or_utf8_string)
783
1331
 
784
1332
 
785
1333
_platform_normalizes_filenames = False
790
1338
def normalizes_filenames():
791
1339
    """Return True if this platform normalizes unicode filenames.
792
1340
 
793
 
    Mac OSX does, Windows/Linux do not.
 
1341
    Only Mac OSX.
794
1342
    """
795
1343
    return _platform_normalizes_filenames
796
1344
 
800
1348
 
801
1349
    On platforms where the system normalizes filenames (Mac OSX),
802
1350
    you can access a file by any path which will normalize correctly.
803
 
    On platforms where the system does not normalize filenames 
804
 
    (Windows, Linux), you have to access a file by its exact path.
 
1351
    On platforms where the system does not normalize filenames
 
1352
    (everything else), you have to access a file by its exact path.
805
1353
 
806
 
    Internally, bzr only supports NFC/NFKC normalization, since that is 
 
1354
    Internally, bzr only supports NFC normalization, since that is
807
1355
    the standard for XML documents.
808
1356
 
809
1357
    So return the normalized path, and a flag indicating if the file
810
1358
    can be accessed by that path.
811
1359
    """
812
1360
 
813
 
    return unicodedata.normalize('NFKC', unicode(path)), True
 
1361
    return unicodedata.normalize('NFC', unicode(path)), True
814
1362
 
815
1363
 
816
1364
def _inaccessible_normalized_filename(path):
817
1365
    __doc__ = _accessible_normalized_filename.__doc__
818
1366
 
819
 
    normalized = unicodedata.normalize('NFKC', unicode(path))
 
1367
    normalized = unicodedata.normalize('NFC', unicode(path))
820
1368
    return normalized, normalized == path
821
1369
 
822
1370
 
826
1374
    normalized_filename = _inaccessible_normalized_filename
827
1375
 
828
1376
 
 
1377
def set_signal_handler(signum, handler, restart_syscall=True):
 
1378
    """A wrapper for signal.signal that also calls siginterrupt(signum, False)
 
1379
    on platforms that support that.
 
1380
 
 
1381
    :param restart_syscall: if set, allow syscalls interrupted by a signal to
 
1382
        automatically restart (by calling `signal.siginterrupt(signum,
 
1383
        False)`).  May be ignored if the feature is not available on this
 
1384
        platform or Python version.
 
1385
    """
 
1386
    try:
 
1387
        import signal
 
1388
        siginterrupt = signal.siginterrupt
 
1389
    except ImportError:
 
1390
        # This python implementation doesn't provide signal support, hence no
 
1391
        # handler exists
 
1392
        return None
 
1393
    except AttributeError:
 
1394
        # siginterrupt doesn't exist on this platform, or for this version
 
1395
        # of Python.
 
1396
        siginterrupt = lambda signum, flag: None
 
1397
    if restart_syscall:
 
1398
        def sig_handler(*args):
 
1399
            # Python resets the siginterrupt flag when a signal is
 
1400
            # received.  <http://bugs.python.org/issue8354>
 
1401
            # As a workaround for some cases, set it back the way we want it.
 
1402
            siginterrupt(signum, False)
 
1403
            # Now run the handler function passed to set_signal_handler.
 
1404
            handler(*args)
 
1405
    else:
 
1406
        sig_handler = handler
 
1407
    old_handler = signal.signal(signum, sig_handler)
 
1408
    if restart_syscall:
 
1409
        siginterrupt(signum, False)
 
1410
    return old_handler
 
1411
 
 
1412
 
 
1413
default_terminal_width = 80
 
1414
"""The default terminal width for ttys.
 
1415
 
 
1416
This is defined so that higher levels can share a common fallback value when
 
1417
terminal_width() returns None.
 
1418
"""
 
1419
 
 
1420
# Keep some state so that terminal_width can detect if _terminal_size has
 
1421
# returned a different size since the process started.  See docstring and
 
1422
# comments of terminal_width for details.
 
1423
# _terminal_size_state has 3 possible values: no_data, unchanged, and changed.
 
1424
_terminal_size_state = 'no_data'
 
1425
_first_terminal_size = None
 
1426
 
829
1427
def terminal_width():
830
 
    """Return estimated terminal width."""
831
 
    if sys.platform == 'win32':
832
 
        import bzrlib.win32console
833
 
        return bzrlib.win32console.get_console_size()[0]
834
 
    width = 0
 
1428
    """Return terminal width.
 
1429
 
 
1430
    None is returned if the width can't established precisely.
 
1431
 
 
1432
    The rules are:
 
1433
    - if BZR_COLUMNS is set, returns its value
 
1434
    - if there is no controlling terminal, returns None
 
1435
    - query the OS, if the queried size has changed since the last query,
 
1436
      return its value,
 
1437
    - if COLUMNS is set, returns its value,
 
1438
    - if the OS has a value (even though it's never changed), return its value.
 
1439
 
 
1440
    From there, we need to query the OS to get the size of the controlling
 
1441
    terminal.
 
1442
 
 
1443
    On Unices we query the OS by:
 
1444
    - get termios.TIOCGWINSZ
 
1445
    - if an error occurs or a negative value is obtained, returns None
 
1446
 
 
1447
    On Windows we query the OS by:
 
1448
    - win32utils.get_console_size() decides,
 
1449
    - returns None on error (provided default value)
 
1450
    """
 
1451
    # Note to implementors: if changing the rules for determining the width,
 
1452
    # make sure you've considered the behaviour in these cases:
 
1453
    #  - M-x shell in emacs, where $COLUMNS is set and TIOCGWINSZ returns 0,0.
 
1454
    #  - bzr log | less, in bash, where $COLUMNS not set and TIOCGWINSZ returns
 
1455
    #    0,0.
 
1456
    #  - (add more interesting cases here, if you find any)
 
1457
    # Some programs implement "Use $COLUMNS (if set) until SIGWINCH occurs",
 
1458
    # but we don't want to register a signal handler because it is impossible
 
1459
    # to do so without risking EINTR errors in Python <= 2.6.5 (see
 
1460
    # <http://bugs.python.org/issue8354>).  Instead we check TIOCGWINSZ every
 
1461
    # time so we can notice if the reported size has changed, which should have
 
1462
    # a similar effect.
 
1463
 
 
1464
    # If BZR_COLUMNS is set, take it, user is always right
 
1465
    try:
 
1466
        return int(os.environ['BZR_COLUMNS'])
 
1467
    except (KeyError, ValueError):
 
1468
        pass
 
1469
 
 
1470
    isatty = getattr(sys.stdout, 'isatty', None)
 
1471
    if isatty is None or not isatty():
 
1472
        # Don't guess, setting BZR_COLUMNS is the recommended way to override.
 
1473
        return None
 
1474
 
 
1475
    # Query the OS
 
1476
    width, height = os_size = _terminal_size(None, None)
 
1477
    global _first_terminal_size, _terminal_size_state
 
1478
    if _terminal_size_state == 'no_data':
 
1479
        _first_terminal_size = os_size
 
1480
        _terminal_size_state = 'unchanged'
 
1481
    elif (_terminal_size_state == 'unchanged' and
 
1482
          _first_terminal_size != os_size):
 
1483
        _terminal_size_state = 'changed'
 
1484
 
 
1485
    # If the OS claims to know how wide the terminal is, and this value has
 
1486
    # ever changed, use that.
 
1487
    if _terminal_size_state == 'changed':
 
1488
        if width is not None and width > 0:
 
1489
            return width
 
1490
 
 
1491
    # If COLUMNS is set, use it.
 
1492
    try:
 
1493
        return int(os.environ['COLUMNS'])
 
1494
    except (KeyError, ValueError):
 
1495
        pass
 
1496
 
 
1497
    # Finally, use an unchanged size from the OS, if we have one.
 
1498
    if _terminal_size_state == 'unchanged':
 
1499
        if width is not None and width > 0:
 
1500
            return width
 
1501
 
 
1502
    # The width could not be determined.
 
1503
    return None
 
1504
 
 
1505
 
 
1506
def _win32_terminal_size(width, height):
 
1507
    width, height = win32utils.get_console_size(defaultx=width, defaulty=height)
 
1508
    return width, height
 
1509
 
 
1510
 
 
1511
def _ioctl_terminal_size(width, height):
835
1512
    try:
836
1513
        import struct, fcntl, termios
837
1514
        s = struct.pack('HHHH', 0, 0, 0, 0)
838
1515
        x = fcntl.ioctl(1, termios.TIOCGWINSZ, s)
839
 
        width = struct.unpack('HHHH', x)[1]
840
 
    except IOError:
 
1516
        height, width = struct.unpack('HHHH', x)[0:2]
 
1517
    except (IOError, AttributeError):
841
1518
        pass
842
 
    if width <= 0:
843
 
        try:
844
 
            width = int(os.environ['COLUMNS'])
845
 
        except:
846
 
            pass
847
 
    if width <= 0:
848
 
        width = 80
849
 
 
850
 
    return width
 
1519
    return width, height
 
1520
 
 
1521
_terminal_size = None
 
1522
"""Returns the terminal size as (width, height).
 
1523
 
 
1524
:param width: Default value for width.
 
1525
:param height: Default value for height.
 
1526
 
 
1527
This is defined specifically for each OS and query the size of the controlling
 
1528
terminal. If any error occurs, the provided default values should be returned.
 
1529
"""
 
1530
if sys.platform == 'win32':
 
1531
    _terminal_size = _win32_terminal_size
 
1532
else:
 
1533
    _terminal_size = _ioctl_terminal_size
 
1534
 
851
1535
 
852
1536
def supports_executable():
853
1537
    return sys.platform != "win32"
854
1538
 
855
1539
 
 
1540
def supports_posix_readonly():
 
1541
    """Return True if 'readonly' has POSIX semantics, False otherwise.
 
1542
 
 
1543
    Notably, a win32 readonly file cannot be deleted, unlike POSIX where the
 
1544
    directory controls creation/deletion, etc.
 
1545
 
 
1546
    And under win32, readonly means that the directory itself cannot be
 
1547
    deleted.  The contents of a readonly directory can be changed, unlike POSIX
 
1548
    where files in readonly directories cannot be added, deleted or renamed.
 
1549
    """
 
1550
    return sys.platform != "win32"
 
1551
 
 
1552
 
 
1553
def set_or_unset_env(env_variable, value):
 
1554
    """Modify the environment, setting or removing the env_variable.
 
1555
 
 
1556
    :param env_variable: The environment variable in question
 
1557
    :param value: The value to set the environment to. If None, then
 
1558
        the variable will be removed.
 
1559
    :return: The original value of the environment variable.
 
1560
    """
 
1561
    orig_val = os.environ.get(env_variable)
 
1562
    if value is None:
 
1563
        if orig_val is not None:
 
1564
            del os.environ[env_variable]
 
1565
    else:
 
1566
        if isinstance(value, unicode):
 
1567
            value = value.encode(get_user_encoding())
 
1568
        os.environ[env_variable] = value
 
1569
    return orig_val
 
1570
 
 
1571
 
856
1572
_validWin32PathRE = re.compile(r'^([A-Za-z]:[/\\])?[^:<>*"?\|]*$')
857
1573
 
858
1574
 
859
1575
def check_legal_path(path):
860
 
    """Check whether the supplied path is legal.  
 
1576
    """Check whether the supplied path is legal.
861
1577
    This is only required on Windows, so we don't test on other platforms
862
1578
    right now.
863
1579
    """
864
1580
    if sys.platform != "win32":
865
1581
        return
866
1582
    if _validWin32PathRE.match(path) is None:
867
 
        raise IllegalPath(path)
 
1583
        raise errors.IllegalPath(path)
 
1584
 
 
1585
 
 
1586
_WIN32_ERROR_DIRECTORY = 267 # Similar to errno.ENOTDIR
 
1587
 
 
1588
def _is_error_enotdir(e):
 
1589
    """Check if this exception represents ENOTDIR.
 
1590
 
 
1591
    Unfortunately, python is very inconsistent about the exception
 
1592
    here. The cases are:
 
1593
      1) Linux, Mac OSX all versions seem to set errno == ENOTDIR
 
1594
      2) Windows, Python2.4, uses errno == ERROR_DIRECTORY (267)
 
1595
         which is the windows error code.
 
1596
      3) Windows, Python2.5 uses errno == EINVAL and
 
1597
         winerror == ERROR_DIRECTORY
 
1598
 
 
1599
    :param e: An Exception object (expected to be OSError with an errno
 
1600
        attribute, but we should be able to cope with anything)
 
1601
    :return: True if this represents an ENOTDIR error. False otherwise.
 
1602
    """
 
1603
    en = getattr(e, 'errno', None)
 
1604
    if (en == errno.ENOTDIR
 
1605
        or (sys.platform == 'win32'
 
1606
            and (en == _WIN32_ERROR_DIRECTORY
 
1607
                 or (en == errno.EINVAL
 
1608
                     and getattr(e, 'winerror', None) == _WIN32_ERROR_DIRECTORY)
 
1609
        ))):
 
1610
        return True
 
1611
    return False
868
1612
 
869
1613
 
870
1614
def walkdirs(top, prefix=""):
871
1615
    """Yield data about all the directories in a tree.
872
 
    
 
1616
 
873
1617
    This yields all the data about the contents of a directory at a time.
874
1618
    After each directory has been yielded, if the caller has mutated the list
875
1619
    to exclude some directories, they are then not descended into.
876
 
    
 
1620
 
877
1621
    The data yielded is of the form:
878
 
    [(relpath, basename, kind, lstat, path_from_top), ...]
 
1622
    ((directory-relpath, directory-path-from-top),
 
1623
    [(relpath, basename, kind, lstat, path-from-top), ...]),
 
1624
     - directory-relpath is the relative path of the directory being returned
 
1625
       with respect to top. prefix is prepended to this.
 
1626
     - directory-path-from-root is the path including top for this directory.
 
1627
       It is suitable for use with os functions.
 
1628
     - relpath is the relative path within the subtree being walked.
 
1629
     - basename is the basename of the path
 
1630
     - kind is the kind of the file now. If unknown then the file is not
 
1631
       present within the tree - but it may be recorded as versioned. See
 
1632
       versioned_kind.
 
1633
     - lstat is the stat data *if* the file was statted.
 
1634
     - planned, not implemented:
 
1635
       path_from_tree_root is the path from the root of the tree.
879
1636
 
880
 
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This 
 
1637
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This
881
1638
        allows one to walk a subtree but get paths that are relative to a tree
882
1639
        rooted higher up.
883
1640
    :return: an iterator over the dirs.
884
1641
    """
885
 
    lstat = os.lstat
886
 
    pending = []
 
1642
    #TODO there is a bit of a smell where the results of the directory-
 
1643
    # summary in this, and the path from the root, may not agree
 
1644
    # depending on top and prefix - i.e. ./foo and foo as a pair leads to
 
1645
    # potentially confusing output. We should make this more robust - but
 
1646
    # not at a speed cost. RBC 20060731
 
1647
    _lstat = os.lstat
887
1648
    _directory = _directory_kind
888
 
    _listdir = listdir
889
 
    pending = [(prefix, "", _directory, None, top)]
 
1649
    _listdir = os.listdir
 
1650
    _kind_from_mode = file_kind_from_stat_mode
 
1651
    pending = [(safe_unicode(prefix), "", _directory, None, safe_unicode(top))]
890
1652
    while pending:
891
 
        dirblock = []
892
 
        currentdir = pending.pop()
893
1653
        # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
894
 
        top = currentdir[4]
895
 
        if currentdir[0]:
896
 
            relroot = currentdir[0] + '/'
897
 
        else:
898
 
            relroot = ""
 
1654
        relroot, _, _, _, top = pending.pop()
 
1655
        if relroot:
 
1656
            relprefix = relroot + u'/'
 
1657
        else:
 
1658
            relprefix = ''
 
1659
        top_slash = top + u'/'
 
1660
 
 
1661
        dirblock = []
 
1662
        append = dirblock.append
 
1663
        try:
 
1664
            names = sorted(map(decode_filename, _listdir(top)))
 
1665
        except OSError, e:
 
1666
            if not _is_error_enotdir(e):
 
1667
                raise
 
1668
        else:
 
1669
            for name in names:
 
1670
                abspath = top_slash + name
 
1671
                statvalue = _lstat(abspath)
 
1672
                kind = _kind_from_mode(statvalue.st_mode)
 
1673
                append((relprefix + name, name, kind, statvalue, abspath))
 
1674
        yield (relroot, top), dirblock
 
1675
 
 
1676
        # push the user specified dirs from dirblock
 
1677
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
 
1678
 
 
1679
 
 
1680
class DirReader(object):
 
1681
    """An interface for reading directories."""
 
1682
 
 
1683
    def top_prefix_to_starting_dir(self, top, prefix=""):
 
1684
        """Converts top and prefix to a starting dir entry
 
1685
 
 
1686
        :param top: A utf8 path
 
1687
        :param prefix: An optional utf8 path to prefix output relative paths
 
1688
            with.
 
1689
        :return: A tuple starting with prefix, and ending with the native
 
1690
            encoding of top.
 
1691
        """
 
1692
        raise NotImplementedError(self.top_prefix_to_starting_dir)
 
1693
 
 
1694
    def read_dir(self, prefix, top):
 
1695
        """Read a specific dir.
 
1696
 
 
1697
        :param prefix: A utf8 prefix to be preprended to the path basenames.
 
1698
        :param top: A natively encoded path to read.
 
1699
        :return: A list of the directories contents. Each item contains:
 
1700
            (utf8_relpath, utf8_name, kind, lstatvalue, native_abspath)
 
1701
        """
 
1702
        raise NotImplementedError(self.read_dir)
 
1703
 
 
1704
 
 
1705
_selected_dir_reader = None
 
1706
 
 
1707
 
 
1708
def _walkdirs_utf8(top, prefix=""):
 
1709
    """Yield data about all the directories in a tree.
 
1710
 
 
1711
    This yields the same information as walkdirs() only each entry is yielded
 
1712
    in utf-8. On platforms which have a filesystem encoding of utf8 the paths
 
1713
    are returned as exact byte-strings.
 
1714
 
 
1715
    :return: yields a tuple of (dir_info, [file_info])
 
1716
        dir_info is (utf8_relpath, path-from-top)
 
1717
        file_info is (utf8_relpath, utf8_name, kind, lstat, path-from-top)
 
1718
        if top is an absolute path, path-from-top is also an absolute path.
 
1719
        path-from-top might be unicode or utf8, but it is the correct path to
 
1720
        pass to os functions to affect the file in question. (such as os.lstat)
 
1721
    """
 
1722
    global _selected_dir_reader
 
1723
    if _selected_dir_reader is None:
 
1724
        fs_encoding = _fs_enc.upper()
 
1725
        if sys.platform == "win32" and win32utils.winver == 'Windows NT':
 
1726
            # Win98 doesn't have unicode apis like FindFirstFileW
 
1727
            # TODO: We possibly could support Win98 by falling back to the
 
1728
            #       original FindFirstFile, and using TCHAR instead of WCHAR,
 
1729
            #       but that gets a bit tricky, and requires custom compiling
 
1730
            #       for win98 anyway.
 
1731
            try:
 
1732
                from bzrlib._walkdirs_win32 import Win32ReadDir
 
1733
                _selected_dir_reader = Win32ReadDir()
 
1734
            except ImportError:
 
1735
                pass
 
1736
        elif fs_encoding in ('UTF-8', 'US-ASCII', 'ANSI_X3.4-1968'):
 
1737
            # ANSI_X3.4-1968 is a form of ASCII
 
1738
            try:
 
1739
                from bzrlib._readdir_pyx import UTF8DirReader
 
1740
                _selected_dir_reader = UTF8DirReader()
 
1741
            except ImportError, e:
 
1742
                failed_to_load_extension(e)
 
1743
                pass
 
1744
 
 
1745
    if _selected_dir_reader is None:
 
1746
        # Fallback to the python version
 
1747
        _selected_dir_reader = UnicodeDirReader()
 
1748
 
 
1749
    # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
 
1750
    # But we don't actually uses 1-3 in pending, so set them to None
 
1751
    pending = [[_selected_dir_reader.top_prefix_to_starting_dir(top, prefix)]]
 
1752
    read_dir = _selected_dir_reader.read_dir
 
1753
    _directory = _directory_kind
 
1754
    while pending:
 
1755
        relroot, _, _, _, top = pending[-1].pop()
 
1756
        if not pending[-1]:
 
1757
            pending.pop()
 
1758
        dirblock = sorted(read_dir(relroot, top))
 
1759
        yield (relroot, top), dirblock
 
1760
        # push the user specified dirs from dirblock
 
1761
        next = [d for d in reversed(dirblock) if d[2] == _directory]
 
1762
        if next:
 
1763
            pending.append(next)
 
1764
 
 
1765
 
 
1766
class UnicodeDirReader(DirReader):
 
1767
    """A dir reader for non-utf8 file systems, which transcodes."""
 
1768
 
 
1769
    __slots__ = ['_utf8_encode']
 
1770
 
 
1771
    def __init__(self):
 
1772
        self._utf8_encode = codecs.getencoder('utf8')
 
1773
 
 
1774
    def top_prefix_to_starting_dir(self, top, prefix=""):
 
1775
        """See DirReader.top_prefix_to_starting_dir."""
 
1776
        return (safe_utf8(prefix), None, None, None, safe_unicode(top))
 
1777
 
 
1778
    def read_dir(self, prefix, top):
 
1779
        """Read a single directory from a non-utf8 file system.
 
1780
 
 
1781
        top, and the abspath element in the output are unicode, all other paths
 
1782
        are utf8. Local disk IO is done via unicode calls to listdir etc.
 
1783
 
 
1784
        This is currently the fallback code path when the filesystem encoding is
 
1785
        not UTF-8. It may be better to implement an alternative so that we can
 
1786
        safely handle paths that are not properly decodable in the current
 
1787
        encoding.
 
1788
 
 
1789
        See DirReader.read_dir for details.
 
1790
        """
 
1791
        _utf8_encode = self._utf8_encode
 
1792
        _lstat = os.lstat
 
1793
        _listdir = os.listdir
 
1794
        _kind_from_mode = file_kind_from_stat_mode
 
1795
 
 
1796
        if prefix:
 
1797
            relprefix = prefix + '/'
 
1798
        else:
 
1799
            relprefix = ''
 
1800
        top_slash = top + u'/'
 
1801
 
 
1802
        dirblock = []
 
1803
        append = dirblock.append
899
1804
        for name in sorted(_listdir(top)):
900
 
            abspath = top + '/' + name
901
 
            statvalue = lstat(abspath)
902
 
            dirblock.append ((relroot + name, name, file_kind_from_stat_mode(statvalue.st_mode), statvalue, abspath))
903
 
        yield dirblock
904
 
        # push the user specified dirs from dirblock
905
 
        for dir in reversed(dirblock):
906
 
            if dir[2] == _directory:
907
 
                pending.append(dir)
 
1805
            try:
 
1806
                name_utf8 = _utf8_encode(name)[0]
 
1807
            except UnicodeDecodeError:
 
1808
                raise errors.BadFilenameEncoding(
 
1809
                    _utf8_encode(relprefix)[0] + name, _fs_enc)
 
1810
            abspath = top_slash + name
 
1811
            statvalue = _lstat(abspath)
 
1812
            kind = _kind_from_mode(statvalue.st_mode)
 
1813
            append((relprefix + name_utf8, name_utf8, kind, statvalue, abspath))
 
1814
        return dirblock
 
1815
 
 
1816
 
 
1817
def copy_tree(from_path, to_path, handlers={}):
 
1818
    """Copy all of the entries in from_path into to_path.
 
1819
 
 
1820
    :param from_path: The base directory to copy.
 
1821
    :param to_path: The target directory. If it does not exist, it will
 
1822
        be created.
 
1823
    :param handlers: A dictionary of functions, which takes a source and
 
1824
        destinations for files, directories, etc.
 
1825
        It is keyed on the file kind, such as 'directory', 'symlink', or 'file'
 
1826
        'file', 'directory', and 'symlink' should always exist.
 
1827
        If they are missing, they will be replaced with 'os.mkdir()',
 
1828
        'os.readlink() + os.symlink()', and 'shutil.copy2()', respectively.
 
1829
    """
 
1830
    # Now, just copy the existing cached tree to the new location
 
1831
    # We use a cheap trick here.
 
1832
    # Absolute paths are prefixed with the first parameter
 
1833
    # relative paths are prefixed with the second.
 
1834
    # So we can get both the source and target returned
 
1835
    # without any extra work.
 
1836
 
 
1837
    def copy_dir(source, dest):
 
1838
        os.mkdir(dest)
 
1839
 
 
1840
    def copy_link(source, dest):
 
1841
        """Copy the contents of a symlink"""
 
1842
        link_to = os.readlink(source)
 
1843
        os.symlink(link_to, dest)
 
1844
 
 
1845
    real_handlers = {'file':shutil.copy2,
 
1846
                     'symlink':copy_link,
 
1847
                     'directory':copy_dir,
 
1848
                    }
 
1849
    real_handlers.update(handlers)
 
1850
 
 
1851
    if not os.path.exists(to_path):
 
1852
        real_handlers['directory'](from_path, to_path)
 
1853
 
 
1854
    for dir_info, entries in walkdirs(from_path, prefix=to_path):
 
1855
        for relpath, name, kind, st, abspath in entries:
 
1856
            real_handlers[kind](abspath, relpath)
 
1857
 
 
1858
 
 
1859
def copy_ownership_from_path(dst, src=None):
 
1860
    """Copy usr/grp ownership from src file/dir to dst file/dir.
 
1861
 
 
1862
    If src is None, the containing directory is used as source. If chown
 
1863
    fails, the error is ignored and a warning is printed.
 
1864
    """
 
1865
    chown = getattr(os, 'chown', None)
 
1866
    if chown is None:
 
1867
        return
 
1868
 
 
1869
    if src == None:
 
1870
        src = os.path.dirname(dst)
 
1871
        if src == '':
 
1872
            src = '.'
 
1873
 
 
1874
    try:
 
1875
        s = os.stat(src)
 
1876
        chown(dst, s.st_uid, s.st_gid)
 
1877
    except OSError, e:
 
1878
        trace.warning("Unable to copy ownership from '%s' to '%s': IOError: %s." % (src, dst, e))
908
1879
 
909
1880
 
910
1881
def path_prefix_key(path):
920
1891
    key_a = path_prefix_key(path_a)
921
1892
    key_b = path_prefix_key(path_b)
922
1893
    return cmp(key_a, key_b)
 
1894
 
 
1895
 
 
1896
_cached_user_encoding = None
 
1897
 
 
1898
 
 
1899
def get_user_encoding(use_cache=True):
 
1900
    """Find out what the preferred user encoding is.
 
1901
 
 
1902
    This is generally the encoding that is used for command line parameters
 
1903
    and file contents. This may be different from the terminal encoding
 
1904
    or the filesystem encoding.
 
1905
 
 
1906
    :param  use_cache:  Enable cache for detected encoding.
 
1907
                        (This parameter is turned on by default,
 
1908
                        and required only for selftesting)
 
1909
 
 
1910
    :return: A string defining the preferred user encoding
 
1911
    """
 
1912
    global _cached_user_encoding
 
1913
    if _cached_user_encoding is not None and use_cache:
 
1914
        return _cached_user_encoding
 
1915
 
 
1916
    if sys.platform == 'darwin':
 
1917
        # python locale.getpreferredencoding() always return
 
1918
        # 'mac-roman' on darwin. That's a lie.
 
1919
        sys.platform = 'posix'
 
1920
        try:
 
1921
            if os.environ.get('LANG', None) is None:
 
1922
                # If LANG is not set, we end up with 'ascii', which is bad
 
1923
                # ('mac-roman' is more than ascii), so we set a default which
 
1924
                # will give us UTF-8 (which appears to work in all cases on
 
1925
                # OSX). Users are still free to override LANG of course, as
 
1926
                # long as it give us something meaningful. This work-around
 
1927
                # *may* not be needed with python 3k and/or OSX 10.5, but will
 
1928
                # work with them too -- vila 20080908
 
1929
                os.environ['LANG'] = 'en_US.UTF-8'
 
1930
            import locale
 
1931
        finally:
 
1932
            sys.platform = 'darwin'
 
1933
    else:
 
1934
        import locale
 
1935
 
 
1936
    try:
 
1937
        user_encoding = locale.getpreferredencoding()
 
1938
    except locale.Error, e:
 
1939
        sys.stderr.write('bzr: warning: %s\n'
 
1940
                         '  Could not determine what text encoding to use.\n'
 
1941
                         '  This error usually means your Python interpreter\n'
 
1942
                         '  doesn\'t support the locale set by $LANG (%s)\n'
 
1943
                         "  Continuing with ascii encoding.\n"
 
1944
                         % (e, os.environ.get('LANG')))
 
1945
        user_encoding = 'ascii'
 
1946
 
 
1947
    # Windows returns 'cp0' to indicate there is no code page. So we'll just
 
1948
    # treat that as ASCII, and not support printing unicode characters to the
 
1949
    # console.
 
1950
    #
 
1951
    # For python scripts run under vim, we get '', so also treat that as ASCII
 
1952
    if user_encoding in (None, 'cp0', ''):
 
1953
        user_encoding = 'ascii'
 
1954
    else:
 
1955
        # check encoding
 
1956
        try:
 
1957
            codecs.lookup(user_encoding)
 
1958
        except LookupError:
 
1959
            sys.stderr.write('bzr: warning:'
 
1960
                             ' unknown encoding %s.'
 
1961
                             ' Continuing with ascii encoding.\n'
 
1962
                             % user_encoding
 
1963
                            )
 
1964
            user_encoding = 'ascii'
 
1965
 
 
1966
    if use_cache:
 
1967
        _cached_user_encoding = user_encoding
 
1968
 
 
1969
    return user_encoding
 
1970
 
 
1971
 
 
1972
def get_diff_header_encoding():
 
1973
    return get_terminal_encoding()
 
1974
 
 
1975
 
 
1976
def get_host_name():
 
1977
    """Return the current unicode host name.
 
1978
 
 
1979
    This is meant to be used in place of socket.gethostname() because that
 
1980
    behaves inconsistently on different platforms.
 
1981
    """
 
1982
    if sys.platform == "win32":
 
1983
        import win32utils
 
1984
        return win32utils.get_host_name()
 
1985
    else:
 
1986
        import socket
 
1987
        return socket.gethostname().decode(get_user_encoding())
 
1988
 
 
1989
 
 
1990
# We must not read/write any more than 64k at a time from/to a socket so we
 
1991
# don't risk "no buffer space available" errors on some platforms.  Windows in
 
1992
# particular is likely to throw WSAECONNABORTED or WSAENOBUFS if given too much
 
1993
# data at once.
 
1994
MAX_SOCKET_CHUNK = 64 * 1024
 
1995
 
 
1996
def read_bytes_from_socket(sock, report_activity=None,
 
1997
        max_read_size=MAX_SOCKET_CHUNK):
 
1998
    """Read up to max_read_size of bytes from sock and notify of progress.
 
1999
 
 
2000
    Translates "Connection reset by peer" into file-like EOF (return an
 
2001
    empty string rather than raise an error), and repeats the recv if
 
2002
    interrupted by a signal.
 
2003
    """
 
2004
    while 1:
 
2005
        try:
 
2006
            bytes = sock.recv(max_read_size)
 
2007
        except socket.error, e:
 
2008
            eno = e.args[0]
 
2009
            if eno == getattr(errno, "WSAECONNRESET", errno.ECONNRESET):
 
2010
                # The connection was closed by the other side.  Callers expect
 
2011
                # an empty string to signal end-of-stream.
 
2012
                return ""
 
2013
            elif eno == errno.EINTR:
 
2014
                # Retry the interrupted recv.
 
2015
                continue
 
2016
            raise
 
2017
        else:
 
2018
            if report_activity is not None:
 
2019
                report_activity(len(bytes), 'read')
 
2020
            return bytes
 
2021
 
 
2022
 
 
2023
def recv_all(socket, count):
 
2024
    """Receive an exact number of bytes.
 
2025
 
 
2026
    Regular Socket.recv() may return less than the requested number of bytes,
 
2027
    depending on what's in the OS buffer.  MSG_WAITALL is not available
 
2028
    on all platforms, but this should work everywhere.  This will return
 
2029
    less than the requested amount if the remote end closes.
 
2030
 
 
2031
    This isn't optimized and is intended mostly for use in testing.
 
2032
    """
 
2033
    b = ''
 
2034
    while len(b) < count:
 
2035
        new = read_bytes_from_socket(socket, None, count - len(b))
 
2036
        if new == '':
 
2037
            break # eof
 
2038
        b += new
 
2039
    return b
 
2040
 
 
2041
 
 
2042
def send_all(sock, bytes, report_activity=None):
 
2043
    """Send all bytes on a socket.
 
2044
 
 
2045
    Breaks large blocks in smaller chunks to avoid buffering limitations on
 
2046
    some platforms, and catches EINTR which may be thrown if the send is
 
2047
    interrupted by a signal.
 
2048
 
 
2049
    This is preferred to socket.sendall(), because it avoids portability bugs
 
2050
    and provides activity reporting.
 
2051
 
 
2052
    :param report_activity: Call this as bytes are read, see
 
2053
        Transport._report_activity
 
2054
    """
 
2055
    sent_total = 0
 
2056
    byte_count = len(bytes)
 
2057
    while sent_total < byte_count:
 
2058
        try:
 
2059
            sent = sock.send(buffer(bytes, sent_total, MAX_SOCKET_CHUNK))
 
2060
        except socket.error, e:
 
2061
            if e.args[0] != errno.EINTR:
 
2062
                raise
 
2063
        else:
 
2064
            sent_total += sent
 
2065
            report_activity(sent, 'write')
 
2066
 
 
2067
 
 
2068
def connect_socket(address):
 
2069
    # Slight variation of the socket.create_connection() function (provided by
 
2070
    # python-2.6) that can fail if getaddrinfo returns an empty list. We also
 
2071
    # provide it for previous python versions. Also, we don't use the timeout
 
2072
    # parameter (provided by the python implementation) so we don't implement
 
2073
    # it either).
 
2074
    err = socket.error('getaddrinfo returns an empty list')
 
2075
    host, port = address
 
2076
    for res in socket.getaddrinfo(host, port, 0, socket.SOCK_STREAM):
 
2077
        af, socktype, proto, canonname, sa = res
 
2078
        sock = None
 
2079
        try:
 
2080
            sock = socket.socket(af, socktype, proto)
 
2081
            sock.connect(sa)
 
2082
            return sock
 
2083
 
 
2084
        except socket.error, err:
 
2085
            # 'err' is now the most recent error
 
2086
            if sock is not None:
 
2087
                sock.close()
 
2088
    raise err
 
2089
 
 
2090
 
 
2091
def dereference_path(path):
 
2092
    """Determine the real path to a file.
 
2093
 
 
2094
    All parent elements are dereferenced.  But the file itself is not
 
2095
    dereferenced.
 
2096
    :param path: The original path.  May be absolute or relative.
 
2097
    :return: the real path *to* the file
 
2098
    """
 
2099
    parent, base = os.path.split(path)
 
2100
    # The pathjoin for '.' is a workaround for Python bug #1213894.
 
2101
    # (initial path components aren't dereferenced)
 
2102
    return pathjoin(realpath(pathjoin('.', parent)), base)
 
2103
 
 
2104
 
 
2105
def supports_mapi():
 
2106
    """Return True if we can use MAPI to launch a mail client."""
 
2107
    return sys.platform == "win32"
 
2108
 
 
2109
 
 
2110
def resource_string(package, resource_name):
 
2111
    """Load a resource from a package and return it as a string.
 
2112
 
 
2113
    Note: Only packages that start with bzrlib are currently supported.
 
2114
 
 
2115
    This is designed to be a lightweight implementation of resource
 
2116
    loading in a way which is API compatible with the same API from
 
2117
    pkg_resources. See
 
2118
    http://peak.telecommunity.com/DevCenter/PkgResources#basic-resource-access.
 
2119
    If and when pkg_resources becomes a standard library, this routine
 
2120
    can delegate to it.
 
2121
    """
 
2122
    # Check package name is within bzrlib
 
2123
    if package == "bzrlib":
 
2124
        resource_relpath = resource_name
 
2125
    elif package.startswith("bzrlib."):
 
2126
        package = package[len("bzrlib."):].replace('.', os.sep)
 
2127
        resource_relpath = pathjoin(package, resource_name)
 
2128
    else:
 
2129
        raise errors.BzrError('resource package %s not in bzrlib' % package)
 
2130
 
 
2131
    # Map the resource to a file and read its contents
 
2132
    base = dirname(bzrlib.__file__)
 
2133
    if getattr(sys, 'frozen', None):    # bzr.exe
 
2134
        base = abspath(pathjoin(base, '..', '..'))
 
2135
    f = file(pathjoin(base, resource_relpath), "rU")
 
2136
    try:
 
2137
        return f.read()
 
2138
    finally:
 
2139
        f.close()
 
2140
 
 
2141
def file_kind_from_stat_mode_thunk(mode):
 
2142
    global file_kind_from_stat_mode
 
2143
    if file_kind_from_stat_mode is file_kind_from_stat_mode_thunk:
 
2144
        try:
 
2145
            from bzrlib._readdir_pyx import UTF8DirReader
 
2146
            file_kind_from_stat_mode = UTF8DirReader().kind_from_mode
 
2147
        except ImportError, e:
 
2148
            # This is one time where we won't warn that an extension failed to
 
2149
            # load. The extension is never available on Windows anyway.
 
2150
            from bzrlib._readdir_py import (
 
2151
                _kind_from_mode as file_kind_from_stat_mode
 
2152
                )
 
2153
    return file_kind_from_stat_mode(mode)
 
2154
file_kind_from_stat_mode = file_kind_from_stat_mode_thunk
 
2155
 
 
2156
 
 
2157
def file_kind(f, _lstat=os.lstat):
 
2158
    try:
 
2159
        return file_kind_from_stat_mode(_lstat(f).st_mode)
 
2160
    except OSError, e:
 
2161
        if getattr(e, 'errno', None) in (errno.ENOENT, errno.ENOTDIR):
 
2162
            raise errors.NoSuchFile(f)
 
2163
        raise
 
2164
 
 
2165
 
 
2166
def until_no_eintr(f, *a, **kw):
 
2167
    """Run f(*a, **kw), retrying if an EINTR error occurs.
 
2168
 
 
2169
    WARNING: you must be certain that it is safe to retry the call repeatedly
 
2170
    if EINTR does occur.  This is typically only true for low-level operations
 
2171
    like os.read.  If in any doubt, don't use this.
 
2172
 
 
2173
    Keep in mind that this is not a complete solution to EINTR.  There is
 
2174
    probably code in the Python standard library and other dependencies that
 
2175
    may encounter EINTR if a signal arrives (and there is signal handler for
 
2176
    that signal).  So this function can reduce the impact for IO that bzrlib
 
2177
    directly controls, but it is not a complete solution.
 
2178
    """
 
2179
    # Borrowed from Twisted's twisted.python.util.untilConcludes function.
 
2180
    while True:
 
2181
        try:
 
2182
            return f(*a, **kw)
 
2183
        except (IOError, OSError), e:
 
2184
            if e.errno == errno.EINTR:
 
2185
                continue
 
2186
            raise
 
2187
 
 
2188
 
 
2189
@deprecated_function(deprecated_in((2, 2, 0)))
 
2190
def re_compile_checked(re_string, flags=0, where=""):
 
2191
    """Return a compiled re, or raise a sensible error.
 
2192
 
 
2193
    This should only be used when compiling user-supplied REs.
 
2194
 
 
2195
    :param re_string: Text form of regular expression.
 
2196
    :param flags: eg re.IGNORECASE
 
2197
    :param where: Message explaining to the user the context where
 
2198
        it occurred, eg 'log search filter'.
 
2199
    """
 
2200
    # from https://bugs.launchpad.net/bzr/+bug/251352
 
2201
    try:
 
2202
        re_obj = re.compile(re_string, flags)
 
2203
        re_obj.search("")
 
2204
        return re_obj
 
2205
    except errors.InvalidPattern, e:
 
2206
        if where:
 
2207
            where = ' in ' + where
 
2208
        # despite the name 'error' is a type
 
2209
        raise errors.BzrCommandError('Invalid regular expression%s: %s'
 
2210
            % (where, e.msg))
 
2211
 
 
2212
 
 
2213
if sys.platform == "win32":
 
2214
    import msvcrt
 
2215
    def getchar():
 
2216
        return msvcrt.getch()
 
2217
else:
 
2218
    import tty
 
2219
    import termios
 
2220
    def getchar():
 
2221
        fd = sys.stdin.fileno()
 
2222
        settings = termios.tcgetattr(fd)
 
2223
        try:
 
2224
            tty.setraw(fd)
 
2225
            ch = sys.stdin.read(1)
 
2226
        finally:
 
2227
            termios.tcsetattr(fd, termios.TCSADRAIN, settings)
 
2228
        return ch
 
2229
 
 
2230
 
 
2231
if sys.platform == 'linux2':
 
2232
    def _local_concurrency():
 
2233
        concurrency = None
 
2234
        prefix = 'processor'
 
2235
        for line in file('/proc/cpuinfo', 'rb'):
 
2236
            if line.startswith(prefix):
 
2237
                concurrency = int(line[line.find(':')+1:]) + 1
 
2238
        return concurrency
 
2239
elif sys.platform == 'darwin':
 
2240
    def _local_concurrency():
 
2241
        return subprocess.Popen(['sysctl', '-n', 'hw.availcpu'],
 
2242
                                stdout=subprocess.PIPE).communicate()[0]
 
2243
elif sys.platform[0:7] == 'freebsd':
 
2244
    def _local_concurrency():
 
2245
        return subprocess.Popen(['sysctl', '-n', 'hw.ncpu'],
 
2246
                                stdout=subprocess.PIPE).communicate()[0]
 
2247
elif sys.platform == 'sunos5':
 
2248
    def _local_concurrency():
 
2249
        return subprocess.Popen(['psrinfo', '-p',],
 
2250
                                stdout=subprocess.PIPE).communicate()[0]
 
2251
elif sys.platform == "win32":
 
2252
    def _local_concurrency():
 
2253
        # This appears to return the number of cores.
 
2254
        return os.environ.get('NUMBER_OF_PROCESSORS')
 
2255
else:
 
2256
    def _local_concurrency():
 
2257
        # Who knows ?
 
2258
        return None
 
2259
 
 
2260
 
 
2261
_cached_local_concurrency = None
 
2262
 
 
2263
def local_concurrency(use_cache=True):
 
2264
    """Return how many processes can be run concurrently.
 
2265
 
 
2266
    Rely on platform specific implementations and default to 1 (one) if
 
2267
    anything goes wrong.
 
2268
    """
 
2269
    global _cached_local_concurrency
 
2270
 
 
2271
    if _cached_local_concurrency is not None and use_cache:
 
2272
        return _cached_local_concurrency
 
2273
 
 
2274
    concurrency = os.environ.get('BZR_CONCURRENCY', None)
 
2275
    if concurrency is None:
 
2276
        try:
 
2277
            concurrency = _local_concurrency()
 
2278
        except (OSError, IOError):
 
2279
            pass
 
2280
    try:
 
2281
        concurrency = int(concurrency)
 
2282
    except (TypeError, ValueError):
 
2283
        concurrency = 1
 
2284
    if use_cache:
 
2285
        _cached_concurrency = concurrency
 
2286
    return concurrency
 
2287
 
 
2288
 
 
2289
class UnicodeOrBytesToBytesWriter(codecs.StreamWriter):
 
2290
    """A stream writer that doesn't decode str arguments."""
 
2291
 
 
2292
    def __init__(self, encode, stream, errors='strict'):
 
2293
        codecs.StreamWriter.__init__(self, stream, errors)
 
2294
        self.encode = encode
 
2295
 
 
2296
    def write(self, object):
 
2297
        if type(object) is str:
 
2298
            self.stream.write(object)
 
2299
        else:
 
2300
            data, _ = self.encode(object, self.errors)
 
2301
            self.stream.write(data)
 
2302
 
 
2303
if sys.platform == 'win32':
 
2304
    def open_file(filename, mode='r', bufsize=-1):
 
2305
        """This function is used to override the ``open`` builtin.
 
2306
 
 
2307
        But it uses O_NOINHERIT flag so the file handle is not inherited by
 
2308
        child processes.  Deleting or renaming a closed file opened with this
 
2309
        function is not blocking child processes.
 
2310
        """
 
2311
        writing = 'w' in mode
 
2312
        appending = 'a' in mode
 
2313
        updating = '+' in mode
 
2314
        binary = 'b' in mode
 
2315
 
 
2316
        flags = O_NOINHERIT
 
2317
        # see http://msdn.microsoft.com/en-us/library/yeby3zcb%28VS.71%29.aspx
 
2318
        # for flags for each modes.
 
2319
        if binary:
 
2320
            flags |= O_BINARY
 
2321
        else:
 
2322
            flags |= O_TEXT
 
2323
 
 
2324
        if writing:
 
2325
            if updating:
 
2326
                flags |= os.O_RDWR
 
2327
            else:
 
2328
                flags |= os.O_WRONLY
 
2329
            flags |= os.O_CREAT | os.O_TRUNC
 
2330
        elif appending:
 
2331
            if updating:
 
2332
                flags |= os.O_RDWR
 
2333
            else:
 
2334
                flags |= os.O_WRONLY
 
2335
            flags |= os.O_CREAT | os.O_APPEND
 
2336
        else: #reading
 
2337
            if updating:
 
2338
                flags |= os.O_RDWR
 
2339
            else:
 
2340
                flags |= os.O_RDONLY
 
2341
 
 
2342
        return os.fdopen(os.open(filename, flags), mode, bufsize)
 
2343
else:
 
2344
    open_file = open
 
2345
 
 
2346
 
 
2347
def getuser_unicode():
 
2348
    """Return the username as unicode.
 
2349
    """
 
2350
    try:
 
2351
        user_encoding = get_user_encoding()
 
2352
        username = getpass.getuser().decode(user_encoding)
 
2353
    except UnicodeDecodeError:
 
2354
        raise errors.BzrError("Can't decode username as %s." % \
 
2355
                user_encoding)
 
2356
    return username
 
2357
 
 
2358
 
 
2359
def available_backup_name(base, exists):
 
2360
    """Find a non-existing backup file name.
 
2361
 
 
2362
    This will *not* create anything, this only return a 'free' entry.  This
 
2363
    should be used for checking names in a directory below a locked
 
2364
    tree/branch/repo to avoid race conditions. This is LBYL (Look Before You
 
2365
    Leap) and generally discouraged.
 
2366
 
 
2367
    :param base: The base name.
 
2368
 
 
2369
    :param exists: A callable returning True if the path parameter exists.
 
2370
    """
 
2371
    counter = 1
 
2372
    name = "%s.~%d~" % (base, counter)
 
2373
    while exists(name):
 
2374
        counter += 1
 
2375
        name = "%s.~%d~" % (base, counter)
 
2376
    return name