~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/osutils.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2010-02-05 11:33:58 UTC
  • mfrom: (5008.1.1 integration)
  • Revision ID: pqm@pqm.ubuntu.com-20100205113358-wd4d49omal1hus75
(vila) Add --take-this and --take-other actions to bzr resolve

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Bazaar -- distributed version control
2
 
#
3
 
# Copyright (C) 2005 by Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007, 2009 Canonical Ltd
4
2
#
5
3
# This program is free software; you can redistribute it and/or modify
6
4
# it under the terms of the GNU General Public License as published by
14
12
#
15
13
# You should have received a copy of the GNU General Public License
16
14
# along with this program; if not, write to the Free Software
17
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
18
 
 
19
 
from cStringIO import StringIO
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
16
 
 
17
import os
 
18
import re
 
19
import stat
 
20
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
 
21
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
 
22
import sys
 
23
import time
 
24
import warnings
 
25
 
 
26
from bzrlib.lazy_import import lazy_import
 
27
lazy_import(globals(), """
 
28
import codecs
 
29
from datetime import datetime
20
30
import errno
21
31
from ntpath import (abspath as _nt_abspath,
22
32
                    join as _nt_join,
24
34
                    realpath as _nt_realpath,
25
35
                    splitdrive as _nt_splitdrive,
26
36
                    )
27
 
import os
28
 
from os import listdir
29
37
import posixpath
30
 
import re
31
 
import sha
32
38
import shutil
33
 
from shutil import copyfile
34
 
import stat
35
 
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
36
 
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
37
 
import string
38
 
import sys
39
 
import time
40
 
import types
 
39
from shutil import (
 
40
    rmtree,
 
41
    )
 
42
import signal
 
43
import subprocess
41
44
import tempfile
 
45
from tempfile import (
 
46
    mkdtemp,
 
47
    )
42
48
import unicodedata
43
49
 
 
50
from bzrlib import (
 
51
    cache_utf8,
 
52
    errors,
 
53
    win32utils,
 
54
    )
 
55
""")
 
56
 
 
57
# sha and md5 modules are deprecated in python2.6 but hashlib is available as
 
58
# of 2.5
 
59
if sys.version_info < (2, 5):
 
60
    import md5 as _mod_md5
 
61
    md5 = _mod_md5.new
 
62
    import sha as _mod_sha
 
63
    sha = _mod_sha.new
 
64
else:
 
65
    from hashlib import (
 
66
        md5,
 
67
        sha1 as sha,
 
68
        )
 
69
 
 
70
 
44
71
import bzrlib
45
 
from bzrlib.errors import (BzrError,
46
 
                           BzrBadParameterNotUnicode,
47
 
                           NoSuchFile,
48
 
                           PathNotChild,
49
 
                           IllegalPath,
50
 
                           )
51
 
from bzrlib.symbol_versioning import (deprecated_function, 
52
 
        zero_nine)
53
 
from bzrlib.trace import mutter
 
72
from bzrlib import symbol_versioning
 
73
 
 
74
 
 
75
# Cross platform wall-clock time functionality with decent resolution.
 
76
# On Linux ``time.clock`` returns only CPU time. On Windows, ``time.time()``
 
77
# only has a resolution of ~15ms. Note that ``time.clock()`` is not
 
78
# synchronized with ``time.time()``, this is only meant to be used to find
 
79
# delta times by subtracting from another call to this function.
 
80
timer_func = time.time
 
81
if sys.platform == 'win32':
 
82
    timer_func = time.clock
 
83
 
 
84
# On win32, O_BINARY is used to indicate the file should
 
85
# be opened in binary mode, rather than text mode.
 
86
# On other platforms, O_BINARY doesn't exist, because
 
87
# they always open in binary mode, so it is okay to
 
88
# OR with 0 on those platforms
 
89
O_BINARY = getattr(os, 'O_BINARY', 0)
 
90
 
 
91
 
 
92
def get_unicode_argv():
 
93
    try:
 
94
        user_encoding = get_user_encoding()
 
95
        return [a.decode(user_encoding) for a in sys.argv[1:]]
 
96
    except UnicodeDecodeError:
 
97
        raise errors.BzrError(("Parameter '%r' is unsupported by the current "
 
98
                                                            "encoding." % a))
54
99
 
55
100
 
56
101
def make_readonly(filename):
57
102
    """Make a filename read-only."""
58
 
    mod = os.stat(filename).st_mode
59
 
    mod = mod & 0777555
60
 
    os.chmod(filename, mod)
 
103
    mod = os.lstat(filename).st_mode
 
104
    if not stat.S_ISLNK(mod):
 
105
        mod = mod & 0777555
 
106
        os.chmod(filename, mod)
61
107
 
62
108
 
63
109
def make_writable(filename):
64
 
    mod = os.stat(filename).st_mode
65
 
    mod = mod | 0200
66
 
    os.chmod(filename, mod)
 
110
    mod = os.lstat(filename).st_mode
 
111
    if not stat.S_ISLNK(mod):
 
112
        mod = mod | 0200
 
113
        os.chmod(filename, mod)
 
114
 
 
115
 
 
116
def minimum_path_selection(paths):
 
117
    """Return the smallset subset of paths which are outside paths.
 
118
 
 
119
    :param paths: A container (and hence not None) of paths.
 
120
    :return: A set of paths sufficient to include everything in paths via
 
121
        is_inside, drawn from the paths parameter.
 
122
    """
 
123
    if len(paths) < 2:
 
124
        return set(paths)
 
125
 
 
126
    def sort_key(path):
 
127
        return path.split('/')
 
128
    sorted_paths = sorted(list(paths), key=sort_key)
 
129
 
 
130
    search_paths = [sorted_paths[0]]
 
131
    for path in sorted_paths[1:]:
 
132
        if not is_inside(search_paths[-1], path):
 
133
            # This path is unique, add it
 
134
            search_paths.append(path)
 
135
 
 
136
    return set(search_paths)
67
137
 
68
138
 
69
139
_QUOTE_RE = None
76
146
    Windows."""
77
147
    # TODO: I'm not really sure this is the best format either.x
78
148
    global _QUOTE_RE
79
 
    if _QUOTE_RE == None:
 
149
    if _QUOTE_RE is None:
80
150
        _QUOTE_RE = re.compile(r'([^a-zA-Z0-9.,:/\\_~-])')
81
 
        
 
151
 
82
152
    if _QUOTE_RE.search(f):
83
153
        return '"' + f + '"'
84
154
    else:
87
157
 
88
158
_directory_kind = 'directory'
89
159
 
90
 
_formats = {
91
 
    stat.S_IFDIR:_directory_kind,
92
 
    stat.S_IFCHR:'chardev',
93
 
    stat.S_IFBLK:'block',
94
 
    stat.S_IFREG:'file',
95
 
    stat.S_IFIFO:'fifo',
96
 
    stat.S_IFLNK:'symlink',
97
 
    stat.S_IFSOCK:'socket',
 
160
def get_umask():
 
161
    """Return the current umask"""
 
162
    # Assume that people aren't messing with the umask while running
 
163
    # XXX: This is not thread safe, but there is no way to get the
 
164
    #      umask without setting it
 
165
    umask = os.umask(0)
 
166
    os.umask(umask)
 
167
    return umask
 
168
 
 
169
 
 
170
_kind_marker_map = {
 
171
    "file": "",
 
172
    _directory_kind: "/",
 
173
    "symlink": "@",
 
174
    'tree-reference': '+',
98
175
}
99
176
 
100
177
 
101
 
def file_kind_from_stat_mode(stat_mode, _formats=_formats, _unknown='unknown'):
102
 
    """Generate a file kind from a stat mode. This is used in walkdirs.
103
 
 
104
 
    Its performance is critical: Do not mutate without careful benchmarking.
105
 
    """
 
178
def kind_marker(kind):
106
179
    try:
107
 
        return _formats[stat_mode & 0170000]
 
180
        return _kind_marker_map[kind]
108
181
    except KeyError:
109
 
        return _unknown
110
 
 
111
 
 
112
 
def file_kind(f, _lstat=os.lstat, _mapper=file_kind_from_stat_mode):
113
 
    try:
114
 
        return _mapper(_lstat(f).st_mode)
115
 
    except OSError, e:
116
 
        if getattr(e, 'errno', None) == errno.ENOENT:
117
 
            raise bzrlib.errors.NoSuchFile(f)
118
 
        raise
119
 
 
120
 
 
121
 
def kind_marker(kind):
122
 
    if kind == 'file':
123
 
        return ''
124
 
    elif kind == _directory_kind:
125
 
        return '/'
126
 
    elif kind == 'symlink':
127
 
        return '@'
128
 
    else:
129
 
        raise BzrError('invalid file kind %r' % kind)
 
182
        raise errors.BzrError('invalid file kind %r' % kind)
 
183
 
130
184
 
131
185
lexists = getattr(os.path, 'lexists', None)
132
186
if lexists is None:
133
187
    def lexists(f):
134
188
        try:
135
 
            if hasattr(os, 'lstat'):
136
 
                os.lstat(f)
137
 
            else:
138
 
                os.stat(f)
 
189
            stat = getattr(os, 'lstat', os.stat)
 
190
            stat(f)
139
191
            return True
140
 
        except OSError,e:
 
192
        except OSError, e:
141
193
            if e.errno == errno.ENOENT:
142
194
                return False;
143
195
            else:
144
 
                raise BzrError("lstat/stat of (%r): %r" % (f, e))
 
196
                raise errors.BzrError("lstat/stat of (%r): %r" % (f, e))
145
197
 
146
198
 
147
199
def fancy_rename(old, new, rename_func, unlink_func):
148
200
    """A fancy rename, when you don't have atomic rename.
149
 
    
 
201
 
150
202
    :param old: The old path, to rename from
151
203
    :param new: The new path, to rename to
152
204
    :param rename_func: The potentially non-atomic rename function
153
 
    :param unlink_func: A way to delete the target file if the full rename succeeds
 
205
    :param unlink_func: A way to delete the target file if the full rename
 
206
        succeeds
154
207
    """
155
 
 
156
208
    # sftp rename doesn't allow overwriting, so play tricks:
157
 
    import random
158
209
    base = os.path.basename(new)
159
210
    dirname = os.path.dirname(new)
160
 
    tmp_name = u'tmp.%s.%.9f.%d.%s' % (base, time.time(), os.getpid(), rand_chars(10))
 
211
    # callers use different encodings for the paths so the following MUST
 
212
    # respect that. We rely on python upcasting to unicode if new is unicode
 
213
    # and keeping a str if not.
 
214
    tmp_name = 'tmp.%s.%.9f.%d.%s' % (base, time.time(),
 
215
                                      os.getpid(), rand_chars(10))
161
216
    tmp_name = pathjoin(dirname, tmp_name)
162
217
 
163
218
    # Rename the file out of the way, but keep track if it didn't exist
168
223
    file_existed = False
169
224
    try:
170
225
        rename_func(new, tmp_name)
171
 
    except (NoSuchFile,), e:
 
226
    except (errors.NoSuchFile,), e:
172
227
        pass
173
228
    except IOError, e:
174
229
        # RBC 20060103 abstraction leakage: the paramiko SFTP clients rename
175
 
        # function raises an IOError with errno == None when a rename fails.
 
230
        # function raises an IOError with errno is None when a rename fails.
176
231
        # This then gets caught here.
177
232
        if e.errno not in (None, errno.ENOENT, errno.ENOTDIR):
178
233
            raise
179
234
    except Exception, e:
180
 
        if (not hasattr(e, 'errno') 
 
235
        if (getattr(e, 'errno', None) is None
181
236
            or e.errno not in (errno.ENOENT, errno.ENOTDIR)):
182
237
            raise
183
238
    else:
184
239
        file_existed = True
185
240
 
 
241
    failure_exc = None
186
242
    success = False
187
243
    try:
188
 
        # This may throw an exception, in which case success will
189
 
        # not be set.
190
 
        rename_func(old, new)
191
 
        success = True
 
244
        try:
 
245
            # This may throw an exception, in which case success will
 
246
            # not be set.
 
247
            rename_func(old, new)
 
248
            success = True
 
249
        except (IOError, OSError), e:
 
250
            # source and target may be aliases of each other (e.g. on a
 
251
            # case-insensitive filesystem), so we may have accidentally renamed
 
252
            # source by when we tried to rename target
 
253
            failure_exc = sys.exc_info()
 
254
            if (file_existed and e.errno in (None, errno.ENOENT)
 
255
                and old.lower() == new.lower()):
 
256
                # source and target are the same file on a case-insensitive
 
257
                # filesystem, so we don't generate an exception
 
258
                failure_exc = None
192
259
    finally:
193
260
        if file_existed:
194
261
            # If the file used to exist, rename it back into place
197
264
                unlink_func(tmp_name)
198
265
            else:
199
266
                rename_func(tmp_name, new)
 
267
    if failure_exc is not None:
 
268
        raise failure_exc[0], failure_exc[1], failure_exc[2]
200
269
 
201
270
 
202
271
# In Python 2.4.2 and older, os.path.abspath and os.path.realpath
203
272
# choke on a Unicode string containing a relative path if
204
273
# os.getcwd() returns a non-sys.getdefaultencoding()-encoded
205
274
# string.
206
 
_fs_enc = sys.getfilesystemencoding()
 
275
_fs_enc = sys.getfilesystemencoding() or 'utf-8'
207
276
def _posix_abspath(path):
208
277
    # jam 20060426 rather than encoding to fsencoding
209
278
    # copy posixpath.abspath, but use os.getcwdu instead
234
303
    return _win32_fixdrive(_nt_abspath(unicode(path)).replace('\\', '/'))
235
304
 
236
305
 
 
306
def _win98_abspath(path):
 
307
    """Return the absolute version of a path.
 
308
    Windows 98 safe implementation (python reimplementation
 
309
    of Win32 API function GetFullPathNameW)
 
310
    """
 
311
    # Corner cases:
 
312
    #   C:\path     => C:/path
 
313
    #   C:/path     => C:/path
 
314
    #   \\HOST\path => //HOST/path
 
315
    #   //HOST/path => //HOST/path
 
316
    #   path        => C:/cwd/path
 
317
    #   /path       => C:/path
 
318
    path = unicode(path)
 
319
    # check for absolute path
 
320
    drive = _nt_splitdrive(path)[0]
 
321
    if drive == '' and path[:2] not in('//','\\\\'):
 
322
        cwd = os.getcwdu()
 
323
        # we cannot simply os.path.join cwd and path
 
324
        # because os.path.join('C:','/path') produce '/path'
 
325
        # and this is incorrect
 
326
        if path[:1] in ('/','\\'):
 
327
            cwd = _nt_splitdrive(cwd)[0]
 
328
            path = path[1:]
 
329
        path = cwd + '\\' + path
 
330
    return _win32_fixdrive(_nt_normpath(path).replace('\\', '/'))
 
331
 
 
332
 
237
333
def _win32_realpath(path):
238
334
    # Real _nt_realpath doesn't have a problem with a unicode cwd
239
335
    return _win32_fixdrive(_nt_realpath(unicode(path)).replace('\\', '/'))
259
355
    """We expect to be able to atomically replace 'new' with old.
260
356
 
261
357
    On win32, if new exists, it must be moved out of the way first,
262
 
    and then deleted. 
 
358
    and then deleted.
263
359
    """
264
360
    try:
265
361
        fancy_rename(old, new, rename_func=os.rename, unlink_func=os.unlink)
266
362
    except OSError, e:
267
363
        if e.errno in (errno.EPERM, errno.EACCES, errno.EBUSY, errno.EINVAL):
268
 
            # If we try to rename a non-existant file onto cwd, we get 
269
 
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT 
 
364
            # If we try to rename a non-existant file onto cwd, we get
 
365
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT
270
366
            # if the old path doesn't exist, sometimes we get EACCES
271
367
            # On Linux, we seem to get EBUSY, on Mac we get EINVAL
272
368
            os.lstat(old)
274
370
 
275
371
 
276
372
def _mac_getcwd():
277
 
    return unicodedata.normalize('NFKC', os.getcwdu())
 
373
    return unicodedata.normalize('NFC', os.getcwdu())
278
374
 
279
375
 
280
376
# Default is to just use the python builtins, but these can be rebound on
284
380
pathjoin = os.path.join
285
381
normpath = os.path.normpath
286
382
getcwd = os.getcwdu
287
 
mkdtemp = tempfile.mkdtemp
288
383
rename = os.rename
289
384
dirname = os.path.dirname
290
385
basename = os.path.basename
291
 
rmtree = shutil.rmtree
 
386
split = os.path.split
 
387
splitext = os.path.splitext
 
388
# These were already imported into local scope
 
389
# mkdtemp = tempfile.mkdtemp
 
390
# rmtree = shutil.rmtree
292
391
 
293
392
MIN_ABS_PATHLENGTH = 1
294
393
 
295
394
 
296
395
if sys.platform == 'win32':
297
 
    abspath = _win32_abspath
 
396
    if win32utils.winver == 'Windows 98':
 
397
        abspath = _win98_abspath
 
398
    else:
 
399
        abspath = _win32_abspath
298
400
    realpath = _win32_realpath
299
401
    pathjoin = _win32_pathjoin
300
402
    normpath = _win32_normpath
308
410
        """Error handler for shutil.rmtree function [for win32]
309
411
        Helps to remove files and dirs marked as read-only.
310
412
        """
311
 
        type_, value = excinfo[:2]
 
413
        exception = excinfo[1]
312
414
        if function in (os.remove, os.rmdir) \
313
 
            and type_ == OSError \
314
 
            and value.errno == errno.EACCES:
315
 
            bzrlib.osutils.make_writable(path)
 
415
            and isinstance(exception, OSError) \
 
416
            and exception.errno == errno.EACCES:
 
417
            make_writable(path)
316
418
            function(path)
317
419
        else:
318
420
            raise
320
422
    def rmtree(path, ignore_errors=False, onerror=_win32_delete_readonly):
321
423
        """Replacer for shutil.rmtree: could remove readonly dirs/files"""
322
424
        return shutil.rmtree(path, ignore_errors, onerror)
 
425
 
 
426
    f = win32utils.get_unicode_argv     # special function or None
 
427
    if f is not None:
 
428
        get_unicode_argv = f
 
429
 
323
430
elif sys.platform == 'darwin':
324
431
    getcwd = _mac_getcwd
325
432
 
329
436
 
330
437
    This attempts to check both sys.stdout and sys.stdin to see
331
438
    what encoding they are in, and if that fails it falls back to
332
 
    bzrlib.user_encoding.
 
439
    osutils.get_user_encoding().
333
440
    The problem is that on Windows, locale.getpreferredencoding()
334
441
    is not the same encoding as that used by the console:
335
442
    http://mail.python.org/pipermail/python-list/2003-May/162357.html
337
444
    On my standard US Windows XP, the preferred encoding is
338
445
    cp1252, but the console is cp437
339
446
    """
 
447
    from bzrlib.trace import mutter
340
448
    output_encoding = getattr(sys.stdout, 'encoding', None)
341
449
    if not output_encoding:
342
450
        input_encoding = getattr(sys.stdin, 'encoding', None)
343
451
        if not input_encoding:
344
 
            output_encoding = bzrlib.user_encoding
345
 
            mutter('encoding stdout as bzrlib.user_encoding %r', output_encoding)
 
452
            output_encoding = get_user_encoding()
 
453
            mutter('encoding stdout as osutils.get_user_encoding() %r',
 
454
                   output_encoding)
346
455
        else:
347
456
            output_encoding = input_encoding
348
457
            mutter('encoding stdout as sys.stdin encoding %r', output_encoding)
349
458
    else:
350
459
        mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
 
460
    if output_encoding == 'cp0':
 
461
        # invalid encoding (cp0 means 'no codepage' on Windows)
 
462
        output_encoding = get_user_encoding()
 
463
        mutter('cp0 is invalid encoding.'
 
464
               ' encoding stdout as osutils.get_user_encoding() %r',
 
465
               output_encoding)
 
466
    # check encoding
 
467
    try:
 
468
        codecs.lookup(output_encoding)
 
469
    except LookupError:
 
470
        sys.stderr.write('bzr: warning:'
 
471
                         ' unknown terminal encoding %s.\n'
 
472
                         '  Using encoding %s instead.\n'
 
473
                         % (output_encoding, get_user_encoding())
 
474
                        )
 
475
        output_encoding = get_user_encoding()
 
476
 
351
477
    return output_encoding
352
478
 
353
479
 
354
480
def normalizepath(f):
355
 
    if hasattr(os.path, 'realpath'):
 
481
    if getattr(os.path, 'realpath', None) is not None:
356
482
        F = realpath
357
483
    else:
358
484
        F = abspath
363
489
        return pathjoin(F(p), e)
364
490
 
365
491
 
366
 
def backup_file(fn):
367
 
    """Copy a file to a backup.
368
 
 
369
 
    Backups are named in GNU-style, with a ~ suffix.
370
 
 
371
 
    If the file is already a backup, it's not copied.
372
 
    """
373
 
    if fn[-1] == '~':
374
 
        return
375
 
    bfn = fn + '~'
376
 
 
377
 
    if has_symlinks() and os.path.islink(fn):
378
 
        target = os.readlink(fn)
379
 
        os.symlink(target, bfn)
380
 
        return
381
 
    inf = file(fn, 'rb')
382
 
    try:
383
 
        content = inf.read()
384
 
    finally:
385
 
        inf.close()
386
 
    
387
 
    outf = file(bfn, 'wb')
388
 
    try:
389
 
        outf.write(content)
390
 
    finally:
391
 
        outf.close()
392
 
 
393
 
 
394
492
def isdir(f):
395
493
    """True if f is an accessible directory."""
396
494
    try:
415
513
 
416
514
def is_inside(dir, fname):
417
515
    """True if fname is inside dir.
418
 
    
 
516
 
419
517
    The parameters should typically be passed to osutils.normpath first, so
420
518
    that . and .. and repeated slashes are eliminated, and the separators
421
519
    are canonical for the platform.
422
 
    
423
 
    The empty string as a dir name is taken as top-of-tree and matches 
 
520
 
 
521
    The empty string as a dir name is taken as top-of-tree and matches
424
522
    everything.
425
 
    
426
 
    >>> is_inside('src', pathjoin('src', 'foo.c'))
427
 
    True
428
 
    >>> is_inside('src', 'srccontrol')
429
 
    False
430
 
    >>> is_inside('src', pathjoin('src', 'a', 'a', 'a', 'foo.c'))
431
 
    True
432
 
    >>> is_inside('foo.c', 'foo.c')
433
 
    True
434
 
    >>> is_inside('foo.c', '')
435
 
    False
436
 
    >>> is_inside('', 'foo.c')
437
 
    True
438
523
    """
439
 
    # XXX: Most callers of this can actually do something smarter by 
 
524
    # XXX: Most callers of this can actually do something smarter by
440
525
    # looking at the inventory
441
526
    if dir == fname:
442
527
        return True
443
 
    
 
528
 
444
529
    if dir == '':
445
530
        return True
446
531
 
455
540
    for dirname in dir_list:
456
541
        if is_inside(dirname, fname):
457
542
            return True
458
 
    else:
459
 
        return False
 
543
    return False
460
544
 
461
545
 
462
546
def is_inside_or_parent_of_any(dir_list, fname):
464
548
    for dirname in dir_list:
465
549
        if is_inside(dirname, fname) or is_inside(fname, dirname):
466
550
            return True
 
551
    return False
 
552
 
 
553
 
 
554
def pumpfile(from_file, to_file, read_length=-1, buff_size=32768,
 
555
             report_activity=None, direction='read'):
 
556
    """Copy contents of one file to another.
 
557
 
 
558
    The read_length can either be -1 to read to end-of-file (EOF) or
 
559
    it can specify the maximum number of bytes to read.
 
560
 
 
561
    The buff_size represents the maximum size for each read operation
 
562
    performed on from_file.
 
563
 
 
564
    :param report_activity: Call this as bytes are read, see
 
565
        Transport._report_activity
 
566
    :param direction: Will be passed to report_activity
 
567
 
 
568
    :return: The number of bytes copied.
 
569
    """
 
570
    length = 0
 
571
    if read_length >= 0:
 
572
        # read specified number of bytes
 
573
 
 
574
        while read_length > 0:
 
575
            num_bytes_to_read = min(read_length, buff_size)
 
576
 
 
577
            block = from_file.read(num_bytes_to_read)
 
578
            if not block:
 
579
                # EOF reached
 
580
                break
 
581
            if report_activity is not None:
 
582
                report_activity(len(block), direction)
 
583
            to_file.write(block)
 
584
 
 
585
            actual_bytes_read = len(block)
 
586
            read_length -= actual_bytes_read
 
587
            length += actual_bytes_read
467
588
    else:
468
 
        return False
469
 
 
470
 
 
471
 
def pumpfile(fromfile, tofile):
472
 
    """Copy contents of one file to another."""
473
 
    BUFSIZE = 32768
474
 
    while True:
475
 
        b = fromfile.read(BUFSIZE)
476
 
        if not b:
477
 
            break
478
 
        tofile.write(b)
 
589
        # read to EOF
 
590
        while True:
 
591
            block = from_file.read(buff_size)
 
592
            if not block:
 
593
                # EOF reached
 
594
                break
 
595
            if report_activity is not None:
 
596
                report_activity(len(block), direction)
 
597
            to_file.write(block)
 
598
            length += len(block)
 
599
    return length
 
600
 
 
601
 
 
602
def pump_string_file(bytes, file_handle, segment_size=None):
 
603
    """Write bytes to file_handle in many smaller writes.
 
604
 
 
605
    :param bytes: The string to write.
 
606
    :param file_handle: The file to write to.
 
607
    """
 
608
    # Write data in chunks rather than all at once, because very large
 
609
    # writes fail on some platforms (e.g. Windows with SMB  mounted
 
610
    # drives).
 
611
    if not segment_size:
 
612
        segment_size = 5242880 # 5MB
 
613
    segments = range(len(bytes) / segment_size + 1)
 
614
    write = file_handle.write
 
615
    for segment_index in segments:
 
616
        segment = buffer(bytes, segment_index * segment_size, segment_size)
 
617
        write(segment)
479
618
 
480
619
 
481
620
def file_iterator(input_file, readsize=32768):
487
626
 
488
627
 
489
628
def sha_file(f):
490
 
    if hasattr(f, 'tell'):
491
 
        assert f.tell() == 0
492
 
    s = sha.new()
 
629
    """Calculate the hexdigest of an open file.
 
630
 
 
631
    The file cursor should be already at the start.
 
632
    """
 
633
    s = sha()
493
634
    BUFSIZE = 128<<10
494
635
    while True:
495
636
        b = f.read(BUFSIZE)
499
640
    return s.hexdigest()
500
641
 
501
642
 
502
 
 
503
 
def sha_strings(strings):
 
643
def size_sha_file(f):
 
644
    """Calculate the size and hexdigest of an open file.
 
645
 
 
646
    The file cursor should be already at the start and
 
647
    the caller is responsible for closing the file afterwards.
 
648
    """
 
649
    size = 0
 
650
    s = sha()
 
651
    BUFSIZE = 128<<10
 
652
    while True:
 
653
        b = f.read(BUFSIZE)
 
654
        if not b:
 
655
            break
 
656
        size += len(b)
 
657
        s.update(b)
 
658
    return size, s.hexdigest()
 
659
 
 
660
 
 
661
def sha_file_by_name(fname):
 
662
    """Calculate the SHA1 of a file by reading the full text"""
 
663
    s = sha()
 
664
    f = os.open(fname, os.O_RDONLY | O_BINARY)
 
665
    try:
 
666
        while True:
 
667
            b = os.read(f, 1<<16)
 
668
            if not b:
 
669
                return s.hexdigest()
 
670
            s.update(b)
 
671
    finally:
 
672
        os.close(f)
 
673
 
 
674
 
 
675
def sha_strings(strings, _factory=sha):
504
676
    """Return the sha-1 of concatenation of strings"""
505
 
    s = sha.new()
 
677
    s = _factory()
506
678
    map(s.update, strings)
507
679
    return s.hexdigest()
508
680
 
509
681
 
510
 
def sha_string(f):
511
 
    s = sha.new()
512
 
    s.update(f)
513
 
    return s.hexdigest()
 
682
def sha_string(f, _factory=sha):
 
683
    return _factory(f).hexdigest()
514
684
 
515
685
 
516
686
def fingerprint_file(f):
517
 
    s = sha.new()
518
687
    b = f.read()
519
 
    s.update(b)
520
 
    size = len(b)
521
 
    return {'size': size,
522
 
            'sha1': s.hexdigest()}
 
688
    return {'size': len(b),
 
689
            'sha1': sha(b).hexdigest()}
523
690
 
524
691
 
525
692
def compare_files(a, b):
536
703
 
537
704
def local_time_offset(t=None):
538
705
    """Return offset of local zone from GMT, either at present or at time t."""
539
 
    # python2.3 localtime() can't take None
540
 
    if t == None:
 
706
    if t is None:
541
707
        t = time.time()
542
 
        
543
 
    if time.localtime(t).tm_isdst and time.daylight:
544
 
        return -time.altzone
545
 
    else:
546
 
        return -time.timezone
547
 
 
548
 
    
549
 
def format_date(t, offset=0, timezone='original', date_fmt=None, 
 
708
    offset = datetime.fromtimestamp(t) - datetime.utcfromtimestamp(t)
 
709
    return offset.days * 86400 + offset.seconds
 
710
 
 
711
weekdays = ['Mon', 'Tue', 'Wed', 'Thu', 'Fri', 'Sat', 'Sun']
 
712
_default_format_by_weekday_num = [wd + " %Y-%m-%d %H:%M:%S" for wd in weekdays]
 
713
 
 
714
 
 
715
def format_date(t, offset=0, timezone='original', date_fmt=None,
550
716
                show_offset=True):
551
 
    ## TODO: Perhaps a global option to use either universal or local time?
552
 
    ## Or perhaps just let people set $TZ?
553
 
    assert isinstance(t, float)
554
 
    
 
717
    """Return a formatted date string.
 
718
 
 
719
    :param t: Seconds since the epoch.
 
720
    :param offset: Timezone offset in seconds east of utc.
 
721
    :param timezone: How to display the time: 'utc', 'original' for the
 
722
         timezone specified by offset, or 'local' for the process's current
 
723
         timezone.
 
724
    :param date_fmt: strftime format.
 
725
    :param show_offset: Whether to append the timezone.
 
726
    """
 
727
    (date_fmt, tt, offset_str) = \
 
728
               _format_date(t, offset, timezone, date_fmt, show_offset)
 
729
    date_fmt = date_fmt.replace('%a', weekdays[tt[6]])
 
730
    date_str = time.strftime(date_fmt, tt)
 
731
    return date_str + offset_str
 
732
 
 
733
 
 
734
# Cache of formatted offset strings
 
735
_offset_cache = {}
 
736
 
 
737
 
 
738
def format_date_with_offset_in_original_timezone(t, offset=0,
 
739
    _cache=_offset_cache):
 
740
    """Return a formatted date string in the original timezone.
 
741
 
 
742
    This routine may be faster then format_date.
 
743
 
 
744
    :param t: Seconds since the epoch.
 
745
    :param offset: Timezone offset in seconds east of utc.
 
746
    """
 
747
    if offset is None:
 
748
        offset = 0
 
749
    tt = time.gmtime(t + offset)
 
750
    date_fmt = _default_format_by_weekday_num[tt[6]]
 
751
    date_str = time.strftime(date_fmt, tt)
 
752
    offset_str = _cache.get(offset, None)
 
753
    if offset_str is None:
 
754
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
 
755
        _cache[offset] = offset_str
 
756
    return date_str + offset_str
 
757
 
 
758
 
 
759
def format_local_date(t, offset=0, timezone='original', date_fmt=None,
 
760
                      show_offset=True):
 
761
    """Return an unicode date string formatted according to the current locale.
 
762
 
 
763
    :param t: Seconds since the epoch.
 
764
    :param offset: Timezone offset in seconds east of utc.
 
765
    :param timezone: How to display the time: 'utc', 'original' for the
 
766
         timezone specified by offset, or 'local' for the process's current
 
767
         timezone.
 
768
    :param date_fmt: strftime format.
 
769
    :param show_offset: Whether to append the timezone.
 
770
    """
 
771
    (date_fmt, tt, offset_str) = \
 
772
               _format_date(t, offset, timezone, date_fmt, show_offset)
 
773
    date_str = time.strftime(date_fmt, tt)
 
774
    if not isinstance(date_str, unicode):
 
775
        date_str = date_str.decode(get_user_encoding(), 'replace')
 
776
    return date_str + offset_str
 
777
 
 
778
 
 
779
def _format_date(t, offset, timezone, date_fmt, show_offset):
555
780
    if timezone == 'utc':
556
781
        tt = time.gmtime(t)
557
782
        offset = 0
558
783
    elif timezone == 'original':
559
 
        if offset == None:
 
784
        if offset is None:
560
785
            offset = 0
561
786
        tt = time.gmtime(t + offset)
562
787
    elif timezone == 'local':
563
788
        tt = time.localtime(t)
564
789
        offset = local_time_offset(t)
565
790
    else:
566
 
        raise BzrError("unsupported timezone format %r" % timezone,
567
 
                       ['options are "utc", "original", "local"'])
 
791
        raise errors.UnsupportedTimezoneFormat(timezone)
568
792
    if date_fmt is None:
569
793
        date_fmt = "%a %Y-%m-%d %H:%M:%S"
570
794
    if show_offset:
571
795
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
572
796
    else:
573
797
        offset_str = ''
574
 
    return (time.strftime(date_fmt, tt) +  offset_str)
 
798
    return (date_fmt, tt, offset_str)
575
799
 
576
800
 
577
801
def compact_date(when):
578
802
    return time.strftime('%Y%m%d%H%M%S', time.gmtime(when))
579
 
    
580
 
 
 
803
 
 
804
 
 
805
def format_delta(delta):
 
806
    """Get a nice looking string for a time delta.
 
807
 
 
808
    :param delta: The time difference in seconds, can be positive or negative.
 
809
        positive indicates time in the past, negative indicates time in the
 
810
        future. (usually time.time() - stored_time)
 
811
    :return: String formatted to show approximate resolution
 
812
    """
 
813
    delta = int(delta)
 
814
    if delta >= 0:
 
815
        direction = 'ago'
 
816
    else:
 
817
        direction = 'in the future'
 
818
        delta = -delta
 
819
 
 
820
    seconds = delta
 
821
    if seconds < 90: # print seconds up to 90 seconds
 
822
        if seconds == 1:
 
823
            return '%d second %s' % (seconds, direction,)
 
824
        else:
 
825
            return '%d seconds %s' % (seconds, direction)
 
826
 
 
827
    minutes = int(seconds / 60)
 
828
    seconds -= 60 * minutes
 
829
    if seconds == 1:
 
830
        plural_seconds = ''
 
831
    else:
 
832
        plural_seconds = 's'
 
833
    if minutes < 90: # print minutes, seconds up to 90 minutes
 
834
        if minutes == 1:
 
835
            return '%d minute, %d second%s %s' % (
 
836
                    minutes, seconds, plural_seconds, direction)
 
837
        else:
 
838
            return '%d minutes, %d second%s %s' % (
 
839
                    minutes, seconds, plural_seconds, direction)
 
840
 
 
841
    hours = int(minutes / 60)
 
842
    minutes -= 60 * hours
 
843
    if minutes == 1:
 
844
        plural_minutes = ''
 
845
    else:
 
846
        plural_minutes = 's'
 
847
 
 
848
    if hours == 1:
 
849
        return '%d hour, %d minute%s %s' % (hours, minutes,
 
850
                                            plural_minutes, direction)
 
851
    return '%d hours, %d minute%s %s' % (hours, minutes,
 
852
                                         plural_minutes, direction)
581
853
 
582
854
def filesize(f):
583
855
    """Return size of given open file."""
593
865
except (NotImplementedError, AttributeError):
594
866
    # If python doesn't have os.urandom, or it doesn't work,
595
867
    # then try to first pull random data from /dev/urandom
596
 
    if os.path.exists("/dev/urandom"):
 
868
    try:
597
869
        rand_bytes = file('/dev/urandom', 'rb').read
598
870
    # Otherwise, use this hack as a last resort
599
 
    else:
 
871
    except (IOError, OSError):
600
872
        # not well seeded, but better than nothing
601
873
        def rand_bytes(n):
602
874
            import random
610
882
ALNUM = '0123456789abcdefghijklmnopqrstuvwxyz'
611
883
def rand_chars(num):
612
884
    """Return a random string of num alphanumeric characters
613
 
    
614
 
    The result only contains lowercase chars because it may be used on 
 
885
 
 
886
    The result only contains lowercase chars because it may be used on
615
887
    case-insensitive filesystems.
616
888
    """
617
889
    s = ''
624
896
## decomposition (might be too tricksy though.)
625
897
 
626
898
def splitpath(p):
627
 
    """Turn string into list of parts.
628
 
 
629
 
    >>> splitpath('a')
630
 
    ['a']
631
 
    >>> splitpath('a/b')
632
 
    ['a', 'b']
633
 
    >>> splitpath('a/./b')
634
 
    ['a', 'b']
635
 
    >>> splitpath('a/.b')
636
 
    ['a', '.b']
637
 
    >>> splitpath('a/../b')
638
 
    Traceback (most recent call last):
639
 
    ...
640
 
    BzrError: sorry, '..' not allowed in path
641
 
    """
642
 
    assert isinstance(p, types.StringTypes)
643
 
 
 
899
    """Turn string into list of parts."""
644
900
    # split on either delimiter because people might use either on
645
901
    # Windows
646
902
    ps = re.split(r'[\\/]', p)
648
904
    rps = []
649
905
    for f in ps:
650
906
        if f == '..':
651
 
            raise BzrError("sorry, %r not allowed in path" % f)
 
907
            raise errors.BzrError("sorry, %r not allowed in path" % f)
652
908
        elif (f == '.') or (f == ''):
653
909
            pass
654
910
        else:
655
911
            rps.append(f)
656
912
    return rps
657
913
 
 
914
 
658
915
def joinpath(p):
659
 
    assert isinstance(p, list)
660
916
    for f in p:
661
 
        if (f == '..') or (f == None) or (f == ''):
662
 
            raise BzrError("sorry, %r not allowed in path" % f)
 
917
        if (f == '..') or (f is None) or (f == ''):
 
918
            raise errors.BzrError("sorry, %r not allowed in path" % f)
663
919
    return pathjoin(*p)
664
920
 
665
921
 
666
 
@deprecated_function(zero_nine)
667
 
def appendpath(p1, p2):
668
 
    if p1 == '':
669
 
        return p2
670
 
    else:
671
 
        return pathjoin(p1, p2)
672
 
    
 
922
def parent_directories(filename):
 
923
    """Return the list of parent directories, deepest first.
 
924
    
 
925
    For example, parent_directories("a/b/c") -> ["a/b", "a"].
 
926
    """
 
927
    parents = []
 
928
    parts = splitpath(dirname(filename))
 
929
    while parts:
 
930
        parents.append(joinpath(parts))
 
931
        parts.pop()
 
932
    return parents
 
933
 
 
934
 
 
935
_extension_load_failures = []
 
936
 
 
937
 
 
938
def failed_to_load_extension(exception):
 
939
    """Handle failing to load a binary extension.
 
940
 
 
941
    This should be called from the ImportError block guarding the attempt to
 
942
    import the native extension.  If this function returns, the pure-Python
 
943
    implementation should be loaded instead::
 
944
 
 
945
    >>> try:
 
946
    >>>     import bzrlib._fictional_extension_pyx
 
947
    >>> except ImportError, e:
 
948
    >>>     bzrlib.osutils.failed_to_load_extension(e)
 
949
    >>>     import bzrlib._fictional_extension_py
 
950
    """
 
951
    # NB: This docstring is just an example, not a doctest, because doctest
 
952
    # currently can't cope with the use of lazy imports in this namespace --
 
953
    # mbp 20090729
 
954
    
 
955
    # This currently doesn't report the failure at the time it occurs, because
 
956
    # they tend to happen very early in startup when we can't check config
 
957
    # files etc, and also we want to report all failures but not spam the user
 
958
    # with 10 warnings.
 
959
    from bzrlib import trace
 
960
    exception_str = str(exception)
 
961
    if exception_str not in _extension_load_failures:
 
962
        trace.mutter("failed to load compiled extension: %s" % exception_str)
 
963
        _extension_load_failures.append(exception_str)
 
964
 
 
965
 
 
966
def report_extension_load_failures():
 
967
    if not _extension_load_failures:
 
968
        return
 
969
    from bzrlib.config import GlobalConfig
 
970
    if GlobalConfig().get_user_option_as_bool('ignore_missing_extensions'):
 
971
        return
 
972
    # the warnings framework should by default show this only once
 
973
    from bzrlib.trace import warning
 
974
    warning(
 
975
        "bzr: warning: some compiled extensions could not be loaded; "
 
976
        "see <https://answers.launchpad.net/bzr/+faq/703>")
 
977
    # we no longer show the specific missing extensions here, because it makes
 
978
    # the message too long and scary - see
 
979
    # https://bugs.launchpad.net/bzr/+bug/430529
 
980
 
 
981
 
 
982
try:
 
983
    from bzrlib._chunks_to_lines_pyx import chunks_to_lines
 
984
except ImportError, e:
 
985
    failed_to_load_extension(e)
 
986
    from bzrlib._chunks_to_lines_py import chunks_to_lines
 
987
 
673
988
 
674
989
def split_lines(s):
675
990
    """Split s into lines, but without removing the newline characters."""
 
991
    # Trivially convert a fulltext into a 'chunked' representation, and let
 
992
    # chunks_to_lines do the heavy lifting.
 
993
    if isinstance(s, str):
 
994
        # chunks_to_lines only supports 8-bit strings
 
995
        return chunks_to_lines([s])
 
996
    else:
 
997
        return _split_lines(s)
 
998
 
 
999
 
 
1000
def _split_lines(s):
 
1001
    """Split s into lines, but without removing the newline characters.
 
1002
 
 
1003
    This supports Unicode or plain string objects.
 
1004
    """
676
1005
    lines = s.split('\n')
677
1006
    result = [line + '\n' for line in lines[:-1]]
678
1007
    if lines[-1]:
687
1016
def link_or_copy(src, dest):
688
1017
    """Hardlink a file, or copy it if it can't be hardlinked."""
689
1018
    if not hardlinks_good():
690
 
        copyfile(src, dest)
 
1019
        shutil.copyfile(src, dest)
691
1020
        return
692
1021
    try:
693
1022
        os.link(src, dest)
694
1023
    except (OSError, IOError), e:
695
1024
        if e.errno != errno.EXDEV:
696
1025
            raise
697
 
        copyfile(src, dest)
698
 
 
699
 
def delete_any(full_path):
700
 
    """Delete a file or directory."""
 
1026
        shutil.copyfile(src, dest)
 
1027
 
 
1028
 
 
1029
def delete_any(path):
 
1030
    """Delete a file, symlink or directory.  
 
1031
    
 
1032
    Will delete even if readonly.
 
1033
    """
701
1034
    try:
702
 
        os.unlink(full_path)
703
 
    except OSError, e:
704
 
    # We may be renaming a dangling inventory id
705
 
        if e.errno not in (errno.EISDIR, errno.EACCES, errno.EPERM):
 
1035
       _delete_file_or_dir(path)
 
1036
    except (OSError, IOError), e:
 
1037
        if e.errno in (errno.EPERM, errno.EACCES):
 
1038
            # make writable and try again
 
1039
            try:
 
1040
                make_writable(path)
 
1041
            except (OSError, IOError):
 
1042
                pass
 
1043
            _delete_file_or_dir(path)
 
1044
        else:
706
1045
            raise
707
 
        os.rmdir(full_path)
 
1046
 
 
1047
 
 
1048
def _delete_file_or_dir(path):
 
1049
    # Look Before You Leap (LBYL) is appropriate here instead of Easier to Ask for
 
1050
    # Forgiveness than Permission (EAFP) because:
 
1051
    # - root can damage a solaris file system by using unlink,
 
1052
    # - unlink raises different exceptions on different OSes (linux: EISDIR, win32:
 
1053
    #   EACCES, OSX: EPERM) when invoked on a directory.
 
1054
    if isdir(path): # Takes care of symlinks
 
1055
        os.rmdir(path)
 
1056
    else:
 
1057
        os.unlink(path)
708
1058
 
709
1059
 
710
1060
def has_symlinks():
711
 
    if hasattr(os, 'symlink'):
712
 
        return True
713
 
    else:
714
 
        return False
715
 
        
 
1061
    if getattr(os, 'symlink', None) is not None:
 
1062
        return True
 
1063
    else:
 
1064
        return False
 
1065
 
 
1066
 
 
1067
def has_hardlinks():
 
1068
    if getattr(os, 'link', None) is not None:
 
1069
        return True
 
1070
    else:
 
1071
        return False
 
1072
 
 
1073
 
 
1074
def host_os_dereferences_symlinks():
 
1075
    return (has_symlinks()
 
1076
            and sys.platform not in ('cygwin', 'win32'))
 
1077
 
 
1078
 
 
1079
def readlink(abspath):
 
1080
    """Return a string representing the path to which the symbolic link points.
 
1081
 
 
1082
    :param abspath: The link absolute unicode path.
 
1083
 
 
1084
    This his guaranteed to return the symbolic link in unicode in all python
 
1085
    versions.
 
1086
    """
 
1087
    link = abspath.encode(_fs_enc)
 
1088
    target = os.readlink(link)
 
1089
    target = target.decode(_fs_enc)
 
1090
    return target
 
1091
 
716
1092
 
717
1093
def contains_whitespace(s):
718
1094
    """True if there are any whitespace characters in s."""
719
 
    for ch in string.whitespace:
 
1095
    # string.whitespace can include '\xa0' in certain locales, because it is
 
1096
    # considered "non-breaking-space" as part of ISO-8859-1. But it
 
1097
    # 1) Isn't a breaking whitespace
 
1098
    # 2) Isn't one of ' \t\r\n' which are characters we sometimes use as
 
1099
    #    separators
 
1100
    # 3) '\xa0' isn't unicode safe since it is >128.
 
1101
 
 
1102
    # This should *not* be a unicode set of characters in case the source
 
1103
    # string is not a Unicode string. We can auto-up-cast the characters since
 
1104
    # they are ascii, but we don't want to auto-up-cast the string in case it
 
1105
    # is utf-8
 
1106
    for ch in ' \t\n\r\v\f':
720
1107
        if ch in s:
721
1108
            return True
722
1109
    else:
743
1130
    avoids that problem.
744
1131
    """
745
1132
 
746
 
    assert len(base) >= MIN_ABS_PATHLENGTH, ('Length of base must be equal or'
747
 
        ' exceed the platform minimum length (which is %d)' % 
748
 
        MIN_ABS_PATHLENGTH)
 
1133
    if len(base) < MIN_ABS_PATHLENGTH:
 
1134
        # must have space for e.g. a drive letter
 
1135
        raise ValueError('%r is too short to calculate a relative path'
 
1136
            % (base,))
749
1137
 
750
1138
    rp = abspath(path)
751
1139
 
752
1140
    s = []
753
1141
    head = rp
754
 
    while len(head) >= len(base):
 
1142
    while True:
 
1143
        if len(head) <= len(base) and head != base:
 
1144
            raise errors.PathNotChild(rp, base)
755
1145
        if head == base:
756
1146
            break
757
 
        head, tail = os.path.split(head)
 
1147
        head, tail = split(head)
758
1148
        if tail:
759
 
            s.insert(0, tail)
760
 
    else:
761
 
        raise PathNotChild(rp, base)
 
1149
            s.append(tail)
762
1150
 
763
1151
    if s:
764
 
        return pathjoin(*s)
 
1152
        return pathjoin(*reversed(s))
765
1153
    else:
766
1154
        return ''
767
1155
 
768
1156
 
 
1157
def _cicp_canonical_relpath(base, path):
 
1158
    """Return the canonical path relative to base.
 
1159
 
 
1160
    Like relpath, but on case-insensitive-case-preserving file-systems, this
 
1161
    will return the relpath as stored on the file-system rather than in the
 
1162
    case specified in the input string, for all existing portions of the path.
 
1163
 
 
1164
    This will cause O(N) behaviour if called for every path in a tree; if you
 
1165
    have a number of paths to convert, you should use canonical_relpaths().
 
1166
    """
 
1167
    # TODO: it should be possible to optimize this for Windows by using the
 
1168
    # win32 API FindFiles function to look for the specified name - but using
 
1169
    # os.listdir() still gives us the correct, platform agnostic semantics in
 
1170
    # the short term.
 
1171
 
 
1172
    rel = relpath(base, path)
 
1173
    # '.' will have been turned into ''
 
1174
    if not rel:
 
1175
        return rel
 
1176
 
 
1177
    abs_base = abspath(base)
 
1178
    current = abs_base
 
1179
    _listdir = os.listdir
 
1180
 
 
1181
    # use an explicit iterator so we can easily consume the rest on early exit.
 
1182
    bit_iter = iter(rel.split('/'))
 
1183
    for bit in bit_iter:
 
1184
        lbit = bit.lower()
 
1185
        try:
 
1186
            next_entries = _listdir(current)
 
1187
        except OSError: # enoent, eperm, etc
 
1188
            # We can't find this in the filesystem, so just append the
 
1189
            # remaining bits.
 
1190
            current = pathjoin(current, bit, *list(bit_iter))
 
1191
            break
 
1192
        for look in next_entries:
 
1193
            if lbit == look.lower():
 
1194
                current = pathjoin(current, look)
 
1195
                break
 
1196
        else:
 
1197
            # got to the end, nothing matched, so we just return the
 
1198
            # non-existing bits as they were specified (the filename may be
 
1199
            # the target of a move, for example).
 
1200
            current = pathjoin(current, bit, *list(bit_iter))
 
1201
            break
 
1202
    return current[len(abs_base):].lstrip('/')
 
1203
 
 
1204
# XXX - TODO - we need better detection/integration of case-insensitive
 
1205
# file-systems; Linux often sees FAT32 devices (or NFS-mounted OSX
 
1206
# filesystems), for example, so could probably benefit from the same basic
 
1207
# support there.  For now though, only Windows and OSX get that support, and
 
1208
# they get it for *all* file-systems!
 
1209
if sys.platform in ('win32', 'darwin'):
 
1210
    canonical_relpath = _cicp_canonical_relpath
 
1211
else:
 
1212
    canonical_relpath = relpath
 
1213
 
 
1214
def canonical_relpaths(base, paths):
 
1215
    """Create an iterable to canonicalize a sequence of relative paths.
 
1216
 
 
1217
    The intent is for this implementation to use a cache, vastly speeding
 
1218
    up multiple transformations in the same directory.
 
1219
    """
 
1220
    # but for now, we haven't optimized...
 
1221
    return [canonical_relpath(base, p) for p in paths]
 
1222
 
769
1223
def safe_unicode(unicode_or_utf8_string):
770
1224
    """Coerce unicode_or_utf8_string into unicode.
771
1225
 
772
1226
    If it is unicode, it is returned.
773
 
    Otherwise it is decoded from utf-8. If a decoding error
774
 
    occurs, it is wrapped as a If the decoding fails, the exception is wrapped 
775
 
    as a BzrBadParameter exception.
 
1227
    Otherwise it is decoded from utf-8. If decoding fails, the exception is
 
1228
    wrapped in a BzrBadParameterNotUnicode exception.
776
1229
    """
777
1230
    if isinstance(unicode_or_utf8_string, unicode):
778
1231
        return unicode_or_utf8_string
779
1232
    try:
780
1233
        return unicode_or_utf8_string.decode('utf8')
781
1234
    except UnicodeDecodeError:
782
 
        raise BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1235
        raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1236
 
 
1237
 
 
1238
def safe_utf8(unicode_or_utf8_string):
 
1239
    """Coerce unicode_or_utf8_string to a utf8 string.
 
1240
 
 
1241
    If it is a str, it is returned.
 
1242
    If it is Unicode, it is encoded into a utf-8 string.
 
1243
    """
 
1244
    if isinstance(unicode_or_utf8_string, str):
 
1245
        # TODO: jam 20070209 This is overkill, and probably has an impact on
 
1246
        #       performance if we are dealing with lots of apis that want a
 
1247
        #       utf-8 revision id
 
1248
        try:
 
1249
            # Make sure it is a valid utf-8 string
 
1250
            unicode_or_utf8_string.decode('utf-8')
 
1251
        except UnicodeDecodeError:
 
1252
            raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
 
1253
        return unicode_or_utf8_string
 
1254
    return unicode_or_utf8_string.encode('utf-8')
 
1255
 
 
1256
 
 
1257
_revision_id_warning = ('Unicode revision ids were deprecated in bzr 0.15.'
 
1258
                        ' Revision id generators should be creating utf8'
 
1259
                        ' revision ids.')
 
1260
 
 
1261
 
 
1262
def safe_revision_id(unicode_or_utf8_string, warn=True):
 
1263
    """Revision ids should now be utf8, but at one point they were unicode.
 
1264
 
 
1265
    :param unicode_or_utf8_string: A possibly Unicode revision_id. (can also be
 
1266
        utf8 or None).
 
1267
    :param warn: Functions that are sanitizing user data can set warn=False
 
1268
    :return: None or a utf8 revision id.
 
1269
    """
 
1270
    if (unicode_or_utf8_string is None
 
1271
        or unicode_or_utf8_string.__class__ == str):
 
1272
        return unicode_or_utf8_string
 
1273
    if warn:
 
1274
        symbol_versioning.warn(_revision_id_warning, DeprecationWarning,
 
1275
                               stacklevel=2)
 
1276
    return cache_utf8.encode(unicode_or_utf8_string)
 
1277
 
 
1278
 
 
1279
_file_id_warning = ('Unicode file ids were deprecated in bzr 0.15. File id'
 
1280
                    ' generators should be creating utf8 file ids.')
 
1281
 
 
1282
 
 
1283
def safe_file_id(unicode_or_utf8_string, warn=True):
 
1284
    """File ids should now be utf8, but at one point they were unicode.
 
1285
 
 
1286
    This is the same as safe_utf8, except it uses the cached encode functions
 
1287
    to save a little bit of performance.
 
1288
 
 
1289
    :param unicode_or_utf8_string: A possibly Unicode file_id. (can also be
 
1290
        utf8 or None).
 
1291
    :param warn: Functions that are sanitizing user data can set warn=False
 
1292
    :return: None or a utf8 file id.
 
1293
    """
 
1294
    if (unicode_or_utf8_string is None
 
1295
        or unicode_or_utf8_string.__class__ == str):
 
1296
        return unicode_or_utf8_string
 
1297
    if warn:
 
1298
        symbol_versioning.warn(_file_id_warning, DeprecationWarning,
 
1299
                               stacklevel=2)
 
1300
    return cache_utf8.encode(unicode_or_utf8_string)
783
1301
 
784
1302
 
785
1303
_platform_normalizes_filenames = False
800
1318
 
801
1319
    On platforms where the system normalizes filenames (Mac OSX),
802
1320
    you can access a file by any path which will normalize correctly.
803
 
    On platforms where the system does not normalize filenames 
 
1321
    On platforms where the system does not normalize filenames
804
1322
    (Windows, Linux), you have to access a file by its exact path.
805
1323
 
806
 
    Internally, bzr only supports NFC/NFKC normalization, since that is 
 
1324
    Internally, bzr only supports NFC normalization, since that is
807
1325
    the standard for XML documents.
808
1326
 
809
1327
    So return the normalized path, and a flag indicating if the file
810
1328
    can be accessed by that path.
811
1329
    """
812
1330
 
813
 
    return unicodedata.normalize('NFKC', unicode(path)), True
 
1331
    return unicodedata.normalize('NFC', unicode(path)), True
814
1332
 
815
1333
 
816
1334
def _inaccessible_normalized_filename(path):
817
1335
    __doc__ = _accessible_normalized_filename.__doc__
818
1336
 
819
 
    normalized = unicodedata.normalize('NFKC', unicode(path))
 
1337
    normalized = unicodedata.normalize('NFC', unicode(path))
820
1338
    return normalized, normalized == path
821
1339
 
822
1340
 
826
1344
    normalized_filename = _inaccessible_normalized_filename
827
1345
 
828
1346
 
 
1347
default_terminal_width = 80
 
1348
"""The default terminal width for ttys.
 
1349
 
 
1350
This is defined so that higher levels can share a common fallback value when
 
1351
terminal_width() returns None.
 
1352
"""
 
1353
 
 
1354
 
829
1355
def terminal_width():
830
 
    """Return estimated terminal width."""
831
 
    if sys.platform == 'win32':
832
 
        import bzrlib.win32console
833
 
        return bzrlib.win32console.get_console_size()[0]
834
 
    width = 0
 
1356
    """Return terminal width.
 
1357
 
 
1358
    None is returned if the width can't established precisely.
 
1359
 
 
1360
    The rules are:
 
1361
    - if BZR_COLUMNS is set, returns its value
 
1362
    - if there is no controlling terminal, returns None
 
1363
    - if COLUMNS is set, returns its value,
 
1364
 
 
1365
    From there, we need to query the OS to get the size of the controlling
 
1366
    terminal.
 
1367
 
 
1368
    Unices:
 
1369
    - get termios.TIOCGWINSZ
 
1370
    - if an error occurs or a negative value is obtained, returns None
 
1371
 
 
1372
    Windows:
 
1373
    
 
1374
    - win32utils.get_console_size() decides,
 
1375
    - returns None on error (provided default value)
 
1376
    """
 
1377
 
 
1378
    # If BZR_COLUMNS is set, take it, user is always right
 
1379
    try:
 
1380
        return int(os.environ['BZR_COLUMNS'])
 
1381
    except (KeyError, ValueError):
 
1382
        pass
 
1383
 
 
1384
    isatty = getattr(sys.stdout, 'isatty', None)
 
1385
    if  isatty is None or not isatty():
 
1386
        # Don't guess, setting BZR_COLUMNS is the recommended way to override.
 
1387
        return None
 
1388
 
 
1389
    # If COLUMNS is set, take it, the terminal knows better (even inside a
 
1390
    # given terminal, the application can decide to set COLUMNS to a lower
 
1391
    # value (splitted screen) or a bigger value (scroll bars))
 
1392
    try:
 
1393
        return int(os.environ['COLUMNS'])
 
1394
    except (KeyError, ValueError):
 
1395
        pass
 
1396
 
 
1397
    width, height = _terminal_size(None, None)
 
1398
    if width <= 0:
 
1399
        # Consider invalid values as meaning no width
 
1400
        return None
 
1401
 
 
1402
    return width
 
1403
 
 
1404
 
 
1405
def _win32_terminal_size(width, height):
 
1406
    width, height = win32utils.get_console_size(defaultx=width, defaulty=height)
 
1407
    return width, height
 
1408
 
 
1409
 
 
1410
def _ioctl_terminal_size(width, height):
835
1411
    try:
836
1412
        import struct, fcntl, termios
837
1413
        s = struct.pack('HHHH', 0, 0, 0, 0)
838
1414
        x = fcntl.ioctl(1, termios.TIOCGWINSZ, s)
839
 
        width = struct.unpack('HHHH', x)[1]
840
 
    except IOError:
 
1415
        height, width = struct.unpack('HHHH', x)[0:2]
 
1416
    except (IOError, AttributeError):
841
1417
        pass
842
 
    if width <= 0:
843
 
        try:
844
 
            width = int(os.environ['COLUMNS'])
845
 
        except:
846
 
            pass
847
 
    if width <= 0:
848
 
        width = 80
849
 
 
850
 
    return width
 
1418
    return width, height
 
1419
 
 
1420
_terminal_size = None
 
1421
"""Returns the terminal size as (width, height).
 
1422
 
 
1423
:param width: Default value for width.
 
1424
:param height: Default value for height.
 
1425
 
 
1426
This is defined specifically for each OS and query the size of the controlling
 
1427
terminal. If any error occurs, the provided default values should be returned.
 
1428
"""
 
1429
if sys.platform == 'win32':
 
1430
    _terminal_size = _win32_terminal_size
 
1431
else:
 
1432
    _terminal_size = _ioctl_terminal_size
 
1433
 
 
1434
 
 
1435
def _terminal_size_changed(signum, frame):
 
1436
    """Set COLUMNS upon receiving a SIGnal for WINdow size CHange."""
 
1437
    width, height = _terminal_size(None, None)
 
1438
    if width is not None:
 
1439
        os.environ['COLUMNS'] = str(width)
 
1440
 
 
1441
if sys.platform == 'win32':
 
1442
    # Martin (gz) mentioned WINDOW_BUFFER_SIZE_RECORD from ReadConsoleInput but
 
1443
    # I've no idea how to plug that in the current design -- vila 20091216
 
1444
    pass
 
1445
else:
 
1446
    signal.signal(signal.SIGWINCH, _terminal_size_changed)
 
1447
 
851
1448
 
852
1449
def supports_executable():
853
1450
    return sys.platform != "win32"
854
1451
 
855
1452
 
 
1453
def supports_posix_readonly():
 
1454
    """Return True if 'readonly' has POSIX semantics, False otherwise.
 
1455
 
 
1456
    Notably, a win32 readonly file cannot be deleted, unlike POSIX where the
 
1457
    directory controls creation/deletion, etc.
 
1458
 
 
1459
    And under win32, readonly means that the directory itself cannot be
 
1460
    deleted.  The contents of a readonly directory can be changed, unlike POSIX
 
1461
    where files in readonly directories cannot be added, deleted or renamed.
 
1462
    """
 
1463
    return sys.platform != "win32"
 
1464
 
 
1465
 
 
1466
def set_or_unset_env(env_variable, value):
 
1467
    """Modify the environment, setting or removing the env_variable.
 
1468
 
 
1469
    :param env_variable: The environment variable in question
 
1470
    :param value: The value to set the environment to. If None, then
 
1471
        the variable will be removed.
 
1472
    :return: The original value of the environment variable.
 
1473
    """
 
1474
    orig_val = os.environ.get(env_variable)
 
1475
    if value is None:
 
1476
        if orig_val is not None:
 
1477
            del os.environ[env_variable]
 
1478
    else:
 
1479
        if isinstance(value, unicode):
 
1480
            value = value.encode(get_user_encoding())
 
1481
        os.environ[env_variable] = value
 
1482
    return orig_val
 
1483
 
 
1484
 
856
1485
_validWin32PathRE = re.compile(r'^([A-Za-z]:[/\\])?[^:<>*"?\|]*$')
857
1486
 
858
1487
 
859
1488
def check_legal_path(path):
860
 
    """Check whether the supplied path is legal.  
 
1489
    """Check whether the supplied path is legal.
861
1490
    This is only required on Windows, so we don't test on other platforms
862
1491
    right now.
863
1492
    """
864
1493
    if sys.platform != "win32":
865
1494
        return
866
1495
    if _validWin32PathRE.match(path) is None:
867
 
        raise IllegalPath(path)
 
1496
        raise errors.IllegalPath(path)
 
1497
 
 
1498
 
 
1499
_WIN32_ERROR_DIRECTORY = 267 # Similar to errno.ENOTDIR
 
1500
 
 
1501
def _is_error_enotdir(e):
 
1502
    """Check if this exception represents ENOTDIR.
 
1503
 
 
1504
    Unfortunately, python is very inconsistent about the exception
 
1505
    here. The cases are:
 
1506
      1) Linux, Mac OSX all versions seem to set errno == ENOTDIR
 
1507
      2) Windows, Python2.4, uses errno == ERROR_DIRECTORY (267)
 
1508
         which is the windows error code.
 
1509
      3) Windows, Python2.5 uses errno == EINVAL and
 
1510
         winerror == ERROR_DIRECTORY
 
1511
 
 
1512
    :param e: An Exception object (expected to be OSError with an errno
 
1513
        attribute, but we should be able to cope with anything)
 
1514
    :return: True if this represents an ENOTDIR error. False otherwise.
 
1515
    """
 
1516
    en = getattr(e, 'errno', None)
 
1517
    if (en == errno.ENOTDIR
 
1518
        or (sys.platform == 'win32'
 
1519
            and (en == _WIN32_ERROR_DIRECTORY
 
1520
                 or (en == errno.EINVAL
 
1521
                     and getattr(e, 'winerror', None) == _WIN32_ERROR_DIRECTORY)
 
1522
        ))):
 
1523
        return True
 
1524
    return False
868
1525
 
869
1526
 
870
1527
def walkdirs(top, prefix=""):
871
1528
    """Yield data about all the directories in a tree.
872
 
    
 
1529
 
873
1530
    This yields all the data about the contents of a directory at a time.
874
1531
    After each directory has been yielded, if the caller has mutated the list
875
1532
    to exclude some directories, they are then not descended into.
876
 
    
 
1533
 
877
1534
    The data yielded is of the form:
878
 
    [(relpath, basename, kind, lstat, path_from_top), ...]
 
1535
    ((directory-relpath, directory-path-from-top),
 
1536
    [(relpath, basename, kind, lstat, path-from-top), ...]),
 
1537
     - directory-relpath is the relative path of the directory being returned
 
1538
       with respect to top. prefix is prepended to this.
 
1539
     - directory-path-from-root is the path including top for this directory.
 
1540
       It is suitable for use with os functions.
 
1541
     - relpath is the relative path within the subtree being walked.
 
1542
     - basename is the basename of the path
 
1543
     - kind is the kind of the file now. If unknown then the file is not
 
1544
       present within the tree - but it may be recorded as versioned. See
 
1545
       versioned_kind.
 
1546
     - lstat is the stat data *if* the file was statted.
 
1547
     - planned, not implemented:
 
1548
       path_from_tree_root is the path from the root of the tree.
879
1549
 
880
 
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This 
 
1550
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This
881
1551
        allows one to walk a subtree but get paths that are relative to a tree
882
1552
        rooted higher up.
883
1553
    :return: an iterator over the dirs.
884
1554
    """
885
 
    lstat = os.lstat
886
 
    pending = []
 
1555
    #TODO there is a bit of a smell where the results of the directory-
 
1556
    # summary in this, and the path from the root, may not agree
 
1557
    # depending on top and prefix - i.e. ./foo and foo as a pair leads to
 
1558
    # potentially confusing output. We should make this more robust - but
 
1559
    # not at a speed cost. RBC 20060731
 
1560
    _lstat = os.lstat
887
1561
    _directory = _directory_kind
888
 
    _listdir = listdir
889
 
    pending = [(prefix, "", _directory, None, top)]
 
1562
    _listdir = os.listdir
 
1563
    _kind_from_mode = file_kind_from_stat_mode
 
1564
    pending = [(safe_unicode(prefix), "", _directory, None, safe_unicode(top))]
890
1565
    while pending:
891
 
        dirblock = []
892
 
        currentdir = pending.pop()
893
1566
        # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
894
 
        top = currentdir[4]
895
 
        if currentdir[0]:
896
 
            relroot = currentdir[0] + '/'
897
 
        else:
898
 
            relroot = ""
 
1567
        relroot, _, _, _, top = pending.pop()
 
1568
        if relroot:
 
1569
            relprefix = relroot + u'/'
 
1570
        else:
 
1571
            relprefix = ''
 
1572
        top_slash = top + u'/'
 
1573
 
 
1574
        dirblock = []
 
1575
        append = dirblock.append
 
1576
        try:
 
1577
            names = sorted(_listdir(top))
 
1578
        except OSError, e:
 
1579
            if not _is_error_enotdir(e):
 
1580
                raise
 
1581
        else:
 
1582
            for name in names:
 
1583
                abspath = top_slash + name
 
1584
                statvalue = _lstat(abspath)
 
1585
                kind = _kind_from_mode(statvalue.st_mode)
 
1586
                append((relprefix + name, name, kind, statvalue, abspath))
 
1587
        yield (relroot, top), dirblock
 
1588
 
 
1589
        # push the user specified dirs from dirblock
 
1590
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
 
1591
 
 
1592
 
 
1593
class DirReader(object):
 
1594
    """An interface for reading directories."""
 
1595
 
 
1596
    def top_prefix_to_starting_dir(self, top, prefix=""):
 
1597
        """Converts top and prefix to a starting dir entry
 
1598
 
 
1599
        :param top: A utf8 path
 
1600
        :param prefix: An optional utf8 path to prefix output relative paths
 
1601
            with.
 
1602
        :return: A tuple starting with prefix, and ending with the native
 
1603
            encoding of top.
 
1604
        """
 
1605
        raise NotImplementedError(self.top_prefix_to_starting_dir)
 
1606
 
 
1607
    def read_dir(self, prefix, top):
 
1608
        """Read a specific dir.
 
1609
 
 
1610
        :param prefix: A utf8 prefix to be preprended to the path basenames.
 
1611
        :param top: A natively encoded path to read.
 
1612
        :return: A list of the directories contents. Each item contains:
 
1613
            (utf8_relpath, utf8_name, kind, lstatvalue, native_abspath)
 
1614
        """
 
1615
        raise NotImplementedError(self.read_dir)
 
1616
 
 
1617
 
 
1618
_selected_dir_reader = None
 
1619
 
 
1620
 
 
1621
def _walkdirs_utf8(top, prefix=""):
 
1622
    """Yield data about all the directories in a tree.
 
1623
 
 
1624
    This yields the same information as walkdirs() only each entry is yielded
 
1625
    in utf-8. On platforms which have a filesystem encoding of utf8 the paths
 
1626
    are returned as exact byte-strings.
 
1627
 
 
1628
    :return: yields a tuple of (dir_info, [file_info])
 
1629
        dir_info is (utf8_relpath, path-from-top)
 
1630
        file_info is (utf8_relpath, utf8_name, kind, lstat, path-from-top)
 
1631
        if top is an absolute path, path-from-top is also an absolute path.
 
1632
        path-from-top might be unicode or utf8, but it is the correct path to
 
1633
        pass to os functions to affect the file in question. (such as os.lstat)
 
1634
    """
 
1635
    global _selected_dir_reader
 
1636
    if _selected_dir_reader is None:
 
1637
        fs_encoding = _fs_enc.upper()
 
1638
        if sys.platform == "win32" and win32utils.winver == 'Windows NT':
 
1639
            # Win98 doesn't have unicode apis like FindFirstFileW
 
1640
            # TODO: We possibly could support Win98 by falling back to the
 
1641
            #       original FindFirstFile, and using TCHAR instead of WCHAR,
 
1642
            #       but that gets a bit tricky, and requires custom compiling
 
1643
            #       for win98 anyway.
 
1644
            try:
 
1645
                from bzrlib._walkdirs_win32 import Win32ReadDir
 
1646
                _selected_dir_reader = Win32ReadDir()
 
1647
            except ImportError:
 
1648
                pass
 
1649
        elif fs_encoding in ('UTF-8', 'US-ASCII', 'ANSI_X3.4-1968'):
 
1650
            # ANSI_X3.4-1968 is a form of ASCII
 
1651
            try:
 
1652
                from bzrlib._readdir_pyx import UTF8DirReader
 
1653
                _selected_dir_reader = UTF8DirReader()
 
1654
            except ImportError, e:
 
1655
                failed_to_load_extension(e)
 
1656
                pass
 
1657
 
 
1658
    if _selected_dir_reader is None:
 
1659
        # Fallback to the python version
 
1660
        _selected_dir_reader = UnicodeDirReader()
 
1661
 
 
1662
    # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
 
1663
    # But we don't actually uses 1-3 in pending, so set them to None
 
1664
    pending = [[_selected_dir_reader.top_prefix_to_starting_dir(top, prefix)]]
 
1665
    read_dir = _selected_dir_reader.read_dir
 
1666
    _directory = _directory_kind
 
1667
    while pending:
 
1668
        relroot, _, _, _, top = pending[-1].pop()
 
1669
        if not pending[-1]:
 
1670
            pending.pop()
 
1671
        dirblock = sorted(read_dir(relroot, top))
 
1672
        yield (relroot, top), dirblock
 
1673
        # push the user specified dirs from dirblock
 
1674
        next = [d for d in reversed(dirblock) if d[2] == _directory]
 
1675
        if next:
 
1676
            pending.append(next)
 
1677
 
 
1678
 
 
1679
class UnicodeDirReader(DirReader):
 
1680
    """A dir reader for non-utf8 file systems, which transcodes."""
 
1681
 
 
1682
    __slots__ = ['_utf8_encode']
 
1683
 
 
1684
    def __init__(self):
 
1685
        self._utf8_encode = codecs.getencoder('utf8')
 
1686
 
 
1687
    def top_prefix_to_starting_dir(self, top, prefix=""):
 
1688
        """See DirReader.top_prefix_to_starting_dir."""
 
1689
        return (safe_utf8(prefix), None, None, None, safe_unicode(top))
 
1690
 
 
1691
    def read_dir(self, prefix, top):
 
1692
        """Read a single directory from a non-utf8 file system.
 
1693
 
 
1694
        top, and the abspath element in the output are unicode, all other paths
 
1695
        are utf8. Local disk IO is done via unicode calls to listdir etc.
 
1696
 
 
1697
        This is currently the fallback code path when the filesystem encoding is
 
1698
        not UTF-8. It may be better to implement an alternative so that we can
 
1699
        safely handle paths that are not properly decodable in the current
 
1700
        encoding.
 
1701
 
 
1702
        See DirReader.read_dir for details.
 
1703
        """
 
1704
        _utf8_encode = self._utf8_encode
 
1705
        _lstat = os.lstat
 
1706
        _listdir = os.listdir
 
1707
        _kind_from_mode = file_kind_from_stat_mode
 
1708
 
 
1709
        if prefix:
 
1710
            relprefix = prefix + '/'
 
1711
        else:
 
1712
            relprefix = ''
 
1713
        top_slash = top + u'/'
 
1714
 
 
1715
        dirblock = []
 
1716
        append = dirblock.append
899
1717
        for name in sorted(_listdir(top)):
900
 
            abspath = top + '/' + name
901
 
            statvalue = lstat(abspath)
902
 
            dirblock.append ((relroot + name, name, file_kind_from_stat_mode(statvalue.st_mode), statvalue, abspath))
903
 
        yield dirblock
904
 
        # push the user specified dirs from dirblock
905
 
        for dir in reversed(dirblock):
906
 
            if dir[2] == _directory:
907
 
                pending.append(dir)
 
1718
            try:
 
1719
                name_utf8 = _utf8_encode(name)[0]
 
1720
            except UnicodeDecodeError:
 
1721
                raise errors.BadFilenameEncoding(
 
1722
                    _utf8_encode(relprefix)[0] + name, _fs_enc)
 
1723
            abspath = top_slash + name
 
1724
            statvalue = _lstat(abspath)
 
1725
            kind = _kind_from_mode(statvalue.st_mode)
 
1726
            append((relprefix + name_utf8, name_utf8, kind, statvalue, abspath))
 
1727
        return dirblock
 
1728
 
 
1729
 
 
1730
def copy_tree(from_path, to_path, handlers={}):
 
1731
    """Copy all of the entries in from_path into to_path.
 
1732
 
 
1733
    :param from_path: The base directory to copy.
 
1734
    :param to_path: The target directory. If it does not exist, it will
 
1735
        be created.
 
1736
    :param handlers: A dictionary of functions, which takes a source and
 
1737
        destinations for files, directories, etc.
 
1738
        It is keyed on the file kind, such as 'directory', 'symlink', or 'file'
 
1739
        'file', 'directory', and 'symlink' should always exist.
 
1740
        If they are missing, they will be replaced with 'os.mkdir()',
 
1741
        'os.readlink() + os.symlink()', and 'shutil.copy2()', respectively.
 
1742
    """
 
1743
    # Now, just copy the existing cached tree to the new location
 
1744
    # We use a cheap trick here.
 
1745
    # Absolute paths are prefixed with the first parameter
 
1746
    # relative paths are prefixed with the second.
 
1747
    # So we can get both the source and target returned
 
1748
    # without any extra work.
 
1749
 
 
1750
    def copy_dir(source, dest):
 
1751
        os.mkdir(dest)
 
1752
 
 
1753
    def copy_link(source, dest):
 
1754
        """Copy the contents of a symlink"""
 
1755
        link_to = os.readlink(source)
 
1756
        os.symlink(link_to, dest)
 
1757
 
 
1758
    real_handlers = {'file':shutil.copy2,
 
1759
                     'symlink':copy_link,
 
1760
                     'directory':copy_dir,
 
1761
                    }
 
1762
    real_handlers.update(handlers)
 
1763
 
 
1764
    if not os.path.exists(to_path):
 
1765
        real_handlers['directory'](from_path, to_path)
 
1766
 
 
1767
    for dir_info, entries in walkdirs(from_path, prefix=to_path):
 
1768
        for relpath, name, kind, st, abspath in entries:
 
1769
            real_handlers[kind](abspath, relpath)
908
1770
 
909
1771
 
910
1772
def path_prefix_key(path):
920
1782
    key_a = path_prefix_key(path_a)
921
1783
    key_b = path_prefix_key(path_b)
922
1784
    return cmp(key_a, key_b)
 
1785
 
 
1786
 
 
1787
_cached_user_encoding = None
 
1788
 
 
1789
 
 
1790
def get_user_encoding(use_cache=True):
 
1791
    """Find out what the preferred user encoding is.
 
1792
 
 
1793
    This is generally the encoding that is used for command line parameters
 
1794
    and file contents. This may be different from the terminal encoding
 
1795
    or the filesystem encoding.
 
1796
 
 
1797
    :param  use_cache:  Enable cache for detected encoding.
 
1798
                        (This parameter is turned on by default,
 
1799
                        and required only for selftesting)
 
1800
 
 
1801
    :return: A string defining the preferred user encoding
 
1802
    """
 
1803
    global _cached_user_encoding
 
1804
    if _cached_user_encoding is not None and use_cache:
 
1805
        return _cached_user_encoding
 
1806
 
 
1807
    if sys.platform == 'darwin':
 
1808
        # python locale.getpreferredencoding() always return
 
1809
        # 'mac-roman' on darwin. That's a lie.
 
1810
        sys.platform = 'posix'
 
1811
        try:
 
1812
            if os.environ.get('LANG', None) is None:
 
1813
                # If LANG is not set, we end up with 'ascii', which is bad
 
1814
                # ('mac-roman' is more than ascii), so we set a default which
 
1815
                # will give us UTF-8 (which appears to work in all cases on
 
1816
                # OSX). Users are still free to override LANG of course, as
 
1817
                # long as it give us something meaningful. This work-around
 
1818
                # *may* not be needed with python 3k and/or OSX 10.5, but will
 
1819
                # work with them too -- vila 20080908
 
1820
                os.environ['LANG'] = 'en_US.UTF-8'
 
1821
            import locale
 
1822
        finally:
 
1823
            sys.platform = 'darwin'
 
1824
    else:
 
1825
        import locale
 
1826
 
 
1827
    try:
 
1828
        user_encoding = locale.getpreferredencoding()
 
1829
    except locale.Error, e:
 
1830
        sys.stderr.write('bzr: warning: %s\n'
 
1831
                         '  Could not determine what text encoding to use.\n'
 
1832
                         '  This error usually means your Python interpreter\n'
 
1833
                         '  doesn\'t support the locale set by $LANG (%s)\n'
 
1834
                         "  Continuing with ascii encoding.\n"
 
1835
                         % (e, os.environ.get('LANG')))
 
1836
        user_encoding = 'ascii'
 
1837
 
 
1838
    # Windows returns 'cp0' to indicate there is no code page. So we'll just
 
1839
    # treat that as ASCII, and not support printing unicode characters to the
 
1840
    # console.
 
1841
    #
 
1842
    # For python scripts run under vim, we get '', so also treat that as ASCII
 
1843
    if user_encoding in (None, 'cp0', ''):
 
1844
        user_encoding = 'ascii'
 
1845
    else:
 
1846
        # check encoding
 
1847
        try:
 
1848
            codecs.lookup(user_encoding)
 
1849
        except LookupError:
 
1850
            sys.stderr.write('bzr: warning:'
 
1851
                             ' unknown encoding %s.'
 
1852
                             ' Continuing with ascii encoding.\n'
 
1853
                             % user_encoding
 
1854
                            )
 
1855
            user_encoding = 'ascii'
 
1856
 
 
1857
    if use_cache:
 
1858
        _cached_user_encoding = user_encoding
 
1859
 
 
1860
    return user_encoding
 
1861
 
 
1862
 
 
1863
def get_host_name():
 
1864
    """Return the current unicode host name.
 
1865
 
 
1866
    This is meant to be used in place of socket.gethostname() because that
 
1867
    behaves inconsistently on different platforms.
 
1868
    """
 
1869
    if sys.platform == "win32":
 
1870
        import win32utils
 
1871
        return win32utils.get_host_name()
 
1872
    else:
 
1873
        import socket
 
1874
        return socket.gethostname().decode(get_user_encoding())
 
1875
 
 
1876
 
 
1877
def recv_all(socket, bytes):
 
1878
    """Receive an exact number of bytes.
 
1879
 
 
1880
    Regular Socket.recv() may return less than the requested number of bytes,
 
1881
    dependning on what's in the OS buffer.  MSG_WAITALL is not available
 
1882
    on all platforms, but this should work everywhere.  This will return
 
1883
    less than the requested amount if the remote end closes.
 
1884
 
 
1885
    This isn't optimized and is intended mostly for use in testing.
 
1886
    """
 
1887
    b = ''
 
1888
    while len(b) < bytes:
 
1889
        new = until_no_eintr(socket.recv, bytes - len(b))
 
1890
        if new == '':
 
1891
            break # eof
 
1892
        b += new
 
1893
    return b
 
1894
 
 
1895
 
 
1896
def send_all(socket, bytes, report_activity=None):
 
1897
    """Send all bytes on a socket.
 
1898
 
 
1899
    Regular socket.sendall() can give socket error 10053 on Windows.  This
 
1900
    implementation sends no more than 64k at a time, which avoids this problem.
 
1901
 
 
1902
    :param report_activity: Call this as bytes are read, see
 
1903
        Transport._report_activity
 
1904
    """
 
1905
    chunk_size = 2**16
 
1906
    for pos in xrange(0, len(bytes), chunk_size):
 
1907
        block = bytes[pos:pos+chunk_size]
 
1908
        if report_activity is not None:
 
1909
            report_activity(len(block), 'write')
 
1910
        until_no_eintr(socket.sendall, block)
 
1911
 
 
1912
 
 
1913
def dereference_path(path):
 
1914
    """Determine the real path to a file.
 
1915
 
 
1916
    All parent elements are dereferenced.  But the file itself is not
 
1917
    dereferenced.
 
1918
    :param path: The original path.  May be absolute or relative.
 
1919
    :return: the real path *to* the file
 
1920
    """
 
1921
    parent, base = os.path.split(path)
 
1922
    # The pathjoin for '.' is a workaround for Python bug #1213894.
 
1923
    # (initial path components aren't dereferenced)
 
1924
    return pathjoin(realpath(pathjoin('.', parent)), base)
 
1925
 
 
1926
 
 
1927
def supports_mapi():
 
1928
    """Return True if we can use MAPI to launch a mail client."""
 
1929
    return sys.platform == "win32"
 
1930
 
 
1931
 
 
1932
def resource_string(package, resource_name):
 
1933
    """Load a resource from a package and return it as a string.
 
1934
 
 
1935
    Note: Only packages that start with bzrlib are currently supported.
 
1936
 
 
1937
    This is designed to be a lightweight implementation of resource
 
1938
    loading in a way which is API compatible with the same API from
 
1939
    pkg_resources. See
 
1940
    http://peak.telecommunity.com/DevCenter/PkgResources#basic-resource-access.
 
1941
    If and when pkg_resources becomes a standard library, this routine
 
1942
    can delegate to it.
 
1943
    """
 
1944
    # Check package name is within bzrlib
 
1945
    if package == "bzrlib":
 
1946
        resource_relpath = resource_name
 
1947
    elif package.startswith("bzrlib."):
 
1948
        package = package[len("bzrlib."):].replace('.', os.sep)
 
1949
        resource_relpath = pathjoin(package, resource_name)
 
1950
    else:
 
1951
        raise errors.BzrError('resource package %s not in bzrlib' % package)
 
1952
 
 
1953
    # Map the resource to a file and read its contents
 
1954
    base = dirname(bzrlib.__file__)
 
1955
    if getattr(sys, 'frozen', None):    # bzr.exe
 
1956
        base = abspath(pathjoin(base, '..', '..'))
 
1957
    filename = pathjoin(base, resource_relpath)
 
1958
    return open(filename, 'rU').read()
 
1959
 
 
1960
 
 
1961
def file_kind_from_stat_mode_thunk(mode):
 
1962
    global file_kind_from_stat_mode
 
1963
    if file_kind_from_stat_mode is file_kind_from_stat_mode_thunk:
 
1964
        try:
 
1965
            from bzrlib._readdir_pyx import UTF8DirReader
 
1966
            file_kind_from_stat_mode = UTF8DirReader().kind_from_mode
 
1967
        except ImportError, e:
 
1968
            # This is one time where we won't warn that an extension failed to
 
1969
            # load. The extension is never available on Windows anyway.
 
1970
            from bzrlib._readdir_py import (
 
1971
                _kind_from_mode as file_kind_from_stat_mode
 
1972
                )
 
1973
    return file_kind_from_stat_mode(mode)
 
1974
file_kind_from_stat_mode = file_kind_from_stat_mode_thunk
 
1975
 
 
1976
 
 
1977
def file_kind(f, _lstat=os.lstat):
 
1978
    try:
 
1979
        return file_kind_from_stat_mode(_lstat(f).st_mode)
 
1980
    except OSError, e:
 
1981
        if getattr(e, 'errno', None) in (errno.ENOENT, errno.ENOTDIR):
 
1982
            raise errors.NoSuchFile(f)
 
1983
        raise
 
1984
 
 
1985
 
 
1986
def until_no_eintr(f, *a, **kw):
 
1987
    """Run f(*a, **kw), retrying if an EINTR error occurs."""
 
1988
    # Borrowed from Twisted's twisted.python.util.untilConcludes function.
 
1989
    while True:
 
1990
        try:
 
1991
            return f(*a, **kw)
 
1992
        except (IOError, OSError), e:
 
1993
            if e.errno == errno.EINTR:
 
1994
                continue
 
1995
            raise
 
1996
 
 
1997
def re_compile_checked(re_string, flags=0, where=""):
 
1998
    """Return a compiled re, or raise a sensible error.
 
1999
 
 
2000
    This should only be used when compiling user-supplied REs.
 
2001
 
 
2002
    :param re_string: Text form of regular expression.
 
2003
    :param flags: eg re.IGNORECASE
 
2004
    :param where: Message explaining to the user the context where
 
2005
        it occurred, eg 'log search filter'.
 
2006
    """
 
2007
    # from https://bugs.launchpad.net/bzr/+bug/251352
 
2008
    try:
 
2009
        re_obj = re.compile(re_string, flags)
 
2010
        re_obj.search("")
 
2011
        return re_obj
 
2012
    except re.error, e:
 
2013
        if where:
 
2014
            where = ' in ' + where
 
2015
        # despite the name 'error' is a type
 
2016
        raise errors.BzrCommandError('Invalid regular expression%s: %r: %s'
 
2017
            % (where, re_string, e))
 
2018
 
 
2019
 
 
2020
if sys.platform == "win32":
 
2021
    import msvcrt
 
2022
    def getchar():
 
2023
        return msvcrt.getch()
 
2024
else:
 
2025
    import tty
 
2026
    import termios
 
2027
    def getchar():
 
2028
        fd = sys.stdin.fileno()
 
2029
        settings = termios.tcgetattr(fd)
 
2030
        try:
 
2031
            tty.setraw(fd)
 
2032
            ch = sys.stdin.read(1)
 
2033
        finally:
 
2034
            termios.tcsetattr(fd, termios.TCSADRAIN, settings)
 
2035
        return ch
 
2036
 
 
2037
 
 
2038
if sys.platform == 'linux2':
 
2039
    def _local_concurrency():
 
2040
        concurrency = None
 
2041
        prefix = 'processor'
 
2042
        for line in file('/proc/cpuinfo', 'rb'):
 
2043
            if line.startswith(prefix):
 
2044
                concurrency = int(line[line.find(':')+1:]) + 1
 
2045
        return concurrency
 
2046
elif sys.platform == 'darwin':
 
2047
    def _local_concurrency():
 
2048
        return subprocess.Popen(['sysctl', '-n', 'hw.availcpu'],
 
2049
                                stdout=subprocess.PIPE).communicate()[0]
 
2050
elif sys.platform[0:7] == 'freebsd':
 
2051
    def _local_concurrency():
 
2052
        return subprocess.Popen(['sysctl', '-n', 'hw.ncpu'],
 
2053
                                stdout=subprocess.PIPE).communicate()[0]
 
2054
elif sys.platform == 'sunos5':
 
2055
    def _local_concurrency():
 
2056
        return subprocess.Popen(['psrinfo', '-p',],
 
2057
                                stdout=subprocess.PIPE).communicate()[0]
 
2058
elif sys.platform == "win32":
 
2059
    def _local_concurrency():
 
2060
        # This appears to return the number of cores.
 
2061
        return os.environ.get('NUMBER_OF_PROCESSORS')
 
2062
else:
 
2063
    def _local_concurrency():
 
2064
        # Who knows ?
 
2065
        return None
 
2066
 
 
2067
 
 
2068
_cached_local_concurrency = None
 
2069
 
 
2070
def local_concurrency(use_cache=True):
 
2071
    """Return how many processes can be run concurrently.
 
2072
 
 
2073
    Rely on platform specific implementations and default to 1 (one) if
 
2074
    anything goes wrong.
 
2075
    """
 
2076
    global _cached_local_concurrency
 
2077
 
 
2078
    if _cached_local_concurrency is not None and use_cache:
 
2079
        return _cached_local_concurrency
 
2080
 
 
2081
    concurrency = os.environ.get('BZR_CONCURRENCY', None)
 
2082
    if concurrency is None:
 
2083
        try:
 
2084
            concurrency = _local_concurrency()
 
2085
        except (OSError, IOError):
 
2086
            pass
 
2087
    try:
 
2088
        concurrency = int(concurrency)
 
2089
    except (TypeError, ValueError):
 
2090
        concurrency = 1
 
2091
    if use_cache:
 
2092
        _cached_concurrency = concurrency
 
2093
    return concurrency
 
2094
 
 
2095
 
 
2096
class UnicodeOrBytesToBytesWriter(codecs.StreamWriter):
 
2097
    """A stream writer that doesn't decode str arguments."""
 
2098
 
 
2099
    def __init__(self, encode, stream, errors='strict'):
 
2100
        codecs.StreamWriter.__init__(self, stream, errors)
 
2101
        self.encode = encode
 
2102
 
 
2103
    def write(self, object):
 
2104
        if type(object) is str:
 
2105
            self.stream.write(object)
 
2106
        else:
 
2107
            data, _ = self.encode(object, self.errors)
 
2108
            self.stream.write(data)