~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/osutils.py

  • Committer: Alexander Belchenko
  • Date: 2006-07-30 16:43:12 UTC
  • mto: (1711.2.111 jam-integration)
  • mto: This revision was merged to the branch mainline in revision 1906.
  • Revision ID: bialix@ukr.net-20060730164312-b025fd3ff0cee59e
rename  gpl.txt => COPYING.txt

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007, 2009 Canonical Ltd
 
1
# Bazaar -- distributed version control
 
2
#
 
3
# Copyright (C) 2005 by Canonical Ltd
2
4
#
3
5
# This program is free software; you can redistribute it and/or modify
4
6
# it under the terms of the GNU General Public License as published by
12
14
#
13
15
# You should have received a copy of the GNU General Public License
14
16
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
 
 
17
 
import os
18
 
import re
19
 
import stat
20
 
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
21
 
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
22
 
import sys
23
 
import time
24
 
import warnings
25
 
 
26
 
from bzrlib.lazy_import import lazy_import
27
 
lazy_import(globals(), """
28
 
import codecs
29
 
from datetime import datetime
 
17
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
18
 
 
19
from cStringIO import StringIO
30
20
import errno
31
21
from ntpath import (abspath as _nt_abspath,
32
22
                    join as _nt_join,
34
24
                    realpath as _nt_realpath,
35
25
                    splitdrive as _nt_splitdrive,
36
26
                    )
 
27
import os
 
28
from os import listdir
37
29
import posixpath
 
30
import re
 
31
import sha
38
32
import shutil
39
 
from shutil import (
40
 
    rmtree,
41
 
    )
42
 
import signal
43
 
import subprocess
 
33
from shutil import copyfile
 
34
import stat
 
35
from stat import (S_ISREG, S_ISDIR, S_ISLNK, ST_MODE, ST_SIZE,
 
36
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
 
37
import string
 
38
import sys
 
39
import time
 
40
import types
44
41
import tempfile
45
 
from tempfile import (
46
 
    mkdtemp,
47
 
    )
48
42
import unicodedata
49
43
 
50
 
from bzrlib import (
51
 
    cache_utf8,
52
 
    errors,
53
 
    win32utils,
54
 
    )
55
 
""")
56
 
 
57
 
# sha and md5 modules are deprecated in python2.6 but hashlib is available as
58
 
# of 2.5
59
 
if sys.version_info < (2, 5):
60
 
    import md5 as _mod_md5
61
 
    md5 = _mod_md5.new
62
 
    import sha as _mod_sha
63
 
    sha = _mod_sha.new
64
 
else:
65
 
    from hashlib import (
66
 
        md5,
67
 
        sha1 as sha,
68
 
        )
69
 
 
70
 
 
71
44
import bzrlib
72
 
from bzrlib import symbol_versioning
73
 
 
74
 
 
75
 
# Cross platform wall-clock time functionality with decent resolution.
76
 
# On Linux ``time.clock`` returns only CPU time. On Windows, ``time.time()``
77
 
# only has a resolution of ~15ms. Note that ``time.clock()`` is not
78
 
# synchronized with ``time.time()``, this is only meant to be used to find
79
 
# delta times by subtracting from another call to this function.
80
 
timer_func = time.time
81
 
if sys.platform == 'win32':
82
 
    timer_func = time.clock
83
 
 
84
 
# On win32, O_BINARY is used to indicate the file should
85
 
# be opened in binary mode, rather than text mode.
86
 
# On other platforms, O_BINARY doesn't exist, because
87
 
# they always open in binary mode, so it is okay to
88
 
# OR with 0 on those platforms
89
 
O_BINARY = getattr(os, 'O_BINARY', 0)
90
 
 
91
 
 
92
 
def get_unicode_argv():
93
 
    try:
94
 
        user_encoding = get_user_encoding()
95
 
        return [a.decode(user_encoding) for a in sys.argv[1:]]
96
 
    except UnicodeDecodeError:
97
 
        raise errors.BzrError(("Parameter '%r' is unsupported by the current "
98
 
                                                            "encoding." % a))
 
45
from bzrlib.errors import (BzrError,
 
46
                           BzrBadParameterNotUnicode,
 
47
                           NoSuchFile,
 
48
                           PathNotChild,
 
49
                           IllegalPath,
 
50
                           )
 
51
from bzrlib.symbol_versioning import (deprecated_function, 
 
52
        zero_nine)
 
53
from bzrlib.trace import mutter
99
54
 
100
55
 
101
56
def make_readonly(filename):
102
57
    """Make a filename read-only."""
103
 
    mod = os.lstat(filename).st_mode
104
 
    if not stat.S_ISLNK(mod):
105
 
        mod = mod & 0777555
106
 
        os.chmod(filename, mod)
 
58
    mod = os.stat(filename).st_mode
 
59
    mod = mod & 0777555
 
60
    os.chmod(filename, mod)
107
61
 
108
62
 
109
63
def make_writable(filename):
110
 
    mod = os.lstat(filename).st_mode
111
 
    if not stat.S_ISLNK(mod):
112
 
        mod = mod | 0200
113
 
        os.chmod(filename, mod)
114
 
 
115
 
 
116
 
def minimum_path_selection(paths):
117
 
    """Return the smallset subset of paths which are outside paths.
118
 
 
119
 
    :param paths: A container (and hence not None) of paths.
120
 
    :return: A set of paths sufficient to include everything in paths via
121
 
        is_inside, drawn from the paths parameter.
122
 
    """
123
 
    if len(paths) < 2:
124
 
        return set(paths)
125
 
 
126
 
    def sort_key(path):
127
 
        return path.split('/')
128
 
    sorted_paths = sorted(list(paths), key=sort_key)
129
 
 
130
 
    search_paths = [sorted_paths[0]]
131
 
    for path in sorted_paths[1:]:
132
 
        if not is_inside(search_paths[-1], path):
133
 
            # This path is unique, add it
134
 
            search_paths.append(path)
135
 
 
136
 
    return set(search_paths)
 
64
    mod = os.stat(filename).st_mode
 
65
    mod = mod | 0200
 
66
    os.chmod(filename, mod)
137
67
 
138
68
 
139
69
_QUOTE_RE = None
146
76
    Windows."""
147
77
    # TODO: I'm not really sure this is the best format either.x
148
78
    global _QUOTE_RE
149
 
    if _QUOTE_RE is None:
 
79
    if _QUOTE_RE == None:
150
80
        _QUOTE_RE = re.compile(r'([^a-zA-Z0-9.,:/\\_~-])')
151
 
 
 
81
        
152
82
    if _QUOTE_RE.search(f):
153
83
        return '"' + f + '"'
154
84
    else:
157
87
 
158
88
_directory_kind = 'directory'
159
89
 
160
 
def get_umask():
161
 
    """Return the current umask"""
162
 
    # Assume that people aren't messing with the umask while running
163
 
    # XXX: This is not thread safe, but there is no way to get the
164
 
    #      umask without setting it
165
 
    umask = os.umask(0)
166
 
    os.umask(umask)
167
 
    return umask
168
 
 
169
 
 
170
 
_kind_marker_map = {
171
 
    "file": "",
172
 
    _directory_kind: "/",
173
 
    "symlink": "@",
174
 
    'tree-reference': '+',
 
90
_formats = {
 
91
    stat.S_IFDIR:_directory_kind,
 
92
    stat.S_IFCHR:'chardev',
 
93
    stat.S_IFBLK:'block',
 
94
    stat.S_IFREG:'file',
 
95
    stat.S_IFIFO:'fifo',
 
96
    stat.S_IFLNK:'symlink',
 
97
    stat.S_IFSOCK:'socket',
175
98
}
176
99
 
177
100
 
 
101
def file_kind_from_stat_mode(stat_mode, _formats=_formats, _unknown='unknown'):
 
102
    """Generate a file kind from a stat mode. This is used in walkdirs.
 
103
 
 
104
    Its performance is critical: Do not mutate without careful benchmarking.
 
105
    """
 
106
    try:
 
107
        return _formats[stat_mode & 0170000]
 
108
    except KeyError:
 
109
        return _unknown
 
110
 
 
111
 
 
112
def file_kind(f, _lstat=os.lstat, _mapper=file_kind_from_stat_mode):
 
113
    try:
 
114
        return _mapper(_lstat(f).st_mode)
 
115
    except OSError, e:
 
116
        if getattr(e, 'errno', None) == errno.ENOENT:
 
117
            raise bzrlib.errors.NoSuchFile(f)
 
118
        raise
 
119
 
 
120
 
178
121
def kind_marker(kind):
179
 
    try:
180
 
        return _kind_marker_map[kind]
181
 
    except KeyError:
182
 
        raise errors.BzrError('invalid file kind %r' % kind)
183
 
 
 
122
    if kind == 'file':
 
123
        return ''
 
124
    elif kind == _directory_kind:
 
125
        return '/'
 
126
    elif kind == 'symlink':
 
127
        return '@'
 
128
    else:
 
129
        raise BzrError('invalid file kind %r' % kind)
184
130
 
185
131
lexists = getattr(os.path, 'lexists', None)
186
132
if lexists is None:
187
133
    def lexists(f):
188
134
        try:
189
 
            stat = getattr(os, 'lstat', os.stat)
190
 
            stat(f)
 
135
            if hasattr(os, 'lstat'):
 
136
                os.lstat(f)
 
137
            else:
 
138
                os.stat(f)
191
139
            return True
192
 
        except OSError, e:
 
140
        except OSError,e:
193
141
            if e.errno == errno.ENOENT:
194
142
                return False;
195
143
            else:
196
 
                raise errors.BzrError("lstat/stat of (%r): %r" % (f, e))
 
144
                raise BzrError("lstat/stat of (%r): %r" % (f, e))
197
145
 
198
146
 
199
147
def fancy_rename(old, new, rename_func, unlink_func):
200
148
    """A fancy rename, when you don't have atomic rename.
201
 
 
 
149
    
202
150
    :param old: The old path, to rename from
203
151
    :param new: The new path, to rename to
204
152
    :param rename_func: The potentially non-atomic rename function
205
 
    :param unlink_func: A way to delete the target file if the full rename
206
 
        succeeds
 
153
    :param unlink_func: A way to delete the target file if the full rename succeeds
207
154
    """
 
155
 
208
156
    # sftp rename doesn't allow overwriting, so play tricks:
 
157
    import random
209
158
    base = os.path.basename(new)
210
159
    dirname = os.path.dirname(new)
211
 
    # callers use different encodings for the paths so the following MUST
212
 
    # respect that. We rely on python upcasting to unicode if new is unicode
213
 
    # and keeping a str if not.
214
 
    tmp_name = 'tmp.%s.%.9f.%d.%s' % (base, time.time(),
215
 
                                      os.getpid(), rand_chars(10))
 
160
    tmp_name = u'tmp.%s.%.9f.%d.%s' % (base, time.time(), os.getpid(), rand_chars(10))
216
161
    tmp_name = pathjoin(dirname, tmp_name)
217
162
 
218
163
    # Rename the file out of the way, but keep track if it didn't exist
223
168
    file_existed = False
224
169
    try:
225
170
        rename_func(new, tmp_name)
226
 
    except (errors.NoSuchFile,), e:
 
171
    except (NoSuchFile,), e:
227
172
        pass
228
173
    except IOError, e:
229
174
        # RBC 20060103 abstraction leakage: the paramiko SFTP clients rename
230
 
        # function raises an IOError with errno is None when a rename fails.
 
175
        # function raises an IOError with errno == None when a rename fails.
231
176
        # This then gets caught here.
232
177
        if e.errno not in (None, errno.ENOENT, errno.ENOTDIR):
233
178
            raise
234
179
    except Exception, e:
235
 
        if (getattr(e, 'errno', None) is None
 
180
        if (not hasattr(e, 'errno') 
236
181
            or e.errno not in (errno.ENOENT, errno.ENOTDIR)):
237
182
            raise
238
183
    else:
239
184
        file_existed = True
240
185
 
241
 
    failure_exc = None
242
186
    success = False
243
187
    try:
244
 
        try:
245
 
            # This may throw an exception, in which case success will
246
 
            # not be set.
247
 
            rename_func(old, new)
248
 
            success = True
249
 
        except (IOError, OSError), e:
250
 
            # source and target may be aliases of each other (e.g. on a
251
 
            # case-insensitive filesystem), so we may have accidentally renamed
252
 
            # source by when we tried to rename target
253
 
            failure_exc = sys.exc_info()
254
 
            if (file_existed and e.errno in (None, errno.ENOENT)
255
 
                and old.lower() == new.lower()):
256
 
                # source and target are the same file on a case-insensitive
257
 
                # filesystem, so we don't generate an exception
258
 
                failure_exc = None
 
188
        # This may throw an exception, in which case success will
 
189
        # not be set.
 
190
        rename_func(old, new)
 
191
        success = True
259
192
    finally:
260
193
        if file_existed:
261
194
            # If the file used to exist, rename it back into place
264
197
                unlink_func(tmp_name)
265
198
            else:
266
199
                rename_func(tmp_name, new)
267
 
    if failure_exc is not None:
268
 
        raise failure_exc[0], failure_exc[1], failure_exc[2]
269
200
 
270
201
 
271
202
# In Python 2.4.2 and older, os.path.abspath and os.path.realpath
272
203
# choke on a Unicode string containing a relative path if
273
204
# os.getcwd() returns a non-sys.getdefaultencoding()-encoded
274
205
# string.
275
 
_fs_enc = sys.getfilesystemencoding() or 'utf-8'
 
206
_fs_enc = sys.getfilesystemencoding()
276
207
def _posix_abspath(path):
277
208
    # jam 20060426 rather than encoding to fsencoding
278
209
    # copy posixpath.abspath, but use os.getcwdu instead
303
234
    return _win32_fixdrive(_nt_abspath(unicode(path)).replace('\\', '/'))
304
235
 
305
236
 
306
 
def _win98_abspath(path):
307
 
    """Return the absolute version of a path.
308
 
    Windows 98 safe implementation (python reimplementation
309
 
    of Win32 API function GetFullPathNameW)
310
 
    """
311
 
    # Corner cases:
312
 
    #   C:\path     => C:/path
313
 
    #   C:/path     => C:/path
314
 
    #   \\HOST\path => //HOST/path
315
 
    #   //HOST/path => //HOST/path
316
 
    #   path        => C:/cwd/path
317
 
    #   /path       => C:/path
318
 
    path = unicode(path)
319
 
    # check for absolute path
320
 
    drive = _nt_splitdrive(path)[0]
321
 
    if drive == '' and path[:2] not in('//','\\\\'):
322
 
        cwd = os.getcwdu()
323
 
        # we cannot simply os.path.join cwd and path
324
 
        # because os.path.join('C:','/path') produce '/path'
325
 
        # and this is incorrect
326
 
        if path[:1] in ('/','\\'):
327
 
            cwd = _nt_splitdrive(cwd)[0]
328
 
            path = path[1:]
329
 
        path = cwd + '\\' + path
330
 
    return _win32_fixdrive(_nt_normpath(path).replace('\\', '/'))
331
 
 
332
 
 
333
237
def _win32_realpath(path):
334
238
    # Real _nt_realpath doesn't have a problem with a unicode cwd
335
239
    return _win32_fixdrive(_nt_realpath(unicode(path)).replace('\\', '/'))
355
259
    """We expect to be able to atomically replace 'new' with old.
356
260
 
357
261
    On win32, if new exists, it must be moved out of the way first,
358
 
    and then deleted.
 
262
    and then deleted. 
359
263
    """
360
264
    try:
361
265
        fancy_rename(old, new, rename_func=os.rename, unlink_func=os.unlink)
362
266
    except OSError, e:
363
267
        if e.errno in (errno.EPERM, errno.EACCES, errno.EBUSY, errno.EINVAL):
364
 
            # If we try to rename a non-existant file onto cwd, we get
365
 
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT
 
268
            # If we try to rename a non-existant file onto cwd, we get 
 
269
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT 
366
270
            # if the old path doesn't exist, sometimes we get EACCES
367
271
            # On Linux, we seem to get EBUSY, on Mac we get EINVAL
368
272
            os.lstat(old)
370
274
 
371
275
 
372
276
def _mac_getcwd():
373
 
    return unicodedata.normalize('NFC', os.getcwdu())
 
277
    return unicodedata.normalize('NFKC', os.getcwdu())
374
278
 
375
279
 
376
280
# Default is to just use the python builtins, but these can be rebound on
380
284
pathjoin = os.path.join
381
285
normpath = os.path.normpath
382
286
getcwd = os.getcwdu
 
287
mkdtemp = tempfile.mkdtemp
383
288
rename = os.rename
384
289
dirname = os.path.dirname
385
290
basename = os.path.basename
386
 
split = os.path.split
387
 
splitext = os.path.splitext
388
 
# These were already imported into local scope
389
 
# mkdtemp = tempfile.mkdtemp
390
 
# rmtree = shutil.rmtree
 
291
rmtree = shutil.rmtree
391
292
 
392
293
MIN_ABS_PATHLENGTH = 1
393
294
 
394
295
 
395
296
if sys.platform == 'win32':
396
 
    if win32utils.winver == 'Windows 98':
397
 
        abspath = _win98_abspath
398
 
    else:
399
 
        abspath = _win32_abspath
 
297
    abspath = _win32_abspath
400
298
    realpath = _win32_realpath
401
299
    pathjoin = _win32_pathjoin
402
300
    normpath = _win32_normpath
410
308
        """Error handler for shutil.rmtree function [for win32]
411
309
        Helps to remove files and dirs marked as read-only.
412
310
        """
413
 
        exception = excinfo[1]
 
311
        type_, value = excinfo[:2]
414
312
        if function in (os.remove, os.rmdir) \
415
 
            and isinstance(exception, OSError) \
416
 
            and exception.errno == errno.EACCES:
417
 
            make_writable(path)
 
313
            and type_ == OSError \
 
314
            and value.errno == errno.EACCES:
 
315
            bzrlib.osutils.make_writable(path)
418
316
            function(path)
419
317
        else:
420
318
            raise
422
320
    def rmtree(path, ignore_errors=False, onerror=_win32_delete_readonly):
423
321
        """Replacer for shutil.rmtree: could remove readonly dirs/files"""
424
322
        return shutil.rmtree(path, ignore_errors, onerror)
425
 
 
426
 
    f = win32utils.get_unicode_argv     # special function or None
427
 
    if f is not None:
428
 
        get_unicode_argv = f
429
 
 
430
323
elif sys.platform == 'darwin':
431
324
    getcwd = _mac_getcwd
432
325
 
436
329
 
437
330
    This attempts to check both sys.stdout and sys.stdin to see
438
331
    what encoding they are in, and if that fails it falls back to
439
 
    osutils.get_user_encoding().
 
332
    bzrlib.user_encoding.
440
333
    The problem is that on Windows, locale.getpreferredencoding()
441
334
    is not the same encoding as that used by the console:
442
335
    http://mail.python.org/pipermail/python-list/2003-May/162357.html
444
337
    On my standard US Windows XP, the preferred encoding is
445
338
    cp1252, but the console is cp437
446
339
    """
447
 
    from bzrlib.trace import mutter
448
340
    output_encoding = getattr(sys.stdout, 'encoding', None)
449
341
    if not output_encoding:
450
342
        input_encoding = getattr(sys.stdin, 'encoding', None)
451
343
        if not input_encoding:
452
 
            output_encoding = get_user_encoding()
453
 
            mutter('encoding stdout as osutils.get_user_encoding() %r',
454
 
                   output_encoding)
 
344
            output_encoding = bzrlib.user_encoding
 
345
            mutter('encoding stdout as bzrlib.user_encoding %r', output_encoding)
455
346
        else:
456
347
            output_encoding = input_encoding
457
348
            mutter('encoding stdout as sys.stdin encoding %r', output_encoding)
458
349
    else:
459
350
        mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
460
 
    if output_encoding == 'cp0':
461
 
        # invalid encoding (cp0 means 'no codepage' on Windows)
462
 
        output_encoding = get_user_encoding()
463
 
        mutter('cp0 is invalid encoding.'
464
 
               ' encoding stdout as osutils.get_user_encoding() %r',
465
 
               output_encoding)
466
 
    # check encoding
467
 
    try:
468
 
        codecs.lookup(output_encoding)
469
 
    except LookupError:
470
 
        sys.stderr.write('bzr: warning:'
471
 
                         ' unknown terminal encoding %s.\n'
472
 
                         '  Using encoding %s instead.\n'
473
 
                         % (output_encoding, get_user_encoding())
474
 
                        )
475
 
        output_encoding = get_user_encoding()
476
 
 
477
351
    return output_encoding
478
352
 
479
353
 
480
354
def normalizepath(f):
481
 
    if getattr(os.path, 'realpath', None) is not None:
 
355
    if hasattr(os.path, 'realpath'):
482
356
        F = realpath
483
357
    else:
484
358
        F = abspath
489
363
        return pathjoin(F(p), e)
490
364
 
491
365
 
 
366
def backup_file(fn):
 
367
    """Copy a file to a backup.
 
368
 
 
369
    Backups are named in GNU-style, with a ~ suffix.
 
370
 
 
371
    If the file is already a backup, it's not copied.
 
372
    """
 
373
    if fn[-1] == '~':
 
374
        return
 
375
    bfn = fn + '~'
 
376
 
 
377
    if has_symlinks() and os.path.islink(fn):
 
378
        target = os.readlink(fn)
 
379
        os.symlink(target, bfn)
 
380
        return
 
381
    inf = file(fn, 'rb')
 
382
    try:
 
383
        content = inf.read()
 
384
    finally:
 
385
        inf.close()
 
386
    
 
387
    outf = file(bfn, 'wb')
 
388
    try:
 
389
        outf.write(content)
 
390
    finally:
 
391
        outf.close()
 
392
 
 
393
 
492
394
def isdir(f):
493
395
    """True if f is an accessible directory."""
494
396
    try:
513
415
 
514
416
def is_inside(dir, fname):
515
417
    """True if fname is inside dir.
516
 
 
 
418
    
517
419
    The parameters should typically be passed to osutils.normpath first, so
518
420
    that . and .. and repeated slashes are eliminated, and the separators
519
421
    are canonical for the platform.
520
 
 
521
 
    The empty string as a dir name is taken as top-of-tree and matches
 
422
    
 
423
    The empty string as a dir name is taken as top-of-tree and matches 
522
424
    everything.
 
425
    
 
426
    >>> is_inside('src', pathjoin('src', 'foo.c'))
 
427
    True
 
428
    >>> is_inside('src', 'srccontrol')
 
429
    False
 
430
    >>> is_inside('src', pathjoin('src', 'a', 'a', 'a', 'foo.c'))
 
431
    True
 
432
    >>> is_inside('foo.c', 'foo.c')
 
433
    True
 
434
    >>> is_inside('foo.c', '')
 
435
    False
 
436
    >>> is_inside('', 'foo.c')
 
437
    True
523
438
    """
524
 
    # XXX: Most callers of this can actually do something smarter by
 
439
    # XXX: Most callers of this can actually do something smarter by 
525
440
    # looking at the inventory
526
441
    if dir == fname:
527
442
        return True
528
 
 
 
443
    
529
444
    if dir == '':
530
445
        return True
531
446
 
540
455
    for dirname in dir_list:
541
456
        if is_inside(dirname, fname):
542
457
            return True
543
 
    return False
 
458
    else:
 
459
        return False
544
460
 
545
461
 
546
462
def is_inside_or_parent_of_any(dir_list, fname):
548
464
    for dirname in dir_list:
549
465
        if is_inside(dirname, fname) or is_inside(fname, dirname):
550
466
            return True
551
 
    return False
552
 
 
553
 
 
554
 
def pumpfile(from_file, to_file, read_length=-1, buff_size=32768,
555
 
             report_activity=None, direction='read'):
556
 
    """Copy contents of one file to another.
557
 
 
558
 
    The read_length can either be -1 to read to end-of-file (EOF) or
559
 
    it can specify the maximum number of bytes to read.
560
 
 
561
 
    The buff_size represents the maximum size for each read operation
562
 
    performed on from_file.
563
 
 
564
 
    :param report_activity: Call this as bytes are read, see
565
 
        Transport._report_activity
566
 
    :param direction: Will be passed to report_activity
567
 
 
568
 
    :return: The number of bytes copied.
569
 
    """
570
 
    length = 0
571
 
    if read_length >= 0:
572
 
        # read specified number of bytes
573
 
 
574
 
        while read_length > 0:
575
 
            num_bytes_to_read = min(read_length, buff_size)
576
 
 
577
 
            block = from_file.read(num_bytes_to_read)
578
 
            if not block:
579
 
                # EOF reached
580
 
                break
581
 
            if report_activity is not None:
582
 
                report_activity(len(block), direction)
583
 
            to_file.write(block)
584
 
 
585
 
            actual_bytes_read = len(block)
586
 
            read_length -= actual_bytes_read
587
 
            length += actual_bytes_read
588
467
    else:
589
 
        # read to EOF
590
 
        while True:
591
 
            block = from_file.read(buff_size)
592
 
            if not block:
593
 
                # EOF reached
594
 
                break
595
 
            if report_activity is not None:
596
 
                report_activity(len(block), direction)
597
 
            to_file.write(block)
598
 
            length += len(block)
599
 
    return length
600
 
 
601
 
 
602
 
def pump_string_file(bytes, file_handle, segment_size=None):
603
 
    """Write bytes to file_handle in many smaller writes.
604
 
 
605
 
    :param bytes: The string to write.
606
 
    :param file_handle: The file to write to.
607
 
    """
608
 
    # Write data in chunks rather than all at once, because very large
609
 
    # writes fail on some platforms (e.g. Windows with SMB  mounted
610
 
    # drives).
611
 
    if not segment_size:
612
 
        segment_size = 5242880 # 5MB
613
 
    segments = range(len(bytes) / segment_size + 1)
614
 
    write = file_handle.write
615
 
    for segment_index in segments:
616
 
        segment = buffer(bytes, segment_index * segment_size, segment_size)
617
 
        write(segment)
 
468
        return False
 
469
 
 
470
 
 
471
def pumpfile(fromfile, tofile):
 
472
    """Copy contents of one file to another."""
 
473
    BUFSIZE = 32768
 
474
    while True:
 
475
        b = fromfile.read(BUFSIZE)
 
476
        if not b:
 
477
            break
 
478
        tofile.write(b)
618
479
 
619
480
 
620
481
def file_iterator(input_file, readsize=32768):
626
487
 
627
488
 
628
489
def sha_file(f):
629
 
    """Calculate the hexdigest of an open file.
630
 
 
631
 
    The file cursor should be already at the start.
632
 
    """
633
 
    s = sha()
 
490
    if hasattr(f, 'tell'):
 
491
        assert f.tell() == 0
 
492
    s = sha.new()
634
493
    BUFSIZE = 128<<10
635
494
    while True:
636
495
        b = f.read(BUFSIZE)
640
499
    return s.hexdigest()
641
500
 
642
501
 
643
 
def size_sha_file(f):
644
 
    """Calculate the size and hexdigest of an open file.
645
 
 
646
 
    The file cursor should be already at the start and
647
 
    the caller is responsible for closing the file afterwards.
648
 
    """
649
 
    size = 0
650
 
    s = sha()
651
 
    BUFSIZE = 128<<10
652
 
    while True:
653
 
        b = f.read(BUFSIZE)
654
 
        if not b:
655
 
            break
656
 
        size += len(b)
657
 
        s.update(b)
658
 
    return size, s.hexdigest()
659
 
 
660
 
 
661
 
def sha_file_by_name(fname):
662
 
    """Calculate the SHA1 of a file by reading the full text"""
663
 
    s = sha()
664
 
    f = os.open(fname, os.O_RDONLY | O_BINARY)
665
 
    try:
666
 
        while True:
667
 
            b = os.read(f, 1<<16)
668
 
            if not b:
669
 
                return s.hexdigest()
670
 
            s.update(b)
671
 
    finally:
672
 
        os.close(f)
673
 
 
674
 
 
675
 
def sha_strings(strings, _factory=sha):
 
502
 
 
503
def sha_strings(strings):
676
504
    """Return the sha-1 of concatenation of strings"""
677
 
    s = _factory()
 
505
    s = sha.new()
678
506
    map(s.update, strings)
679
507
    return s.hexdigest()
680
508
 
681
509
 
682
 
def sha_string(f, _factory=sha):
683
 
    return _factory(f).hexdigest()
 
510
def sha_string(f):
 
511
    s = sha.new()
 
512
    s.update(f)
 
513
    return s.hexdigest()
684
514
 
685
515
 
686
516
def fingerprint_file(f):
 
517
    s = sha.new()
687
518
    b = f.read()
688
 
    return {'size': len(b),
689
 
            'sha1': sha(b).hexdigest()}
 
519
    s.update(b)
 
520
    size = len(b)
 
521
    return {'size': size,
 
522
            'sha1': s.hexdigest()}
690
523
 
691
524
 
692
525
def compare_files(a, b):
703
536
 
704
537
def local_time_offset(t=None):
705
538
    """Return offset of local zone from GMT, either at present or at time t."""
706
 
    if t is None:
 
539
    # python2.3 localtime() can't take None
 
540
    if t == None:
707
541
        t = time.time()
708
 
    offset = datetime.fromtimestamp(t) - datetime.utcfromtimestamp(t)
709
 
    return offset.days * 86400 + offset.seconds
710
 
 
711
 
weekdays = ['Mon', 'Tue', 'Wed', 'Thu', 'Fri', 'Sat', 'Sun']
712
 
_default_format_by_weekday_num = [wd + " %Y-%m-%d %H:%M:%S" for wd in weekdays]
713
 
 
714
 
 
715
 
def format_date(t, offset=0, timezone='original', date_fmt=None,
 
542
        
 
543
    if time.localtime(t).tm_isdst and time.daylight:
 
544
        return -time.altzone
 
545
    else:
 
546
        return -time.timezone
 
547
 
 
548
    
 
549
def format_date(t, offset=0, timezone='original', date_fmt=None, 
716
550
                show_offset=True):
717
 
    """Return a formatted date string.
718
 
 
719
 
    :param t: Seconds since the epoch.
720
 
    :param offset: Timezone offset in seconds east of utc.
721
 
    :param timezone: How to display the time: 'utc', 'original' for the
722
 
         timezone specified by offset, or 'local' for the process's current
723
 
         timezone.
724
 
    :param date_fmt: strftime format.
725
 
    :param show_offset: Whether to append the timezone.
726
 
    """
727
 
    (date_fmt, tt, offset_str) = \
728
 
               _format_date(t, offset, timezone, date_fmt, show_offset)
729
 
    date_fmt = date_fmt.replace('%a', weekdays[tt[6]])
730
 
    date_str = time.strftime(date_fmt, tt)
731
 
    return date_str + offset_str
732
 
 
733
 
 
734
 
# Cache of formatted offset strings
735
 
_offset_cache = {}
736
 
 
737
 
 
738
 
def format_date_with_offset_in_original_timezone(t, offset=0,
739
 
    _cache=_offset_cache):
740
 
    """Return a formatted date string in the original timezone.
741
 
 
742
 
    This routine may be faster then format_date.
743
 
 
744
 
    :param t: Seconds since the epoch.
745
 
    :param offset: Timezone offset in seconds east of utc.
746
 
    """
747
 
    if offset is None:
748
 
        offset = 0
749
 
    tt = time.gmtime(t + offset)
750
 
    date_fmt = _default_format_by_weekday_num[tt[6]]
751
 
    date_str = time.strftime(date_fmt, tt)
752
 
    offset_str = _cache.get(offset, None)
753
 
    if offset_str is None:
754
 
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
755
 
        _cache[offset] = offset_str
756
 
    return date_str + offset_str
757
 
 
758
 
 
759
 
def format_local_date(t, offset=0, timezone='original', date_fmt=None,
760
 
                      show_offset=True):
761
 
    """Return an unicode date string formatted according to the current locale.
762
 
 
763
 
    :param t: Seconds since the epoch.
764
 
    :param offset: Timezone offset in seconds east of utc.
765
 
    :param timezone: How to display the time: 'utc', 'original' for the
766
 
         timezone specified by offset, or 'local' for the process's current
767
 
         timezone.
768
 
    :param date_fmt: strftime format.
769
 
    :param show_offset: Whether to append the timezone.
770
 
    """
771
 
    (date_fmt, tt, offset_str) = \
772
 
               _format_date(t, offset, timezone, date_fmt, show_offset)
773
 
    date_str = time.strftime(date_fmt, tt)
774
 
    if not isinstance(date_str, unicode):
775
 
        date_str = date_str.decode(get_user_encoding(), 'replace')
776
 
    return date_str + offset_str
777
 
 
778
 
 
779
 
def _format_date(t, offset, timezone, date_fmt, show_offset):
 
551
    ## TODO: Perhaps a global option to use either universal or local time?
 
552
    ## Or perhaps just let people set $TZ?
 
553
    assert isinstance(t, float)
 
554
    
780
555
    if timezone == 'utc':
781
556
        tt = time.gmtime(t)
782
557
        offset = 0
783
558
    elif timezone == 'original':
784
 
        if offset is None:
 
559
        if offset == None:
785
560
            offset = 0
786
561
        tt = time.gmtime(t + offset)
787
562
    elif timezone == 'local':
788
563
        tt = time.localtime(t)
789
564
        offset = local_time_offset(t)
790
565
    else:
791
 
        raise errors.UnsupportedTimezoneFormat(timezone)
 
566
        raise BzrError("unsupported timezone format %r" % timezone,
 
567
                       ['options are "utc", "original", "local"'])
792
568
    if date_fmt is None:
793
569
        date_fmt = "%a %Y-%m-%d %H:%M:%S"
794
570
    if show_offset:
795
571
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
796
572
    else:
797
573
        offset_str = ''
798
 
    return (date_fmt, tt, offset_str)
 
574
    return (time.strftime(date_fmt, tt) +  offset_str)
799
575
 
800
576
 
801
577
def compact_date(when):
802
578
    return time.strftime('%Y%m%d%H%M%S', time.gmtime(when))
803
 
 
804
 
 
805
 
def format_delta(delta):
806
 
    """Get a nice looking string for a time delta.
807
 
 
808
 
    :param delta: The time difference in seconds, can be positive or negative.
809
 
        positive indicates time in the past, negative indicates time in the
810
 
        future. (usually time.time() - stored_time)
811
 
    :return: String formatted to show approximate resolution
812
 
    """
813
 
    delta = int(delta)
814
 
    if delta >= 0:
815
 
        direction = 'ago'
816
 
    else:
817
 
        direction = 'in the future'
818
 
        delta = -delta
819
 
 
820
 
    seconds = delta
821
 
    if seconds < 90: # print seconds up to 90 seconds
822
 
        if seconds == 1:
823
 
            return '%d second %s' % (seconds, direction,)
824
 
        else:
825
 
            return '%d seconds %s' % (seconds, direction)
826
 
 
827
 
    minutes = int(seconds / 60)
828
 
    seconds -= 60 * minutes
829
 
    if seconds == 1:
830
 
        plural_seconds = ''
831
 
    else:
832
 
        plural_seconds = 's'
833
 
    if minutes < 90: # print minutes, seconds up to 90 minutes
834
 
        if minutes == 1:
835
 
            return '%d minute, %d second%s %s' % (
836
 
                    minutes, seconds, plural_seconds, direction)
837
 
        else:
838
 
            return '%d minutes, %d second%s %s' % (
839
 
                    minutes, seconds, plural_seconds, direction)
840
 
 
841
 
    hours = int(minutes / 60)
842
 
    minutes -= 60 * hours
843
 
    if minutes == 1:
844
 
        plural_minutes = ''
845
 
    else:
846
 
        plural_minutes = 's'
847
 
 
848
 
    if hours == 1:
849
 
        return '%d hour, %d minute%s %s' % (hours, minutes,
850
 
                                            plural_minutes, direction)
851
 
    return '%d hours, %d minute%s %s' % (hours, minutes,
852
 
                                         plural_minutes, direction)
 
579
    
 
580
 
853
581
 
854
582
def filesize(f):
855
583
    """Return size of given open file."""
865
593
except (NotImplementedError, AttributeError):
866
594
    # If python doesn't have os.urandom, or it doesn't work,
867
595
    # then try to first pull random data from /dev/urandom
868
 
    try:
 
596
    if os.path.exists("/dev/urandom"):
869
597
        rand_bytes = file('/dev/urandom', 'rb').read
870
598
    # Otherwise, use this hack as a last resort
871
 
    except (IOError, OSError):
 
599
    else:
872
600
        # not well seeded, but better than nothing
873
601
        def rand_bytes(n):
874
602
            import random
882
610
ALNUM = '0123456789abcdefghijklmnopqrstuvwxyz'
883
611
def rand_chars(num):
884
612
    """Return a random string of num alphanumeric characters
885
 
 
886
 
    The result only contains lowercase chars because it may be used on
 
613
    
 
614
    The result only contains lowercase chars because it may be used on 
887
615
    case-insensitive filesystems.
888
616
    """
889
617
    s = ''
896
624
## decomposition (might be too tricksy though.)
897
625
 
898
626
def splitpath(p):
899
 
    """Turn string into list of parts."""
 
627
    """Turn string into list of parts.
 
628
 
 
629
    >>> splitpath('a')
 
630
    ['a']
 
631
    >>> splitpath('a/b')
 
632
    ['a', 'b']
 
633
    >>> splitpath('a/./b')
 
634
    ['a', 'b']
 
635
    >>> splitpath('a/.b')
 
636
    ['a', '.b']
 
637
    >>> splitpath('a/../b')
 
638
    Traceback (most recent call last):
 
639
    ...
 
640
    BzrError: sorry, '..' not allowed in path
 
641
    """
 
642
    assert isinstance(p, types.StringTypes)
 
643
 
900
644
    # split on either delimiter because people might use either on
901
645
    # Windows
902
646
    ps = re.split(r'[\\/]', p)
904
648
    rps = []
905
649
    for f in ps:
906
650
        if f == '..':
907
 
            raise errors.BzrError("sorry, %r not allowed in path" % f)
 
651
            raise BzrError("sorry, %r not allowed in path" % f)
908
652
        elif (f == '.') or (f == ''):
909
653
            pass
910
654
        else:
911
655
            rps.append(f)
912
656
    return rps
913
657
 
914
 
 
915
658
def joinpath(p):
 
659
    assert isinstance(p, list)
916
660
    for f in p:
917
 
        if (f == '..') or (f is None) or (f == ''):
918
 
            raise errors.BzrError("sorry, %r not allowed in path" % f)
 
661
        if (f == '..') or (f == None) or (f == ''):
 
662
            raise BzrError("sorry, %r not allowed in path" % f)
919
663
    return pathjoin(*p)
920
664
 
921
665
 
922
 
def parent_directories(filename):
923
 
    """Return the list of parent directories, deepest first.
924
 
    
925
 
    For example, parent_directories("a/b/c") -> ["a/b", "a"].
926
 
    """
927
 
    parents = []
928
 
    parts = splitpath(dirname(filename))
929
 
    while parts:
930
 
        parents.append(joinpath(parts))
931
 
        parts.pop()
932
 
    return parents
933
 
 
934
 
 
935
 
_extension_load_failures = []
936
 
 
937
 
 
938
 
def failed_to_load_extension(exception):
939
 
    """Handle failing to load a binary extension.
940
 
 
941
 
    This should be called from the ImportError block guarding the attempt to
942
 
    import the native extension.  If this function returns, the pure-Python
943
 
    implementation should be loaded instead::
944
 
 
945
 
    >>> try:
946
 
    >>>     import bzrlib._fictional_extension_pyx
947
 
    >>> except ImportError, e:
948
 
    >>>     bzrlib.osutils.failed_to_load_extension(e)
949
 
    >>>     import bzrlib._fictional_extension_py
950
 
    """
951
 
    # NB: This docstring is just an example, not a doctest, because doctest
952
 
    # currently can't cope with the use of lazy imports in this namespace --
953
 
    # mbp 20090729
954
 
    
955
 
    # This currently doesn't report the failure at the time it occurs, because
956
 
    # they tend to happen very early in startup when we can't check config
957
 
    # files etc, and also we want to report all failures but not spam the user
958
 
    # with 10 warnings.
959
 
    from bzrlib import trace
960
 
    exception_str = str(exception)
961
 
    if exception_str not in _extension_load_failures:
962
 
        trace.mutter("failed to load compiled extension: %s" % exception_str)
963
 
        _extension_load_failures.append(exception_str)
964
 
 
965
 
 
966
 
def report_extension_load_failures():
967
 
    if not _extension_load_failures:
968
 
        return
969
 
    from bzrlib.config import GlobalConfig
970
 
    if GlobalConfig().get_user_option_as_bool('ignore_missing_extensions'):
971
 
        return
972
 
    # the warnings framework should by default show this only once
973
 
    from bzrlib.trace import warning
974
 
    warning(
975
 
        "bzr: warning: some compiled extensions could not be loaded; "
976
 
        "see <https://answers.launchpad.net/bzr/+faq/703>")
977
 
    # we no longer show the specific missing extensions here, because it makes
978
 
    # the message too long and scary - see
979
 
    # https://bugs.launchpad.net/bzr/+bug/430529
980
 
 
981
 
 
982
 
try:
983
 
    from bzrlib._chunks_to_lines_pyx import chunks_to_lines
984
 
except ImportError, e:
985
 
    failed_to_load_extension(e)
986
 
    from bzrlib._chunks_to_lines_py import chunks_to_lines
987
 
 
 
666
@deprecated_function(zero_nine)
 
667
def appendpath(p1, p2):
 
668
    if p1 == '':
 
669
        return p2
 
670
    else:
 
671
        return pathjoin(p1, p2)
 
672
    
988
673
 
989
674
def split_lines(s):
990
675
    """Split s into lines, but without removing the newline characters."""
991
 
    # Trivially convert a fulltext into a 'chunked' representation, and let
992
 
    # chunks_to_lines do the heavy lifting.
993
 
    if isinstance(s, str):
994
 
        # chunks_to_lines only supports 8-bit strings
995
 
        return chunks_to_lines([s])
996
 
    else:
997
 
        return _split_lines(s)
998
 
 
999
 
 
1000
 
def _split_lines(s):
1001
 
    """Split s into lines, but without removing the newline characters.
1002
 
 
1003
 
    This supports Unicode or plain string objects.
1004
 
    """
1005
676
    lines = s.split('\n')
1006
677
    result = [line + '\n' for line in lines[:-1]]
1007
678
    if lines[-1]:
1016
687
def link_or_copy(src, dest):
1017
688
    """Hardlink a file, or copy it if it can't be hardlinked."""
1018
689
    if not hardlinks_good():
1019
 
        shutil.copyfile(src, dest)
 
690
        copyfile(src, dest)
1020
691
        return
1021
692
    try:
1022
693
        os.link(src, dest)
1023
694
    except (OSError, IOError), e:
1024
695
        if e.errno != errno.EXDEV:
1025
696
            raise
1026
 
        shutil.copyfile(src, dest)
1027
 
 
1028
 
 
1029
 
def delete_any(path):
1030
 
    """Delete a file, symlink or directory.  
1031
 
    
1032
 
    Will delete even if readonly.
1033
 
    """
 
697
        copyfile(src, dest)
 
698
 
 
699
def delete_any(full_path):
 
700
    """Delete a file or directory."""
1034
701
    try:
1035
 
       _delete_file_or_dir(path)
1036
 
    except (OSError, IOError), e:
1037
 
        if e.errno in (errno.EPERM, errno.EACCES):
1038
 
            # make writable and try again
1039
 
            try:
1040
 
                make_writable(path)
1041
 
            except (OSError, IOError):
1042
 
                pass
1043
 
            _delete_file_or_dir(path)
1044
 
        else:
 
702
        os.unlink(full_path)
 
703
    except OSError, e:
 
704
    # We may be renaming a dangling inventory id
 
705
        if e.errno not in (errno.EISDIR, errno.EACCES, errno.EPERM):
1045
706
            raise
1046
 
 
1047
 
 
1048
 
def _delete_file_or_dir(path):
1049
 
    # Look Before You Leap (LBYL) is appropriate here instead of Easier to Ask for
1050
 
    # Forgiveness than Permission (EAFP) because:
1051
 
    # - root can damage a solaris file system by using unlink,
1052
 
    # - unlink raises different exceptions on different OSes (linux: EISDIR, win32:
1053
 
    #   EACCES, OSX: EPERM) when invoked on a directory.
1054
 
    if isdir(path): # Takes care of symlinks
1055
 
        os.rmdir(path)
1056
 
    else:
1057
 
        os.unlink(path)
 
707
        os.rmdir(full_path)
1058
708
 
1059
709
 
1060
710
def has_symlinks():
1061
 
    if getattr(os, 'symlink', None) is not None:
1062
 
        return True
1063
 
    else:
1064
 
        return False
1065
 
 
1066
 
 
1067
 
def has_hardlinks():
1068
 
    if getattr(os, 'link', None) is not None:
1069
 
        return True
1070
 
    else:
1071
 
        return False
1072
 
 
1073
 
 
1074
 
def host_os_dereferences_symlinks():
1075
 
    return (has_symlinks()
1076
 
            and sys.platform not in ('cygwin', 'win32'))
1077
 
 
1078
 
 
1079
 
def readlink(abspath):
1080
 
    """Return a string representing the path to which the symbolic link points.
1081
 
 
1082
 
    :param abspath: The link absolute unicode path.
1083
 
 
1084
 
    This his guaranteed to return the symbolic link in unicode in all python
1085
 
    versions.
1086
 
    """
1087
 
    link = abspath.encode(_fs_enc)
1088
 
    target = os.readlink(link)
1089
 
    target = target.decode(_fs_enc)
1090
 
    return target
1091
 
 
 
711
    if hasattr(os, 'symlink'):
 
712
        return True
 
713
    else:
 
714
        return False
 
715
        
1092
716
 
1093
717
def contains_whitespace(s):
1094
718
    """True if there are any whitespace characters in s."""
1095
 
    # string.whitespace can include '\xa0' in certain locales, because it is
1096
 
    # considered "non-breaking-space" as part of ISO-8859-1. But it
1097
 
    # 1) Isn't a breaking whitespace
1098
 
    # 2) Isn't one of ' \t\r\n' which are characters we sometimes use as
1099
 
    #    separators
1100
 
    # 3) '\xa0' isn't unicode safe since it is >128.
1101
 
 
1102
 
    # This should *not* be a unicode set of characters in case the source
1103
 
    # string is not a Unicode string. We can auto-up-cast the characters since
1104
 
    # they are ascii, but we don't want to auto-up-cast the string in case it
1105
 
    # is utf-8
1106
 
    for ch in ' \t\n\r\v\f':
 
719
    for ch in string.whitespace:
1107
720
        if ch in s:
1108
721
            return True
1109
722
    else:
1130
743
    avoids that problem.
1131
744
    """
1132
745
 
1133
 
    if len(base) < MIN_ABS_PATHLENGTH:
1134
 
        # must have space for e.g. a drive letter
1135
 
        raise ValueError('%r is too short to calculate a relative path'
1136
 
            % (base,))
 
746
    assert len(base) >= MIN_ABS_PATHLENGTH, ('Length of base must be equal or'
 
747
        ' exceed the platform minimum length (which is %d)' % 
 
748
        MIN_ABS_PATHLENGTH)
1137
749
 
1138
750
    rp = abspath(path)
1139
751
 
1140
752
    s = []
1141
753
    head = rp
1142
 
    while True:
1143
 
        if len(head) <= len(base) and head != base:
1144
 
            raise errors.PathNotChild(rp, base)
 
754
    while len(head) >= len(base):
1145
755
        if head == base:
1146
756
            break
1147
 
        head, tail = split(head)
 
757
        head, tail = os.path.split(head)
1148
758
        if tail:
1149
 
            s.append(tail)
 
759
            s.insert(0, tail)
 
760
    else:
 
761
        raise PathNotChild(rp, base)
1150
762
 
1151
763
    if s:
1152
 
        return pathjoin(*reversed(s))
 
764
        return pathjoin(*s)
1153
765
    else:
1154
766
        return ''
1155
767
 
1156
768
 
1157
 
def _cicp_canonical_relpath(base, path):
1158
 
    """Return the canonical path relative to base.
1159
 
 
1160
 
    Like relpath, but on case-insensitive-case-preserving file-systems, this
1161
 
    will return the relpath as stored on the file-system rather than in the
1162
 
    case specified in the input string, for all existing portions of the path.
1163
 
 
1164
 
    This will cause O(N) behaviour if called for every path in a tree; if you
1165
 
    have a number of paths to convert, you should use canonical_relpaths().
1166
 
    """
1167
 
    # TODO: it should be possible to optimize this for Windows by using the
1168
 
    # win32 API FindFiles function to look for the specified name - but using
1169
 
    # os.listdir() still gives us the correct, platform agnostic semantics in
1170
 
    # the short term.
1171
 
 
1172
 
    rel = relpath(base, path)
1173
 
    # '.' will have been turned into ''
1174
 
    if not rel:
1175
 
        return rel
1176
 
 
1177
 
    abs_base = abspath(base)
1178
 
    current = abs_base
1179
 
    _listdir = os.listdir
1180
 
 
1181
 
    # use an explicit iterator so we can easily consume the rest on early exit.
1182
 
    bit_iter = iter(rel.split('/'))
1183
 
    for bit in bit_iter:
1184
 
        lbit = bit.lower()
1185
 
        try:
1186
 
            next_entries = _listdir(current)
1187
 
        except OSError: # enoent, eperm, etc
1188
 
            # We can't find this in the filesystem, so just append the
1189
 
            # remaining bits.
1190
 
            current = pathjoin(current, bit, *list(bit_iter))
1191
 
            break
1192
 
        for look in next_entries:
1193
 
            if lbit == look.lower():
1194
 
                current = pathjoin(current, look)
1195
 
                break
1196
 
        else:
1197
 
            # got to the end, nothing matched, so we just return the
1198
 
            # non-existing bits as they were specified (the filename may be
1199
 
            # the target of a move, for example).
1200
 
            current = pathjoin(current, bit, *list(bit_iter))
1201
 
            break
1202
 
    return current[len(abs_base):].lstrip('/')
1203
 
 
1204
 
# XXX - TODO - we need better detection/integration of case-insensitive
1205
 
# file-systems; Linux often sees FAT32 devices (or NFS-mounted OSX
1206
 
# filesystems), for example, so could probably benefit from the same basic
1207
 
# support there.  For now though, only Windows and OSX get that support, and
1208
 
# they get it for *all* file-systems!
1209
 
if sys.platform in ('win32', 'darwin'):
1210
 
    canonical_relpath = _cicp_canonical_relpath
1211
 
else:
1212
 
    canonical_relpath = relpath
1213
 
 
1214
 
def canonical_relpaths(base, paths):
1215
 
    """Create an iterable to canonicalize a sequence of relative paths.
1216
 
 
1217
 
    The intent is for this implementation to use a cache, vastly speeding
1218
 
    up multiple transformations in the same directory.
1219
 
    """
1220
 
    # but for now, we haven't optimized...
1221
 
    return [canonical_relpath(base, p) for p in paths]
1222
 
 
1223
769
def safe_unicode(unicode_or_utf8_string):
1224
770
    """Coerce unicode_or_utf8_string into unicode.
1225
771
 
1226
772
    If it is unicode, it is returned.
1227
 
    Otherwise it is decoded from utf-8. If decoding fails, the exception is
1228
 
    wrapped in a BzrBadParameterNotUnicode exception.
 
773
    Otherwise it is decoded from utf-8. If a decoding error
 
774
    occurs, it is wrapped as a If the decoding fails, the exception is wrapped 
 
775
    as a BzrBadParameter exception.
1229
776
    """
1230
777
    if isinstance(unicode_or_utf8_string, unicode):
1231
778
        return unicode_or_utf8_string
1232
779
    try:
1233
780
        return unicode_or_utf8_string.decode('utf8')
1234
781
    except UnicodeDecodeError:
1235
 
        raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
1236
 
 
1237
 
 
1238
 
def safe_utf8(unicode_or_utf8_string):
1239
 
    """Coerce unicode_or_utf8_string to a utf8 string.
1240
 
 
1241
 
    If it is a str, it is returned.
1242
 
    If it is Unicode, it is encoded into a utf-8 string.
1243
 
    """
1244
 
    if isinstance(unicode_or_utf8_string, str):
1245
 
        # TODO: jam 20070209 This is overkill, and probably has an impact on
1246
 
        #       performance if we are dealing with lots of apis that want a
1247
 
        #       utf-8 revision id
1248
 
        try:
1249
 
            # Make sure it is a valid utf-8 string
1250
 
            unicode_or_utf8_string.decode('utf-8')
1251
 
        except UnicodeDecodeError:
1252
 
            raise errors.BzrBadParameterNotUnicode(unicode_or_utf8_string)
1253
 
        return unicode_or_utf8_string
1254
 
    return unicode_or_utf8_string.encode('utf-8')
1255
 
 
1256
 
 
1257
 
_revision_id_warning = ('Unicode revision ids were deprecated in bzr 0.15.'
1258
 
                        ' Revision id generators should be creating utf8'
1259
 
                        ' revision ids.')
1260
 
 
1261
 
 
1262
 
def safe_revision_id(unicode_or_utf8_string, warn=True):
1263
 
    """Revision ids should now be utf8, but at one point they were unicode.
1264
 
 
1265
 
    :param unicode_or_utf8_string: A possibly Unicode revision_id. (can also be
1266
 
        utf8 or None).
1267
 
    :param warn: Functions that are sanitizing user data can set warn=False
1268
 
    :return: None or a utf8 revision id.
1269
 
    """
1270
 
    if (unicode_or_utf8_string is None
1271
 
        or unicode_or_utf8_string.__class__ == str):
1272
 
        return unicode_or_utf8_string
1273
 
    if warn:
1274
 
        symbol_versioning.warn(_revision_id_warning, DeprecationWarning,
1275
 
                               stacklevel=2)
1276
 
    return cache_utf8.encode(unicode_or_utf8_string)
1277
 
 
1278
 
 
1279
 
_file_id_warning = ('Unicode file ids were deprecated in bzr 0.15. File id'
1280
 
                    ' generators should be creating utf8 file ids.')
1281
 
 
1282
 
 
1283
 
def safe_file_id(unicode_or_utf8_string, warn=True):
1284
 
    """File ids should now be utf8, but at one point they were unicode.
1285
 
 
1286
 
    This is the same as safe_utf8, except it uses the cached encode functions
1287
 
    to save a little bit of performance.
1288
 
 
1289
 
    :param unicode_or_utf8_string: A possibly Unicode file_id. (can also be
1290
 
        utf8 or None).
1291
 
    :param warn: Functions that are sanitizing user data can set warn=False
1292
 
    :return: None or a utf8 file id.
1293
 
    """
1294
 
    if (unicode_or_utf8_string is None
1295
 
        or unicode_or_utf8_string.__class__ == str):
1296
 
        return unicode_or_utf8_string
1297
 
    if warn:
1298
 
        symbol_versioning.warn(_file_id_warning, DeprecationWarning,
1299
 
                               stacklevel=2)
1300
 
    return cache_utf8.encode(unicode_or_utf8_string)
 
782
        raise BzrBadParameterNotUnicode(unicode_or_utf8_string)
1301
783
 
1302
784
 
1303
785
_platform_normalizes_filenames = False
1318
800
 
1319
801
    On platforms where the system normalizes filenames (Mac OSX),
1320
802
    you can access a file by any path which will normalize correctly.
1321
 
    On platforms where the system does not normalize filenames
 
803
    On platforms where the system does not normalize filenames 
1322
804
    (Windows, Linux), you have to access a file by its exact path.
1323
805
 
1324
 
    Internally, bzr only supports NFC normalization, since that is
 
806
    Internally, bzr only supports NFC/NFKC normalization, since that is 
1325
807
    the standard for XML documents.
1326
808
 
1327
809
    So return the normalized path, and a flag indicating if the file
1328
810
    can be accessed by that path.
1329
811
    """
1330
812
 
1331
 
    return unicodedata.normalize('NFC', unicode(path)), True
 
813
    return unicodedata.normalize('NFKC', unicode(path)), True
1332
814
 
1333
815
 
1334
816
def _inaccessible_normalized_filename(path):
1335
817
    __doc__ = _accessible_normalized_filename.__doc__
1336
818
 
1337
 
    normalized = unicodedata.normalize('NFC', unicode(path))
 
819
    normalized = unicodedata.normalize('NFKC', unicode(path))
1338
820
    return normalized, normalized == path
1339
821
 
1340
822
 
1344
826
    normalized_filename = _inaccessible_normalized_filename
1345
827
 
1346
828
 
1347
 
default_terminal_width = 80
1348
 
"""The default terminal width for ttys.
1349
 
 
1350
 
This is defined so that higher levels can share a common fallback value when
1351
 
terminal_width() returns None.
1352
 
"""
1353
 
 
1354
 
 
1355
829
def terminal_width():
1356
 
    """Return terminal width.
1357
 
 
1358
 
    None is returned if the width can't established precisely.
1359
 
 
1360
 
    The rules are:
1361
 
    - if BZR_COLUMNS is set, returns its value
1362
 
    - if there is no controlling terminal, returns None
1363
 
    - if COLUMNS is set, returns its value,
1364
 
 
1365
 
    From there, we need to query the OS to get the size of the controlling
1366
 
    terminal.
1367
 
 
1368
 
    Unices:
1369
 
    - get termios.TIOCGWINSZ
1370
 
    - if an error occurs or a negative value is obtained, returns None
1371
 
 
1372
 
    Windows:
1373
 
    
1374
 
    - win32utils.get_console_size() decides,
1375
 
    - returns None on error (provided default value)
1376
 
    """
1377
 
 
1378
 
    # If BZR_COLUMNS is set, take it, user is always right
1379
 
    try:
1380
 
        return int(os.environ['BZR_COLUMNS'])
1381
 
    except (KeyError, ValueError):
1382
 
        pass
1383
 
 
1384
 
    isatty = getattr(sys.stdout, 'isatty', None)
1385
 
    if  isatty is None or not isatty():
1386
 
        # Don't guess, setting BZR_COLUMNS is the recommended way to override.
1387
 
        return None
1388
 
 
1389
 
    # If COLUMNS is set, take it, the terminal knows better (even inside a
1390
 
    # given terminal, the application can decide to set COLUMNS to a lower
1391
 
    # value (splitted screen) or a bigger value (scroll bars))
1392
 
    try:
1393
 
        return int(os.environ['COLUMNS'])
1394
 
    except (KeyError, ValueError):
1395
 
        pass
1396
 
 
1397
 
    width, height = _terminal_size(None, None)
1398
 
    if width <= 0:
1399
 
        # Consider invalid values as meaning no width
1400
 
        return None
1401
 
 
1402
 
    return width
1403
 
 
1404
 
 
1405
 
def _win32_terminal_size(width, height):
1406
 
    width, height = win32utils.get_console_size(defaultx=width, defaulty=height)
1407
 
    return width, height
1408
 
 
1409
 
 
1410
 
def _ioctl_terminal_size(width, height):
 
830
    """Return estimated terminal width."""
 
831
    if sys.platform == 'win32':
 
832
        import bzrlib.win32console
 
833
        return bzrlib.win32console.get_console_size()[0]
 
834
    width = 0
1411
835
    try:
1412
836
        import struct, fcntl, termios
1413
837
        s = struct.pack('HHHH', 0, 0, 0, 0)
1414
838
        x = fcntl.ioctl(1, termios.TIOCGWINSZ, s)
1415
 
        height, width = struct.unpack('HHHH', x)[0:2]
1416
 
    except (IOError, AttributeError):
 
839
        width = struct.unpack('HHHH', x)[1]
 
840
    except IOError:
1417
841
        pass
1418
 
    return width, height
1419
 
 
1420
 
_terminal_size = None
1421
 
"""Returns the terminal size as (width, height).
1422
 
 
1423
 
:param width: Default value for width.
1424
 
:param height: Default value for height.
1425
 
 
1426
 
This is defined specifically for each OS and query the size of the controlling
1427
 
terminal. If any error occurs, the provided default values should be returned.
1428
 
"""
1429
 
if sys.platform == 'win32':
1430
 
    _terminal_size = _win32_terminal_size
1431
 
else:
1432
 
    _terminal_size = _ioctl_terminal_size
1433
 
 
1434
 
 
1435
 
def _terminal_size_changed(signum, frame):
1436
 
    """Set COLUMNS upon receiving a SIGnal for WINdow size CHange."""
1437
 
    width, height = _terminal_size(None, None)
1438
 
    if width is not None:
1439
 
        os.environ['COLUMNS'] = str(width)
1440
 
 
1441
 
if sys.platform == 'win32':
1442
 
    # Martin (gz) mentioned WINDOW_BUFFER_SIZE_RECORD from ReadConsoleInput but
1443
 
    # I've no idea how to plug that in the current design -- vila 20091216
1444
 
    pass
1445
 
else:
1446
 
    signal.signal(signal.SIGWINCH, _terminal_size_changed)
1447
 
 
 
842
    if width <= 0:
 
843
        try:
 
844
            width = int(os.environ['COLUMNS'])
 
845
        except:
 
846
            pass
 
847
    if width <= 0:
 
848
        width = 80
 
849
 
 
850
    return width
1448
851
 
1449
852
def supports_executable():
1450
853
    return sys.platform != "win32"
1451
854
 
1452
855
 
1453
 
def supports_posix_readonly():
1454
 
    """Return True if 'readonly' has POSIX semantics, False otherwise.
1455
 
 
1456
 
    Notably, a win32 readonly file cannot be deleted, unlike POSIX where the
1457
 
    directory controls creation/deletion, etc.
1458
 
 
1459
 
    And under win32, readonly means that the directory itself cannot be
1460
 
    deleted.  The contents of a readonly directory can be changed, unlike POSIX
1461
 
    where files in readonly directories cannot be added, deleted or renamed.
1462
 
    """
1463
 
    return sys.platform != "win32"
1464
 
 
1465
 
 
1466
 
def set_or_unset_env(env_variable, value):
1467
 
    """Modify the environment, setting or removing the env_variable.
1468
 
 
1469
 
    :param env_variable: The environment variable in question
1470
 
    :param value: The value to set the environment to. If None, then
1471
 
        the variable will be removed.
1472
 
    :return: The original value of the environment variable.
1473
 
    """
1474
 
    orig_val = os.environ.get(env_variable)
1475
 
    if value is None:
1476
 
        if orig_val is not None:
1477
 
            del os.environ[env_variable]
1478
 
    else:
1479
 
        if isinstance(value, unicode):
1480
 
            value = value.encode(get_user_encoding())
1481
 
        os.environ[env_variable] = value
1482
 
    return orig_val
1483
 
 
1484
 
 
1485
856
_validWin32PathRE = re.compile(r'^([A-Za-z]:[/\\])?[^:<>*"?\|]*$')
1486
857
 
1487
858
 
1488
859
def check_legal_path(path):
1489
 
    """Check whether the supplied path is legal.
 
860
    """Check whether the supplied path is legal.  
1490
861
    This is only required on Windows, so we don't test on other platforms
1491
862
    right now.
1492
863
    """
1493
864
    if sys.platform != "win32":
1494
865
        return
1495
866
    if _validWin32PathRE.match(path) is None:
1496
 
        raise errors.IllegalPath(path)
1497
 
 
1498
 
 
1499
 
_WIN32_ERROR_DIRECTORY = 267 # Similar to errno.ENOTDIR
1500
 
 
1501
 
def _is_error_enotdir(e):
1502
 
    """Check if this exception represents ENOTDIR.
1503
 
 
1504
 
    Unfortunately, python is very inconsistent about the exception
1505
 
    here. The cases are:
1506
 
      1) Linux, Mac OSX all versions seem to set errno == ENOTDIR
1507
 
      2) Windows, Python2.4, uses errno == ERROR_DIRECTORY (267)
1508
 
         which is the windows error code.
1509
 
      3) Windows, Python2.5 uses errno == EINVAL and
1510
 
         winerror == ERROR_DIRECTORY
1511
 
 
1512
 
    :param e: An Exception object (expected to be OSError with an errno
1513
 
        attribute, but we should be able to cope with anything)
1514
 
    :return: True if this represents an ENOTDIR error. False otherwise.
1515
 
    """
1516
 
    en = getattr(e, 'errno', None)
1517
 
    if (en == errno.ENOTDIR
1518
 
        or (sys.platform == 'win32'
1519
 
            and (en == _WIN32_ERROR_DIRECTORY
1520
 
                 or (en == errno.EINVAL
1521
 
                     and getattr(e, 'winerror', None) == _WIN32_ERROR_DIRECTORY)
1522
 
        ))):
1523
 
        return True
1524
 
    return False
 
867
        raise IllegalPath(path)
1525
868
 
1526
869
 
1527
870
def walkdirs(top, prefix=""):
1528
871
    """Yield data about all the directories in a tree.
1529
 
 
 
872
    
1530
873
    This yields all the data about the contents of a directory at a time.
1531
874
    After each directory has been yielded, if the caller has mutated the list
1532
875
    to exclude some directories, they are then not descended into.
1533
 
 
 
876
    
1534
877
    The data yielded is of the form:
1535
 
    ((directory-relpath, directory-path-from-top),
1536
 
    [(relpath, basename, kind, lstat, path-from-top), ...]),
1537
 
     - directory-relpath is the relative path of the directory being returned
1538
 
       with respect to top. prefix is prepended to this.
1539
 
     - directory-path-from-root is the path including top for this directory.
1540
 
       It is suitable for use with os functions.
1541
 
     - relpath is the relative path within the subtree being walked.
1542
 
     - basename is the basename of the path
1543
 
     - kind is the kind of the file now. If unknown then the file is not
1544
 
       present within the tree - but it may be recorded as versioned. See
1545
 
       versioned_kind.
1546
 
     - lstat is the stat data *if* the file was statted.
1547
 
     - planned, not implemented:
1548
 
       path_from_tree_root is the path from the root of the tree.
 
878
    [(relpath, basename, kind, lstat, path_from_top), ...]
1549
879
 
1550
 
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This
 
880
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This 
1551
881
        allows one to walk a subtree but get paths that are relative to a tree
1552
882
        rooted higher up.
1553
883
    :return: an iterator over the dirs.
1554
884
    """
1555
 
    #TODO there is a bit of a smell where the results of the directory-
1556
 
    # summary in this, and the path from the root, may not agree
1557
 
    # depending on top and prefix - i.e. ./foo and foo as a pair leads to
1558
 
    # potentially confusing output. We should make this more robust - but
1559
 
    # not at a speed cost. RBC 20060731
1560
 
    _lstat = os.lstat
 
885
    lstat = os.lstat
 
886
    pending = []
1561
887
    _directory = _directory_kind
1562
 
    _listdir = os.listdir
1563
 
    _kind_from_mode = file_kind_from_stat_mode
1564
 
    pending = [(safe_unicode(prefix), "", _directory, None, safe_unicode(top))]
 
888
    _listdir = listdir
 
889
    pending = [(prefix, "", _directory, None, top)]
1565
890
    while pending:
 
891
        dirblock = []
 
892
        currentdir = pending.pop()
1566
893
        # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
1567
 
        relroot, _, _, _, top = pending.pop()
1568
 
        if relroot:
1569
 
            relprefix = relroot + u'/'
1570
 
        else:
1571
 
            relprefix = ''
1572
 
        top_slash = top + u'/'
1573
 
 
1574
 
        dirblock = []
1575
 
        append = dirblock.append
1576
 
        try:
1577
 
            names = sorted(_listdir(top))
1578
 
        except OSError, e:
1579
 
            if not _is_error_enotdir(e):
1580
 
                raise
1581
 
        else:
1582
 
            for name in names:
1583
 
                abspath = top_slash + name
1584
 
                statvalue = _lstat(abspath)
1585
 
                kind = _kind_from_mode(statvalue.st_mode)
1586
 
                append((relprefix + name, name, kind, statvalue, abspath))
1587
 
        yield (relroot, top), dirblock
1588
 
 
1589
 
        # push the user specified dirs from dirblock
1590
 
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
1591
 
 
1592
 
 
1593
 
class DirReader(object):
1594
 
    """An interface for reading directories."""
1595
 
 
1596
 
    def top_prefix_to_starting_dir(self, top, prefix=""):
1597
 
        """Converts top and prefix to a starting dir entry
1598
 
 
1599
 
        :param top: A utf8 path
1600
 
        :param prefix: An optional utf8 path to prefix output relative paths
1601
 
            with.
1602
 
        :return: A tuple starting with prefix, and ending with the native
1603
 
            encoding of top.
1604
 
        """
1605
 
        raise NotImplementedError(self.top_prefix_to_starting_dir)
1606
 
 
1607
 
    def read_dir(self, prefix, top):
1608
 
        """Read a specific dir.
1609
 
 
1610
 
        :param prefix: A utf8 prefix to be preprended to the path basenames.
1611
 
        :param top: A natively encoded path to read.
1612
 
        :return: A list of the directories contents. Each item contains:
1613
 
            (utf8_relpath, utf8_name, kind, lstatvalue, native_abspath)
1614
 
        """
1615
 
        raise NotImplementedError(self.read_dir)
1616
 
 
1617
 
 
1618
 
_selected_dir_reader = None
1619
 
 
1620
 
 
1621
 
def _walkdirs_utf8(top, prefix=""):
1622
 
    """Yield data about all the directories in a tree.
1623
 
 
1624
 
    This yields the same information as walkdirs() only each entry is yielded
1625
 
    in utf-8. On platforms which have a filesystem encoding of utf8 the paths
1626
 
    are returned as exact byte-strings.
1627
 
 
1628
 
    :return: yields a tuple of (dir_info, [file_info])
1629
 
        dir_info is (utf8_relpath, path-from-top)
1630
 
        file_info is (utf8_relpath, utf8_name, kind, lstat, path-from-top)
1631
 
        if top is an absolute path, path-from-top is also an absolute path.
1632
 
        path-from-top might be unicode or utf8, but it is the correct path to
1633
 
        pass to os functions to affect the file in question. (such as os.lstat)
1634
 
    """
1635
 
    global _selected_dir_reader
1636
 
    if _selected_dir_reader is None:
1637
 
        fs_encoding = _fs_enc.upper()
1638
 
        if sys.platform == "win32" and win32utils.winver == 'Windows NT':
1639
 
            # Win98 doesn't have unicode apis like FindFirstFileW
1640
 
            # TODO: We possibly could support Win98 by falling back to the
1641
 
            #       original FindFirstFile, and using TCHAR instead of WCHAR,
1642
 
            #       but that gets a bit tricky, and requires custom compiling
1643
 
            #       for win98 anyway.
1644
 
            try:
1645
 
                from bzrlib._walkdirs_win32 import Win32ReadDir
1646
 
                _selected_dir_reader = Win32ReadDir()
1647
 
            except ImportError:
1648
 
                pass
1649
 
        elif fs_encoding in ('UTF-8', 'US-ASCII', 'ANSI_X3.4-1968'):
1650
 
            # ANSI_X3.4-1968 is a form of ASCII
1651
 
            try:
1652
 
                from bzrlib._readdir_pyx import UTF8DirReader
1653
 
                _selected_dir_reader = UTF8DirReader()
1654
 
            except ImportError, e:
1655
 
                failed_to_load_extension(e)
1656
 
                pass
1657
 
 
1658
 
    if _selected_dir_reader is None:
1659
 
        # Fallback to the python version
1660
 
        _selected_dir_reader = UnicodeDirReader()
1661
 
 
1662
 
    # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
1663
 
    # But we don't actually uses 1-3 in pending, so set them to None
1664
 
    pending = [[_selected_dir_reader.top_prefix_to_starting_dir(top, prefix)]]
1665
 
    read_dir = _selected_dir_reader.read_dir
1666
 
    _directory = _directory_kind
1667
 
    while pending:
1668
 
        relroot, _, _, _, top = pending[-1].pop()
1669
 
        if not pending[-1]:
1670
 
            pending.pop()
1671
 
        dirblock = sorted(read_dir(relroot, top))
1672
 
        yield (relroot, top), dirblock
1673
 
        # push the user specified dirs from dirblock
1674
 
        next = [d for d in reversed(dirblock) if d[2] == _directory]
1675
 
        if next:
1676
 
            pending.append(next)
1677
 
 
1678
 
 
1679
 
class UnicodeDirReader(DirReader):
1680
 
    """A dir reader for non-utf8 file systems, which transcodes."""
1681
 
 
1682
 
    __slots__ = ['_utf8_encode']
1683
 
 
1684
 
    def __init__(self):
1685
 
        self._utf8_encode = codecs.getencoder('utf8')
1686
 
 
1687
 
    def top_prefix_to_starting_dir(self, top, prefix=""):
1688
 
        """See DirReader.top_prefix_to_starting_dir."""
1689
 
        return (safe_utf8(prefix), None, None, None, safe_unicode(top))
1690
 
 
1691
 
    def read_dir(self, prefix, top):
1692
 
        """Read a single directory from a non-utf8 file system.
1693
 
 
1694
 
        top, and the abspath element in the output are unicode, all other paths
1695
 
        are utf8. Local disk IO is done via unicode calls to listdir etc.
1696
 
 
1697
 
        This is currently the fallback code path when the filesystem encoding is
1698
 
        not UTF-8. It may be better to implement an alternative so that we can
1699
 
        safely handle paths that are not properly decodable in the current
1700
 
        encoding.
1701
 
 
1702
 
        See DirReader.read_dir for details.
1703
 
        """
1704
 
        _utf8_encode = self._utf8_encode
1705
 
        _lstat = os.lstat
1706
 
        _listdir = os.listdir
1707
 
        _kind_from_mode = file_kind_from_stat_mode
1708
 
 
1709
 
        if prefix:
1710
 
            relprefix = prefix + '/'
1711
 
        else:
1712
 
            relprefix = ''
1713
 
        top_slash = top + u'/'
1714
 
 
1715
 
        dirblock = []
1716
 
        append = dirblock.append
 
894
        top = currentdir[4]
 
895
        if currentdir[0]:
 
896
            relroot = currentdir[0] + '/'
 
897
        else:
 
898
            relroot = ""
1717
899
        for name in sorted(_listdir(top)):
1718
 
            try:
1719
 
                name_utf8 = _utf8_encode(name)[0]
1720
 
            except UnicodeDecodeError:
1721
 
                raise errors.BadFilenameEncoding(
1722
 
                    _utf8_encode(relprefix)[0] + name, _fs_enc)
1723
 
            abspath = top_slash + name
1724
 
            statvalue = _lstat(abspath)
1725
 
            kind = _kind_from_mode(statvalue.st_mode)
1726
 
            append((relprefix + name_utf8, name_utf8, kind, statvalue, abspath))
1727
 
        return dirblock
1728
 
 
1729
 
 
1730
 
def copy_tree(from_path, to_path, handlers={}):
1731
 
    """Copy all of the entries in from_path into to_path.
1732
 
 
1733
 
    :param from_path: The base directory to copy.
1734
 
    :param to_path: The target directory. If it does not exist, it will
1735
 
        be created.
1736
 
    :param handlers: A dictionary of functions, which takes a source and
1737
 
        destinations for files, directories, etc.
1738
 
        It is keyed on the file kind, such as 'directory', 'symlink', or 'file'
1739
 
        'file', 'directory', and 'symlink' should always exist.
1740
 
        If they are missing, they will be replaced with 'os.mkdir()',
1741
 
        'os.readlink() + os.symlink()', and 'shutil.copy2()', respectively.
1742
 
    """
1743
 
    # Now, just copy the existing cached tree to the new location
1744
 
    # We use a cheap trick here.
1745
 
    # Absolute paths are prefixed with the first parameter
1746
 
    # relative paths are prefixed with the second.
1747
 
    # So we can get both the source and target returned
1748
 
    # without any extra work.
1749
 
 
1750
 
    def copy_dir(source, dest):
1751
 
        os.mkdir(dest)
1752
 
 
1753
 
    def copy_link(source, dest):
1754
 
        """Copy the contents of a symlink"""
1755
 
        link_to = os.readlink(source)
1756
 
        os.symlink(link_to, dest)
1757
 
 
1758
 
    real_handlers = {'file':shutil.copy2,
1759
 
                     'symlink':copy_link,
1760
 
                     'directory':copy_dir,
1761
 
                    }
1762
 
    real_handlers.update(handlers)
1763
 
 
1764
 
    if not os.path.exists(to_path):
1765
 
        real_handlers['directory'](from_path, to_path)
1766
 
 
1767
 
    for dir_info, entries in walkdirs(from_path, prefix=to_path):
1768
 
        for relpath, name, kind, st, abspath in entries:
1769
 
            real_handlers[kind](abspath, relpath)
 
900
            abspath = top + '/' + name
 
901
            statvalue = lstat(abspath)
 
902
            dirblock.append ((relroot + name, name, file_kind_from_stat_mode(statvalue.st_mode), statvalue, abspath))
 
903
        yield dirblock
 
904
        # push the user specified dirs from dirblock
 
905
        for dir in reversed(dirblock):
 
906
            if dir[2] == _directory:
 
907
                pending.append(dir)
1770
908
 
1771
909
 
1772
910
def path_prefix_key(path):
1782
920
    key_a = path_prefix_key(path_a)
1783
921
    key_b = path_prefix_key(path_b)
1784
922
    return cmp(key_a, key_b)
1785
 
 
1786
 
 
1787
 
_cached_user_encoding = None
1788
 
 
1789
 
 
1790
 
def get_user_encoding(use_cache=True):
1791
 
    """Find out what the preferred user encoding is.
1792
 
 
1793
 
    This is generally the encoding that is used for command line parameters
1794
 
    and file contents. This may be different from the terminal encoding
1795
 
    or the filesystem encoding.
1796
 
 
1797
 
    :param  use_cache:  Enable cache for detected encoding.
1798
 
                        (This parameter is turned on by default,
1799
 
                        and required only for selftesting)
1800
 
 
1801
 
    :return: A string defining the preferred user encoding
1802
 
    """
1803
 
    global _cached_user_encoding
1804
 
    if _cached_user_encoding is not None and use_cache:
1805
 
        return _cached_user_encoding
1806
 
 
1807
 
    if sys.platform == 'darwin':
1808
 
        # python locale.getpreferredencoding() always return
1809
 
        # 'mac-roman' on darwin. That's a lie.
1810
 
        sys.platform = 'posix'
1811
 
        try:
1812
 
            if os.environ.get('LANG', None) is None:
1813
 
                # If LANG is not set, we end up with 'ascii', which is bad
1814
 
                # ('mac-roman' is more than ascii), so we set a default which
1815
 
                # will give us UTF-8 (which appears to work in all cases on
1816
 
                # OSX). Users are still free to override LANG of course, as
1817
 
                # long as it give us something meaningful. This work-around
1818
 
                # *may* not be needed with python 3k and/or OSX 10.5, but will
1819
 
                # work with them too -- vila 20080908
1820
 
                os.environ['LANG'] = 'en_US.UTF-8'
1821
 
            import locale
1822
 
        finally:
1823
 
            sys.platform = 'darwin'
1824
 
    else:
1825
 
        import locale
1826
 
 
1827
 
    try:
1828
 
        user_encoding = locale.getpreferredencoding()
1829
 
    except locale.Error, e:
1830
 
        sys.stderr.write('bzr: warning: %s\n'
1831
 
                         '  Could not determine what text encoding to use.\n'
1832
 
                         '  This error usually means your Python interpreter\n'
1833
 
                         '  doesn\'t support the locale set by $LANG (%s)\n'
1834
 
                         "  Continuing with ascii encoding.\n"
1835
 
                         % (e, os.environ.get('LANG')))
1836
 
        user_encoding = 'ascii'
1837
 
 
1838
 
    # Windows returns 'cp0' to indicate there is no code page. So we'll just
1839
 
    # treat that as ASCII, and not support printing unicode characters to the
1840
 
    # console.
1841
 
    #
1842
 
    # For python scripts run under vim, we get '', so also treat that as ASCII
1843
 
    if user_encoding in (None, 'cp0', ''):
1844
 
        user_encoding = 'ascii'
1845
 
    else:
1846
 
        # check encoding
1847
 
        try:
1848
 
            codecs.lookup(user_encoding)
1849
 
        except LookupError:
1850
 
            sys.stderr.write('bzr: warning:'
1851
 
                             ' unknown encoding %s.'
1852
 
                             ' Continuing with ascii encoding.\n'
1853
 
                             % user_encoding
1854
 
                            )
1855
 
            user_encoding = 'ascii'
1856
 
 
1857
 
    if use_cache:
1858
 
        _cached_user_encoding = user_encoding
1859
 
 
1860
 
    return user_encoding
1861
 
 
1862
 
 
1863
 
def get_host_name():
1864
 
    """Return the current unicode host name.
1865
 
 
1866
 
    This is meant to be used in place of socket.gethostname() because that
1867
 
    behaves inconsistently on different platforms.
1868
 
    """
1869
 
    if sys.platform == "win32":
1870
 
        import win32utils
1871
 
        return win32utils.get_host_name()
1872
 
    else:
1873
 
        import socket
1874
 
        return socket.gethostname().decode(get_user_encoding())
1875
 
 
1876
 
 
1877
 
def recv_all(socket, bytes):
1878
 
    """Receive an exact number of bytes.
1879
 
 
1880
 
    Regular Socket.recv() may return less than the requested number of bytes,
1881
 
    dependning on what's in the OS buffer.  MSG_WAITALL is not available
1882
 
    on all platforms, but this should work everywhere.  This will return
1883
 
    less than the requested amount if the remote end closes.
1884
 
 
1885
 
    This isn't optimized and is intended mostly for use in testing.
1886
 
    """
1887
 
    b = ''
1888
 
    while len(b) < bytes:
1889
 
        new = until_no_eintr(socket.recv, bytes - len(b))
1890
 
        if new == '':
1891
 
            break # eof
1892
 
        b += new
1893
 
    return b
1894
 
 
1895
 
 
1896
 
def send_all(socket, bytes, report_activity=None):
1897
 
    """Send all bytes on a socket.
1898
 
 
1899
 
    Regular socket.sendall() can give socket error 10053 on Windows.  This
1900
 
    implementation sends no more than 64k at a time, which avoids this problem.
1901
 
 
1902
 
    :param report_activity: Call this as bytes are read, see
1903
 
        Transport._report_activity
1904
 
    """
1905
 
    chunk_size = 2**16
1906
 
    for pos in xrange(0, len(bytes), chunk_size):
1907
 
        block = bytes[pos:pos+chunk_size]
1908
 
        if report_activity is not None:
1909
 
            report_activity(len(block), 'write')
1910
 
        until_no_eintr(socket.sendall, block)
1911
 
 
1912
 
 
1913
 
def dereference_path(path):
1914
 
    """Determine the real path to a file.
1915
 
 
1916
 
    All parent elements are dereferenced.  But the file itself is not
1917
 
    dereferenced.
1918
 
    :param path: The original path.  May be absolute or relative.
1919
 
    :return: the real path *to* the file
1920
 
    """
1921
 
    parent, base = os.path.split(path)
1922
 
    # The pathjoin for '.' is a workaround for Python bug #1213894.
1923
 
    # (initial path components aren't dereferenced)
1924
 
    return pathjoin(realpath(pathjoin('.', parent)), base)
1925
 
 
1926
 
 
1927
 
def supports_mapi():
1928
 
    """Return True if we can use MAPI to launch a mail client."""
1929
 
    return sys.platform == "win32"
1930
 
 
1931
 
 
1932
 
def resource_string(package, resource_name):
1933
 
    """Load a resource from a package and return it as a string.
1934
 
 
1935
 
    Note: Only packages that start with bzrlib are currently supported.
1936
 
 
1937
 
    This is designed to be a lightweight implementation of resource
1938
 
    loading in a way which is API compatible with the same API from
1939
 
    pkg_resources. See
1940
 
    http://peak.telecommunity.com/DevCenter/PkgResources#basic-resource-access.
1941
 
    If and when pkg_resources becomes a standard library, this routine
1942
 
    can delegate to it.
1943
 
    """
1944
 
    # Check package name is within bzrlib
1945
 
    if package == "bzrlib":
1946
 
        resource_relpath = resource_name
1947
 
    elif package.startswith("bzrlib."):
1948
 
        package = package[len("bzrlib."):].replace('.', os.sep)
1949
 
        resource_relpath = pathjoin(package, resource_name)
1950
 
    else:
1951
 
        raise errors.BzrError('resource package %s not in bzrlib' % package)
1952
 
 
1953
 
    # Map the resource to a file and read its contents
1954
 
    base = dirname(bzrlib.__file__)
1955
 
    if getattr(sys, 'frozen', None):    # bzr.exe
1956
 
        base = abspath(pathjoin(base, '..', '..'))
1957
 
    filename = pathjoin(base, resource_relpath)
1958
 
    return open(filename, 'rU').read()
1959
 
 
1960
 
 
1961
 
def file_kind_from_stat_mode_thunk(mode):
1962
 
    global file_kind_from_stat_mode
1963
 
    if file_kind_from_stat_mode is file_kind_from_stat_mode_thunk:
1964
 
        try:
1965
 
            from bzrlib._readdir_pyx import UTF8DirReader
1966
 
            file_kind_from_stat_mode = UTF8DirReader().kind_from_mode
1967
 
        except ImportError, e:
1968
 
            # This is one time where we won't warn that an extension failed to
1969
 
            # load. The extension is never available on Windows anyway.
1970
 
            from bzrlib._readdir_py import (
1971
 
                _kind_from_mode as file_kind_from_stat_mode
1972
 
                )
1973
 
    return file_kind_from_stat_mode(mode)
1974
 
file_kind_from_stat_mode = file_kind_from_stat_mode_thunk
1975
 
 
1976
 
 
1977
 
def file_kind(f, _lstat=os.lstat):
1978
 
    try:
1979
 
        return file_kind_from_stat_mode(_lstat(f).st_mode)
1980
 
    except OSError, e:
1981
 
        if getattr(e, 'errno', None) in (errno.ENOENT, errno.ENOTDIR):
1982
 
            raise errors.NoSuchFile(f)
1983
 
        raise
1984
 
 
1985
 
 
1986
 
def until_no_eintr(f, *a, **kw):
1987
 
    """Run f(*a, **kw), retrying if an EINTR error occurs."""
1988
 
    # Borrowed from Twisted's twisted.python.util.untilConcludes function.
1989
 
    while True:
1990
 
        try:
1991
 
            return f(*a, **kw)
1992
 
        except (IOError, OSError), e:
1993
 
            if e.errno == errno.EINTR:
1994
 
                continue
1995
 
            raise
1996
 
 
1997
 
def re_compile_checked(re_string, flags=0, where=""):
1998
 
    """Return a compiled re, or raise a sensible error.
1999
 
 
2000
 
    This should only be used when compiling user-supplied REs.
2001
 
 
2002
 
    :param re_string: Text form of regular expression.
2003
 
    :param flags: eg re.IGNORECASE
2004
 
    :param where: Message explaining to the user the context where
2005
 
        it occurred, eg 'log search filter'.
2006
 
    """
2007
 
    # from https://bugs.launchpad.net/bzr/+bug/251352
2008
 
    try:
2009
 
        re_obj = re.compile(re_string, flags)
2010
 
        re_obj.search("")
2011
 
        return re_obj
2012
 
    except re.error, e:
2013
 
        if where:
2014
 
            where = ' in ' + where
2015
 
        # despite the name 'error' is a type
2016
 
        raise errors.BzrCommandError('Invalid regular expression%s: %r: %s'
2017
 
            % (where, re_string, e))
2018
 
 
2019
 
 
2020
 
if sys.platform == "win32":
2021
 
    import msvcrt
2022
 
    def getchar():
2023
 
        return msvcrt.getch()
2024
 
else:
2025
 
    import tty
2026
 
    import termios
2027
 
    def getchar():
2028
 
        fd = sys.stdin.fileno()
2029
 
        settings = termios.tcgetattr(fd)
2030
 
        try:
2031
 
            tty.setraw(fd)
2032
 
            ch = sys.stdin.read(1)
2033
 
        finally:
2034
 
            termios.tcsetattr(fd, termios.TCSADRAIN, settings)
2035
 
        return ch
2036
 
 
2037
 
 
2038
 
if sys.platform == 'linux2':
2039
 
    def _local_concurrency():
2040
 
        concurrency = None
2041
 
        prefix = 'processor'
2042
 
        for line in file('/proc/cpuinfo', 'rb'):
2043
 
            if line.startswith(prefix):
2044
 
                concurrency = int(line[line.find(':')+1:]) + 1
2045
 
        return concurrency
2046
 
elif sys.platform == 'darwin':
2047
 
    def _local_concurrency():
2048
 
        return subprocess.Popen(['sysctl', '-n', 'hw.availcpu'],
2049
 
                                stdout=subprocess.PIPE).communicate()[0]
2050
 
elif sys.platform[0:7] == 'freebsd':
2051
 
    def _local_concurrency():
2052
 
        return subprocess.Popen(['sysctl', '-n', 'hw.ncpu'],
2053
 
                                stdout=subprocess.PIPE).communicate()[0]
2054
 
elif sys.platform == 'sunos5':
2055
 
    def _local_concurrency():
2056
 
        return subprocess.Popen(['psrinfo', '-p',],
2057
 
                                stdout=subprocess.PIPE).communicate()[0]
2058
 
elif sys.platform == "win32":
2059
 
    def _local_concurrency():
2060
 
        # This appears to return the number of cores.
2061
 
        return os.environ.get('NUMBER_OF_PROCESSORS')
2062
 
else:
2063
 
    def _local_concurrency():
2064
 
        # Who knows ?
2065
 
        return None
2066
 
 
2067
 
 
2068
 
_cached_local_concurrency = None
2069
 
 
2070
 
def local_concurrency(use_cache=True):
2071
 
    """Return how many processes can be run concurrently.
2072
 
 
2073
 
    Rely on platform specific implementations and default to 1 (one) if
2074
 
    anything goes wrong.
2075
 
    """
2076
 
    global _cached_local_concurrency
2077
 
 
2078
 
    if _cached_local_concurrency is not None and use_cache:
2079
 
        return _cached_local_concurrency
2080
 
 
2081
 
    concurrency = os.environ.get('BZR_CONCURRENCY', None)
2082
 
    if concurrency is None:
2083
 
        try:
2084
 
            concurrency = _local_concurrency()
2085
 
        except (OSError, IOError):
2086
 
            pass
2087
 
    try:
2088
 
        concurrency = int(concurrency)
2089
 
    except (TypeError, ValueError):
2090
 
        concurrency = 1
2091
 
    if use_cache:
2092
 
        _cached_concurrency = concurrency
2093
 
    return concurrency
2094
 
 
2095
 
 
2096
 
class UnicodeOrBytesToBytesWriter(codecs.StreamWriter):
2097
 
    """A stream writer that doesn't decode str arguments."""
2098
 
 
2099
 
    def __init__(self, encode, stream, errors='strict'):
2100
 
        codecs.StreamWriter.__init__(self, stream, errors)
2101
 
        self.encode = encode
2102
 
 
2103
 
    def write(self, object):
2104
 
        if type(object) is str:
2105
 
            self.stream.write(object)
2106
 
        else:
2107
 
            data, _ = self.encode(object, self.errors)
2108
 
            self.stream.write(data)