~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/osutils.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2008-08-14 17:25:43 UTC
  • mfrom: (3620.2.2 rules.disable)
  • Revision ID: pqm@pqm.ubuntu.com-20080814172543-nl22gdcodusa8rt0
(robertc) Disable .bzrrules from being read from the WT

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
 
17
from cStringIO import StringIO
17
18
import os
18
19
import re
19
20
import stat
21
22
                  S_ISCHR, S_ISBLK, S_ISFIFO, S_ISSOCK)
22
23
import sys
23
24
import time
24
 
import warnings
25
25
 
26
26
from bzrlib.lazy_import import lazy_import
27
27
lazy_import(globals(), """
35
35
                    splitdrive as _nt_splitdrive,
36
36
                    )
37
37
import posixpath
 
38
import sha
38
39
import shutil
39
40
from shutil import (
40
41
    rmtree,
41
42
    )
42
 
import signal
43
 
import subprocess
44
43
import tempfile
45
44
from tempfile import (
46
45
    mkdtemp,
54
53
    )
55
54
""")
56
55
 
57
 
# sha and md5 modules are deprecated in python2.6 but hashlib is available as
58
 
# of 2.5
59
 
if sys.version_info < (2, 5):
60
 
    import md5 as _mod_md5
61
 
    md5 = _mod_md5.new
62
 
    import sha as _mod_sha
63
 
    sha = _mod_sha.new
64
 
else:
65
 
    from hashlib import (
66
 
        md5,
67
 
        sha1 as sha,
68
 
        )
69
 
 
70
56
 
71
57
import bzrlib
72
58
from bzrlib import symbol_versioning
73
 
 
74
 
 
75
 
# Cross platform wall-clock time functionality with decent resolution.
76
 
# On Linux ``time.clock`` returns only CPU time. On Windows, ``time.time()``
77
 
# only has a resolution of ~15ms. Note that ``time.clock()`` is not
78
 
# synchronized with ``time.time()``, this is only meant to be used to find
79
 
# delta times by subtracting from another call to this function.
80
 
timer_func = time.time
81
 
if sys.platform == 'win32':
82
 
    timer_func = time.clock
 
59
from bzrlib.symbol_versioning import (
 
60
    deprecated_function,
 
61
    )
 
62
from bzrlib.trace import mutter
 
63
 
83
64
 
84
65
# On win32, O_BINARY is used to indicate the file should
85
66
# be opened in binary mode, rather than text mode.
89
70
O_BINARY = getattr(os, 'O_BINARY', 0)
90
71
 
91
72
 
92
 
def get_unicode_argv():
93
 
    try:
94
 
        user_encoding = get_user_encoding()
95
 
        return [a.decode(user_encoding) for a in sys.argv[1:]]
96
 
    except UnicodeDecodeError:
97
 
        raise errors.BzrError(("Parameter '%r' is unsupported by the current "
98
 
                                                            "encoding." % a))
99
 
 
100
 
 
101
73
def make_readonly(filename):
102
74
    """Make a filename read-only."""
103
75
    mod = os.lstat(filename).st_mode
118
90
 
119
91
    :param paths: A container (and hence not None) of paths.
120
92
    :return: A set of paths sufficient to include everything in paths via
121
 
        is_inside, drawn from the paths parameter.
 
93
        is_inside_any, drawn from the paths parameter.
122
94
    """
123
 
    if len(paths) < 2:
124
 
        return set(paths)
125
 
 
126
 
    def sort_key(path):
127
 
        return path.split('/')
128
 
    sorted_paths = sorted(list(paths), key=sort_key)
129
 
 
130
 
    search_paths = [sorted_paths[0]]
131
 
    for path in sorted_paths[1:]:
132
 
        if not is_inside(search_paths[-1], path):
133
 
            # This path is unique, add it
134
 
            search_paths.append(path)
135
 
 
136
 
    return set(search_paths)
 
95
    search_paths = set()
 
96
    paths = set(paths)
 
97
    for path in paths:
 
98
        other_paths = paths.difference([path])
 
99
        if not is_inside_any(other_paths, path):
 
100
            # this is a top level path, we must check it.
 
101
            search_paths.add(path)
 
102
    return search_paths
137
103
 
138
104
 
139
105
_QUOTE_RE = None
148
114
    global _QUOTE_RE
149
115
    if _QUOTE_RE is None:
150
116
        _QUOTE_RE = re.compile(r'([^a-zA-Z0-9.,:/\\_~-])')
151
 
 
 
117
        
152
118
    if _QUOTE_RE.search(f):
153
119
        return '"' + f + '"'
154
120
    else:
157
123
 
158
124
_directory_kind = 'directory'
159
125
 
 
126
_formats = {
 
127
    stat.S_IFDIR:_directory_kind,
 
128
    stat.S_IFCHR:'chardev',
 
129
    stat.S_IFBLK:'block',
 
130
    stat.S_IFREG:'file',
 
131
    stat.S_IFIFO:'fifo',
 
132
    stat.S_IFLNK:'symlink',
 
133
    stat.S_IFSOCK:'socket',
 
134
}
 
135
 
 
136
 
 
137
def file_kind_from_stat_mode(stat_mode, _formats=_formats, _unknown='unknown'):
 
138
    """Generate a file kind from a stat mode. This is used in walkdirs.
 
139
 
 
140
    Its performance is critical: Do not mutate without careful benchmarking.
 
141
    """
 
142
    try:
 
143
        return _formats[stat_mode & 0170000]
 
144
    except KeyError:
 
145
        return _unknown
 
146
 
 
147
 
 
148
def file_kind(f, _lstat=os.lstat, _mapper=file_kind_from_stat_mode):
 
149
    try:
 
150
        return _mapper(_lstat(f).st_mode)
 
151
    except OSError, e:
 
152
        if getattr(e, 'errno', None) in (errno.ENOENT, errno.ENOTDIR):
 
153
            raise errors.NoSuchFile(f)
 
154
        raise
 
155
 
 
156
 
160
157
def get_umask():
161
158
    """Return the current umask"""
162
159
    # Assume that people aren't messing with the umask while running
179
176
    try:
180
177
        return _kind_marker_map[kind]
181
178
    except KeyError:
182
 
        # Slightly faster than using .get(, '') when the common case is that
183
 
        # kind will be found
184
 
        return ''
 
179
        raise errors.BzrError('invalid file kind %r' % kind)
185
180
 
186
181
 
187
182
lexists = getattr(os.path, 'lexists', None)
200
195
 
201
196
def fancy_rename(old, new, rename_func, unlink_func):
202
197
    """A fancy rename, when you don't have atomic rename.
203
 
 
 
198
    
204
199
    :param old: The old path, to rename from
205
200
    :param new: The new path, to rename to
206
201
    :param rename_func: The potentially non-atomic rename function
207
 
    :param unlink_func: A way to delete the target file if the full rename
208
 
        succeeds
 
202
    :param unlink_func: A way to delete the target file if the full rename succeeds
209
203
    """
 
204
 
210
205
    # sftp rename doesn't allow overwriting, so play tricks:
 
206
    import random
211
207
    base = os.path.basename(new)
212
208
    dirname = os.path.dirname(new)
213
 
    # callers use different encodings for the paths so the following MUST
214
 
    # respect that. We rely on python upcasting to unicode if new is unicode
215
 
    # and keeping a str if not.
216
 
    tmp_name = 'tmp.%s.%.9f.%d.%s' % (base, time.time(),
217
 
                                      os.getpid(), rand_chars(10))
 
209
    tmp_name = u'tmp.%s.%.9f.%d.%s' % (base, time.time(), os.getpid(), rand_chars(10))
218
210
    tmp_name = pathjoin(dirname, tmp_name)
219
211
 
220
212
    # Rename the file out of the way, but keep track if it didn't exist
240
232
    else:
241
233
        file_existed = True
242
234
 
243
 
    failure_exc = None
244
235
    success = False
245
236
    try:
246
237
        try:
252
243
            # source and target may be aliases of each other (e.g. on a
253
244
            # case-insensitive filesystem), so we may have accidentally renamed
254
245
            # source by when we tried to rename target
255
 
            failure_exc = sys.exc_info()
256
 
            if (file_existed and e.errno in (None, errno.ENOENT)
257
 
                and old.lower() == new.lower()):
258
 
                # source and target are the same file on a case-insensitive
259
 
                # filesystem, so we don't generate an exception
260
 
                failure_exc = None
 
246
            if not (file_existed and e.errno in (None, errno.ENOENT)):
 
247
                raise
261
248
    finally:
262
249
        if file_existed:
263
250
            # If the file used to exist, rename it back into place
266
253
                unlink_func(tmp_name)
267
254
            else:
268
255
                rename_func(tmp_name, new)
269
 
    if failure_exc is not None:
270
 
        raise failure_exc[0], failure_exc[1], failure_exc[2]
271
256
 
272
257
 
273
258
# In Python 2.4.2 and older, os.path.abspath and os.path.realpath
331
316
        path = cwd + '\\' + path
332
317
    return _win32_fixdrive(_nt_normpath(path).replace('\\', '/'))
333
318
 
 
319
if win32utils.winver == 'Windows 98':
 
320
    _win32_abspath = _win98_abspath
 
321
 
334
322
 
335
323
def _win32_realpath(path):
336
324
    # Real _nt_realpath doesn't have a problem with a unicode cwd
357
345
    """We expect to be able to atomically replace 'new' with old.
358
346
 
359
347
    On win32, if new exists, it must be moved out of the way first,
360
 
    and then deleted.
 
348
    and then deleted. 
361
349
    """
362
350
    try:
363
351
        fancy_rename(old, new, rename_func=os.rename, unlink_func=os.unlink)
364
352
    except OSError, e:
365
353
        if e.errno in (errno.EPERM, errno.EACCES, errno.EBUSY, errno.EINVAL):
366
 
            # If we try to rename a non-existant file onto cwd, we get
367
 
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT
 
354
            # If we try to rename a non-existant file onto cwd, we get 
 
355
            # EPERM or EACCES instead of ENOENT, this will raise ENOENT 
368
356
            # if the old path doesn't exist, sometimes we get EACCES
369
357
            # On Linux, we seem to get EBUSY, on Mac we get EINVAL
370
358
            os.lstat(old)
395
383
 
396
384
 
397
385
if sys.platform == 'win32':
398
 
    if win32utils.winver == 'Windows 98':
399
 
        abspath = _win98_abspath
400
 
    else:
401
 
        abspath = _win32_abspath
 
386
    abspath = _win32_abspath
402
387
    realpath = _win32_realpath
403
388
    pathjoin = _win32_pathjoin
404
389
    normpath = _win32_normpath
424
409
    def rmtree(path, ignore_errors=False, onerror=_win32_delete_readonly):
425
410
        """Replacer for shutil.rmtree: could remove readonly dirs/files"""
426
411
        return shutil.rmtree(path, ignore_errors, onerror)
427
 
 
428
 
    f = win32utils.get_unicode_argv     # special function or None
429
 
    if f is not None:
430
 
        get_unicode_argv = f
431
 
 
432
412
elif sys.platform == 'darwin':
433
413
    getcwd = _mac_getcwd
434
414
 
438
418
 
439
419
    This attempts to check both sys.stdout and sys.stdin to see
440
420
    what encoding they are in, and if that fails it falls back to
441
 
    osutils.get_user_encoding().
 
421
    bzrlib.user_encoding.
442
422
    The problem is that on Windows, locale.getpreferredencoding()
443
423
    is not the same encoding as that used by the console:
444
424
    http://mail.python.org/pipermail/python-list/2003-May/162357.html
446
426
    On my standard US Windows XP, the preferred encoding is
447
427
    cp1252, but the console is cp437
448
428
    """
449
 
    from bzrlib.trace import mutter
450
429
    output_encoding = getattr(sys.stdout, 'encoding', None)
451
430
    if not output_encoding:
452
431
        input_encoding = getattr(sys.stdin, 'encoding', None)
453
432
        if not input_encoding:
454
 
            output_encoding = get_user_encoding()
455
 
            mutter('encoding stdout as osutils.get_user_encoding() %r',
456
 
                   output_encoding)
 
433
            output_encoding = bzrlib.user_encoding
 
434
            mutter('encoding stdout as bzrlib.user_encoding %r', output_encoding)
457
435
        else:
458
436
            output_encoding = input_encoding
459
437
            mutter('encoding stdout as sys.stdin encoding %r', output_encoding)
461
439
        mutter('encoding stdout as sys.stdout encoding %r', output_encoding)
462
440
    if output_encoding == 'cp0':
463
441
        # invalid encoding (cp0 means 'no codepage' on Windows)
464
 
        output_encoding = get_user_encoding()
 
442
        output_encoding = bzrlib.user_encoding
465
443
        mutter('cp0 is invalid encoding.'
466
 
               ' encoding stdout as osutils.get_user_encoding() %r',
467
 
               output_encoding)
 
444
               ' encoding stdout as bzrlib.user_encoding %r', output_encoding)
468
445
    # check encoding
469
446
    try:
470
447
        codecs.lookup(output_encoding)
472
449
        sys.stderr.write('bzr: warning:'
473
450
                         ' unknown terminal encoding %s.\n'
474
451
                         '  Using encoding %s instead.\n'
475
 
                         % (output_encoding, get_user_encoding())
 
452
                         % (output_encoding, bzrlib.user_encoding)
476
453
                        )
477
 
        output_encoding = get_user_encoding()
 
454
        output_encoding = bzrlib.user_encoding
478
455
 
479
456
    return output_encoding
480
457
 
515
492
 
516
493
def is_inside(dir, fname):
517
494
    """True if fname is inside dir.
518
 
 
 
495
    
519
496
    The parameters should typically be passed to osutils.normpath first, so
520
497
    that . and .. and repeated slashes are eliminated, and the separators
521
498
    are canonical for the platform.
522
 
 
523
 
    The empty string as a dir name is taken as top-of-tree and matches
 
499
    
 
500
    The empty string as a dir name is taken as top-of-tree and matches 
524
501
    everything.
525
502
    """
526
 
    # XXX: Most callers of this can actually do something smarter by
 
503
    # XXX: Most callers of this can actually do something smarter by 
527
504
    # looking at the inventory
528
505
    if dir == fname:
529
506
        return True
530
 
 
 
507
    
531
508
    if dir == '':
532
509
        return True
533
510
 
553
530
    return False
554
531
 
555
532
 
556
 
def pumpfile(from_file, to_file, read_length=-1, buff_size=32768,
557
 
             report_activity=None, direction='read'):
 
533
def pumpfile(from_file, to_file, read_length=-1, buff_size=32768):
558
534
    """Copy contents of one file to another.
559
535
 
560
536
    The read_length can either be -1 to read to end-of-file (EOF) or
563
539
    The buff_size represents the maximum size for each read operation
564
540
    performed on from_file.
565
541
 
566
 
    :param report_activity: Call this as bytes are read, see
567
 
        Transport._report_activity
568
 
    :param direction: Will be passed to report_activity
569
 
 
570
542
    :return: The number of bytes copied.
571
543
    """
572
544
    length = 0
580
552
            if not block:
581
553
                # EOF reached
582
554
                break
583
 
            if report_activity is not None:
584
 
                report_activity(len(block), direction)
585
555
            to_file.write(block)
586
556
 
587
557
            actual_bytes_read = len(block)
594
564
            if not block:
595
565
                # EOF reached
596
566
                break
597
 
            if report_activity is not None:
598
 
                report_activity(len(block), direction)
599
567
            to_file.write(block)
600
568
            length += len(block)
601
569
    return length
602
570
 
603
571
 
604
 
def pump_string_file(bytes, file_handle, segment_size=None):
605
 
    """Write bytes to file_handle in many smaller writes.
606
 
 
607
 
    :param bytes: The string to write.
608
 
    :param file_handle: The file to write to.
609
 
    """
610
 
    # Write data in chunks rather than all at once, because very large
611
 
    # writes fail on some platforms (e.g. Windows with SMB  mounted
612
 
    # drives).
613
 
    if not segment_size:
614
 
        segment_size = 5242880 # 5MB
615
 
    segments = range(len(bytes) / segment_size + 1)
616
 
    write = file_handle.write
617
 
    for segment_index in segments:
618
 
        segment = buffer(bytes, segment_index * segment_size, segment_size)
619
 
        write(segment)
620
 
 
621
 
 
622
572
def file_iterator(input_file, readsize=32768):
623
573
    while True:
624
574
        b = input_file.read(readsize)
632
582
 
633
583
    The file cursor should be already at the start.
634
584
    """
635
 
    s = sha()
 
585
    s = sha.new()
636
586
    BUFSIZE = 128<<10
637
587
    while True:
638
588
        b = f.read(BUFSIZE)
642
592
    return s.hexdigest()
643
593
 
644
594
 
645
 
def size_sha_file(f):
646
 
    """Calculate the size and hexdigest of an open file.
647
 
 
648
 
    The file cursor should be already at the start and
649
 
    the caller is responsible for closing the file afterwards.
650
 
    """
651
 
    size = 0
652
 
    s = sha()
653
 
    BUFSIZE = 128<<10
654
 
    while True:
655
 
        b = f.read(BUFSIZE)
656
 
        if not b:
657
 
            break
658
 
        size += len(b)
659
 
        s.update(b)
660
 
    return size, s.hexdigest()
661
 
 
662
 
 
663
595
def sha_file_by_name(fname):
664
596
    """Calculate the SHA1 of a file by reading the full text"""
665
 
    s = sha()
 
597
    s = sha.new()
666
598
    f = os.open(fname, os.O_RDONLY | O_BINARY)
667
599
    try:
668
600
        while True:
674
606
        os.close(f)
675
607
 
676
608
 
677
 
def sha_strings(strings, _factory=sha):
 
609
def sha_strings(strings, _factory=sha.new):
678
610
    """Return the sha-1 of concatenation of strings"""
679
611
    s = _factory()
680
612
    map(s.update, strings)
681
613
    return s.hexdigest()
682
614
 
683
615
 
684
 
def sha_string(f, _factory=sha):
 
616
def sha_string(f, _factory=sha.new):
685
617
    return _factory(f).hexdigest()
686
618
 
687
619
 
688
620
def fingerprint_file(f):
689
621
    b = f.read()
690
622
    return {'size': len(b),
691
 
            'sha1': sha(b).hexdigest()}
 
623
            'sha1': sha.new(b).hexdigest()}
692
624
 
693
625
 
694
626
def compare_files(a, b):
711
643
    return offset.days * 86400 + offset.seconds
712
644
 
713
645
weekdays = ['Mon', 'Tue', 'Wed', 'Thu', 'Fri', 'Sat', 'Sun']
714
 
_default_format_by_weekday_num = [wd + " %Y-%m-%d %H:%M:%S" for wd in weekdays]
715
 
 
716
 
 
 
646
    
717
647
def format_date(t, offset=0, timezone='original', date_fmt=None,
718
648
                show_offset=True):
719
649
    """Return a formatted date string.
723
653
    :param timezone: How to display the time: 'utc', 'original' for the
724
654
         timezone specified by offset, or 'local' for the process's current
725
655
         timezone.
726
 
    :param date_fmt: strftime format.
727
 
    :param show_offset: Whether to append the timezone.
728
 
    """
729
 
    (date_fmt, tt, offset_str) = \
730
 
               _format_date(t, offset, timezone, date_fmt, show_offset)
731
 
    date_fmt = date_fmt.replace('%a', weekdays[tt[6]])
732
 
    date_str = time.strftime(date_fmt, tt)
733
 
    return date_str + offset_str
734
 
 
735
 
 
736
 
# Cache of formatted offset strings
737
 
_offset_cache = {}
738
 
 
739
 
 
740
 
def format_date_with_offset_in_original_timezone(t, offset=0,
741
 
    _cache=_offset_cache):
742
 
    """Return a formatted date string in the original timezone.
743
 
 
744
 
    This routine may be faster then format_date.
745
 
 
746
 
    :param t: Seconds since the epoch.
747
 
    :param offset: Timezone offset in seconds east of utc.
748
 
    """
749
 
    if offset is None:
750
 
        offset = 0
751
 
    tt = time.gmtime(t + offset)
752
 
    date_fmt = _default_format_by_weekday_num[tt[6]]
753
 
    date_str = time.strftime(date_fmt, tt)
754
 
    offset_str = _cache.get(offset, None)
755
 
    if offset_str is None:
756
 
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
757
 
        _cache[offset] = offset_str
758
 
    return date_str + offset_str
759
 
 
760
 
 
761
 
def format_local_date(t, offset=0, timezone='original', date_fmt=None,
762
 
                      show_offset=True):
763
 
    """Return an unicode date string formatted according to the current locale.
764
 
 
765
 
    :param t: Seconds since the epoch.
766
 
    :param offset: Timezone offset in seconds east of utc.
767
 
    :param timezone: How to display the time: 'utc', 'original' for the
768
 
         timezone specified by offset, or 'local' for the process's current
769
 
         timezone.
770
 
    :param date_fmt: strftime format.
771
 
    :param show_offset: Whether to append the timezone.
772
 
    """
773
 
    (date_fmt, tt, offset_str) = \
774
 
               _format_date(t, offset, timezone, date_fmt, show_offset)
775
 
    date_str = time.strftime(date_fmt, tt)
776
 
    if not isinstance(date_str, unicode):
777
 
        date_str = date_str.decode(get_user_encoding(), 'replace')
778
 
    return date_str + offset_str
779
 
 
780
 
 
781
 
def _format_date(t, offset, timezone, date_fmt, show_offset):
 
656
    :param show_offset: Whether to append the timezone.
 
657
    :param date_fmt: strftime format.
 
658
    """
782
659
    if timezone == 'utc':
783
660
        tt = time.gmtime(t)
784
661
        offset = 0
797
674
        offset_str = ' %+03d%02d' % (offset / 3600, (offset / 60) % 60)
798
675
    else:
799
676
        offset_str = ''
800
 
    return (date_fmt, tt, offset_str)
 
677
    # day of week depends on locale, so we do this ourself
 
678
    date_fmt = date_fmt.replace('%a', weekdays[tt[6]])
 
679
    return (time.strftime(date_fmt, tt) +  offset_str)
801
680
 
802
681
 
803
682
def compact_date(when):
804
683
    return time.strftime('%Y%m%d%H%M%S', time.gmtime(when))
805
 
 
 
684
    
806
685
 
807
686
def format_delta(delta):
808
687
    """Get a nice looking string for a time delta.
884
763
ALNUM = '0123456789abcdefghijklmnopqrstuvwxyz'
885
764
def rand_chars(num):
886
765
    """Return a random string of num alphanumeric characters
887
 
 
888
 
    The result only contains lowercase chars because it may be used on
 
766
    
 
767
    The result only contains lowercase chars because it may be used on 
889
768
    case-insensitive filesystems.
890
769
    """
891
770
    s = ''
913
792
            rps.append(f)
914
793
    return rps
915
794
 
916
 
 
917
795
def joinpath(p):
918
796
    for f in p:
919
797
        if (f == '..') or (f is None) or (f == ''):
921
799
    return pathjoin(*p)
922
800
 
923
801
 
924
 
def parent_directories(filename):
925
 
    """Return the list of parent directories, deepest first.
926
 
    
927
 
    For example, parent_directories("a/b/c") -> ["a/b", "a"].
928
 
    """
929
 
    parents = []
930
 
    parts = splitpath(dirname(filename))
931
 
    while parts:
932
 
        parents.append(joinpath(parts))
933
 
        parts.pop()
934
 
    return parents
935
 
 
936
 
 
937
 
_extension_load_failures = []
938
 
 
939
 
 
940
 
def failed_to_load_extension(exception):
941
 
    """Handle failing to load a binary extension.
942
 
 
943
 
    This should be called from the ImportError block guarding the attempt to
944
 
    import the native extension.  If this function returns, the pure-Python
945
 
    implementation should be loaded instead::
946
 
 
947
 
    >>> try:
948
 
    >>>     import bzrlib._fictional_extension_pyx
949
 
    >>> except ImportError, e:
950
 
    >>>     bzrlib.osutils.failed_to_load_extension(e)
951
 
    >>>     import bzrlib._fictional_extension_py
952
 
    """
953
 
    # NB: This docstring is just an example, not a doctest, because doctest
954
 
    # currently can't cope with the use of lazy imports in this namespace --
955
 
    # mbp 20090729
956
 
    
957
 
    # This currently doesn't report the failure at the time it occurs, because
958
 
    # they tend to happen very early in startup when we can't check config
959
 
    # files etc, and also we want to report all failures but not spam the user
960
 
    # with 10 warnings.
961
 
    from bzrlib import trace
962
 
    exception_str = str(exception)
963
 
    if exception_str not in _extension_load_failures:
964
 
        trace.mutter("failed to load compiled extension: %s" % exception_str)
965
 
        _extension_load_failures.append(exception_str)
966
 
 
967
 
 
968
 
def report_extension_load_failures():
969
 
    if not _extension_load_failures:
970
 
        return
971
 
    from bzrlib.config import GlobalConfig
972
 
    if GlobalConfig().get_user_option_as_bool('ignore_missing_extensions'):
973
 
        return
974
 
    # the warnings framework should by default show this only once
975
 
    from bzrlib.trace import warning
976
 
    warning(
977
 
        "bzr: warning: some compiled extensions could not be loaded; "
978
 
        "see <https://answers.launchpad.net/bzr/+faq/703>")
979
 
    # we no longer show the specific missing extensions here, because it makes
980
 
    # the message too long and scary - see
981
 
    # https://bugs.launchpad.net/bzr/+bug/430529
982
 
 
983
 
 
984
 
try:
985
 
    from bzrlib._chunks_to_lines_pyx import chunks_to_lines
986
 
except ImportError, e:
987
 
    failed_to_load_extension(e)
988
 
    from bzrlib._chunks_to_lines_py import chunks_to_lines
989
 
 
990
 
 
991
802
def split_lines(s):
992
803
    """Split s into lines, but without removing the newline characters."""
993
 
    # Trivially convert a fulltext into a 'chunked' representation, and let
994
 
    # chunks_to_lines do the heavy lifting.
995
 
    if isinstance(s, str):
996
 
        # chunks_to_lines only supports 8-bit strings
997
 
        return chunks_to_lines([s])
998
 
    else:
999
 
        return _split_lines(s)
1000
 
 
1001
 
 
1002
 
def _split_lines(s):
1003
 
    """Split s into lines, but without removing the newline characters.
1004
 
 
1005
 
    This supports Unicode or plain string objects.
1006
 
    """
1007
804
    lines = s.split('\n')
1008
805
    result = [line + '\n' for line in lines[:-1]]
1009
806
    if lines[-1]:
1028
825
        shutil.copyfile(src, dest)
1029
826
 
1030
827
 
 
828
# Look Before You Leap (LBYL) is appropriate here instead of Easier to Ask for
 
829
# Forgiveness than Permission (EAFP) because:
 
830
# - root can damage a solaris file system by using unlink,
 
831
# - unlink raises different exceptions on different OSes (linux: EISDIR, win32:
 
832
#   EACCES, OSX: EPERM) when invoked on a directory.
1031
833
def delete_any(path):
1032
 
    """Delete a file, symlink or directory.  
1033
 
    
1034
 
    Will delete even if readonly.
1035
 
    """
1036
 
    try:
1037
 
       _delete_file_or_dir(path)
1038
 
    except (OSError, IOError), e:
1039
 
        if e.errno in (errno.EPERM, errno.EACCES):
1040
 
            # make writable and try again
1041
 
            try:
1042
 
                make_writable(path)
1043
 
            except (OSError, IOError):
1044
 
                pass
1045
 
            _delete_file_or_dir(path)
1046
 
        else:
1047
 
            raise
1048
 
 
1049
 
 
1050
 
def _delete_file_or_dir(path):
1051
 
    # Look Before You Leap (LBYL) is appropriate here instead of Easier to Ask for
1052
 
    # Forgiveness than Permission (EAFP) because:
1053
 
    # - root can damage a solaris file system by using unlink,
1054
 
    # - unlink raises different exceptions on different OSes (linux: EISDIR, win32:
1055
 
    #   EACCES, OSX: EPERM) when invoked on a directory.
 
834
    """Delete a file or directory."""
1056
835
    if isdir(path): # Takes care of symlinks
1057
836
        os.rmdir(path)
1058
837
    else:
1078
857
            and sys.platform not in ('cygwin', 'win32'))
1079
858
 
1080
859
 
1081
 
def readlink(abspath):
1082
 
    """Return a string representing the path to which the symbolic link points.
1083
 
 
1084
 
    :param abspath: The link absolute unicode path.
1085
 
 
1086
 
    This his guaranteed to return the symbolic link in unicode in all python
1087
 
    versions.
1088
 
    """
1089
 
    link = abspath.encode(_fs_enc)
1090
 
    target = os.readlink(link)
1091
 
    target = target.decode(_fs_enc)
1092
 
    return target
1093
 
 
1094
 
 
1095
860
def contains_whitespace(s):
1096
861
    """True if there are any whitespace characters in s."""
1097
862
    # string.whitespace can include '\xa0' in certain locales, because it is
1141
906
 
1142
907
    s = []
1143
908
    head = rp
1144
 
    while True:
1145
 
        if len(head) <= len(base) and head != base:
1146
 
            raise errors.PathNotChild(rp, base)
 
909
    while len(head) >= len(base):
1147
910
        if head == base:
1148
911
            break
1149
 
        head, tail = split(head)
 
912
        head, tail = os.path.split(head)
1150
913
        if tail:
1151
 
            s.append(tail)
 
914
            s.insert(0, tail)
 
915
    else:
 
916
        raise errors.PathNotChild(rp, base)
1152
917
 
1153
918
    if s:
1154
 
        return pathjoin(*reversed(s))
 
919
        return pathjoin(*s)
1155
920
    else:
1156
921
        return ''
1157
922
 
1158
923
 
1159
 
def _cicp_canonical_relpath(base, path):
1160
 
    """Return the canonical path relative to base.
1161
 
 
1162
 
    Like relpath, but on case-insensitive-case-preserving file-systems, this
1163
 
    will return the relpath as stored on the file-system rather than in the
1164
 
    case specified in the input string, for all existing portions of the path.
1165
 
 
1166
 
    This will cause O(N) behaviour if called for every path in a tree; if you
1167
 
    have a number of paths to convert, you should use canonical_relpaths().
1168
 
    """
1169
 
    # TODO: it should be possible to optimize this for Windows by using the
1170
 
    # win32 API FindFiles function to look for the specified name - but using
1171
 
    # os.listdir() still gives us the correct, platform agnostic semantics in
1172
 
    # the short term.
1173
 
 
1174
 
    rel = relpath(base, path)
1175
 
    # '.' will have been turned into ''
1176
 
    if not rel:
1177
 
        return rel
1178
 
 
1179
 
    abs_base = abspath(base)
1180
 
    current = abs_base
1181
 
    _listdir = os.listdir
1182
 
 
1183
 
    # use an explicit iterator so we can easily consume the rest on early exit.
1184
 
    bit_iter = iter(rel.split('/'))
1185
 
    for bit in bit_iter:
1186
 
        lbit = bit.lower()
1187
 
        try:
1188
 
            next_entries = _listdir(current)
1189
 
        except OSError: # enoent, eperm, etc
1190
 
            # We can't find this in the filesystem, so just append the
1191
 
            # remaining bits.
1192
 
            current = pathjoin(current, bit, *list(bit_iter))
1193
 
            break
1194
 
        for look in next_entries:
1195
 
            if lbit == look.lower():
1196
 
                current = pathjoin(current, look)
1197
 
                break
1198
 
        else:
1199
 
            # got to the end, nothing matched, so we just return the
1200
 
            # non-existing bits as they were specified (the filename may be
1201
 
            # the target of a move, for example).
1202
 
            current = pathjoin(current, bit, *list(bit_iter))
1203
 
            break
1204
 
    return current[len(abs_base):].lstrip('/')
1205
 
 
1206
 
# XXX - TODO - we need better detection/integration of case-insensitive
1207
 
# file-systems; Linux often sees FAT32 devices (or NFS-mounted OSX
1208
 
# filesystems), for example, so could probably benefit from the same basic
1209
 
# support there.  For now though, only Windows and OSX get that support, and
1210
 
# they get it for *all* file-systems!
1211
 
if sys.platform in ('win32', 'darwin'):
1212
 
    canonical_relpath = _cicp_canonical_relpath
1213
 
else:
1214
 
    canonical_relpath = relpath
1215
 
 
1216
 
def canonical_relpaths(base, paths):
1217
 
    """Create an iterable to canonicalize a sequence of relative paths.
1218
 
 
1219
 
    The intent is for this implementation to use a cache, vastly speeding
1220
 
    up multiple transformations in the same directory.
1221
 
    """
1222
 
    # but for now, we haven't optimized...
1223
 
    return [canonical_relpath(base, p) for p in paths]
1224
 
 
1225
924
def safe_unicode(unicode_or_utf8_string):
1226
925
    """Coerce unicode_or_utf8_string into unicode.
1227
926
 
1228
927
    If it is unicode, it is returned.
1229
 
    Otherwise it is decoded from utf-8. If decoding fails, the exception is
1230
 
    wrapped in a BzrBadParameterNotUnicode exception.
 
928
    Otherwise it is decoded from utf-8. If a decoding error
 
929
    occurs, it is wrapped as a If the decoding fails, the exception is wrapped 
 
930
    as a BzrBadParameter exception.
1231
931
    """
1232
932
    if isinstance(unicode_or_utf8_string, unicode):
1233
933
        return unicode_or_utf8_string
1320
1020
 
1321
1021
    On platforms where the system normalizes filenames (Mac OSX),
1322
1022
    you can access a file by any path which will normalize correctly.
1323
 
    On platforms where the system does not normalize filenames
 
1023
    On platforms where the system does not normalize filenames 
1324
1024
    (Windows, Linux), you have to access a file by its exact path.
1325
1025
 
1326
 
    Internally, bzr only supports NFC normalization, since that is
 
1026
    Internally, bzr only supports NFC normalization, since that is 
1327
1027
    the standard for XML documents.
1328
1028
 
1329
1029
    So return the normalized path, and a flag indicating if the file
1346
1046
    normalized_filename = _inaccessible_normalized_filename
1347
1047
 
1348
1048
 
1349
 
default_terminal_width = 80
1350
 
"""The default terminal width for ttys.
1351
 
 
1352
 
This is defined so that higher levels can share a common fallback value when
1353
 
terminal_width() returns None.
1354
 
"""
1355
 
 
1356
 
 
1357
1049
def terminal_width():
1358
 
    """Return terminal width.
1359
 
 
1360
 
    None is returned if the width can't established precisely.
1361
 
 
1362
 
    The rules are:
1363
 
    - if BZR_COLUMNS is set, returns its value
1364
 
    - if there is no controlling terminal, returns None
1365
 
    - if COLUMNS is set, returns its value,
1366
 
 
1367
 
    From there, we need to query the OS to get the size of the controlling
1368
 
    terminal.
1369
 
 
1370
 
    Unices:
1371
 
    - get termios.TIOCGWINSZ
1372
 
    - if an error occurs or a negative value is obtained, returns None
1373
 
 
1374
 
    Windows:
1375
 
    
1376
 
    - win32utils.get_console_size() decides,
1377
 
    - returns None on error (provided default value)
1378
 
    """
1379
 
 
1380
 
    # If BZR_COLUMNS is set, take it, user is always right
1381
 
    try:
1382
 
        return int(os.environ['BZR_COLUMNS'])
1383
 
    except (KeyError, ValueError):
1384
 
        pass
1385
 
 
1386
 
    isatty = getattr(sys.stdout, 'isatty', None)
1387
 
    if  isatty is None or not isatty():
1388
 
        # Don't guess, setting BZR_COLUMNS is the recommended way to override.
1389
 
        return None
1390
 
 
1391
 
    # If COLUMNS is set, take it, the terminal knows better (even inside a
1392
 
    # given terminal, the application can decide to set COLUMNS to a lower
1393
 
    # value (splitted screen) or a bigger value (scroll bars))
1394
 
    try:
1395
 
        return int(os.environ['COLUMNS'])
1396
 
    except (KeyError, ValueError):
1397
 
        pass
1398
 
 
1399
 
    width, height = _terminal_size(None, None)
1400
 
    if width <= 0:
1401
 
        # Consider invalid values as meaning no width
1402
 
        return None
1403
 
 
1404
 
    return width
1405
 
 
1406
 
 
1407
 
def _win32_terminal_size(width, height):
1408
 
    width, height = win32utils.get_console_size(defaultx=width, defaulty=height)
1409
 
    return width, height
1410
 
 
1411
 
 
1412
 
def _ioctl_terminal_size(width, height):
 
1050
    """Return estimated terminal width."""
 
1051
    if sys.platform == 'win32':
 
1052
        return win32utils.get_console_size()[0]
 
1053
    width = 0
1413
1054
    try:
1414
1055
        import struct, fcntl, termios
1415
1056
        s = struct.pack('HHHH', 0, 0, 0, 0)
1416
1057
        x = fcntl.ioctl(1, termios.TIOCGWINSZ, s)
1417
 
        height, width = struct.unpack('HHHH', x)[0:2]
1418
 
    except (IOError, AttributeError):
 
1058
        width = struct.unpack('HHHH', x)[1]
 
1059
    except IOError:
1419
1060
        pass
1420
 
    return width, height
1421
 
 
1422
 
_terminal_size = None
1423
 
"""Returns the terminal size as (width, height).
1424
 
 
1425
 
:param width: Default value for width.
1426
 
:param height: Default value for height.
1427
 
 
1428
 
This is defined specifically for each OS and query the size of the controlling
1429
 
terminal. If any error occurs, the provided default values should be returned.
1430
 
"""
1431
 
if sys.platform == 'win32':
1432
 
    _terminal_size = _win32_terminal_size
1433
 
else:
1434
 
    _terminal_size = _ioctl_terminal_size
1435
 
 
1436
 
 
1437
 
def _terminal_size_changed(signum, frame):
1438
 
    """Set COLUMNS upon receiving a SIGnal for WINdow size CHange."""
1439
 
    width, height = _terminal_size(None, None)
1440
 
    if width is not None:
1441
 
        os.environ['COLUMNS'] = str(width)
1442
 
 
1443
 
if sys.platform == 'win32':
1444
 
    # Martin (gz) mentioned WINDOW_BUFFER_SIZE_RECORD from ReadConsoleInput but
1445
 
    # I've no idea how to plug that in the current design -- vila 20091216
1446
 
    pass
1447
 
else:
1448
 
    signal.signal(signal.SIGWINCH, _terminal_size_changed)
 
1061
    if width <= 0:
 
1062
        try:
 
1063
            width = int(os.environ['COLUMNS'])
 
1064
        except:
 
1065
            pass
 
1066
    if width <= 0:
 
1067
        width = 80
 
1068
 
 
1069
    return width
1449
1070
 
1450
1071
 
1451
1072
def supports_executable():
1479
1100
            del os.environ[env_variable]
1480
1101
    else:
1481
1102
        if isinstance(value, unicode):
1482
 
            value = value.encode(get_user_encoding())
 
1103
            value = value.encode(bzrlib.user_encoding)
1483
1104
        os.environ[env_variable] = value
1484
1105
    return orig_val
1485
1106
 
1488
1109
 
1489
1110
 
1490
1111
def check_legal_path(path):
1491
 
    """Check whether the supplied path is legal.
 
1112
    """Check whether the supplied path is legal.  
1492
1113
    This is only required on Windows, so we don't test on other platforms
1493
1114
    right now.
1494
1115
    """
1528
1149
 
1529
1150
def walkdirs(top, prefix=""):
1530
1151
    """Yield data about all the directories in a tree.
1531
 
 
 
1152
    
1532
1153
    This yields all the data about the contents of a directory at a time.
1533
1154
    After each directory has been yielded, if the caller has mutated the list
1534
1155
    to exclude some directories, they are then not descended into.
1535
 
 
 
1156
    
1536
1157
    The data yielded is of the form:
1537
1158
    ((directory-relpath, directory-path-from-top),
1538
1159
    [(relpath, basename, kind, lstat, path-from-top), ...]),
1539
1160
     - directory-relpath is the relative path of the directory being returned
1540
1161
       with respect to top. prefix is prepended to this.
1541
 
     - directory-path-from-root is the path including top for this directory.
 
1162
     - directory-path-from-root is the path including top for this directory. 
1542
1163
       It is suitable for use with os functions.
1543
1164
     - relpath is the relative path within the subtree being walked.
1544
1165
     - basename is the basename of the path
1546
1167
       present within the tree - but it may be recorded as versioned. See
1547
1168
       versioned_kind.
1548
1169
     - lstat is the stat data *if* the file was statted.
1549
 
     - planned, not implemented:
 
1170
     - planned, not implemented: 
1550
1171
       path_from_tree_root is the path from the root of the tree.
1551
1172
 
1552
 
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This
 
1173
    :param prefix: Prefix the relpaths that are yielded with 'prefix'. This 
1553
1174
        allows one to walk a subtree but get paths that are relative to a tree
1554
1175
        rooted higher up.
1555
1176
    :return: an iterator over the dirs.
1556
1177
    """
1557
1178
    #TODO there is a bit of a smell where the results of the directory-
1558
 
    # summary in this, and the path from the root, may not agree
 
1179
    # summary in this, and the path from the root, may not agree 
1559
1180
    # depending on top and prefix - i.e. ./foo and foo as a pair leads to
1560
1181
    # potentially confusing output. We should make this more robust - but
1561
1182
    # not at a speed cost. RBC 20060731
1562
1183
    _lstat = os.lstat
1563
1184
    _directory = _directory_kind
1564
1185
    _listdir = os.listdir
1565
 
    _kind_from_mode = file_kind_from_stat_mode
 
1186
    _kind_from_mode = _formats.get
1566
1187
    pending = [(safe_unicode(prefix), "", _directory, None, safe_unicode(top))]
1567
1188
    while pending:
1568
1189
        # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
1584
1205
            for name in names:
1585
1206
                abspath = top_slash + name
1586
1207
                statvalue = _lstat(abspath)
1587
 
                kind = _kind_from_mode(statvalue.st_mode)
 
1208
                kind = _kind_from_mode(statvalue.st_mode & 0170000, 'unknown')
1588
1209
                append((relprefix + name, name, kind, statvalue, abspath))
1589
1210
        yield (relroot, top), dirblock
1590
1211
 
1592
1213
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
1593
1214
 
1594
1215
 
1595
 
class DirReader(object):
1596
 
    """An interface for reading directories."""
1597
 
 
1598
 
    def top_prefix_to_starting_dir(self, top, prefix=""):
1599
 
        """Converts top and prefix to a starting dir entry
1600
 
 
1601
 
        :param top: A utf8 path
1602
 
        :param prefix: An optional utf8 path to prefix output relative paths
1603
 
            with.
1604
 
        :return: A tuple starting with prefix, and ending with the native
1605
 
            encoding of top.
1606
 
        """
1607
 
        raise NotImplementedError(self.top_prefix_to_starting_dir)
1608
 
 
1609
 
    def read_dir(self, prefix, top):
1610
 
        """Read a specific dir.
1611
 
 
1612
 
        :param prefix: A utf8 prefix to be preprended to the path basenames.
1613
 
        :param top: A natively encoded path to read.
1614
 
        :return: A list of the directories contents. Each item contains:
1615
 
            (utf8_relpath, utf8_name, kind, lstatvalue, native_abspath)
1616
 
        """
1617
 
        raise NotImplementedError(self.read_dir)
1618
 
 
1619
 
 
1620
 
_selected_dir_reader = None
1621
 
 
 
1216
_real_walkdirs_utf8 = None
1622
1217
 
1623
1218
def _walkdirs_utf8(top, prefix=""):
1624
1219
    """Yield data about all the directories in a tree.
1634
1229
        path-from-top might be unicode or utf8, but it is the correct path to
1635
1230
        pass to os functions to affect the file in question. (such as os.lstat)
1636
1231
    """
1637
 
    global _selected_dir_reader
1638
 
    if _selected_dir_reader is None:
 
1232
    global _real_walkdirs_utf8
 
1233
    if _real_walkdirs_utf8 is None:
1639
1234
        fs_encoding = _fs_enc.upper()
1640
 
        if sys.platform == "win32" and win32utils.winver == 'Windows NT':
 
1235
        if win32utils.winver == 'Windows NT':
1641
1236
            # Win98 doesn't have unicode apis like FindFirstFileW
1642
1237
            # TODO: We possibly could support Win98 by falling back to the
1643
1238
            #       original FindFirstFile, and using TCHAR instead of WCHAR,
1644
1239
            #       but that gets a bit tricky, and requires custom compiling
1645
1240
            #       for win98 anyway.
1646
1241
            try:
1647
 
                from bzrlib._walkdirs_win32 import Win32ReadDir
1648
 
                _selected_dir_reader = Win32ReadDir()
 
1242
                from bzrlib._walkdirs_win32 import _walkdirs_utf8_win32_find_file
1649
1243
            except ImportError:
1650
 
                pass
1651
 
        elif fs_encoding in ('UTF-8', 'US-ASCII', 'ANSI_X3.4-1968'):
 
1244
                _real_walkdirs_utf8 = _walkdirs_unicode_to_utf8
 
1245
            else:
 
1246
                _real_walkdirs_utf8 = _walkdirs_utf8_win32_find_file
 
1247
        elif fs_encoding not in ('UTF-8', 'US-ASCII', 'ANSI_X3.4-1968'):
1652
1248
            # ANSI_X3.4-1968 is a form of ASCII
1653
 
            try:
1654
 
                from bzrlib._readdir_pyx import UTF8DirReader
1655
 
                _selected_dir_reader = UTF8DirReader()
1656
 
            except ImportError, e:
1657
 
                failed_to_load_extension(e)
1658
 
                pass
1659
 
 
1660
 
    if _selected_dir_reader is None:
1661
 
        # Fallback to the python version
1662
 
        _selected_dir_reader = UnicodeDirReader()
 
1249
            _real_walkdirs_utf8 = _walkdirs_unicode_to_utf8
 
1250
        else:
 
1251
            _real_walkdirs_utf8 = _walkdirs_fs_utf8
 
1252
    return _real_walkdirs_utf8(top, prefix=prefix)
 
1253
 
 
1254
 
 
1255
def _walkdirs_fs_utf8(top, prefix=""):
 
1256
    """See _walkdirs_utf8.
 
1257
 
 
1258
    This sub-function is called when we know the filesystem is already in utf8
 
1259
    encoding. So we don't need to transcode filenames.
 
1260
    """
 
1261
    _lstat = os.lstat
 
1262
    _directory = _directory_kind
 
1263
    _listdir = os.listdir
 
1264
    _kind_from_mode = _formats.get
1663
1265
 
1664
1266
    # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-toppath
1665
1267
    # But we don't actually uses 1-3 in pending, so set them to None
1666
 
    pending = [[_selected_dir_reader.top_prefix_to_starting_dir(top, prefix)]]
1667
 
    read_dir = _selected_dir_reader.read_dir
1668
 
    _directory = _directory_kind
 
1268
    pending = [(safe_utf8(prefix), None, None, None, safe_utf8(top))]
1669
1269
    while pending:
1670
 
        relroot, _, _, _, top = pending[-1].pop()
1671
 
        if not pending[-1]:
1672
 
            pending.pop()
1673
 
        dirblock = sorted(read_dir(relroot, top))
 
1270
        relroot, _, _, _, top = pending.pop()
 
1271
        if relroot:
 
1272
            relprefix = relroot + '/'
 
1273
        else:
 
1274
            relprefix = ''
 
1275
        top_slash = top + '/'
 
1276
 
 
1277
        dirblock = []
 
1278
        append = dirblock.append
 
1279
        for name in sorted(_listdir(top)):
 
1280
            abspath = top_slash + name
 
1281
            statvalue = _lstat(abspath)
 
1282
            kind = _kind_from_mode(statvalue.st_mode & 0170000, 'unknown')
 
1283
            append((relprefix + name, name, kind, statvalue, abspath))
1674
1284
        yield (relroot, top), dirblock
 
1285
 
1675
1286
        # push the user specified dirs from dirblock
1676
 
        next = [d for d in reversed(dirblock) if d[2] == _directory]
1677
 
        if next:
1678
 
            pending.append(next)
1679
 
 
1680
 
 
1681
 
class UnicodeDirReader(DirReader):
1682
 
    """A dir reader for non-utf8 file systems, which transcodes."""
1683
 
 
1684
 
    __slots__ = ['_utf8_encode']
1685
 
 
1686
 
    def __init__(self):
1687
 
        self._utf8_encode = codecs.getencoder('utf8')
1688
 
 
1689
 
    def top_prefix_to_starting_dir(self, top, prefix=""):
1690
 
        """See DirReader.top_prefix_to_starting_dir."""
1691
 
        return (safe_utf8(prefix), None, None, None, safe_unicode(top))
1692
 
 
1693
 
    def read_dir(self, prefix, top):
1694
 
        """Read a single directory from a non-utf8 file system.
1695
 
 
1696
 
        top, and the abspath element in the output are unicode, all other paths
1697
 
        are utf8. Local disk IO is done via unicode calls to listdir etc.
1698
 
 
1699
 
        This is currently the fallback code path when the filesystem encoding is
1700
 
        not UTF-8. It may be better to implement an alternative so that we can
1701
 
        safely handle paths that are not properly decodable in the current
1702
 
        encoding.
1703
 
 
1704
 
        See DirReader.read_dir for details.
1705
 
        """
1706
 
        _utf8_encode = self._utf8_encode
1707
 
        _lstat = os.lstat
1708
 
        _listdir = os.listdir
1709
 
        _kind_from_mode = file_kind_from_stat_mode
1710
 
 
1711
 
        if prefix:
1712
 
            relprefix = prefix + '/'
 
1287
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
 
1288
 
 
1289
 
 
1290
def _walkdirs_unicode_to_utf8(top, prefix=""):
 
1291
    """See _walkdirs_utf8
 
1292
 
 
1293
    Because Win32 has a Unicode api, all of the 'path-from-top' entries will be
 
1294
    Unicode paths.
 
1295
    This is currently the fallback code path when the filesystem encoding is
 
1296
    not UTF-8. It may be better to implement an alternative so that we can
 
1297
    safely handle paths that are not properly decodable in the current
 
1298
    encoding.
 
1299
    """
 
1300
    _utf8_encode = codecs.getencoder('utf8')
 
1301
    _lstat = os.lstat
 
1302
    _directory = _directory_kind
 
1303
    _listdir = os.listdir
 
1304
    _kind_from_mode = _formats.get
 
1305
 
 
1306
    pending = [(safe_utf8(prefix), None, None, None, safe_unicode(top))]
 
1307
    while pending:
 
1308
        relroot, _, _, _, top = pending.pop()
 
1309
        if relroot:
 
1310
            relprefix = relroot + '/'
1713
1311
        else:
1714
1312
            relprefix = ''
1715
1313
        top_slash = top + u'/'
1717
1315
        dirblock = []
1718
1316
        append = dirblock.append
1719
1317
        for name in sorted(_listdir(top)):
1720
 
            try:
1721
 
                name_utf8 = _utf8_encode(name)[0]
1722
 
            except UnicodeDecodeError:
1723
 
                raise errors.BadFilenameEncoding(
1724
 
                    _utf8_encode(relprefix)[0] + name, _fs_enc)
 
1318
            name_utf8 = _utf8_encode(name)[0]
1725
1319
            abspath = top_slash + name
1726
1320
            statvalue = _lstat(abspath)
1727
 
            kind = _kind_from_mode(statvalue.st_mode)
 
1321
            kind = _kind_from_mode(statvalue.st_mode & 0170000, 'unknown')
1728
1322
            append((relprefix + name_utf8, name_utf8, kind, statvalue, abspath))
1729
 
        return dirblock
 
1323
        yield (relroot, top), dirblock
 
1324
 
 
1325
        # push the user specified dirs from dirblock
 
1326
        pending.extend(d for d in reversed(dirblock) if d[2] == _directory)
1730
1327
 
1731
1328
 
1732
1329
def copy_tree(from_path, to_path, handlers={}):
1733
1330
    """Copy all of the entries in from_path into to_path.
1734
1331
 
1735
 
    :param from_path: The base directory to copy.
 
1332
    :param from_path: The base directory to copy. 
1736
1333
    :param to_path: The target directory. If it does not exist, it will
1737
1334
        be created.
1738
1335
    :param handlers: A dictionary of functions, which takes a source and
1807
1404
        return _cached_user_encoding
1808
1405
 
1809
1406
    if sys.platform == 'darwin':
1810
 
        # python locale.getpreferredencoding() always return
1811
 
        # 'mac-roman' on darwin. That's a lie.
 
1407
        # work around egregious python 2.4 bug
1812
1408
        sys.platform = 'posix'
1813
1409
        try:
1814
 
            if os.environ.get('LANG', None) is None:
1815
 
                # If LANG is not set, we end up with 'ascii', which is bad
1816
 
                # ('mac-roman' is more than ascii), so we set a default which
1817
 
                # will give us UTF-8 (which appears to work in all cases on
1818
 
                # OSX). Users are still free to override LANG of course, as
1819
 
                # long as it give us something meaningful. This work-around
1820
 
                # *may* not be needed with python 3k and/or OSX 10.5, but will
1821
 
                # work with them too -- vila 20080908
1822
 
                os.environ['LANG'] = 'en_US.UTF-8'
1823
1410
            import locale
1824
1411
        finally:
1825
1412
            sys.platform = 'darwin'
1862
1449
    return user_encoding
1863
1450
 
1864
1451
 
1865
 
def get_host_name():
1866
 
    """Return the current unicode host name.
1867
 
 
1868
 
    This is meant to be used in place of socket.gethostname() because that
1869
 
    behaves inconsistently on different platforms.
1870
 
    """
1871
 
    if sys.platform == "win32":
1872
 
        import win32utils
1873
 
        return win32utils.get_host_name()
1874
 
    else:
1875
 
        import socket
1876
 
        return socket.gethostname().decode(get_user_encoding())
1877
 
 
1878
 
 
1879
1452
def recv_all(socket, bytes):
1880
1453
    """Receive an exact number of bytes.
1881
1454
 
1888
1461
    """
1889
1462
    b = ''
1890
1463
    while len(b) < bytes:
1891
 
        new = until_no_eintr(socket.recv, bytes - len(b))
 
1464
        new = socket.recv(bytes - len(b))
1892
1465
        if new == '':
1893
1466
            break # eof
1894
1467
        b += new
1895
1468
    return b
1896
1469
 
1897
1470
 
1898
 
def send_all(socket, bytes, report_activity=None):
 
1471
def send_all(socket, bytes):
1899
1472
    """Send all bytes on a socket.
1900
1473
 
1901
1474
    Regular socket.sendall() can give socket error 10053 on Windows.  This
1902
1475
    implementation sends no more than 64k at a time, which avoids this problem.
1903
 
 
1904
 
    :param report_activity: Call this as bytes are read, see
1905
 
        Transport._report_activity
1906
1476
    """
1907
1477
    chunk_size = 2**16
1908
1478
    for pos in xrange(0, len(bytes), chunk_size):
1909
 
        block = bytes[pos:pos+chunk_size]
1910
 
        if report_activity is not None:
1911
 
            report_activity(len(block), 'write')
1912
 
        until_no_eintr(socket.sendall, block)
 
1479
        socket.sendall(bytes[pos:pos+chunk_size])
1913
1480
 
1914
1481
 
1915
1482
def dereference_path(path):
1958
1525
        base = abspath(pathjoin(base, '..', '..'))
1959
1526
    filename = pathjoin(base, resource_relpath)
1960
1527
    return open(filename, 'rU').read()
1961
 
 
1962
 
 
1963
 
def file_kind_from_stat_mode_thunk(mode):
1964
 
    global file_kind_from_stat_mode
1965
 
    if file_kind_from_stat_mode is file_kind_from_stat_mode_thunk:
1966
 
        try:
1967
 
            from bzrlib._readdir_pyx import UTF8DirReader
1968
 
            file_kind_from_stat_mode = UTF8DirReader().kind_from_mode
1969
 
        except ImportError, e:
1970
 
            # This is one time where we won't warn that an extension failed to
1971
 
            # load. The extension is never available on Windows anyway.
1972
 
            from bzrlib._readdir_py import (
1973
 
                _kind_from_mode as file_kind_from_stat_mode
1974
 
                )
1975
 
    return file_kind_from_stat_mode(mode)
1976
 
file_kind_from_stat_mode = file_kind_from_stat_mode_thunk
1977
 
 
1978
 
 
1979
 
def file_kind(f, _lstat=os.lstat):
1980
 
    try:
1981
 
        return file_kind_from_stat_mode(_lstat(f).st_mode)
1982
 
    except OSError, e:
1983
 
        if getattr(e, 'errno', None) in (errno.ENOENT, errno.ENOTDIR):
1984
 
            raise errors.NoSuchFile(f)
1985
 
        raise
1986
 
 
1987
 
 
1988
 
def until_no_eintr(f, *a, **kw):
1989
 
    """Run f(*a, **kw), retrying if an EINTR error occurs."""
1990
 
    # Borrowed from Twisted's twisted.python.util.untilConcludes function.
1991
 
    while True:
1992
 
        try:
1993
 
            return f(*a, **kw)
1994
 
        except (IOError, OSError), e:
1995
 
            if e.errno == errno.EINTR:
1996
 
                continue
1997
 
            raise
1998
 
 
1999
 
def re_compile_checked(re_string, flags=0, where=""):
2000
 
    """Return a compiled re, or raise a sensible error.
2001
 
 
2002
 
    This should only be used when compiling user-supplied REs.
2003
 
 
2004
 
    :param re_string: Text form of regular expression.
2005
 
    :param flags: eg re.IGNORECASE
2006
 
    :param where: Message explaining to the user the context where
2007
 
        it occurred, eg 'log search filter'.
2008
 
    """
2009
 
    # from https://bugs.launchpad.net/bzr/+bug/251352
2010
 
    try:
2011
 
        re_obj = re.compile(re_string, flags)
2012
 
        re_obj.search("")
2013
 
        return re_obj
2014
 
    except re.error, e:
2015
 
        if where:
2016
 
            where = ' in ' + where
2017
 
        # despite the name 'error' is a type
2018
 
        raise errors.BzrCommandError('Invalid regular expression%s: %r: %s'
2019
 
            % (where, re_string, e))
2020
 
 
2021
 
 
2022
 
if sys.platform == "win32":
2023
 
    import msvcrt
2024
 
    def getchar():
2025
 
        return msvcrt.getch()
2026
 
else:
2027
 
    import tty
2028
 
    import termios
2029
 
    def getchar():
2030
 
        fd = sys.stdin.fileno()
2031
 
        settings = termios.tcgetattr(fd)
2032
 
        try:
2033
 
            tty.setraw(fd)
2034
 
            ch = sys.stdin.read(1)
2035
 
        finally:
2036
 
            termios.tcsetattr(fd, termios.TCSADRAIN, settings)
2037
 
        return ch
2038
 
 
2039
 
 
2040
 
if sys.platform == 'linux2':
2041
 
    def _local_concurrency():
2042
 
        concurrency = None
2043
 
        prefix = 'processor'
2044
 
        for line in file('/proc/cpuinfo', 'rb'):
2045
 
            if line.startswith(prefix):
2046
 
                concurrency = int(line[line.find(':')+1:]) + 1
2047
 
        return concurrency
2048
 
elif sys.platform == 'darwin':
2049
 
    def _local_concurrency():
2050
 
        return subprocess.Popen(['sysctl', '-n', 'hw.availcpu'],
2051
 
                                stdout=subprocess.PIPE).communicate()[0]
2052
 
elif sys.platform[0:7] == 'freebsd':
2053
 
    def _local_concurrency():
2054
 
        return subprocess.Popen(['sysctl', '-n', 'hw.ncpu'],
2055
 
                                stdout=subprocess.PIPE).communicate()[0]
2056
 
elif sys.platform == 'sunos5':
2057
 
    def _local_concurrency():
2058
 
        return subprocess.Popen(['psrinfo', '-p',],
2059
 
                                stdout=subprocess.PIPE).communicate()[0]
2060
 
elif sys.platform == "win32":
2061
 
    def _local_concurrency():
2062
 
        # This appears to return the number of cores.
2063
 
        return os.environ.get('NUMBER_OF_PROCESSORS')
2064
 
else:
2065
 
    def _local_concurrency():
2066
 
        # Who knows ?
2067
 
        return None
2068
 
 
2069
 
 
2070
 
_cached_local_concurrency = None
2071
 
 
2072
 
def local_concurrency(use_cache=True):
2073
 
    """Return how many processes can be run concurrently.
2074
 
 
2075
 
    Rely on platform specific implementations and default to 1 (one) if
2076
 
    anything goes wrong.
2077
 
    """
2078
 
    global _cached_local_concurrency
2079
 
 
2080
 
    if _cached_local_concurrency is not None and use_cache:
2081
 
        return _cached_local_concurrency
2082
 
 
2083
 
    concurrency = os.environ.get('BZR_CONCURRENCY', None)
2084
 
    if concurrency is None:
2085
 
        try:
2086
 
            concurrency = _local_concurrency()
2087
 
        except (OSError, IOError):
2088
 
            pass
2089
 
    try:
2090
 
        concurrency = int(concurrency)
2091
 
    except (TypeError, ValueError):
2092
 
        concurrency = 1
2093
 
    if use_cache:
2094
 
        _cached_concurrency = concurrency
2095
 
    return concurrency
2096
 
 
2097
 
 
2098
 
class UnicodeOrBytesToBytesWriter(codecs.StreamWriter):
2099
 
    """A stream writer that doesn't decode str arguments."""
2100
 
 
2101
 
    def __init__(self, encode, stream, errors='strict'):
2102
 
        codecs.StreamWriter.__init__(self, stream, errors)
2103
 
        self.encode = encode
2104
 
 
2105
 
    def write(self, object):
2106
 
        if type(object) is str:
2107
 
            self.stream.write(object)
2108
 
        else:
2109
 
            data, _ = self.encode(object, self.errors)
2110
 
            self.stream.write(data)