~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/globbing.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2010-05-21 13:36:51 UTC
  • mfrom: (5243.2.1 readdir_cleanup)
  • Revision ID: pqm@pqm.ubuntu.com-20100521133651-p62dndo2giy5ls21
(lifeless) Some cleanups to the readdir pyrex code for a little efficiency
 and to avoid compile warnings. (John A Meinel)

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2006-2011 Canonical Ltd
 
1
# Copyright (C) 2006-2010 Canonical Ltd
2
2
 
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
20
20
expressions.
21
21
"""
22
22
 
23
 
from __future__ import absolute_import
24
 
 
25
23
import re
26
24
 
27
 
from bzrlib import (
28
 
    errors,
29
 
    lazy_regex,
30
 
    )
31
25
from bzrlib.trace import (
32
 
    mutter,
33
 
    warning,
 
26
    warning
34
27
    )
35
28
 
36
29
 
43
36
    must not contain capturing groups.
44
37
    """
45
38
 
46
 
    _expand = lazy_regex.lazy_compile(ur'\\&')
 
39
    _expand = re.compile(ur'\\&')
47
40
 
48
41
    def __init__(self, source=None):
49
42
        self._pat = None
79
72
 
80
73
    def __call__(self, text):
81
74
        if not self._pat:
82
 
            self._pat = lazy_regex.lazy_compile(
 
75
            self._pat = re.compile(
83
76
                    u'|'.join([u'(%s)' % p for p in self._pats]),
84
77
                    re.UNICODE)
85
78
        return self._pat.sub(self._do_sub, text)
184
177
    so are matched first, then the basename patterns, then the fullpath
185
178
    patterns.
186
179
    """
187
 
    # We want to _add_patterns in a specific order (as per type_list below)
188
 
    # starting with the shortest and going to the longest.
189
 
    # As some Python version don't support ordered dicts the list below is
190
 
    # used to select inputs for _add_pattern in a specific order.
191
 
    pattern_types = [ "extension", "basename", "fullpath" ]
192
 
 
193
 
    pattern_info = {
194
 
        "extension" : {
195
 
            "translator" : _sub_extension,
196
 
            "prefix" : r'(?:.*/)?(?!.*/)(?:.*\.)'
197
 
        },
198
 
        "basename" : {
199
 
            "translator" : _sub_basename,
200
 
            "prefix" : r'(?:.*/)?(?!.*/)'
201
 
        },
202
 
        "fullpath" : {
203
 
            "translator" : _sub_fullpath,
204
 
            "prefix" : r''
205
 
        },
206
 
    }
207
 
 
208
180
    def __init__(self, patterns):
209
181
        self._regex_patterns = []
210
 
        pattern_lists = {
211
 
            "extension" : [],
212
 
            "basename" : [],
213
 
            "fullpath" : [],
214
 
        }
 
182
        path_patterns = []
 
183
        base_patterns = []
 
184
        ext_patterns = []
215
185
        for pat in patterns:
216
186
            pat = normalize_pattern(pat)
217
 
            pattern_lists[Globster.identify(pat)].append(pat)
218
 
        pi = Globster.pattern_info
219
 
        for t in Globster.pattern_types:
220
 
            self._add_patterns(pattern_lists[t], pi[t]["translator"],
221
 
                pi[t]["prefix"])
 
187
            if pat.startswith(u'RE:') or u'/' in pat:
 
188
                path_patterns.append(pat)
 
189
            elif pat.startswith(u'*.'):
 
190
                ext_patterns.append(pat)
 
191
            else:
 
192
                base_patterns.append(pat)
 
193
        self._add_patterns(ext_patterns,_sub_extension,
 
194
            prefix=r'(?:.*/)?(?!.*/)(?:.*\.)')
 
195
        self._add_patterns(base_patterns,_sub_basename,
 
196
            prefix=r'(?:.*/)?(?!.*/)')
 
197
        self._add_patterns(path_patterns,_sub_fullpath)
222
198
 
223
199
    def _add_patterns(self, patterns, translator, prefix=''):
224
200
        while patterns:
225
 
            grouped_rules = [
226
 
                '(%s)' % translator(pat) for pat in patterns[:99]]
 
201
            grouped_rules = ['(%s)' % translator(pat) for pat in patterns[:99]]
227
202
            joined_rule = '%s(?:%s)$' % (prefix, '|'.join(grouped_rules))
228
 
            # Explicitly use lazy_compile here, because we count on its
229
 
            # nicer error reporting.
230
 
            self._regex_patterns.append((
231
 
                lazy_regex.lazy_compile(joined_rule, re.UNICODE),
 
203
            self._regex_patterns.append((re.compile(joined_rule, re.UNICODE),
232
204
                patterns[:99]))
233
205
            patterns = patterns[99:]
234
206
 
237
209
 
238
210
        :return A matching pattern or None if there is no matching pattern.
239
211
        """
240
 
        try:
241
 
            for regex, patterns in self._regex_patterns:
242
 
                match = regex.match(filename)
243
 
                if match:
244
 
                    return patterns[match.lastindex -1]
245
 
        except errors.InvalidPattern, e:
246
 
            # We can't show the default e.msg to the user as thats for
247
 
            # the combined pattern we sent to regex. Instead we indicate to
248
 
            # the user that an ignore file needs fixing.
249
 
            mutter('Invalid pattern found in regex: %s.', e.msg)
250
 
            e.msg = "File ~/.bazaar/ignore or .bzrignore contains error(s)."
251
 
            bad_patterns = ''
252
 
            for _, patterns in self._regex_patterns:
253
 
                for p in patterns:
254
 
                    if not Globster.is_pattern_valid(p):
255
 
                        bad_patterns += ('\n  %s' % p)
256
 
            e.msg += bad_patterns
257
 
            raise e
 
212
        for regex, patterns in self._regex_patterns:
 
213
            match = regex.match(filename)
 
214
            if match:
 
215
                return patterns[match.lastindex -1]
258
216
        return None
259
217
 
260
 
    @staticmethod
261
 
    def identify(pattern):
262
 
        """Returns pattern category.
263
 
 
264
 
        :param pattern: normalized pattern.
265
 
        Identify if a pattern is fullpath, basename or extension
266
 
        and returns the appropriate type.
267
 
        """
268
 
        if pattern.startswith(u'RE:') or u'/' in pattern:
269
 
            return "fullpath"
270
 
        elif pattern.startswith(u'*.'):
271
 
            return "extension"
272
 
        else:
273
 
            return "basename"
274
 
 
275
 
    @staticmethod
276
 
    def is_pattern_valid(pattern):
277
 
        """Returns True if pattern is valid.
278
 
 
279
 
        :param pattern: Normalized pattern.
280
 
        is_pattern_valid() assumes pattern to be normalized.
281
 
        see: globbing.normalize_pattern
282
 
        """
283
 
        result = True
284
 
        translator = Globster.pattern_info[Globster.identify(pattern)]["translator"]
285
 
        tpattern = '(%s)' % translator(pattern)
286
 
        try:
287
 
            re_obj = lazy_regex.lazy_compile(tpattern, re.UNICODE)
288
 
            re_obj.search("") # force compile
289
 
        except errors.InvalidPattern, e:
290
 
            result = False
291
 
        return result
292
 
 
293
 
 
294
218
class ExceptionGlobster(object):
295
219
    """A Globster that supports exception patterns.
296
220
    
338
262
        self._regex_patterns = []
339
263
        for pat in patterns:
340
264
            pat = normalize_pattern(pat)
341
 
            t = Globster.identify(pat)
342
 
            self._add_patterns([pat], Globster.pattern_info[t]["translator"],
343
 
                Globster.pattern_info[t]["prefix"])
344
 
 
345
 
 
346
 
_slashes = lazy_regex.lazy_compile(r'[\\/]+')
 
265
            if pat.startswith(u'RE:') or u'/' in pat:
 
266
                self._add_patterns([pat], _sub_fullpath)
 
267
            elif pat.startswith(u'*.'):
 
268
                self._add_patterns([pat], _sub_extension,
 
269
                    prefix=r'(?:.*/)?(?!.*/)(?:.*\.)')
 
270
            else:
 
271
                self._add_patterns([pat], _sub_basename,
 
272
                    prefix=r'(?:.*/)?(?!.*/)')
 
273
 
 
274
 
 
275
_slashes = re.compile(r'[\\/]+')
347
276
def normalize_pattern(pattern):
348
277
    """Converts backslashes in path patterns to forward slashes.
349
278