~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: Alexander Belchenko
  • Date: 2006-07-30 16:43:12 UTC
  • mto: (1711.2.111 jam-integration)
  • mto: This revision was merged to the branch mainline in revision 1906.
  • Revision ID: bialix@ukr.net-20060730164312-b025fd3ff0cee59e
rename  gpl.txt => COPYING.txt

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005, 2006 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
"""WorkingTree object and friends.
18
18
 
19
19
A WorkingTree represents the editable working copy of a branch.
20
 
Operations which represent the WorkingTree are also done here,
21
 
such as renaming or adding files.  The WorkingTree has an inventory
22
 
which is updated by these operations.  A commit produces a
 
20
Operations which represent the WorkingTree are also done here, 
 
21
such as renaming or adding files.  The WorkingTree has an inventory 
 
22
which is updated by these operations.  A commit produces a 
23
23
new revision based on the workingtree and its inventory.
24
24
 
25
25
At the moment every WorkingTree has its own branch.  Remote
29
29
WorkingTree.open(dir).
30
30
"""
31
31
 
32
 
 
 
32
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
 
33
CONFLICT_HEADER_1 = "BZR conflict list format 1"
 
34
 
 
35
# TODO: Give the workingtree sole responsibility for the working inventory;
 
36
# remove the variable and references to it from the branch.  This may require
 
37
# updating the commit code so as to update the inventory within the working
 
38
# copy, and making sure there's only one WorkingTree for any directory on disk.
 
39
# At the moment they may alias the inventory and have old copies of it in
 
40
# memory.  (Now done? -- mbp 20060309)
 
41
 
 
42
from binascii import hexlify
 
43
import collections
 
44
from copy import deepcopy
33
45
from cStringIO import StringIO
 
46
import errno
 
47
import fnmatch
34
48
import os
35
 
import sys
36
 
 
37
 
from bzrlib.lazy_import import lazy_import
38
 
lazy_import(globals(), """
39
 
from bisect import bisect_left
40
 
import collections
41
 
import errno
42
 
import itertools
43
 
import operator
 
49
import re
44
50
import stat
45
 
import re
 
51
from time import time
 
52
import warnings
46
53
 
47
54
import bzrlib
48
 
from bzrlib import (
49
 
    branch,
50
 
    bzrdir,
51
 
    conflicts as _mod_conflicts,
52
 
    controldir,
53
 
    errors,
54
 
    generate_ids,
55
 
    globbing,
56
 
    graph as _mod_graph,
57
 
    hashcache,
58
 
    ignores,
59
 
    inventory,
60
 
    merge,
61
 
    revision as _mod_revision,
62
 
    revisiontree,
63
 
    trace,
64
 
    transform,
65
 
    transport,
66
 
    ui,
67
 
    views,
68
 
    xml5,
69
 
    xml7,
70
 
    )
71
 
from bzrlib.workingtree_4 import (
72
 
    WorkingTreeFormat4,
73
 
    WorkingTreeFormat5,
74
 
    WorkingTreeFormat6,
75
 
    )
76
 
""")
77
 
 
78
 
from bzrlib import symbol_versioning
 
55
from bzrlib import bzrdir, errors, ignores, osutils, urlutils
 
56
from bzrlib.atomicfile import AtomicFile
 
57
import bzrlib.branch
 
58
from bzrlib.conflicts import Conflict, ConflictList, CONFLICT_SUFFIXES
79
59
from bzrlib.decorators import needs_read_lock, needs_write_lock
80
 
from bzrlib.lock import LogicalLockResult
81
 
from bzrlib.lockable_files import LockableFiles
 
60
from bzrlib.errors import (BzrCheckError,
 
61
                           BzrError,
 
62
                           ConflictFormatError,
 
63
                           WeaveRevisionNotPresent,
 
64
                           NotBranchError,
 
65
                           NoSuchFile,
 
66
                           NotVersionedError,
 
67
                           MergeModifiedFormatError,
 
68
                           UnsupportedOperation,
 
69
                           )
 
70
from bzrlib.inventory import InventoryEntry, Inventory
 
71
from bzrlib.lockable_files import LockableFiles, TransportLock
82
72
from bzrlib.lockdir import LockDir
83
 
import bzrlib.mutabletree
84
 
from bzrlib.mutabletree import needs_tree_write_lock
85
 
from bzrlib import osutils
 
73
from bzrlib.merge import merge_inner, transform_tree
86
74
from bzrlib.osutils import (
87
 
    file_kind,
88
 
    isdir,
89
 
    normpath,
90
 
    pathjoin,
91
 
    realpath,
92
 
    safe_unicode,
93
 
    splitpath,
94
 
    supports_executable,
95
 
    )
96
 
from bzrlib.filters import filtered_input_file
 
75
                            abspath,
 
76
                            compact_date,
 
77
                            file_kind,
 
78
                            isdir,
 
79
                            getcwd,
 
80
                            pathjoin,
 
81
                            pumpfile,
 
82
                            safe_unicode,
 
83
                            splitpath,
 
84
                            rand_chars,
 
85
                            normpath,
 
86
                            realpath,
 
87
                            relpath,
 
88
                            rename,
 
89
                            supports_executable,
 
90
                            )
 
91
from bzrlib.progress import DummyProgress, ProgressPhase
 
92
from bzrlib.revision import NULL_REVISION
 
93
from bzrlib.rio import RioReader, rio_file, Stanza
 
94
from bzrlib.symbol_versioning import (deprecated_passed,
 
95
        deprecated_method,
 
96
        deprecated_function,
 
97
        DEPRECATED_PARAMETER,
 
98
        zero_eight,
 
99
        )
97
100
from bzrlib.trace import mutter, note
 
101
from bzrlib.transform import build_tree
 
102
from bzrlib.transport import get_transport
98
103
from bzrlib.transport.local import LocalTransport
99
 
from bzrlib.revision import CURRENT_REVISION
100
 
from bzrlib.rio import RioReader, rio_file, Stanza
101
 
from bzrlib.symbol_versioning import (
102
 
    deprecated_passed,
103
 
    DEPRECATED_PARAMETER,
104
 
    )
105
 
 
106
 
 
107
 
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
108
 
# TODO: Modifying the conflict objects or their type is currently nearly
109
 
# impossible as there is no clear relationship between the working tree format
110
 
# and the conflict list file format.
111
 
CONFLICT_HEADER_1 = "BZR conflict list format 1"
112
 
 
113
 
ERROR_PATH_NOT_FOUND = 3    # WindowsError errno code, equivalent to ENOENT
 
104
from bzrlib.textui import show_status
 
105
import bzrlib.tree
 
106
import bzrlib.ui
 
107
import bzrlib.xml5
 
108
 
 
109
 
 
110
# the regex removes any weird characters; we don't escape them 
 
111
# but rather just pull them out
 
112
_gen_file_id_re = re.compile(r'[^\w.]')
 
113
_gen_id_suffix = None
 
114
_gen_id_serial = 0
 
115
 
 
116
 
 
117
def _next_id_suffix():
 
118
    """Create a new file id suffix that is reasonably unique.
 
119
    
 
120
    On the first call we combine the current time with 64 bits of randomness
 
121
    to give a highly probably globally unique number. Then each call in the same
 
122
    process adds 1 to a serial number we append to that unique value.
 
123
    """
 
124
    # XXX TODO: change bzrlib.add.smart_add to call workingtree.add() rather 
 
125
    # than having to move the id randomness out of the inner loop like this.
 
126
    # XXX TODO: for the global randomness this uses we should add the thread-id
 
127
    # before the serial #.
 
128
    global _gen_id_suffix, _gen_id_serial
 
129
    if _gen_id_suffix is None:
 
130
        _gen_id_suffix = "-%s-%s-" % (compact_date(time()), rand_chars(16))
 
131
    _gen_id_serial += 1
 
132
    return _gen_id_suffix + str(_gen_id_serial)
 
133
 
 
134
 
 
135
def gen_file_id(name):
 
136
    """Return new file id for the basename 'name'.
 
137
 
 
138
    The uniqueness is supplied from _next_id_suffix.
 
139
    """
 
140
    # The real randomness is in the _next_id_suffix, the
 
141
    # rest of the identifier is just to be nice.
 
142
    # So we:
 
143
    # 1) Remove non-ascii word characters to keep the ids portable
 
144
    # 2) squash to lowercase, so the file id doesn't have to
 
145
    #    be escaped (case insensitive filesystems would bork for ids
 
146
    #    that only differred in case without escaping).
 
147
    # 3) truncate the filename to 20 chars. Long filenames also bork on some
 
148
    #    filesystems
 
149
    # 4) Removing starting '.' characters to prevent the file ids from
 
150
    #    being considered hidden.
 
151
    ascii_word_only = _gen_file_id_re.sub('', name.lower())
 
152
    short_no_dots = ascii_word_only.lstrip('.')[:20]
 
153
    return short_no_dots + _next_id_suffix()
 
154
 
 
155
 
 
156
def gen_root_id():
 
157
    """Return a new tree-root file id."""
 
158
    return gen_file_id('TREE_ROOT')
114
159
 
115
160
 
116
161
class TreeEntry(object):
117
162
    """An entry that implements the minimum interface used by commands.
118
163
 
119
 
    This needs further inspection, it may be better to have
 
164
    This needs further inspection, it may be better to have 
120
165
    InventoryEntries without ids - though that seems wrong. For now,
121
166
    this is a parallel hierarchy to InventoryEntry, and needs to become
122
167
    one of several things: decorates to that hierarchy, children of, or
125
170
    no InventoryEntry available - i.e. for unversioned objects.
126
171
    Perhaps they should be UnversionedEntry et al. ? - RBC 20051003
127
172
    """
128
 
 
 
173
 
129
174
    def __eq__(self, other):
130
175
        # yes, this us ugly, TODO: best practice __eq__ style.
131
176
        return (isinstance(other, TreeEntry)
132
177
                and other.__class__ == self.__class__)
133
 
 
 
178
 
134
179
    def kind_character(self):
135
180
        return "???"
136
181
 
168
213
        return ''
169
214
 
170
215
 
171
 
class WorkingTree(bzrlib.mutabletree.MutableTree,
172
 
    controldir.ControlComponent):
 
216
class WorkingTree(bzrlib.tree.Tree):
173
217
    """Working copy tree.
174
218
 
175
219
    The inventory is held in the `Branch` working-inventory, and the
177
221
 
178
222
    It is possible for a `WorkingTree` to have a filename which is
179
223
    not listed in the Inventory and vice versa.
180
 
 
181
 
    :ivar basedir: The root of the tree on disk. This is a unicode path object
182
 
        (as opposed to a URL).
183
224
    """
184
225
 
185
 
    # override this to set the strategy for storing views
186
 
    def _make_views(self):
187
 
        return views.DisabledViews(self)
188
 
 
189
226
    def __init__(self, basedir='.',
190
227
                 branch=DEPRECATED_PARAMETER,
191
228
                 _inventory=None,
193
230
                 _internal=False,
194
231
                 _format=None,
195
232
                 _bzrdir=None):
196
 
        """Construct a WorkingTree instance. This is not a public API.
 
233
        """Construct a WorkingTree for basedir.
197
234
 
198
 
        :param branch: A branch to override probing for the branch.
 
235
        If the branch is not supplied, it is opened automatically.
 
236
        If the branch is supplied, it must be the branch for this basedir.
 
237
        (branch.base is not cross checked, because for remote branches that
 
238
        would be meaningless).
199
239
        """
200
240
        self._format = _format
201
241
        self.bzrdir = _bzrdir
202
242
        if not _internal:
203
 
            raise errors.BzrError("Please use bzrdir.open_workingtree or "
204
 
                "WorkingTree.open() to obtain a WorkingTree.")
 
243
            # not created via open etc.
 
244
            warnings.warn("WorkingTree() is deprecated as of bzr version 0.8. "
 
245
                 "Please use bzrdir.open_workingtree or WorkingTree.open().",
 
246
                 DeprecationWarning,
 
247
                 stacklevel=2)
 
248
            wt = WorkingTree.open(basedir)
 
249
            self._branch = wt.branch
 
250
            self.basedir = wt.basedir
 
251
            self._control_files = wt._control_files
 
252
            self._hashcache = wt._hashcache
 
253
            self._set_inventory(wt._inventory)
 
254
            self._format = wt._format
 
255
            self.bzrdir = wt.bzrdir
 
256
        from bzrlib.hashcache import HashCache
 
257
        from bzrlib.trace import note, mutter
 
258
        assert isinstance(basedir, basestring), \
 
259
            "base directory %r is not a string" % basedir
205
260
        basedir = safe_unicode(basedir)
206
261
        mutter("opening working tree %r", basedir)
207
262
        if deprecated_passed(branch):
 
263
            if not _internal:
 
264
                warnings.warn("WorkingTree(..., branch=XXX) is deprecated as of bzr 0.8."
 
265
                     " Please use bzrdir.open_workingtree() or"
 
266
                     " WorkingTree.open().",
 
267
                     DeprecationWarning,
 
268
                     stacklevel=2
 
269
                     )
208
270
            self._branch = branch
209
271
        else:
210
272
            self._branch = self.bzrdir.open_branch()
215
277
            self._control_files = self.branch.control_files
216
278
        else:
217
279
            # assume all other formats have their own control files.
 
280
            assert isinstance(_control_files, LockableFiles), \
 
281
                    "_control_files must be a LockableFiles, not %r" \
 
282
                    % _control_files
218
283
            self._control_files = _control_files
219
 
        self._transport = self._control_files._transport
220
284
        # update the whole cache up front and write to disk if anything changed;
221
285
        # in the future we might want to do this more selectively
222
286
        # two possible ways offer themselves : in self._unlock, write the cache
223
287
        # if needed, or, when the cache sees a change, append it to the hash
224
288
        # cache file, and have the parser take the most recent entry for a
225
289
        # given path only.
226
 
        wt_trans = self.bzrdir.get_workingtree_transport(None)
227
 
        cache_filename = wt_trans.local_abspath('stat-cache')
228
 
        self._hashcache = hashcache.HashCache(basedir, cache_filename,
229
 
            self.bzrdir._get_file_mode(),
230
 
            self._content_filter_stack_provider())
231
 
        hc = self._hashcache
 
290
        cache_filename = self.bzrdir.get_workingtree_transport(None).local_abspath('stat-cache')
 
291
        hc = self._hashcache = HashCache(basedir, cache_filename, self._control_files._file_mode)
232
292
        hc.read()
233
293
        # is this scan needed ? it makes things kinda slow.
234
294
        #hc.scan()
238
298
            hc.write()
239
299
 
240
300
        if _inventory is None:
241
 
            # This will be acquired on lock_read() or lock_write()
242
 
            self._inventory_is_modified = False
243
 
            self._inventory = None
244
 
        else:
245
 
            # the caller of __init__ has provided an inventory,
246
 
            # we assume they know what they are doing - as its only
247
 
            # the Format factory and creation methods that are
248
 
            # permitted to do this.
249
 
            self._set_inventory(_inventory, dirty=False)
250
 
        self._detect_case_handling()
251
 
        self._rules_searcher = None
252
 
        self.views = self._make_views()
253
 
 
254
 
    @property
255
 
    def user_transport(self):
256
 
        return self.bzrdir.user_transport
257
 
 
258
 
    @property
259
 
    def control_transport(self):
260
 
        return self._transport
261
 
 
262
 
    def _detect_case_handling(self):
263
 
        wt_trans = self.bzrdir.get_workingtree_transport(None)
264
 
        try:
265
 
            wt_trans.stat("FoRMaT")
266
 
        except errors.NoSuchFile:
267
 
            self.case_sensitive = True
268
 
        else:
269
 
            self.case_sensitive = False
270
 
 
271
 
        self._setup_directory_is_tree_reference()
 
301
            self._set_inventory(self.read_working_inventory())
 
302
        else:
 
303
            self._set_inventory(_inventory)
272
304
 
273
305
    branch = property(
274
306
        fget=lambda self: self._branch,
289
321
        self._control_files.break_lock()
290
322
        self.branch.break_lock()
291
323
 
292
 
    def _get_check_refs(self):
293
 
        """Return the references needed to perform a check of this tree.
294
 
        
295
 
        The default implementation returns no refs, and is only suitable for
296
 
        trees that have no local caching and can commit on ghosts at any time.
297
 
 
298
 
        :seealso: bzrlib.check for details about check_refs.
299
 
        """
300
 
        return []
301
 
 
302
 
    def requires_rich_root(self):
303
 
        return self._format.requires_rich_root
304
 
 
305
 
    def supports_tree_reference(self):
306
 
        return False
307
 
 
308
 
    def supports_content_filtering(self):
309
 
        return self._format.supports_content_filtering()
310
 
 
311
 
    def supports_views(self):
312
 
        return self.views.supports_views()
313
 
 
314
 
    def _set_inventory(self, inv, dirty):
315
 
        """Set the internal cached inventory.
316
 
 
317
 
        :param inv: The inventory to set.
318
 
        :param dirty: A boolean indicating whether the inventory is the same
319
 
            logical inventory as whats on disk. If True the inventory is not
320
 
            the same and should be written to disk or data will be lost, if
321
 
            False then the inventory is the same as that on disk and any
322
 
            serialisation would be unneeded overhead.
323
 
        """
 
324
    def _set_inventory(self, inv):
324
325
        self._inventory = inv
325
 
        self._inventory_is_modified = dirty
 
326
        self.path2id = self._inventory.path2id
 
327
 
 
328
    def is_control_filename(self, filename):
 
329
        """True if filename is the name of a control file in this tree.
 
330
        
 
331
        :param filename: A filename within the tree. This is a relative path
 
332
        from the root of this tree.
 
333
 
 
334
        This is true IF and ONLY IF the filename is part of the meta data
 
335
        that bzr controls in this tree. I.E. a random .bzr directory placed
 
336
        on disk will not be a control file for this tree.
 
337
        """
 
338
        return self.bzrdir.is_control_filename(filename)
326
339
 
327
340
    @staticmethod
328
341
    def open(path=None, _unsupported=False):
330
343
 
331
344
        """
332
345
        if path is None:
333
 
            path = osutils.getcwd()
 
346
            path = os.path.getcwdu()
334
347
        control = bzrdir.BzrDir.open(path, _unsupported)
335
348
        return control.open_workingtree(_unsupported)
336
 
 
 
349
        
337
350
    @staticmethod
338
351
    def open_containing(path=None):
339
352
        """Open an existing working tree which has its root about path.
340
 
 
 
353
        
341
354
        This probes for a working tree at path and searches upwards from there.
342
355
 
343
356
        Basically we keep looking up until we find the control directory or
350
363
        if path is None:
351
364
            path = osutils.getcwd()
352
365
        control, relpath = bzrdir.BzrDir.open_containing(path)
 
366
 
353
367
        return control.open_workingtree(), relpath
354
368
 
355
369
    @staticmethod
356
 
    def open_containing_paths(file_list, default_directory='.',
357
 
        canonicalize=True, apply_view=True):
358
 
        """Open the WorkingTree that contains a set of paths.
359
 
 
360
 
        Fail if the paths given are not all in a single tree.
361
 
 
362
 
        This is used for the many command-line interfaces that take a list of
363
 
        any number of files and that require they all be in the same tree.
364
 
        """
365
 
        # recommended replacement for builtins.internal_tree_files
366
 
        if file_list is None or len(file_list) == 0:
367
 
            tree = WorkingTree.open_containing(default_directory)[0]
368
 
            # XXX: doesn't really belong here, and seems to have the strange
369
 
            # side effect of making it return a bunch of files, not the whole
370
 
            # tree -- mbp 20100716
371
 
            if tree.supports_views() and apply_view:
372
 
                view_files = tree.views.lookup_view()
373
 
                if view_files:
374
 
                    file_list = view_files
375
 
                    view_str = views.view_display_str(view_files)
376
 
                    note("Ignoring files outside view. View is %s" % view_str)
377
 
            return tree, file_list
378
 
        tree = WorkingTree.open_containing(file_list[0])[0]
379
 
        return tree, tree.safe_relpath_files(file_list, canonicalize,
380
 
            apply_view=apply_view)
381
 
 
382
 
    def safe_relpath_files(self, file_list, canonicalize=True, apply_view=True):
383
 
        """Convert file_list into a list of relpaths in tree.
384
 
 
385
 
        :param self: A tree to operate on.
386
 
        :param file_list: A list of user provided paths or None.
387
 
        :param apply_view: if True and a view is set, apply it or check that
388
 
            specified files are within it
389
 
        :return: A list of relative paths.
390
 
        :raises errors.PathNotChild: When a provided path is in a different self
391
 
            than self.
392
 
        """
393
 
        if file_list is None:
394
 
            return None
395
 
        if self.supports_views() and apply_view:
396
 
            view_files = self.views.lookup_view()
397
 
        else:
398
 
            view_files = []
399
 
        new_list = []
400
 
        # self.relpath exists as a "thunk" to osutils, but canonical_relpath
401
 
        # doesn't - fix that up here before we enter the loop.
402
 
        if canonicalize:
403
 
            fixer = lambda p: osutils.canonical_relpath(self.basedir, p)
404
 
        else:
405
 
            fixer = self.relpath
406
 
        for filename in file_list:
407
 
            relpath = fixer(osutils.dereference_path(filename))
408
 
            if view_files and not osutils.is_inside_any(view_files, relpath):
409
 
                raise errors.FileOutsideView(filename, view_files)
410
 
            new_list.append(relpath)
411
 
        return new_list
412
 
 
413
 
    @staticmethod
414
370
    def open_downlevel(path=None):
415
371
        """Open an unsupported working tree.
416
372
 
418
374
        """
419
375
        return WorkingTree.open(path, _unsupported=True)
420
376
 
421
 
    @staticmethod
422
 
    def find_trees(location):
423
 
        def list_current(transport):
424
 
            return [d for d in transport.list_dir('') if d != '.bzr']
425
 
        def evaluate(bzrdir):
426
 
            try:
427
 
                tree = bzrdir.open_workingtree()
428
 
            except errors.NoWorkingTree:
429
 
                return True, None
430
 
            else:
431
 
                return True, tree
432
 
        t = transport.get_transport(location)
433
 
        iterator = bzrdir.BzrDir.find_bzrdirs(t, evaluate=evaluate,
434
 
                                              list_current=list_current)
435
 
        return [tr for tr in iterator if tr is not None]
436
 
 
437
 
    # should be deprecated - this is slow and in any case treating them as a
438
 
    # container is (we now know) bad style -- mbp 20070302
439
 
    ## @deprecated_method(zero_fifteen)
440
377
    def __iter__(self):
441
378
        """Iterate through file_ids for this tree.
442
379
 
448
385
            if osutils.lexists(self.abspath(path)):
449
386
                yield ie.file_id
450
387
 
451
 
    def all_file_ids(self):
452
 
        """See Tree.iter_all_file_ids"""
453
 
        return set(self.inventory)
454
 
 
455
388
    def __repr__(self):
456
389
        return "<%s of %s>" % (self.__class__.__name__,
457
390
                               getattr(self, 'basedir', None))
458
391
 
459
392
    def abspath(self, filename):
460
393
        return pathjoin(self.basedir, filename)
461
 
 
 
394
    
462
395
    def basis_tree(self):
463
 
        """Return RevisionTree for the current last revision.
464
 
 
465
 
        If the left most parent is a ghost then the returned tree will be an
466
 
        empty tree - one obtained by calling
467
 
        repository.revision_tree(NULL_REVISION).
468
 
        """
469
 
        try:
470
 
            revision_id = self.get_parent_ids()[0]
471
 
        except IndexError:
472
 
            # no parents, return an empty revision tree.
473
 
            # in the future this should return the tree for
474
 
            # 'empty:' - the implicit root empty tree.
475
 
            return self.branch.repository.revision_tree(
476
 
                       _mod_revision.NULL_REVISION)
477
 
        try:
478
 
            return self.revision_tree(revision_id)
479
 
        except errors.NoSuchRevision:
480
 
            pass
481
 
        # No cached copy available, retrieve from the repository.
482
 
        # FIXME? RBC 20060403 should we cache the inventory locally
483
 
        # at this point ?
484
 
        try:
485
 
            return self.branch.repository.revision_tree(revision_id)
486
 
        except (errors.RevisionNotPresent, errors.NoSuchRevision):
487
 
            # the basis tree *may* be a ghost or a low level error may have
488
 
            # occurred. If the revision is present, its a problem, if its not
489
 
            # its a ghost.
490
 
            if self.branch.repository.has_revision(revision_id):
491
 
                raise
492
 
            # the basis tree is a ghost so return an empty tree.
493
 
            return self.branch.repository.revision_tree(
494
 
                       _mod_revision.NULL_REVISION)
495
 
 
496
 
    def _cleanup(self):
497
 
        self._flush_ignore_list_cache()
 
396
        """Return RevisionTree for the current last revision."""
 
397
        revision_id = self.last_revision()
 
398
        if revision_id is not None:
 
399
            try:
 
400
                xml = self.read_basis_inventory()
 
401
                inv = bzrlib.xml5.serializer_v5.read_inventory_from_string(xml)
 
402
            except NoSuchFile:
 
403
                inv = None
 
404
            if inv is not None and inv.revision_id == revision_id:
 
405
                return bzrlib.tree.RevisionTree(self.branch.repository, inv,
 
406
                                                revision_id)
 
407
        # FIXME? RBC 20060403 should we cache the inventory here ?
 
408
        return self.branch.repository.revision_tree(revision_id)
 
409
 
 
410
    @staticmethod
 
411
    @deprecated_method(zero_eight)
 
412
    def create(branch, directory):
 
413
        """Create a workingtree for branch at directory.
 
414
 
 
415
        If existing_directory already exists it must have a .bzr directory.
 
416
        If it does not exist, it will be created.
 
417
 
 
418
        This returns a new WorkingTree object for the new checkout.
 
419
 
 
420
        TODO FIXME RBC 20060124 when we have checkout formats in place this
 
421
        should accept an optional revisionid to checkout [and reject this if
 
422
        checking out into the same dir as a pre-checkout-aware branch format.]
 
423
 
 
424
        XXX: When BzrDir is present, these should be created through that 
 
425
        interface instead.
 
426
        """
 
427
        warnings.warn('delete WorkingTree.create', stacklevel=3)
 
428
        transport = get_transport(directory)
 
429
        if branch.bzrdir.root_transport.base == transport.base:
 
430
            # same dir 
 
431
            return branch.bzrdir.create_workingtree()
 
432
        # different directory, 
 
433
        # create a branch reference
 
434
        # and now a working tree.
 
435
        raise NotImplementedError
 
436
 
 
437
    @staticmethod
 
438
    @deprecated_method(zero_eight)
 
439
    def create_standalone(directory):
 
440
        """Create a checkout and a branch and a repo at directory.
 
441
 
 
442
        Directory must exist and be empty.
 
443
 
 
444
        please use BzrDir.create_standalone_workingtree
 
445
        """
 
446
        return bzrdir.BzrDir.create_standalone_workingtree(directory)
498
447
 
499
448
    def relpath(self, path):
500
449
        """Return the local path portion from a given path.
501
 
 
502
 
        The path may be absolute or relative. If its a relative path it is
 
450
        
 
451
        The path may be absolute or relative. If its a relative path it is 
503
452
        interpreted relative to the python current working directory.
504
453
        """
505
 
        return osutils.relpath(self.basedir, path)
 
454
        return relpath(self.basedir, path)
506
455
 
507
456
    def has_filename(self, filename):
508
457
        return osutils.lexists(self.abspath(filename))
509
458
 
510
 
    def get_file(self, file_id, path=None, filtered=True):
511
 
        return self.get_file_with_stat(file_id, path, filtered=filtered)[0]
512
 
 
513
 
    def get_file_with_stat(self, file_id, path=None, filtered=True,
514
 
        _fstat=os.fstat):
515
 
        """See Tree.get_file_with_stat."""
516
 
        if path is None:
517
 
            path = self.id2path(file_id)
518
 
        file_obj = self.get_file_byname(path, filtered=False)
519
 
        stat_value = _fstat(file_obj.fileno())
520
 
        if filtered and self.supports_content_filtering():
521
 
            filters = self._content_filter_stack(path)
522
 
            file_obj = filtered_input_file(file_obj, filters)
523
 
        return (file_obj, stat_value)
524
 
 
525
 
    def get_file_text(self, file_id, path=None, filtered=True):
526
 
        my_file = self.get_file(file_id, path=path, filtered=filtered)
527
 
        try:
528
 
            return my_file.read()
529
 
        finally:
530
 
            my_file.close()
531
 
 
532
 
    def get_file_byname(self, filename, filtered=True):
533
 
        path = self.abspath(filename)
534
 
        f = file(path, 'rb')
535
 
        if filtered and self.supports_content_filtering():
536
 
            filters = self._content_filter_stack(filename)
537
 
            return filtered_input_file(f, filters)
538
 
        else:
539
 
            return f
540
 
 
541
 
    def get_file_lines(self, file_id, path=None, filtered=True):
542
 
        """See Tree.get_file_lines()"""
543
 
        file = self.get_file(file_id, path, filtered=filtered)
544
 
        try:
545
 
            return file.readlines()
546
 
        finally:
547
 
            file.close()
548
 
 
549
 
    @needs_read_lock
550
 
    def annotate_iter(self, file_id, default_revision=CURRENT_REVISION):
551
 
        """See Tree.annotate_iter
552
 
 
553
 
        This implementation will use the basis tree implementation if possible.
554
 
        Lines not in the basis are attributed to CURRENT_REVISION
555
 
 
556
 
        If there are pending merges, lines added by those merges will be
557
 
        incorrectly attributed to CURRENT_REVISION (but after committing, the
558
 
        attribution will be correct).
559
 
        """
560
 
        maybe_file_parent_keys = []
561
 
        for parent_id in self.get_parent_ids():
562
 
            try:
563
 
                parent_tree = self.revision_tree(parent_id)
564
 
            except errors.NoSuchRevisionInTree:
565
 
                parent_tree = self.branch.repository.revision_tree(parent_id)
566
 
            parent_tree.lock_read()
567
 
            try:
568
 
                if file_id not in parent_tree:
569
 
                    continue
570
 
                ie = parent_tree.inventory[file_id]
571
 
                if ie.kind != 'file':
572
 
                    # Note: this is slightly unnecessary, because symlinks and
573
 
                    # directories have a "text" which is the empty text, and we
574
 
                    # know that won't mess up annotations. But it seems cleaner
575
 
                    continue
576
 
                parent_text_key = (file_id, ie.revision)
577
 
                if parent_text_key not in maybe_file_parent_keys:
578
 
                    maybe_file_parent_keys.append(parent_text_key)
579
 
            finally:
580
 
                parent_tree.unlock()
581
 
        graph = _mod_graph.Graph(self.branch.repository.texts)
582
 
        heads = graph.heads(maybe_file_parent_keys)
583
 
        file_parent_keys = []
584
 
        for key in maybe_file_parent_keys:
585
 
            if key in heads:
586
 
                file_parent_keys.append(key)
587
 
 
588
 
        # Now we have the parents of this content
589
 
        annotator = self.branch.repository.texts.get_annotator()
590
 
        text = self.get_file_text(file_id)
591
 
        this_key =(file_id, default_revision)
592
 
        annotator.add_special_text(this_key, file_parent_keys, text)
593
 
        annotations = [(key[-1], line)
594
 
                       for key, line in annotator.annotate_flat(this_key)]
595
 
        return annotations
596
 
 
597
 
    def _get_ancestors(self, default_revision):
598
 
        ancestors = set([default_revision])
599
 
        for parent_id in self.get_parent_ids():
600
 
            ancestors.update(self.branch.repository.get_ancestry(
601
 
                             parent_id, topo_sorted=False))
602
 
        return ancestors
 
459
    def get_file(self, file_id):
 
460
        return self.get_file_byname(self.id2path(file_id))
 
461
 
 
462
    def get_file_text(self, file_id):
 
463
        return self.get_file(file_id).read()
 
464
 
 
465
    def get_file_byname(self, filename):
 
466
        return file(self.abspath(filename), 'rb')
603
467
 
604
468
    def get_parent_ids(self):
605
469
        """See Tree.get_parent_ids.
606
 
 
 
470
        
607
471
        This implementation reads the pending merges list and last_revision
608
472
        value and uses that to decide what the parents list should be.
609
473
        """
610
 
        last_rev = _mod_revision.ensure_null(self._last_revision())
611
 
        if _mod_revision.NULL_REVISION == last_rev:
 
474
        last_rev = self.last_revision()
 
475
        if last_rev is None:
612
476
            parents = []
613
477
        else:
614
478
            parents = [last_rev]
615
 
        try:
616
 
            merges_bytes = self._transport.get_bytes('pending-merges')
617
 
        except errors.NoSuchFile:
618
 
            pass
619
 
        else:
620
 
            for l in osutils.split_lines(merges_bytes):
621
 
                revision_id = l.rstrip('\n')
622
 
                parents.append(revision_id)
623
 
        return parents
 
479
        other_parents = self.pending_merges()
 
480
        return parents + other_parents
624
481
 
625
 
    @needs_read_lock
626
482
    def get_root_id(self):
627
483
        """Return the id of this trees root"""
628
 
        return self._inventory.root.file_id
629
 
 
 
484
        inv = self.read_working_inventory()
 
485
        return inv.root.file_id
 
486
        
630
487
    def _get_store_filename(self, file_id):
631
488
        ## XXX: badly named; this is not in the store at all
632
489
        return self.abspath(self.id2path(file_id))
633
490
 
634
491
    @needs_read_lock
635
 
    def clone(self, to_bzrdir, revision_id=None):
 
492
    def clone(self, to_bzrdir, revision_id=None, basis=None):
636
493
        """Duplicate this working tree into to_bzr, including all state.
637
 
 
 
494
        
638
495
        Specifically modified files are kept as modified, but
639
496
        ignored and unknown files are discarded.
640
497
 
641
498
        If you want to make a new line of development, see bzrdir.sprout()
642
499
 
643
500
        revision
644
 
            If not None, the cloned tree will have its last revision set to
645
 
            revision, and difference between the source trees last revision
 
501
            If not None, the cloned tree will have its last revision set to 
 
502
            revision, and and difference between the source trees last revision
646
503
            and this one merged in.
 
504
 
 
505
        basis
 
506
            If not None, a closer copy of a tree which may have some files in
 
507
            common, and which file content should be preferentially copied from.
647
508
        """
648
509
        # assumes the target bzr dir format is compatible.
649
 
        result = to_bzrdir.create_workingtree()
 
510
        result = self._format.initialize(to_bzrdir)
650
511
        self.copy_content_into(result, revision_id)
651
512
        return result
652
513
 
653
514
    @needs_read_lock
654
515
    def copy_content_into(self, tree, revision_id=None):
655
516
        """Copy the current content and user files of this tree into tree."""
656
 
        tree.set_root_id(self.get_root_id())
657
517
        if revision_id is None:
658
 
            merge.transform_tree(tree, self)
 
518
            transform_tree(tree, self)
659
519
        else:
660
 
            # TODO now merge from tree.last_revision to revision (to preserve
661
 
            # user local changes)
662
 
            merge.transform_tree(tree, self)
663
 
            tree.set_parent_ids([revision_id])
 
520
            # TODO now merge from tree.last_revision to revision
 
521
            transform_tree(tree, self)
 
522
            tree.set_last_revision(revision_id)
 
523
 
 
524
    @needs_write_lock
 
525
    def commit(self, message=None, revprops=None, *args, **kwargs):
 
526
        # avoid circular imports
 
527
        from bzrlib.commit import Commit
 
528
        if revprops is None:
 
529
            revprops = {}
 
530
        if not 'branch-nick' in revprops:
 
531
            revprops['branch-nick'] = self.branch.nick
 
532
        # args for wt.commit start at message from the Commit.commit method,
 
533
        # but with branch a kwarg now, passing in args as is results in the
 
534
        #message being used for the branch
 
535
        args = (DEPRECATED_PARAMETER, message, ) + args
 
536
        committed_id = Commit().commit( working_tree=self, revprops=revprops,
 
537
            *args, **kwargs)
 
538
        self._set_inventory(self.read_working_inventory())
 
539
        return committed_id
664
540
 
665
541
    def id2abspath(self, file_id):
666
542
        return self.abspath(self.id2path(file_id))
667
543
 
668
544
    def has_id(self, file_id):
669
545
        # files that have been deleted are excluded
670
 
        inv = self.inventory
 
546
        inv = self._inventory
671
547
        if not inv.has_id(file_id):
672
548
            return False
673
549
        path = inv.id2path(file_id)
681
557
    __contains__ = has_id
682
558
 
683
559
    def get_file_size(self, file_id):
684
 
        """See Tree.get_file_size"""
685
 
        # XXX: this returns the on-disk size; it should probably return the
686
 
        # canonical size
687
 
        try:
688
 
            return os.path.getsize(self.id2abspath(file_id))
689
 
        except OSError, e:
690
 
            if e.errno != errno.ENOENT:
691
 
                raise
692
 
            else:
693
 
                return None
 
560
        return os.path.getsize(self.id2abspath(file_id))
694
561
 
695
562
    @needs_read_lock
696
 
    def get_file_sha1(self, file_id, path=None, stat_value=None):
 
563
    def get_file_sha1(self, file_id, path=None):
697
564
        if not path:
698
565
            path = self._inventory.id2path(file_id)
699
 
        return self._hashcache.get_sha1(path, stat_value)
 
566
        return self._hashcache.get_sha1(path)
700
567
 
701
568
    def get_file_mtime(self, file_id, path=None):
702
569
        if not path:
703
 
            path = self.inventory.id2path(file_id)
 
570
            path = self._inventory.id2path(file_id)
704
571
        return os.lstat(self.abspath(path)).st_mtime
705
572
 
706
 
    def _is_executable_from_path_and_stat_from_basis(self, path, stat_result):
707
 
        file_id = self.path2id(path)
708
 
        if file_id is None:
709
 
            # For unversioned files on win32, we just assume they are not
710
 
            # executable
711
 
            return False
712
 
        return self._inventory[file_id].executable
713
 
 
714
 
    def _is_executable_from_path_and_stat_from_stat(self, path, stat_result):
715
 
        mode = stat_result.st_mode
716
 
        return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
717
 
 
718
573
    if not supports_executable():
719
574
        def is_executable(self, file_id, path=None):
720
575
            return self._inventory[file_id].executable
721
 
 
722
 
        _is_executable_from_path_and_stat = \
723
 
            _is_executable_from_path_and_stat_from_basis
724
576
    else:
725
577
        def is_executable(self, file_id, path=None):
726
578
            if not path:
727
 
                path = self.id2path(file_id)
 
579
                path = self._inventory.id2path(file_id)
728
580
            mode = os.lstat(self.abspath(path)).st_mode
729
581
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
730
582
 
731
 
        _is_executable_from_path_and_stat = \
732
 
            _is_executable_from_path_and_stat_from_stat
733
 
 
734
 
    @needs_tree_write_lock
735
 
    def _add(self, files, ids, kinds):
736
 
        """See MutableTree._add."""
 
583
    @needs_write_lock
 
584
    def add(self, files, ids=None):
 
585
        """Make files versioned.
 
586
 
 
587
        Note that the command line normally calls smart_add instead,
 
588
        which can automatically recurse.
 
589
 
 
590
        This adds the files to the inventory, so that they will be
 
591
        recorded by the next commit.
 
592
 
 
593
        files
 
594
            List of paths to add, relative to the base of the tree.
 
595
 
 
596
        ids
 
597
            If set, use these instead of automatically generated ids.
 
598
            Must be the same length as the list of files, but may
 
599
            contain None for ids that are to be autogenerated.
 
600
 
 
601
        TODO: Perhaps have an option to add the ids even if the files do
 
602
              not (yet) exist.
 
603
 
 
604
        TODO: Perhaps callback with the ids and paths as they're added.
 
605
        """
737
606
        # TODO: Re-adding a file that is removed in the working copy
738
607
        # should probably put it back with the previous ID.
739
 
        # the read and write working inventory should not occur in this
740
 
        # function - they should be part of lock_write and unlock.
741
 
        inv = self.inventory
742
 
        for f, file_id, kind in zip(files, ids, kinds):
 
608
        if isinstance(files, basestring):
 
609
            assert(ids is None or isinstance(ids, basestring))
 
610
            files = [files]
 
611
            if ids is not None:
 
612
                ids = [ids]
 
613
 
 
614
        if ids is None:
 
615
            ids = [None] * len(files)
 
616
        else:
 
617
            assert(len(ids) == len(files))
 
618
 
 
619
        inv = self.read_working_inventory()
 
620
        for f,file_id in zip(files, ids):
 
621
            if self.is_control_filename(f):
 
622
                raise errors.ForbiddenControlFileError(filename=f)
 
623
 
 
624
            fp = splitpath(f)
 
625
 
 
626
            if len(fp) == 0:
 
627
                raise BzrError("cannot add top-level %r" % f)
 
628
 
 
629
            fullpath = normpath(self.abspath(f))
 
630
            try:
 
631
                kind = file_kind(fullpath)
 
632
            except OSError, e:
 
633
                if e.errno == errno.ENOENT:
 
634
                    raise NoSuchFile(fullpath)
 
635
            if not InventoryEntry.versionable_kind(kind):
 
636
                raise errors.BadFileKindError(filename=f, kind=kind)
743
637
            if file_id is None:
744
638
                inv.add_path(f, kind=kind)
745
639
            else:
746
640
                inv.add_path(f, kind=kind, file_id=file_id)
747
 
            self._inventory_is_modified = True
748
641
 
749
 
    @needs_tree_write_lock
750
 
    def _gather_kinds(self, files, kinds):
751
 
        """See MutableTree._gather_kinds."""
752
 
        for pos, f in enumerate(files):
753
 
            if kinds[pos] is None:
754
 
                fullpath = normpath(self.abspath(f))
755
 
                try:
756
 
                    kinds[pos] = file_kind(fullpath)
757
 
                except OSError, e:
758
 
                    if e.errno == errno.ENOENT:
759
 
                        raise errors.NoSuchFile(fullpath)
 
642
        self._write_inventory(inv)
760
643
 
761
644
    @needs_write_lock
762
 
    def add_parent_tree_id(self, revision_id, allow_leftmost_as_ghost=False):
763
 
        """Add revision_id as a parent.
764
 
 
765
 
        This is equivalent to retrieving the current list of parent ids
766
 
        and setting the list to its value plus revision_id.
767
 
 
768
 
        :param revision_id: The revision id to add to the parent list. It may
769
 
        be a ghost revision as long as its not the first parent to be added,
770
 
        or the allow_leftmost_as_ghost parameter is set True.
771
 
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
772
 
        """
773
 
        parents = self.get_parent_ids() + [revision_id]
774
 
        self.set_parent_ids(parents, allow_leftmost_as_ghost=len(parents) > 1
775
 
            or allow_leftmost_as_ghost)
776
 
 
777
 
    @needs_tree_write_lock
778
 
    def add_parent_tree(self, parent_tuple, allow_leftmost_as_ghost=False):
779
 
        """Add revision_id, tree tuple as a parent.
780
 
 
781
 
        This is equivalent to retrieving the current list of parent trees
782
 
        and setting the list to its value plus parent_tuple. See also
783
 
        add_parent_tree_id - if you only have a parent id available it will be
784
 
        simpler to use that api. If you have the parent already available, using
785
 
        this api is preferred.
786
 
 
787
 
        :param parent_tuple: The (revision id, tree) to add to the parent list.
788
 
            If the revision_id is a ghost, pass None for the tree.
789
 
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
790
 
        """
791
 
        parent_ids = self.get_parent_ids() + [parent_tuple[0]]
792
 
        if len(parent_ids) > 1:
793
 
            # the leftmost may have already been a ghost, preserve that if it
794
 
            # was.
795
 
            allow_leftmost_as_ghost = True
796
 
        self.set_parent_ids(parent_ids,
797
 
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
798
 
 
799
 
    @needs_tree_write_lock
800
645
    def add_pending_merge(self, *revision_ids):
801
646
        # TODO: Perhaps should check at this point that the
802
647
        # history of the revision is actually present?
803
 
        parents = self.get_parent_ids()
 
648
        p = self.pending_merges()
804
649
        updated = False
805
650
        for rev_id in revision_ids:
806
 
            if rev_id in parents:
 
651
            if rev_id in p:
807
652
                continue
808
 
            parents.append(rev_id)
 
653
            p.append(rev_id)
809
654
            updated = True
810
655
        if updated:
811
 
            self.set_parent_ids(parents, allow_leftmost_as_ghost=True)
812
 
 
813
 
    def path_content_summary(self, path, _lstat=os.lstat,
814
 
        _mapper=osutils.file_kind_from_stat_mode):
815
 
        """See Tree.path_content_summary."""
816
 
        abspath = self.abspath(path)
 
656
            self.set_pending_merges(p)
 
657
 
 
658
    @needs_read_lock
 
659
    def pending_merges(self):
 
660
        """Return a list of pending merges.
 
661
 
 
662
        These are revisions that have been merged into the working
 
663
        directory but not yet committed.
 
664
        """
817
665
        try:
818
 
            stat_result = _lstat(abspath)
819
 
        except OSError, e:
820
 
            if getattr(e, 'errno', None) == errno.ENOENT:
821
 
                # no file.
822
 
                return ('missing', None, None, None)
823
 
            # propagate other errors
824
 
            raise
825
 
        kind = _mapper(stat_result.st_mode)
826
 
        if kind == 'file':
827
 
            return self._file_content_summary(path, stat_result)
828
 
        elif kind == 'directory':
829
 
            # perhaps it looks like a plain directory, but it's really a
830
 
            # reference.
831
 
            if self._directory_is_tree_reference(path):
832
 
                kind = 'tree-reference'
833
 
            return kind, None, None, None
834
 
        elif kind == 'symlink':
835
 
            target = osutils.readlink(abspath)
836
 
            return ('symlink', None, None, target)
837
 
        else:
838
 
            return (kind, None, None, None)
839
 
 
840
 
    def _file_content_summary(self, path, stat_result):
841
 
        size = stat_result.st_size
842
 
        executable = self._is_executable_from_path_and_stat(path, stat_result)
843
 
        # try for a stat cache lookup
844
 
        return ('file', size, executable, self._sha_from_stat(
845
 
            path, stat_result))
846
 
 
847
 
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
848
 
        """Common ghost checking functionality from set_parent_*.
849
 
 
850
 
        This checks that the left hand-parent exists if there are any
851
 
        revisions present.
852
 
        """
853
 
        if len(revision_ids) > 0:
854
 
            leftmost_id = revision_ids[0]
855
 
            if (not allow_leftmost_as_ghost and not
856
 
                self.branch.repository.has_revision(leftmost_id)):
857
 
                raise errors.GhostRevisionUnusableHere(leftmost_id)
858
 
 
859
 
    def _set_merges_from_parent_ids(self, parent_ids):
860
 
        merges = parent_ids[1:]
861
 
        self._transport.put_bytes('pending-merges', '\n'.join(merges),
862
 
            mode=self.bzrdir._get_file_mode())
863
 
 
864
 
    def _filter_parent_ids_by_ancestry(self, revision_ids):
865
 
        """Check that all merged revisions are proper 'heads'.
866
 
 
867
 
        This will always return the first revision_id, and any merged revisions
868
 
        which are
869
 
        """
870
 
        if len(revision_ids) == 0:
871
 
            return revision_ids
872
 
        graph = self.branch.repository.get_graph()
873
 
        heads = graph.heads(revision_ids)
874
 
        new_revision_ids = revision_ids[:1]
875
 
        for revision_id in revision_ids[1:]:
876
 
            if revision_id in heads and revision_id not in new_revision_ids:
877
 
                new_revision_ids.append(revision_id)
878
 
        if new_revision_ids != revision_ids:
879
 
            trace.mutter('requested to set revision_ids = %s,'
880
 
                         ' but filtered to %s', revision_ids, new_revision_ids)
881
 
        return new_revision_ids
882
 
 
883
 
    @needs_tree_write_lock
884
 
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
885
 
        """Set the parent ids to revision_ids.
886
 
 
887
 
        See also set_parent_trees. This api will try to retrieve the tree data
888
 
        for each element of revision_ids from the trees repository. If you have
889
 
        tree data already available, it is more efficient to use
890
 
        set_parent_trees rather than set_parent_ids. set_parent_ids is however
891
 
        an easier API to use.
892
 
 
893
 
        :param revision_ids: The revision_ids to set as the parent ids of this
894
 
            working tree. Any of these may be ghosts.
895
 
        """
896
 
        self._check_parents_for_ghosts(revision_ids,
897
 
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
898
 
        for revision_id in revision_ids:
899
 
            _mod_revision.check_not_reserved_id(revision_id)
900
 
 
901
 
        revision_ids = self._filter_parent_ids_by_ancestry(revision_ids)
902
 
 
903
 
        if len(revision_ids) > 0:
904
 
            self.set_last_revision(revision_ids[0])
905
 
        else:
906
 
            self.set_last_revision(_mod_revision.NULL_REVISION)
907
 
 
908
 
        self._set_merges_from_parent_ids(revision_ids)
909
 
 
910
 
    @needs_tree_write_lock
911
 
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
912
 
        """See MutableTree.set_parent_trees."""
913
 
        parent_ids = [rev for (rev, tree) in parents_list]
914
 
        for revision_id in parent_ids:
915
 
            _mod_revision.check_not_reserved_id(revision_id)
916
 
 
917
 
        self._check_parents_for_ghosts(parent_ids,
918
 
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
919
 
 
920
 
        parent_ids = self._filter_parent_ids_by_ancestry(parent_ids)
921
 
 
922
 
        if len(parent_ids) == 0:
923
 
            leftmost_parent_id = _mod_revision.NULL_REVISION
924
 
            leftmost_parent_tree = None
925
 
        else:
926
 
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
927
 
 
928
 
        if self._change_last_revision(leftmost_parent_id):
929
 
            if leftmost_parent_tree is None:
930
 
                # If we don't have a tree, fall back to reading the
931
 
                # parent tree from the repository.
932
 
                self._cache_basis_inventory(leftmost_parent_id)
933
 
            else:
934
 
                inv = leftmost_parent_tree.inventory
935
 
                xml = self._create_basis_xml_from_inventory(
936
 
                                        leftmost_parent_id, inv)
937
 
                self._write_basis_inventory(xml)
938
 
        self._set_merges_from_parent_ids(parent_ids)
939
 
 
940
 
    @needs_tree_write_lock
 
666
            merges_file = self._control_files.get_utf8('pending-merges')
 
667
        except NoSuchFile:
 
668
            return []
 
669
        p = []
 
670
        for l in merges_file.readlines():
 
671
            p.append(l.rstrip('\n'))
 
672
        return p
 
673
 
 
674
    @needs_write_lock
941
675
    def set_pending_merges(self, rev_list):
942
 
        parents = self.get_parent_ids()
943
 
        leftmost = parents[:1]
944
 
        new_parents = leftmost + rev_list
945
 
        self.set_parent_ids(new_parents)
 
676
        self._control_files.put_utf8('pending-merges', '\n'.join(rev_list))
946
677
 
947
 
    @needs_tree_write_lock
 
678
    @needs_write_lock
948
679
    def set_merge_modified(self, modified_hashes):
949
680
        def iter_stanzas():
950
681
            for file_id, hash in modified_hashes.iteritems():
951
 
                yield Stanza(file_id=file_id.decode('utf8'), hash=hash)
 
682
                yield Stanza(file_id=file_id, hash=hash)
952
683
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
953
684
 
954
 
    def _sha_from_stat(self, path, stat_result):
955
 
        """Get a sha digest from the tree's stat cache.
956
 
 
957
 
        The default implementation assumes no stat cache is present.
958
 
 
959
 
        :param path: The path.
960
 
        :param stat_result: The stat result being looked up.
961
 
        """
962
 
        return None
963
 
 
 
685
    @needs_write_lock
964
686
    def _put_rio(self, filename, stanzas, header):
965
 
        self._must_be_locked()
966
687
        my_file = rio_file(stanzas, header)
967
 
        self._transport.put_file(filename, my_file,
968
 
            mode=self.bzrdir._get_file_mode())
969
 
 
970
 
    @needs_write_lock # because merge pulls data into the branch.
971
 
    def merge_from_branch(self, branch, to_revision=None, from_revision=None,
972
 
                          merge_type=None, force=False):
973
 
        """Merge from a branch into this working tree.
974
 
 
975
 
        :param branch: The branch to merge from.
976
 
        :param to_revision: If non-None, the merge will merge to to_revision,
977
 
            but not beyond it. to_revision does not need to be in the history
978
 
            of the branch when it is supplied. If None, to_revision defaults to
979
 
            branch.last_revision().
980
 
        """
981
 
        from bzrlib.merge import Merger, Merge3Merger
982
 
        merger = Merger(self.branch, this_tree=self)
983
 
        # check that there are no local alterations
984
 
        if not force and self.has_changes():
985
 
            raise errors.UncommittedChanges(self)
986
 
        if to_revision is None:
987
 
            to_revision = _mod_revision.ensure_null(branch.last_revision())
988
 
        merger.other_rev_id = to_revision
989
 
        if _mod_revision.is_null(merger.other_rev_id):
990
 
            raise errors.NoCommits(branch)
991
 
        self.branch.fetch(branch, last_revision=merger.other_rev_id)
992
 
        merger.other_basis = merger.other_rev_id
993
 
        merger.other_tree = self.branch.repository.revision_tree(
994
 
            merger.other_rev_id)
995
 
        merger.other_branch = branch
996
 
        if from_revision is None:
997
 
            merger.find_base()
998
 
        else:
999
 
            merger.set_base_revision(from_revision, branch)
1000
 
        if merger.base_rev_id == merger.other_rev_id:
1001
 
            raise errors.PointlessMerge
1002
 
        merger.backup_files = False
1003
 
        if merge_type is None:
1004
 
            merger.merge_type = Merge3Merger
1005
 
        else:
1006
 
            merger.merge_type = merge_type
1007
 
        merger.set_interesting_files(None)
1008
 
        merger.show_base = False
1009
 
        merger.reprocess = False
1010
 
        conflicts = merger.do_merge()
1011
 
        merger.set_pending()
1012
 
        return conflicts
 
688
        self._control_files.put(filename, my_file)
1013
689
 
1014
690
    @needs_read_lock
1015
691
    def merge_modified(self):
1016
 
        """Return a dictionary of files modified by a merge.
1017
 
 
1018
 
        The list is initialized by WorkingTree.set_merge_modified, which is
1019
 
        typically called after we make some automatic updates to the tree
1020
 
        because of a merge.
1021
 
 
1022
 
        This returns a map of file_id->sha1, containing only files which are
1023
 
        still in the working inventory and have that text hash.
1024
 
        """
1025
692
        try:
1026
 
            hashfile = self._transport.get('merge-hashes')
1027
 
        except errors.NoSuchFile:
 
693
            hashfile = self._control_files.get('merge-hashes')
 
694
        except NoSuchFile:
1028
695
            return {}
 
696
        merge_hashes = {}
1029
697
        try:
1030
 
            merge_hashes = {}
1031
 
            try:
1032
 
                if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
1033
 
                    raise errors.MergeModifiedFormatError()
1034
 
            except StopIteration:
1035
 
                raise errors.MergeModifiedFormatError()
1036
 
            for s in RioReader(hashfile):
1037
 
                # RioReader reads in Unicode, so convert file_ids back to utf8
1038
 
                file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
1039
 
                if file_id not in self.inventory:
1040
 
                    continue
1041
 
                text_hash = s.get("hash")
1042
 
                if text_hash == self.get_file_sha1(file_id):
1043
 
                    merge_hashes[file_id] = text_hash
1044
 
            return merge_hashes
1045
 
        finally:
1046
 
            hashfile.close()
1047
 
 
1048
 
    @needs_write_lock
1049
 
    def mkdir(self, path, file_id=None):
1050
 
        """See MutableTree.mkdir()."""
1051
 
        if file_id is None:
1052
 
            file_id = generate_ids.gen_file_id(os.path.basename(path))
1053
 
        os.mkdir(self.abspath(path))
1054
 
        self.add(path, file_id, 'directory')
1055
 
        return file_id
 
698
            if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
 
699
                raise MergeModifiedFormatError()
 
700
        except StopIteration:
 
701
            raise MergeModifiedFormatError()
 
702
        for s in RioReader(hashfile):
 
703
            file_id = s.get("file_id")
 
704
            if file_id not in self.inventory:
 
705
                continue
 
706
            hash = s.get("hash")
 
707
            if hash == self.get_file_sha1(file_id):
 
708
                merge_hashes[file_id] = hash
 
709
        return merge_hashes
1056
710
 
1057
711
    def get_symlink_target(self, file_id):
1058
 
        abspath = self.id2abspath(file_id)
1059
 
        target = osutils.readlink(abspath)
1060
 
        return target
1061
 
 
1062
 
    @needs_write_lock
1063
 
    def subsume(self, other_tree):
1064
 
        def add_children(inventory, entry):
1065
 
            for child_entry in entry.children.values():
1066
 
                inventory._byid[child_entry.file_id] = child_entry
1067
 
                if child_entry.kind == 'directory':
1068
 
                    add_children(inventory, child_entry)
1069
 
        if other_tree.get_root_id() == self.get_root_id():
1070
 
            raise errors.BadSubsumeSource(self, other_tree,
1071
 
                                          'Trees have the same root')
1072
 
        try:
1073
 
            other_tree_path = self.relpath(other_tree.basedir)
1074
 
        except errors.PathNotChild:
1075
 
            raise errors.BadSubsumeSource(self, other_tree,
1076
 
                'Tree is not contained by the other')
1077
 
        new_root_parent = self.path2id(osutils.dirname(other_tree_path))
1078
 
        if new_root_parent is None:
1079
 
            raise errors.BadSubsumeSource(self, other_tree,
1080
 
                'Parent directory is not versioned.')
1081
 
        # We need to ensure that the result of a fetch will have a
1082
 
        # versionedfile for the other_tree root, and only fetching into
1083
 
        # RepositoryKnit2 guarantees that.
1084
 
        if not self.branch.repository.supports_rich_root():
1085
 
            raise errors.SubsumeTargetNeedsUpgrade(other_tree)
1086
 
        other_tree.lock_tree_write()
1087
 
        try:
1088
 
            new_parents = other_tree.get_parent_ids()
1089
 
            other_root = other_tree.inventory.root
1090
 
            other_root.parent_id = new_root_parent
1091
 
            other_root.name = osutils.basename(other_tree_path)
1092
 
            self.inventory.add(other_root)
1093
 
            add_children(self.inventory, other_root)
1094
 
            self._write_inventory(self.inventory)
1095
 
            # normally we don't want to fetch whole repositories, but i think
1096
 
            # here we really do want to consolidate the whole thing.
1097
 
            for parent_id in other_tree.get_parent_ids():
1098
 
                self.branch.fetch(other_tree.branch, parent_id)
1099
 
                self.add_parent_tree_id(parent_id)
1100
 
        finally:
1101
 
            other_tree.unlock()
1102
 
        other_tree.bzrdir.retire_bzrdir()
1103
 
 
1104
 
    def _setup_directory_is_tree_reference(self):
1105
 
        if self._branch.repository._format.supports_tree_reference:
1106
 
            self._directory_is_tree_reference = \
1107
 
                self._directory_may_be_tree_reference
1108
 
        else:
1109
 
            self._directory_is_tree_reference = \
1110
 
                self._directory_is_never_tree_reference
1111
 
 
1112
 
    def _directory_is_never_tree_reference(self, relpath):
1113
 
        return False
1114
 
 
1115
 
    def _directory_may_be_tree_reference(self, relpath):
1116
 
        # as a special case, if a directory contains control files then
1117
 
        # it's a tree reference, except that the root of the tree is not
1118
 
        return relpath and osutils.isdir(self.abspath(relpath) + u"/.bzr")
1119
 
        # TODO: We could ask all the control formats whether they
1120
 
        # recognize this directory, but at the moment there's no cheap api
1121
 
        # to do that.  Since we probably can only nest bzr checkouts and
1122
 
        # they always use this name it's ok for now.  -- mbp 20060306
1123
 
        #
1124
 
        # FIXME: There is an unhandled case here of a subdirectory
1125
 
        # containing .bzr but not a branch; that will probably blow up
1126
 
        # when you try to commit it.  It might happen if there is a
1127
 
        # checkout in a subdirectory.  This can be avoided by not adding
1128
 
        # it.  mbp 20070306
1129
 
 
1130
 
    @needs_tree_write_lock
1131
 
    def extract(self, file_id, format=None):
1132
 
        """Extract a subtree from this tree.
1133
 
 
1134
 
        A new branch will be created, relative to the path for this tree.
1135
 
        """
1136
 
        self.flush()
1137
 
        def mkdirs(path):
1138
 
            segments = osutils.splitpath(path)
1139
 
            transport = self.branch.bzrdir.root_transport
1140
 
            for name in segments:
1141
 
                transport = transport.clone(name)
1142
 
                transport.ensure_base()
1143
 
            return transport
1144
 
 
1145
 
        sub_path = self.id2path(file_id)
1146
 
        branch_transport = mkdirs(sub_path)
1147
 
        if format is None:
1148
 
            format = self.bzrdir.cloning_metadir()
1149
 
        branch_transport.ensure_base()
1150
 
        branch_bzrdir = format.initialize_on_transport(branch_transport)
1151
 
        try:
1152
 
            repo = branch_bzrdir.find_repository()
1153
 
        except errors.NoRepositoryPresent:
1154
 
            repo = branch_bzrdir.create_repository()
1155
 
        if not repo.supports_rich_root():
1156
 
            raise errors.RootNotRich()
1157
 
        new_branch = branch_bzrdir.create_branch()
1158
 
        new_branch.pull(self.branch)
1159
 
        for parent_id in self.get_parent_ids():
1160
 
            new_branch.fetch(self.branch, parent_id)
1161
 
        tree_transport = self.bzrdir.root_transport.clone(sub_path)
1162
 
        if tree_transport.base != branch_transport.base:
1163
 
            tree_bzrdir = format.initialize_on_transport(tree_transport)
1164
 
            branch.BranchReferenceFormat().initialize(tree_bzrdir,
1165
 
                target_branch=new_branch)
1166
 
        else:
1167
 
            tree_bzrdir = branch_bzrdir
1168
 
        wt = tree_bzrdir.create_workingtree(_mod_revision.NULL_REVISION)
1169
 
        wt.set_parent_ids(self.get_parent_ids())
1170
 
        my_inv = self.inventory
1171
 
        child_inv = inventory.Inventory(root_id=None)
1172
 
        new_root = my_inv[file_id]
1173
 
        my_inv.remove_recursive_id(file_id)
1174
 
        new_root.parent_id = None
1175
 
        child_inv.add(new_root)
1176
 
        self._write_inventory(my_inv)
1177
 
        wt._write_inventory(child_inv)
1178
 
        return wt
1179
 
 
1180
 
    def _serialize(self, inventory, out_file):
1181
 
        xml5.serializer_v5.write_inventory(self._inventory, out_file,
1182
 
            working=True)
1183
 
 
1184
 
    def _deserialize(selt, in_file):
1185
 
        return xml5.serializer_v5.read_inventory(in_file)
1186
 
 
1187
 
    def flush(self):
1188
 
        """Write the in memory inventory to disk."""
1189
 
        # TODO: Maybe this should only write on dirty ?
1190
 
        if self._control_files._lock_mode != 'w':
1191
 
            raise errors.NotWriteLocked(self)
1192
 
        sio = StringIO()
1193
 
        self._serialize(self._inventory, sio)
1194
 
        sio.seek(0)
1195
 
        self._transport.put_file('inventory', sio,
1196
 
            mode=self.bzrdir._get_file_mode())
1197
 
        self._inventory_is_modified = False
1198
 
 
1199
 
    def _kind(self, relpath):
1200
 
        return osutils.file_kind(self.abspath(relpath))
1201
 
 
1202
 
    def list_files(self, include_root=False, from_dir=None, recursive=True):
1203
 
        """List all files as (path, class, kind, id, entry).
 
712
        return os.readlink(self.id2abspath(file_id))
 
713
 
 
714
    def file_class(self, filename):
 
715
        if self.path2id(filename):
 
716
            return 'V'
 
717
        elif self.is_ignored(filename):
 
718
            return 'I'
 
719
        else:
 
720
            return '?'
 
721
 
 
722
    def list_files(self):
 
723
        """Recursively list all files as (path, class, kind, id, entry).
1204
724
 
1205
725
        Lists, but does not descend into unversioned directories.
 
726
 
1206
727
        This does not include files that have been deleted in this
1207
 
        tree. Skips the control directory.
 
728
        tree.
1208
729
 
1209
 
        :param include_root: if True, return an entry for the root
1210
 
        :param from_dir: start from this directory or None for the root
1211
 
        :param recursive: whether to recurse into subdirectories or not
 
730
        Skips the control directory.
1212
731
        """
1213
 
        # list_files is an iterator, so @needs_read_lock doesn't work properly
1214
 
        # with it. So callers should be careful to always read_lock the tree.
1215
 
        if not self.is_locked():
1216
 
            raise errors.ObjectNotLocked(self)
1217
 
 
1218
 
        inv = self.inventory
1219
 
        if from_dir is None and include_root is True:
1220
 
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
 
732
        inv = self._inventory
1221
733
        # Convert these into local objects to save lookup times
1222
734
        pathjoin = osutils.pathjoin
1223
 
        file_kind = self._kind
 
735
        file_kind = osutils.file_kind
1224
736
 
1225
737
        # transport.base ends in a slash, we want the piece
1226
738
        # between the last two slashes
1229
741
        fk_entries = {'directory':TreeDirectory, 'file':TreeFile, 'symlink':TreeLink}
1230
742
 
1231
743
        # directory file_id, relative path, absolute path, reverse sorted children
1232
 
        if from_dir is not None:
1233
 
            from_dir_id = inv.path2id(from_dir)
1234
 
            if from_dir_id is None:
1235
 
                # Directory not versioned
1236
 
                return
1237
 
            from_dir_abspath = pathjoin(self.basedir, from_dir)
1238
 
        else:
1239
 
            from_dir_id = inv.root.file_id
1240
 
            from_dir_abspath = self.basedir
1241
 
        children = os.listdir(from_dir_abspath)
 
744
        children = os.listdir(self.basedir)
1242
745
        children.sort()
1243
 
        # jam 20060527 The kernel sized tree seems equivalent whether we
 
746
        # jam 20060527 The kernel sized tree seems equivalent whether we 
1244
747
        # use a deque and popleft to keep them sorted, or if we use a plain
1245
748
        # list and just reverse() them.
1246
749
        children = collections.deque(children)
1247
 
        stack = [(from_dir_id, u'', from_dir_abspath, children)]
 
750
        stack = [(inv.root.file_id, u'', self.basedir, children)]
1248
751
        while stack:
1249
752
            from_dir_id, from_dir_relpath, from_dir_abspath, children = stack[-1]
1250
753
 
1266
769
 
1267
770
                # absolute path
1268
771
                fap = from_dir_abspath + '/' + f
1269
 
 
1270
 
                dir_ie = inv[from_dir_id]
1271
 
                if dir_ie.kind == 'directory':
1272
 
                    f_ie = dir_ie.children.get(f)
1273
 
                else:
1274
 
                    f_ie = None
 
772
                
 
773
                f_ie = inv.get_child(from_dir_id, f)
1275
774
                if f_ie:
1276
775
                    c = 'V'
1277
776
                elif self.is_ignored(fp[1:]):
1278
777
                    c = 'I'
1279
778
                else:
1280
 
                    # we may not have found this file, because of a unicode
1281
 
                    # issue, or because the directory was actually a symlink.
 
779
                    # we may not have found this file, because of a unicode issue
1282
780
                    f_norm, can_access = osutils.normalized_filename(f)
1283
781
                    if f == f_norm or not can_access:
1284
782
                        # No change, so treat this file normally
1300
798
 
1301
799
                fk = file_kind(fap)
1302
800
 
 
801
                if f_ie:
 
802
                    if f_ie.kind != fk:
 
803
                        raise BzrCheckError("file %r entered as kind %r id %r, "
 
804
                                            "now of kind %r"
 
805
                                            % (fap, f_ie.kind, f_ie.file_id, fk))
 
806
 
1303
807
                # make a last minute entry
1304
808
                if f_ie:
1305
809
                    yield fp[1:], c, fk, f_ie.file_id, f_ie
1309
813
                    except KeyError:
1310
814
                        yield fp[1:], c, fk, None, TreeEntry()
1311
815
                    continue
1312
 
 
 
816
                
1313
817
                if fk != 'directory':
1314
818
                    continue
1315
819
 
1316
 
                # But do this child first if recursing down
1317
 
                if recursive:
1318
 
                    new_children = os.listdir(fap)
1319
 
                    new_children.sort()
1320
 
                    new_children = collections.deque(new_children)
1321
 
                    stack.append((f_ie.file_id, fp, fap, new_children))
1322
 
                    # Break out of inner loop,
1323
 
                    # so that we start outer loop with child
1324
 
                    break
 
820
                # But do this child first
 
821
                new_children = os.listdir(fap)
 
822
                new_children.sort()
 
823
                new_children = collections.deque(new_children)
 
824
                stack.append((f_ie.file_id, fp, fap, new_children))
 
825
                # Break out of inner loop, so that we start outer loop with child
 
826
                break
1325
827
            else:
1326
828
                # if we finished all children, pop it off the stack
1327
829
                stack.pop()
1328
830
 
1329
 
    @needs_tree_write_lock
1330
 
    def move(self, from_paths, to_dir=None, after=False):
 
831
 
 
832
    @needs_write_lock
 
833
    def move(self, from_paths, to_name):
1331
834
        """Rename files.
1332
835
 
1333
 
        to_dir must exist in the inventory.
1334
 
 
1335
 
        If to_dir exists and is a directory, the files are moved into
1336
 
        it, keeping their old names.
1337
 
 
1338
 
        Note that to_dir is only the last component of the new name;
 
836
        to_name must exist in the inventory.
 
837
 
 
838
        If to_name exists and is a directory, the files are moved into
 
839
        it, keeping their old names.  
 
840
 
 
841
        Note that to_name is only the last component of the new name;
1339
842
        this doesn't change the directory.
1340
843
 
1341
 
        For each entry in from_paths the move mode will be determined
1342
 
        independently.
1343
 
 
1344
 
        The first mode moves the file in the filesystem and updates the
1345
 
        inventory. The second mode only updates the inventory without
1346
 
        touching the file on the filesystem. This is the new mode introduced
1347
 
        in version 0.15.
1348
 
 
1349
 
        move uses the second mode if 'after == True' and the target is not
1350
 
        versioned but present in the working tree.
1351
 
 
1352
 
        move uses the second mode if 'after == False' and the source is
1353
 
        versioned but no longer in the working tree, and the target is not
1354
 
        versioned but present in the working tree.
1355
 
 
1356
 
        move uses the first mode if 'after == False' and the source is
1357
 
        versioned and present in the working tree, and the target is not
1358
 
        versioned and not present in the working tree.
1359
 
 
1360
 
        Everything else results in an error.
1361
 
 
1362
844
        This returns a list of (from_path, to_path) pairs for each
1363
845
        entry that is moved.
1364
846
        """
1365
 
        rename_entries = []
1366
 
        rename_tuples = []
1367
 
 
1368
 
        # check for deprecated use of signature
1369
 
        if to_dir is None:
1370
 
            raise TypeError('You must supply a target directory')
1371
 
        # check destination directory
1372
 
        if isinstance(from_paths, basestring):
1373
 
            raise ValueError()
 
847
        result = []
 
848
        ## TODO: Option to move IDs only
 
849
        assert not isinstance(from_paths, basestring)
1374
850
        inv = self.inventory
1375
 
        to_abs = self.abspath(to_dir)
 
851
        to_abs = self.abspath(to_name)
1376
852
        if not isdir(to_abs):
1377
 
            raise errors.BzrMoveFailedError('',to_dir,
1378
 
                errors.NotADirectory(to_abs))
1379
 
        if not self.has_filename(to_dir):
1380
 
            raise errors.BzrMoveFailedError('',to_dir,
1381
 
                errors.NotInWorkingDirectory(to_dir))
1382
 
        to_dir_id = inv.path2id(to_dir)
1383
 
        if to_dir_id is None:
1384
 
            raise errors.BzrMoveFailedError('',to_dir,
1385
 
                errors.NotVersionedError(path=str(to_dir)))
1386
 
 
 
853
            raise BzrError("destination %r is not a directory" % to_abs)
 
854
        if not self.has_filename(to_name):
 
855
            raise BzrError("destination %r not in working directory" % to_abs)
 
856
        to_dir_id = inv.path2id(to_name)
 
857
        if to_dir_id == None and to_name != '':
 
858
            raise BzrError("destination %r is not a versioned directory" % to_name)
1387
859
        to_dir_ie = inv[to_dir_id]
1388
 
        if to_dir_ie.kind != 'directory':
1389
 
            raise errors.BzrMoveFailedError('',to_dir,
1390
 
                errors.NotADirectory(to_abs))
1391
 
 
1392
 
        # create rename entries and tuples
1393
 
        for from_rel in from_paths:
1394
 
            from_tail = splitpath(from_rel)[-1]
1395
 
            from_id = inv.path2id(from_rel)
1396
 
            if from_id is None:
1397
 
                raise errors.BzrMoveFailedError(from_rel,to_dir,
1398
 
                    errors.NotVersionedError(path=str(from_rel)))
1399
 
 
1400
 
            from_entry = inv[from_id]
1401
 
            from_parent_id = from_entry.parent_id
1402
 
            to_rel = pathjoin(to_dir, from_tail)
1403
 
            rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
1404
 
                                         from_id=from_id,
1405
 
                                         from_tail=from_tail,
1406
 
                                         from_parent_id=from_parent_id,
1407
 
                                         to_rel=to_rel, to_tail=from_tail,
1408
 
                                         to_parent_id=to_dir_id)
1409
 
            rename_entries.append(rename_entry)
1410
 
            rename_tuples.append((from_rel, to_rel))
1411
 
 
1412
 
        # determine which move mode to use. checks also for movability
1413
 
        rename_entries = self._determine_mv_mode(rename_entries, after)
1414
 
 
1415
 
        original_modified = self._inventory_is_modified
 
860
        if to_dir_ie.kind not in ('directory', 'root_directory'):
 
861
            raise BzrError("destination %r is not a directory" % to_abs)
 
862
 
 
863
        to_idpath = inv.get_idpath(to_dir_id)
 
864
 
 
865
        for f in from_paths:
 
866
            if not self.has_filename(f):
 
867
                raise BzrError("%r does not exist in working tree" % f)
 
868
            f_id = inv.path2id(f)
 
869
            if f_id == None:
 
870
                raise BzrError("%r is not versioned" % f)
 
871
            name_tail = splitpath(f)[-1]
 
872
            dest_path = pathjoin(to_name, name_tail)
 
873
            if self.has_filename(dest_path):
 
874
                raise BzrError("destination %r already exists" % dest_path)
 
875
            if f_id in to_idpath:
 
876
                raise BzrError("can't move %r to a subdirectory of itself" % f)
 
877
 
 
878
        # OK, so there's a race here, it's possible that someone will
 
879
        # create a file in this interval and then the rename might be
 
880
        # left half-done.  But we should have caught most problems.
 
881
        orig_inv = deepcopy(self.inventory)
1416
882
        try:
1417
 
            if len(from_paths):
1418
 
                self._inventory_is_modified = True
1419
 
            self._move(rename_entries)
 
883
            for f in from_paths:
 
884
                name_tail = splitpath(f)[-1]
 
885
                dest_path = pathjoin(to_name, name_tail)
 
886
                result.append((f, dest_path))
 
887
                inv.rename(inv.path2id(f), to_dir_id, name_tail)
 
888
                try:
 
889
                    rename(self.abspath(f), self.abspath(dest_path))
 
890
                except OSError, e:
 
891
                    raise BzrError("failed to rename %r to %r: %s" %
 
892
                                   (f, dest_path, e[1]),
 
893
                            ["rename rolled back"])
1420
894
        except:
1421
895
            # restore the inventory on error
1422
 
            self._inventory_is_modified = original_modified
 
896
            self._set_inventory(orig_inv)
1423
897
            raise
1424
898
        self._write_inventory(inv)
1425
 
        return rename_tuples
1426
 
 
1427
 
    def _determine_mv_mode(self, rename_entries, after=False):
1428
 
        """Determines for each from-to pair if both inventory and working tree
1429
 
        or only the inventory has to be changed.
1430
 
 
1431
 
        Also does basic plausability tests.
1432
 
        """
1433
 
        inv = self.inventory
1434
 
 
1435
 
        for rename_entry in rename_entries:
1436
 
            # store to local variables for easier reference
1437
 
            from_rel = rename_entry.from_rel
1438
 
            from_id = rename_entry.from_id
1439
 
            to_rel = rename_entry.to_rel
1440
 
            to_id = inv.path2id(to_rel)
1441
 
            only_change_inv = False
1442
 
 
1443
 
            # check the inventory for source and destination
1444
 
            if from_id is None:
1445
 
                raise errors.BzrMoveFailedError(from_rel,to_rel,
1446
 
                    errors.NotVersionedError(path=str(from_rel)))
1447
 
            if to_id is not None:
1448
 
                raise errors.BzrMoveFailedError(from_rel,to_rel,
1449
 
                    errors.AlreadyVersionedError(path=str(to_rel)))
1450
 
 
1451
 
            # try to determine the mode for rename (only change inv or change
1452
 
            # inv and file system)
1453
 
            if after:
1454
 
                if not self.has_filename(to_rel):
1455
 
                    raise errors.BzrMoveFailedError(from_id,to_rel,
1456
 
                        errors.NoSuchFile(path=str(to_rel),
1457
 
                        extra="New file has not been created yet"))
1458
 
                only_change_inv = True
1459
 
            elif not self.has_filename(from_rel) and self.has_filename(to_rel):
1460
 
                only_change_inv = True
1461
 
            elif self.has_filename(from_rel) and not self.has_filename(to_rel):
1462
 
                only_change_inv = False
1463
 
            elif (not self.case_sensitive
1464
 
                  and from_rel.lower() == to_rel.lower()
1465
 
                  and self.has_filename(from_rel)):
1466
 
                only_change_inv = False
1467
 
            else:
1468
 
                # something is wrong, so lets determine what exactly
1469
 
                if not self.has_filename(from_rel) and \
1470
 
                   not self.has_filename(to_rel):
1471
 
                    raise errors.BzrRenameFailedError(from_rel,to_rel,
1472
 
                        errors.PathsDoNotExist(paths=(str(from_rel),
1473
 
                        str(to_rel))))
1474
 
                else:
1475
 
                    raise errors.RenameFailedFilesExist(from_rel, to_rel)
1476
 
            rename_entry.only_change_inv = only_change_inv
1477
 
        return rename_entries
1478
 
 
1479
 
    def _move(self, rename_entries):
1480
 
        """Moves a list of files.
1481
 
 
1482
 
        Depending on the value of the flag 'only_change_inv', the
1483
 
        file will be moved on the file system or not.
1484
 
        """
1485
 
        inv = self.inventory
1486
 
        moved = []
1487
 
 
1488
 
        for entry in rename_entries:
1489
 
            try:
1490
 
                self._move_entry(entry)
1491
 
            except:
1492
 
                self._rollback_move(moved)
1493
 
                raise
1494
 
            moved.append(entry)
1495
 
 
1496
 
    def _rollback_move(self, moved):
1497
 
        """Try to rollback a previous move in case of an filesystem error."""
1498
 
        inv = self.inventory
1499
 
        for entry in moved:
1500
 
            try:
1501
 
                self._move_entry(WorkingTree._RenameEntry(
1502
 
                    entry.to_rel, entry.from_id,
1503
 
                    entry.to_tail, entry.to_parent_id, entry.from_rel,
1504
 
                    entry.from_tail, entry.from_parent_id,
1505
 
                    entry.only_change_inv))
1506
 
            except errors.BzrMoveFailedError, e:
1507
 
                raise errors.BzrMoveFailedError( '', '', "Rollback failed."
1508
 
                        " The working tree is in an inconsistent state."
1509
 
                        " Please consider doing a 'bzr revert'."
1510
 
                        " Error message is: %s" % e)
1511
 
 
1512
 
    def _move_entry(self, entry):
1513
 
        inv = self.inventory
1514
 
        from_rel_abs = self.abspath(entry.from_rel)
1515
 
        to_rel_abs = self.abspath(entry.to_rel)
1516
 
        if from_rel_abs == to_rel_abs:
1517
 
            raise errors.BzrMoveFailedError(entry.from_rel, entry.to_rel,
1518
 
                "Source and target are identical.")
1519
 
 
1520
 
        if not entry.only_change_inv:
1521
 
            try:
1522
 
                osutils.rename(from_rel_abs, to_rel_abs)
1523
 
            except OSError, e:
1524
 
                raise errors.BzrMoveFailedError(entry.from_rel,
1525
 
                    entry.to_rel, e[1])
1526
 
        inv.rename(entry.from_id, entry.to_parent_id, entry.to_tail)
1527
 
 
1528
 
    @needs_tree_write_lock
1529
 
    def rename_one(self, from_rel, to_rel, after=False):
 
899
        return result
 
900
 
 
901
    @needs_write_lock
 
902
    def rename_one(self, from_rel, to_rel):
1530
903
        """Rename one file.
1531
904
 
1532
905
        This can change the directory or the filename or both.
1533
 
 
1534
 
        rename_one has several 'modes' to work. First, it can rename a physical
1535
 
        file and change the file_id. That is the normal mode. Second, it can
1536
 
        only change the file_id without touching any physical file. This is
1537
 
        the new mode introduced in version 0.15.
1538
 
 
1539
 
        rename_one uses the second mode if 'after == True' and 'to_rel' is not
1540
 
        versioned but present in the working tree.
1541
 
 
1542
 
        rename_one uses the second mode if 'after == False' and 'from_rel' is
1543
 
        versioned but no longer in the working tree, and 'to_rel' is not
1544
 
        versioned but present in the working tree.
1545
 
 
1546
 
        rename_one uses the first mode if 'after == False' and 'from_rel' is
1547
 
        versioned and present in the working tree, and 'to_rel' is not
1548
 
        versioned and not present in the working tree.
1549
 
 
1550
 
        Everything else results in an error.
1551
906
        """
1552
907
        inv = self.inventory
1553
 
        rename_entries = []
1554
 
 
1555
 
        # create rename entries and tuples
1556
 
        from_tail = splitpath(from_rel)[-1]
1557
 
        from_id = inv.path2id(from_rel)
1558
 
        if from_id is None:
1559
 
            # if file is missing in the inventory maybe it's in the basis_tree
1560
 
            basis_tree = self.branch.basis_tree()
1561
 
            from_id = basis_tree.path2id(from_rel)
1562
 
            if from_id is None:
1563
 
                raise errors.BzrRenameFailedError(from_rel,to_rel,
1564
 
                    errors.NotVersionedError(path=str(from_rel)))
1565
 
            # put entry back in the inventory so we can rename it
1566
 
            from_entry = basis_tree.inventory[from_id].copy()
1567
 
            inv.add(from_entry)
1568
 
        else:
1569
 
            from_entry = inv[from_id]
1570
 
        from_parent_id = from_entry.parent_id
 
908
        if not self.has_filename(from_rel):
 
909
            raise BzrError("can't rename: old working file %r does not exist" % from_rel)
 
910
        if self.has_filename(to_rel):
 
911
            raise BzrError("can't rename: new working file %r already exists" % to_rel)
 
912
 
 
913
        file_id = inv.path2id(from_rel)
 
914
        if file_id == None:
 
915
            raise BzrError("can't rename: old name %r is not versioned" % from_rel)
 
916
 
 
917
        entry = inv[file_id]
 
918
        from_parent = entry.parent_id
 
919
        from_name = entry.name
 
920
        
 
921
        if inv.path2id(to_rel):
 
922
            raise BzrError("can't rename: new name %r is already versioned" % to_rel)
 
923
 
1571
924
        to_dir, to_tail = os.path.split(to_rel)
1572
925
        to_dir_id = inv.path2id(to_dir)
1573
 
        rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
1574
 
                                     from_id=from_id,
1575
 
                                     from_tail=from_tail,
1576
 
                                     from_parent_id=from_parent_id,
1577
 
                                     to_rel=to_rel, to_tail=to_tail,
1578
 
                                     to_parent_id=to_dir_id)
1579
 
        rename_entries.append(rename_entry)
1580
 
 
1581
 
        # determine which move mode to use. checks also for movability
1582
 
        rename_entries = self._determine_mv_mode(rename_entries, after)
1583
 
 
1584
 
        # check if the target changed directory and if the target directory is
1585
 
        # versioned
1586
 
        if to_dir_id is None:
1587
 
            raise errors.BzrMoveFailedError(from_rel,to_rel,
1588
 
                errors.NotVersionedError(path=str(to_dir)))
1589
 
 
1590
 
        # all checks done. now we can continue with our actual work
1591
 
        mutter('rename_one:\n'
1592
 
               '  from_id   {%s}\n'
1593
 
               '  from_rel: %r\n'
1594
 
               '  to_rel:   %r\n'
1595
 
               '  to_dir    %r\n'
1596
 
               '  to_dir_id {%s}\n',
1597
 
               from_id, from_rel, to_rel, to_dir, to_dir_id)
1598
 
 
1599
 
        self._move(rename_entries)
 
926
        if to_dir_id == None and to_dir != '':
 
927
            raise BzrError("can't determine destination directory id for %r" % to_dir)
 
928
 
 
929
        mutter("rename_one:")
 
930
        mutter("  file_id    {%s}" % file_id)
 
931
        mutter("  from_rel   %r" % from_rel)
 
932
        mutter("  to_rel     %r" % to_rel)
 
933
        mutter("  to_dir     %r" % to_dir)
 
934
        mutter("  to_dir_id  {%s}" % to_dir_id)
 
935
 
 
936
        inv.rename(file_id, to_dir_id, to_tail)
 
937
 
 
938
        from_abs = self.abspath(from_rel)
 
939
        to_abs = self.abspath(to_rel)
 
940
        try:
 
941
            rename(from_abs, to_abs)
 
942
        except OSError, e:
 
943
            inv.rename(file_id, from_parent, from_name)
 
944
            raise BzrError("failed to rename %r to %r: %s"
 
945
                    % (from_abs, to_abs, e[1]),
 
946
                    ["rename rolled back"])
1600
947
        self._write_inventory(inv)
1601
948
 
1602
 
    class _RenameEntry(object):
1603
 
        def __init__(self, from_rel, from_id, from_tail, from_parent_id,
1604
 
                     to_rel, to_tail, to_parent_id, only_change_inv=False):
1605
 
            self.from_rel = from_rel
1606
 
            self.from_id = from_id
1607
 
            self.from_tail = from_tail
1608
 
            self.from_parent_id = from_parent_id
1609
 
            self.to_rel = to_rel
1610
 
            self.to_tail = to_tail
1611
 
            self.to_parent_id = to_parent_id
1612
 
            self.only_change_inv = only_change_inv
1613
 
 
1614
949
    @needs_read_lock
1615
950
    def unknowns(self):
1616
951
        """Return all unknown files.
1618
953
        These are files in the working directory that are not versioned or
1619
954
        control files or ignored.
1620
955
        """
1621
 
        # force the extras method to be fully executed before returning, to
1622
 
        # prevent race conditions with the lock
1623
 
        return iter(
1624
 
            [subp for subp in self.extras() if not self.is_ignored(subp)])
1625
 
 
1626
 
    @needs_tree_write_lock
1627
 
    def unversion(self, file_ids):
1628
 
        """Remove the file ids in file_ids from the current versioned set.
1629
 
 
1630
 
        When a file_id is unversioned, all of its children are automatically
1631
 
        unversioned.
1632
 
 
1633
 
        :param file_ids: The file ids to stop versioning.
1634
 
        :raises: NoSuchId if any fileid is not currently versioned.
1635
 
        """
1636
 
        for file_id in file_ids:
1637
 
            if file_id not in self._inventory:
1638
 
                raise errors.NoSuchId(self, file_id)
1639
 
        for file_id in file_ids:
1640
 
            if self._inventory.has_id(file_id):
1641
 
                self._inventory.remove_recursive_id(file_id)
1642
 
        if len(file_ids):
1643
 
            # in the future this should just set a dirty bit to wait for the
1644
 
            # final unlock. However, until all methods of workingtree start
1645
 
            # with the current in -memory inventory rather than triggering
1646
 
            # a read, it is more complex - we need to teach read_inventory
1647
 
            # to know when to read, and when to not read first... and possibly
1648
 
            # to save first when the in memory one may be corrupted.
1649
 
            # so for now, we just only write it if it is indeed dirty.
1650
 
            # - RBC 20060907
1651
 
            self._write_inventory(self._inventory)
 
956
        for subp in self.extras():
 
957
            if not self.is_ignored(subp):
 
958
                yield subp
 
959
 
 
960
    @deprecated_method(zero_eight)
 
961
    def iter_conflicts(self):
 
962
        """List all files in the tree that have text or content conflicts.
 
963
        DEPRECATED.  Use conflicts instead."""
 
964
        return self._iter_conflicts()
1652
965
 
1653
966
    def _iter_conflicts(self):
1654
967
        conflicted = set()
1662
975
                yield stem
1663
976
 
1664
977
    @needs_write_lock
1665
 
    def pull(self, source, overwrite=False, stop_revision=None,
1666
 
             change_reporter=None, possible_transports=None, local=False):
 
978
    def pull(self, source, overwrite=False, stop_revision=None):
 
979
        top_pb = bzrlib.ui.ui_factory.nested_progress_bar()
1667
980
        source.lock_read()
1668
981
        try:
1669
 
            old_revision_info = self.branch.last_revision_info()
 
982
            pp = ProgressPhase("Pull phase", 2, top_pb)
 
983
            pp.next_phase()
 
984
            old_revision_history = self.branch.revision_history()
1670
985
            basis_tree = self.basis_tree()
1671
 
            count = self.branch.pull(source, overwrite, stop_revision,
1672
 
                                     possible_transports=possible_transports,
1673
 
                                     local=local)
1674
 
            new_revision_info = self.branch.last_revision_info()
1675
 
            if new_revision_info != old_revision_info:
 
986
            count = self.branch.pull(source, overwrite, stop_revision)
 
987
            new_revision_history = self.branch.revision_history()
 
988
            if new_revision_history != old_revision_history:
 
989
                pp.next_phase()
 
990
                if len(old_revision_history):
 
991
                    other_revision = old_revision_history[-1]
 
992
                else:
 
993
                    other_revision = None
1676
994
                repository = self.branch.repository
1677
 
                basis_tree.lock_read()
 
995
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
1678
996
                try:
1679
 
                    new_basis_tree = self.branch.basis_tree()
1680
 
                    merge.merge_inner(
1681
 
                                self.branch,
1682
 
                                new_basis_tree,
1683
 
                                basis_tree,
1684
 
                                this_tree=self,
1685
 
                                pb=None,
1686
 
                                change_reporter=change_reporter)
1687
 
                    basis_root_id = basis_tree.get_root_id()
1688
 
                    new_root_id = new_basis_tree.get_root_id()
1689
 
                    if basis_root_id != new_root_id:
1690
 
                        self.set_root_id(new_root_id)
 
997
                    merge_inner(self.branch,
 
998
                                self.branch.basis_tree(),
 
999
                                basis_tree, 
 
1000
                                this_tree=self, 
 
1001
                                pb=pb)
1691
1002
                finally:
1692
 
                    basis_tree.unlock()
1693
 
                # TODO - dedup parents list with things merged by pull ?
1694
 
                # reuse the revisiontree we merged against to set the new
1695
 
                # tree data.
1696
 
                parent_trees = [(self.branch.last_revision(), new_basis_tree)]
1697
 
                # we have to pull the merge trees out again, because
1698
 
                # merge_inner has set the ids. - this corner is not yet
1699
 
                # layered well enough to prevent double handling.
1700
 
                # XXX TODO: Fix the double handling: telling the tree about
1701
 
                # the already known parent data is wasteful.
1702
 
                merges = self.get_parent_ids()[1:]
1703
 
                parent_trees.extend([
1704
 
                    (parent, repository.revision_tree(parent)) for
1705
 
                     parent in merges])
1706
 
                self.set_parent_trees(parent_trees)
 
1003
                    pb.finished()
 
1004
                self.set_last_revision(self.branch.last_revision())
1707
1005
            return count
1708
1006
        finally:
1709
1007
            source.unlock()
1710
 
 
1711
 
    @needs_write_lock
1712
 
    def put_file_bytes_non_atomic(self, file_id, bytes):
1713
 
        """See MutableTree.put_file_bytes_non_atomic."""
1714
 
        stream = file(self.id2abspath(file_id), 'wb')
1715
 
        try:
1716
 
            stream.write(bytes)
1717
 
        finally:
1718
 
            stream.close()
1719
 
        # TODO: update the hashcache here ?
 
1008
            top_pb.finished()
1720
1009
 
1721
1010
    def extras(self):
1722
 
        """Yield all unversioned files in this WorkingTree.
 
1011
        """Yield all unknown files in this WorkingTree.
1723
1012
 
1724
 
        If there are any unversioned directories then only the directory is
1725
 
        returned, not all its children.  But if there are unversioned files
 
1013
        If there are any unknown directories then only the directory is
 
1014
        returned, not all its children.  But if there are unknown files
1726
1015
        under a versioned subdirectory, they are returned.
1727
1016
 
1728
1017
        Currently returned depth-first, sorted by name within directories.
1729
 
        This is the same order used by 'osutils.walkdirs'.
1730
1018
        """
1731
1019
        ## TODO: Work from given directory downwards
1732
1020
        for path, dir_entry in self.inventory.directories():
1738
1026
 
1739
1027
            fl = []
1740
1028
            for subf in os.listdir(dirabs):
1741
 
                if self.bzrdir.is_control_filename(subf):
 
1029
                if subf == '.bzr':
1742
1030
                    continue
1743
1031
                if subf not in dir_entry.children:
1744
 
                    try:
1745
 
                        (subf_norm,
1746
 
                         can_access) = osutils.normalized_filename(subf)
1747
 
                    except UnicodeDecodeError:
1748
 
                        path_os_enc = path.encode(osutils._fs_enc)
1749
 
                        relpath = path_os_enc + '/' + subf
1750
 
                        raise errors.BadFilenameEncoding(relpath,
1751
 
                                                         osutils._fs_enc)
 
1032
                    subf_norm, can_access = osutils.normalized_filename(subf)
1752
1033
                    if subf_norm != subf and can_access:
1753
1034
                        if subf_norm not in dir_entry.children:
1754
1035
                            fl.append(subf_norm)
1755
1036
                    else:
1756
1037
                        fl.append(subf)
1757
 
 
 
1038
            
1758
1039
            fl.sort()
1759
1040
            for subf in fl:
1760
1041
                subp = pathjoin(path, subf)
1761
1042
                yield subp
1762
1043
 
 
1044
    def _translate_ignore_rule(self, rule):
 
1045
        """Translate a single ignore rule to a regex.
 
1046
 
 
1047
        There are two types of ignore rules.  Those that do not contain a / are
 
1048
        matched against the tail of the filename (that is, they do not care
 
1049
        what directory the file is in.)  Rules which do contain a slash must
 
1050
        match the entire path.  As a special case, './' at the start of the
 
1051
        string counts as a slash in the string but is removed before matching
 
1052
        (e.g. ./foo.c, ./src/foo.c)
 
1053
 
 
1054
        :return: The translated regex.
 
1055
        """
 
1056
        if rule[:2] in ('./', '.\\'):
 
1057
            # rootdir rule
 
1058
            result = fnmatch.translate(rule[2:])
 
1059
        elif '/' in rule or '\\' in rule:
 
1060
            # path prefix 
 
1061
            result = fnmatch.translate(rule)
 
1062
        else:
 
1063
            # default rule style.
 
1064
            result = "(?:.*/)?(?!.*/)" + fnmatch.translate(rule)
 
1065
        assert result[-1] == '$', "fnmatch.translate did not add the expected $"
 
1066
        return "(" + result + ")"
 
1067
 
 
1068
    def _combine_ignore_rules(self, rules):
 
1069
        """Combine a list of ignore rules into a single regex object.
 
1070
 
 
1071
        Each individual rule is combined with | to form a big regex, which then
 
1072
        has $ added to it to form something like ()|()|()$. The group index for
 
1073
        each subregex's outermost group is placed in a dictionary mapping back 
 
1074
        to the rule. This allows quick identification of the matching rule that
 
1075
        triggered a match.
 
1076
        :return: a list of the compiled regex and the matching-group index 
 
1077
        dictionaries. We return a list because python complains if you try to 
 
1078
        combine more than 100 regexes.
 
1079
        """
 
1080
        result = []
 
1081
        groups = {}
 
1082
        next_group = 0
 
1083
        translated_rules = []
 
1084
        for rule in rules:
 
1085
            translated_rule = self._translate_ignore_rule(rule)
 
1086
            compiled_rule = re.compile(translated_rule)
 
1087
            groups[next_group] = rule
 
1088
            next_group += compiled_rule.groups
 
1089
            translated_rules.append(translated_rule)
 
1090
            if next_group == 99:
 
1091
                result.append((re.compile("|".join(translated_rules)), groups))
 
1092
                groups = {}
 
1093
                next_group = 0
 
1094
                translated_rules = []
 
1095
        if len(translated_rules):
 
1096
            result.append((re.compile("|".join(translated_rules)), groups))
 
1097
        return result
 
1098
 
1763
1099
    def ignored_files(self):
1764
1100
        """Yield list of PATH, IGNORE_PATTERN"""
1765
1101
        for subp in self.extras():
1766
1102
            pat = self.is_ignored(subp)
1767
 
            if pat is not None:
 
1103
            if pat != None:
1768
1104
                yield subp, pat
1769
1105
 
1770
1106
    def get_ignore_list(self):
1776
1112
        if ignoreset is not None:
1777
1113
            return ignoreset
1778
1114
 
1779
 
        ignore_globs = set()
 
1115
        ignore_globs = set(bzrlib.DEFAULT_IGNORE)
1780
1116
        ignore_globs.update(ignores.get_runtime_ignores())
 
1117
 
1781
1118
        ignore_globs.update(ignores.get_user_ignores())
 
1119
 
1782
1120
        if self.has_filename(bzrlib.IGNORE_FILENAME):
1783
1121
            f = self.get_file_byname(bzrlib.IGNORE_FILENAME)
1784
1122
            try:
1785
1123
                ignore_globs.update(ignores.parse_ignore_file(f))
1786
1124
            finally:
1787
1125
                f.close()
 
1126
 
1788
1127
        self._ignoreset = ignore_globs
 
1128
        self._ignore_regex = self._combine_ignore_rules(ignore_globs)
1789
1129
        return ignore_globs
1790
1130
 
1791
 
    def _flush_ignore_list_cache(self):
1792
 
        """Resets the cached ignore list to force a cache rebuild."""
1793
 
        self._ignoreset = None
1794
 
        self._ignoreglobster = None
 
1131
    def _get_ignore_rules_as_regex(self):
 
1132
        """Return a regex of the ignore rules and a mapping dict.
 
1133
 
 
1134
        :return: (ignore rules compiled regex, dictionary mapping rule group 
 
1135
        indices to original rule.)
 
1136
        """
 
1137
        if getattr(self, '_ignoreset', None) is None:
 
1138
            self.get_ignore_list()
 
1139
        return self._ignore_regex
1795
1140
 
1796
1141
    def is_ignored(self, filename):
1797
1142
        r"""Check whether the filename matches an ignore pattern.
1798
1143
 
1799
1144
        Patterns containing '/' or '\' need to match the whole path;
1800
 
        others match against only the last component.  Patterns starting
1801
 
        with '!' are ignore exceptions.  Exceptions take precedence
1802
 
        over regular patterns and cause the filename to not be ignored.
 
1145
        others match against only the last component.
1803
1146
 
1804
1147
        If the file is ignored, returns the pattern which caused it to
1805
1148
        be ignored, otherwise None.  So this can simply be used as a
1806
1149
        boolean if desired."""
1807
 
        if getattr(self, '_ignoreglobster', None) is None:
1808
 
            self._ignoreglobster = globbing.ExceptionGlobster(self.get_ignore_list())
1809
 
        return self._ignoreglobster.match(filename)
 
1150
 
 
1151
        # TODO: Use '**' to match directories, and other extended
 
1152
        # globbing stuff from cvs/rsync.
 
1153
 
 
1154
        # XXX: fnmatch is actually not quite what we want: it's only
 
1155
        # approximately the same as real Unix fnmatch, and doesn't
 
1156
        # treat dotfiles correctly and allows * to match /.
 
1157
        # Eventually it should be replaced with something more
 
1158
        # accurate.
 
1159
    
 
1160
        rules = self._get_ignore_rules_as_regex()
 
1161
        for regex, mapping in rules:
 
1162
            match = regex.match(filename)
 
1163
            if match is not None:
 
1164
                # one or more of the groups in mapping will have a non-None group 
 
1165
                # match.
 
1166
                groups = match.groups()
 
1167
                rules = [mapping[group] for group in 
 
1168
                    mapping if groups[group] is not None]
 
1169
                return rules[0]
 
1170
        return None
1810
1171
 
1811
1172
    def kind(self, file_id):
1812
1173
        return file_kind(self.id2abspath(file_id))
1813
1174
 
1814
 
    def stored_kind(self, file_id):
1815
 
        """See Tree.stored_kind"""
1816
 
        return self.inventory[file_id].kind
1817
 
 
1818
 
    def _comparison_data(self, entry, path):
1819
 
        abspath = self.abspath(path)
1820
 
        try:
1821
 
            stat_value = os.lstat(abspath)
1822
 
        except OSError, e:
1823
 
            if getattr(e, 'errno', None) == errno.ENOENT:
1824
 
                stat_value = None
1825
 
                kind = None
1826
 
                executable = False
1827
 
            else:
1828
 
                raise
1829
 
        else:
1830
 
            mode = stat_value.st_mode
1831
 
            kind = osutils.file_kind_from_stat_mode(mode)
1832
 
            if not supports_executable():
1833
 
                executable = entry is not None and entry.executable
1834
 
            else:
1835
 
                executable = bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
1836
 
        return kind, executable, stat_value
1837
 
 
1838
 
    def _file_size(self, entry, stat_value):
1839
 
        return stat_value.st_size
1840
 
 
 
1175
    @needs_read_lock
1841
1176
    def last_revision(self):
1842
 
        """Return the last revision of the branch for this tree.
1843
 
 
1844
 
        This format tree does not support a separate marker for last-revision
1845
 
        compared to the branch.
1846
 
 
1847
 
        See MutableTree.last_revision
 
1177
        """Return the last revision id of this working tree.
 
1178
 
 
1179
        In early branch formats this was == the branch last_revision,
 
1180
        but that cannot be relied upon - for working tree operations,
 
1181
        always use tree.last_revision().
1848
1182
        """
1849
 
        return self._last_revision()
1850
 
 
1851
 
    @needs_read_lock
1852
 
    def _last_revision(self):
1853
 
        """helper for get_parent_ids."""
1854
 
        return _mod_revision.ensure_null(self.branch.last_revision())
 
1183
        return self.branch.last_revision()
1855
1184
 
1856
1185
    def is_locked(self):
1857
1186
        return self._control_files.is_locked()
1858
1187
 
1859
 
    def _must_be_locked(self):
1860
 
        if not self.is_locked():
1861
 
            raise errors.ObjectNotLocked(self)
1862
 
 
1863
1188
    def lock_read(self):
1864
 
        """Lock the tree for reading.
1865
 
 
1866
 
        This also locks the branch, and can be unlocked via self.unlock().
1867
 
 
1868
 
        :return: A bzrlib.lock.LogicalLockResult.
1869
 
        """
1870
 
        if not self.is_locked():
1871
 
            self._reset_data()
1872
 
        self.branch.lock_read()
1873
 
        try:
1874
 
            self._control_files.lock_read()
1875
 
            return LogicalLockResult(self.unlock)
1876
 
        except:
1877
 
            self.branch.unlock()
1878
 
            raise
1879
 
 
1880
 
    def lock_tree_write(self):
1881
 
        """See MutableTree.lock_tree_write, and WorkingTree.unlock.
1882
 
 
1883
 
        :return: A bzrlib.lock.LogicalLockResult.
1884
 
        """
1885
 
        if not self.is_locked():
1886
 
            self._reset_data()
1887
 
        self.branch.lock_read()
1888
 
        try:
1889
 
            self._control_files.lock_write()
1890
 
            return LogicalLockResult(self.unlock)
 
1189
        """See Branch.lock_read, and WorkingTree.unlock."""
 
1190
        self.branch.lock_read()
 
1191
        try:
 
1192
            return self._control_files.lock_read()
1891
1193
        except:
1892
1194
            self.branch.unlock()
1893
1195
            raise
1894
1196
 
1895
1197
    def lock_write(self):
1896
 
        """See MutableTree.lock_write, and WorkingTree.unlock.
1897
 
 
1898
 
        :return: A bzrlib.lock.LogicalLockResult.
1899
 
        """
1900
 
        if not self.is_locked():
1901
 
            self._reset_data()
 
1198
        """See Branch.lock_write, and WorkingTree.unlock."""
1902
1199
        self.branch.lock_write()
1903
1200
        try:
1904
 
            self._control_files.lock_write()
1905
 
            return LogicalLockResult(self.unlock)
 
1201
            return self._control_files.lock_write()
1906
1202
        except:
1907
1203
            self.branch.unlock()
1908
1204
            raise
1911
1207
        return self._control_files.get_physical_lock_status()
1912
1208
 
1913
1209
    def _basis_inventory_name(self):
1914
 
        return 'basis-inventory-cache'
1915
 
 
1916
 
    def _reset_data(self):
1917
 
        """Reset transient data that cannot be revalidated."""
1918
 
        self._inventory_is_modified = False
1919
 
        f = self._transport.get('inventory')
1920
 
        try:
1921
 
            result = self._deserialize(f)
1922
 
        finally:
1923
 
            f.close()
1924
 
        self._set_inventory(result, dirty=False)
1925
 
 
1926
 
    @needs_tree_write_lock
 
1210
        return 'basis-inventory'
 
1211
 
 
1212
    @needs_write_lock
1927
1213
    def set_last_revision(self, new_revision):
1928
1214
        """Change the last revision in the working tree."""
1929
1215
        if self._change_last_revision(new_revision):
1931
1217
 
1932
1218
    def _change_last_revision(self, new_revision):
1933
1219
        """Template method part of set_last_revision to perform the change.
1934
 
 
 
1220
        
1935
1221
        This is used to allow WorkingTree3 instances to not affect branch
1936
1222
        when their last revision is set.
1937
1223
        """
1938
 
        if _mod_revision.is_null(new_revision):
 
1224
        if new_revision is None:
1939
1225
            self.branch.set_revision_history([])
1940
1226
            return False
 
1227
        # current format is locked in with the branch
 
1228
        revision_history = self.branch.revision_history()
1941
1229
        try:
1942
 
            self.branch.generate_revision_history(new_revision)
1943
 
        except errors.NoSuchRevision:
1944
 
            # not present in the repo - dont try to set it deeper than the tip
1945
 
            self.branch.set_revision_history([new_revision])
 
1230
            position = revision_history.index(new_revision)
 
1231
        except ValueError:
 
1232
            raise errors.NoSuchRevision(self.branch, new_revision)
 
1233
        self.branch.set_revision_history(revision_history[:position + 1])
1946
1234
        return True
1947
1235
 
1948
 
    def _write_basis_inventory(self, xml):
1949
 
        """Write the basis inventory XML to the basis-inventory file"""
1950
 
        path = self._basis_inventory_name()
1951
 
        sio = StringIO(xml)
1952
 
        self._transport.put_file(path, sio,
1953
 
            mode=self.bzrdir._get_file_mode())
1954
 
 
1955
 
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
1956
 
        """Create the text that will be saved in basis-inventory"""
1957
 
        inventory.revision_id = revision_id
1958
 
        return xml7.serializer_v7.write_inventory_to_string(inventory)
1959
 
 
1960
1236
    def _cache_basis_inventory(self, new_revision):
1961
1237
        """Cache new_revision as the basis inventory."""
1962
1238
        # TODO: this should allow the ready-to-use inventory to be passed in,
1963
1239
        # as commit already has that ready-to-use [while the format is the
1964
1240
        # same, that is].
1965
1241
        try:
1966
 
            # this double handles the inventory - unpack and repack -
 
1242
            # this double handles the inventory - unpack and repack - 
1967
1243
            # but is easier to understand. We can/should put a conditional
1968
1244
            # in here based on whether the inventory is in the latest format
1969
1245
            # - perhaps we should repack all inventories on a repository
1970
1246
            # upgrade ?
1971
1247
            # the fast path is to copy the raw xml from the repository. If the
1972
 
            # xml contains 'revision_id="', then we assume the right
 
1248
            # xml contains 'revision_id="', then we assume the right 
1973
1249
            # revision_id is set. We must check for this full string, because a
1974
1250
            # root node id can legitimately look like 'revision_id' but cannot
1975
1251
            # contain a '"'.
1976
 
            xml = self.branch.repository._get_inventory_xml(new_revision)
1977
 
            firstline = xml.split('\n', 1)[0]
1978
 
            if (not 'revision_id="' in firstline or
1979
 
                'format="7"' not in firstline):
1980
 
                inv = self.branch.repository._serializer.read_inventory_from_string(
1981
 
                    xml, new_revision)
1982
 
                xml = self._create_basis_xml_from_inventory(new_revision, inv)
1983
 
            self._write_basis_inventory(xml)
1984
 
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
 
1252
            xml = self.branch.repository.get_inventory_xml(new_revision)
 
1253
            if not 'revision_id="' in xml.split('\n', 1)[0]:
 
1254
                inv = self.branch.repository.deserialise_inventory(
 
1255
                    new_revision, xml)
 
1256
                inv.revision_id = new_revision
 
1257
                xml = bzrlib.xml5.serializer_v5.write_inventory_to_string(inv)
 
1258
            assert isinstance(xml, str), 'serialised xml must be bytestring.'
 
1259
            path = self._basis_inventory_name()
 
1260
            sio = StringIO(xml)
 
1261
            self._control_files.put(path, sio)
 
1262
        except WeaveRevisionNotPresent:
1985
1263
            pass
1986
1264
 
1987
1265
    def read_basis_inventory(self):
1988
1266
        """Read the cached basis inventory."""
1989
1267
        path = self._basis_inventory_name()
1990
 
        return self._transport.get_bytes(path)
1991
 
 
 
1268
        return self._control_files.get(path).read()
 
1269
        
1992
1270
    @needs_read_lock
1993
1271
    def read_working_inventory(self):
1994
 
        """Read the working inventory.
1995
 
 
1996
 
        :raises errors.InventoryModified: read_working_inventory will fail
1997
 
            when the current in memory inventory has been modified.
1998
 
        """
1999
 
        # conceptually this should be an implementation detail of the tree.
2000
 
        # XXX: Deprecate this.
 
1272
        """Read the working inventory."""
2001
1273
        # ElementTree does its own conversion from UTF-8, so open in
2002
1274
        # binary.
2003
 
        if self._inventory_is_modified:
2004
 
            raise errors.InventoryModified(self)
2005
 
        f = self._transport.get('inventory')
2006
 
        try:
2007
 
            result = self._deserialize(f)
2008
 
        finally:
2009
 
            f.close()
2010
 
        self._set_inventory(result, dirty=False)
 
1275
        result = bzrlib.xml5.serializer_v5.read_inventory(
 
1276
            self._control_files.get('inventory'))
 
1277
        self._set_inventory(result)
2011
1278
        return result
2012
1279
 
2013
 
    @needs_tree_write_lock
2014
 
    def remove(self, files, verbose=False, to_file=None, keep_files=True,
2015
 
        force=False):
2016
 
        """Remove nominated files from the working inventory.
2017
 
 
2018
 
        :files: File paths relative to the basedir.
2019
 
        :keep_files: If true, the files will also be kept.
2020
 
        :force: Delete files and directories, even if they are changed and
2021
 
            even if the directories are not empty.
 
1280
    @needs_write_lock
 
1281
    def remove(self, files, verbose=False, to_file=None):
 
1282
        """Remove nominated files from the working inventory..
 
1283
 
 
1284
        This does not remove their text.  This does not run on XXX on what? RBC
 
1285
 
 
1286
        TODO: Refuse to remove modified files unless --force is given?
 
1287
 
 
1288
        TODO: Do something useful with directories.
 
1289
 
 
1290
        TODO: Should this remove the text or not?  Tough call; not
 
1291
        removing may be useful and the user can just use use rm, and
 
1292
        is the opposite of add.  Removing it is consistent with most
 
1293
        other tools.  Maybe an option.
2022
1294
        """
 
1295
        ## TODO: Normalize names
 
1296
        ## TODO: Remove nested loops; better scalability
2023
1297
        if isinstance(files, basestring):
2024
1298
            files = [files]
2025
1299
 
2026
 
        inv_delta = []
2027
 
 
2028
 
        all_files = set() # specified and nested files 
2029
 
        unknown_nested_files=set()
2030
 
        if to_file is None:
2031
 
            to_file = sys.stdout
2032
 
 
2033
 
        files_to_backup = []
2034
 
 
2035
 
        def recurse_directory_to_add_files(directory):
2036
 
            # Recurse directory and add all files
2037
 
            # so we can check if they have changed.
2038
 
            for parent_info, file_infos in self.walkdirs(directory):
2039
 
                for relpath, basename, kind, lstat, fileid, kind in file_infos:
2040
 
                    # Is it versioned or ignored?
2041
 
                    if self.path2id(relpath):
2042
 
                        # Add nested content for deletion.
2043
 
                        all_files.add(relpath)
2044
 
                    else:
2045
 
                        # Files which are not versioned
2046
 
                        # should be treated as unknown.
2047
 
                        files_to_backup.append(relpath)
2048
 
 
2049
 
        for filename in files:
2050
 
            # Get file name into canonical form.
2051
 
            abspath = self.abspath(filename)
2052
 
            filename = self.relpath(abspath)
2053
 
            if len(filename) > 0:
2054
 
                all_files.add(filename)
2055
 
                recurse_directory_to_add_files(filename)
2056
 
 
2057
 
        files = list(all_files)
2058
 
 
2059
 
        if len(files) == 0:
2060
 
            return # nothing to do
2061
 
 
2062
 
        # Sort needed to first handle directory content before the directory
2063
 
        files.sort(reverse=True)
2064
 
 
2065
 
        # Bail out if we are going to delete files we shouldn't
2066
 
        if not keep_files and not force:
2067
 
            for (file_id, path, content_change, versioned, parent_id, name,
2068
 
                 kind, executable) in self.iter_changes(self.basis_tree(),
2069
 
                     include_unchanged=True, require_versioned=False,
2070
 
                     want_unversioned=True, specific_files=files):
2071
 
                if versioned[0] == False:
2072
 
                    # The record is unknown or newly added
2073
 
                    files_to_backup.append(path[1])
2074
 
                elif (content_change and (kind[1] is not None) and
2075
 
                        osutils.is_inside_any(files, path[1])):
2076
 
                    # Versioned and changed, but not deleted, and still
2077
 
                    # in one of the dirs to be deleted.
2078
 
                    files_to_backup.append(path[1])
2079
 
 
2080
 
        def backup(file_to_backup):
2081
 
            backup_name = self.bzrdir.generate_backup_name(file_to_backup)
2082
 
            osutils.rename(abs_path, self.abspath(backup_name))
2083
 
            return "removed %s (but kept a copy: %s)" % (file_to_backup, backup_name)
2084
 
 
2085
 
        # Build inv_delta and delete files where applicable,
2086
 
        # do this before any modifications to inventory.
 
1300
        inv = self.inventory
 
1301
 
 
1302
        # do this before any modifications
2087
1303
        for f in files:
2088
 
            fid = self.path2id(f)
2089
 
            message = None
 
1304
            fid = inv.path2id(f)
2090
1305
            if not fid:
2091
 
                message = "%s is not versioned." % (f,)
2092
 
            else:
2093
 
                if verbose:
2094
 
                    # having removed it, it must be either ignored or unknown
2095
 
                    if self.is_ignored(f):
2096
 
                        new_status = 'I'
2097
 
                    else:
2098
 
                        new_status = '?'
2099
 
                    # XXX: Really should be a more abstract reporter interface
2100
 
                    kind_ch = osutils.kind_marker(self.kind(fid))
2101
 
                    to_file.write(new_status + '       ' + f + kind_ch + '\n')
2102
 
                # Unversion file
2103
 
                inv_delta.append((f, None, fid, None))
2104
 
                message = "removed %s" % (f,)
2105
 
 
2106
 
            if not keep_files:
2107
 
                abs_path = self.abspath(f)
2108
 
                if osutils.lexists(abs_path):
2109
 
                    if (osutils.isdir(abs_path) and
2110
 
                        len(os.listdir(abs_path)) > 0):
2111
 
                        if force:
2112
 
                            osutils.rmtree(abs_path)
2113
 
                            message = "deleted %s" % (f,)
2114
 
                        else:
2115
 
                            message = backup(f)
2116
 
                    else:
2117
 
                        if f in files_to_backup:
2118
 
                            message = backup(f)
2119
 
                        else:
2120
 
                            osutils.delete_any(abs_path)
2121
 
                            message = "deleted %s" % (f,)
2122
 
                elif message is not None:
2123
 
                    # Only care if we haven't done anything yet.
2124
 
                    message = "%s does not exist." % (f,)
2125
 
 
2126
 
            # Print only one message (if any) per file.
2127
 
            if message is not None:
2128
 
                note(message)
2129
 
        self.apply_inventory_delta(inv_delta)
2130
 
 
2131
 
    @needs_tree_write_lock
2132
 
    def revert(self, filenames=None, old_tree=None, backups=True,
2133
 
               pb=None, report_changes=False):
2134
 
        from bzrlib.conflicts import resolve
2135
 
        if filenames == []:
2136
 
            filenames = None
2137
 
            symbol_versioning.warn('Using [] to revert all files is deprecated'
2138
 
                ' as of bzr 0.91.  Please use None (the default) instead.',
2139
 
                DeprecationWarning, stacklevel=2)
 
1306
                # TODO: Perhaps make this just a warning, and continue?
 
1307
                # This tends to happen when 
 
1308
                raise NotVersionedError(path=f)
 
1309
            if verbose:
 
1310
                # having remove it, it must be either ignored or unknown
 
1311
                if self.is_ignored(f):
 
1312
                    new_status = 'I'
 
1313
                else:
 
1314
                    new_status = '?'
 
1315
                show_status(new_status, inv[fid].kind, f, to_file=to_file)
 
1316
            del inv[fid]
 
1317
 
 
1318
        self._write_inventory(inv)
 
1319
 
 
1320
    @needs_write_lock
 
1321
    def revert(self, filenames, old_tree=None, backups=True, 
 
1322
               pb=DummyProgress()):
 
1323
        from transform import revert
 
1324
        from conflicts import resolve
2140
1325
        if old_tree is None:
2141
 
            basis_tree = self.basis_tree()
2142
 
            basis_tree.lock_read()
2143
 
            old_tree = basis_tree
 
1326
            old_tree = self.basis_tree()
 
1327
        conflicts = revert(self, old_tree, filenames, backups, pb)
 
1328
        if not len(filenames):
 
1329
            self.set_pending_merges([])
 
1330
            resolve(self)
2144
1331
        else:
2145
 
            basis_tree = None
2146
 
        try:
2147
 
            conflicts = transform.revert(self, old_tree, filenames, backups, pb,
2148
 
                                         report_changes)
2149
 
            if filenames is None and len(self.get_parent_ids()) > 1:
2150
 
                parent_trees = []
2151
 
                last_revision = self.last_revision()
2152
 
                if last_revision != _mod_revision.NULL_REVISION:
2153
 
                    if basis_tree is None:
2154
 
                        basis_tree = self.basis_tree()
2155
 
                        basis_tree.lock_read()
2156
 
                    parent_trees.append((last_revision, basis_tree))
2157
 
                self.set_parent_trees(parent_trees)
2158
 
                resolve(self)
2159
 
            else:
2160
 
                resolve(self, filenames, ignore_misses=True, recursive=True)
2161
 
        finally:
2162
 
            if basis_tree is not None:
2163
 
                basis_tree.unlock()
 
1332
            resolve(self, filenames, ignore_misses=True)
2164
1333
        return conflicts
2165
1334
 
2166
 
    def revision_tree(self, revision_id):
2167
 
        """See Tree.revision_tree.
2168
 
 
2169
 
        WorkingTree can supply revision_trees for the basis revision only
2170
 
        because there is only one cached inventory in the bzr directory.
2171
 
        """
2172
 
        if revision_id == self.last_revision():
2173
 
            try:
2174
 
                xml = self.read_basis_inventory()
2175
 
            except errors.NoSuchFile:
2176
 
                pass
2177
 
            else:
2178
 
                try:
2179
 
                    inv = xml7.serializer_v7.read_inventory_from_string(xml)
2180
 
                    # dont use the repository revision_tree api because we want
2181
 
                    # to supply the inventory.
2182
 
                    if inv.revision_id == revision_id:
2183
 
                        return revisiontree.RevisionTree(self.branch.repository,
2184
 
                            inv, revision_id)
2185
 
                except errors.BadInventoryFormat:
2186
 
                    pass
2187
 
        # raise if there was no inventory, or if we read the wrong inventory.
2188
 
        raise errors.NoSuchRevisionInTree(self, revision_id)
2189
 
 
2190
1335
    # XXX: This method should be deprecated in favour of taking in a proper
2191
1336
    # new Inventory object.
2192
 
    @needs_tree_write_lock
 
1337
    @needs_write_lock
2193
1338
    def set_inventory(self, new_inventory_list):
2194
1339
        from bzrlib.inventory import (Inventory,
2195
1340
                                      InventoryDirectory,
 
1341
                                      InventoryEntry,
2196
1342
                                      InventoryFile,
2197
1343
                                      InventoryLink)
2198
1344
        inv = Inventory(self.get_root_id())
2200
1346
            name = os.path.basename(path)
2201
1347
            if name == "":
2202
1348
                continue
2203
 
            # fixme, there should be a factory function inv,add_??
 
1349
            # fixme, there should be a factory function inv,add_?? 
2204
1350
            if kind == 'directory':
2205
1351
                inv.add(InventoryDirectory(file_id, name, parent))
2206
1352
            elif kind == 'file':
2208
1354
            elif kind == 'symlink':
2209
1355
                inv.add(InventoryLink(file_id, name, parent))
2210
1356
            else:
2211
 
                raise errors.BzrError("unknown kind %r" % kind)
 
1357
                raise BzrError("unknown kind %r" % kind)
2212
1358
        self._write_inventory(inv)
2213
1359
 
2214
 
    @needs_tree_write_lock
 
1360
    @needs_write_lock
2215
1361
    def set_root_id(self, file_id):
2216
1362
        """Set the root id for this tree."""
2217
 
        # for compatability
2218
 
        if file_id is None:
2219
 
            raise ValueError(
2220
 
                'WorkingTree.set_root_id with fileid=None')
2221
 
        file_id = osutils.safe_file_id(file_id)
2222
 
        self._set_root_id(file_id)
2223
 
 
2224
 
    def _set_root_id(self, file_id):
2225
 
        """Set the root id for this tree, in a format specific manner.
2226
 
 
2227
 
        :param file_id: The file id to assign to the root. It must not be
2228
 
            present in the current inventory or an error will occur. It must
2229
 
            not be None, but rather a valid file id.
2230
 
        """
2231
 
        inv = self._inventory
 
1363
        inv = self.read_working_inventory()
2232
1364
        orig_root_id = inv.root.file_id
2233
 
        # TODO: it might be nice to exit early if there was nothing
2234
 
        # to do, saving us from trigger a sync on unlock.
2235
 
        self._inventory_is_modified = True
2236
 
        # we preserve the root inventory entry object, but
2237
 
        # unlinkit from the byid index
2238
1365
        del inv._byid[inv.root.file_id]
2239
1366
        inv.root.file_id = file_id
2240
 
        # and link it into the index with the new changed id.
2241
1367
        inv._byid[inv.root.file_id] = inv.root
2242
 
        # and finally update all children to reference the new id.
2243
 
        # XXX: this should be safe to just look at the root.children
2244
 
        # list, not the WHOLE INVENTORY.
2245
1368
        for fid in inv:
2246
1369
            entry = inv[fid]
2247
1370
            if entry.parent_id == orig_root_id:
2248
1371
                entry.parent_id = inv.root.file_id
 
1372
        self._write_inventory(inv)
2249
1373
 
2250
1374
    def unlock(self):
2251
1375
        """See Branch.unlock.
2252
 
 
 
1376
        
2253
1377
        WorkingTree locking just uses the Branch locking facilities.
2254
1378
        This is current because all working trees have an embedded branch
2255
1379
        within them. IF in the future, we were to make branch data shareable
2256
 
        between multiple working trees, i.e. via shared storage, then we
 
1380
        between multiple working trees, i.e. via shared storage, then we 
2257
1381
        would probably want to lock both the local tree, and the branch.
2258
1382
        """
2259
1383
        raise NotImplementedError(self.unlock)
2260
1384
 
2261
 
    _marker = object()
2262
 
 
2263
 
    def update(self, change_reporter=None, possible_transports=None,
2264
 
               revision=None, old_tip=_marker):
 
1385
    @needs_write_lock
 
1386
    def update(self):
2265
1387
        """Update a working tree along its branch.
2266
1388
 
2267
 
        This will update the branch if its bound too, which means we have
2268
 
        multiple trees involved:
2269
 
 
2270
 
        - The new basis tree of the master.
2271
 
        - The old basis tree of the branch.
2272
 
        - The old basis tree of the working tree.
2273
 
        - The current working tree state.
2274
 
 
2275
 
        Pathologically, all three may be different, and non-ancestors of each
2276
 
        other.  Conceptually we want to:
2277
 
 
2278
 
        - Preserve the wt.basis->wt.state changes
2279
 
        - Transform the wt.basis to the new master basis.
2280
 
        - Apply a merge of the old branch basis to get any 'local' changes from
2281
 
          it into the tree.
2282
 
        - Restore the wt.basis->wt.state changes.
 
1389
        This will update the branch if its bound too, which means we have multiple trees involved:
 
1390
        The new basis tree of the master.
 
1391
        The old basis tree of the branch.
 
1392
        The old basis tree of the working tree.
 
1393
        The current working tree state.
 
1394
        pathologically all three may be different, and non ancestors of each other.
 
1395
        Conceptually we want to:
 
1396
        Preserve the wt.basis->wt.state changes
 
1397
        Transform the wt.basis to the new master basis.
 
1398
        Apply a merge of the old branch basis to get any 'local' changes from it into the tree.
 
1399
        Restore the wt.basis->wt.state changes.
2283
1400
 
2284
1401
        There isn't a single operation at the moment to do that, so we:
2285
 
        - Merge current state -> basis tree of the master w.r.t. the old tree
2286
 
          basis.
2287
 
        - Do a 'normal' merge of the old branch basis if it is relevant.
2288
 
 
2289
 
        :param revision: The target revision to update to. Must be in the
2290
 
            revision history.
2291
 
        :param old_tip: If branch.update() has already been run, the value it
2292
 
            returned (old tip of the branch or None). _marker is used
2293
 
            otherwise.
 
1402
        Merge current state -> basis tree of the master w.r.t. the old tree basis.
 
1403
        Do a 'normal' merge of the old branch basis if it is relevant.
2294
1404
        """
2295
 
        if self.branch.get_bound_location() is not None:
2296
 
            self.lock_write()
2297
 
            update_branch = (old_tip is self._marker)
2298
 
        else:
2299
 
            self.lock_tree_write()
2300
 
            update_branch = False
 
1405
        old_tip = self.branch.update()
 
1406
        if old_tip is not None:
 
1407
            self.add_pending_merge(old_tip)
 
1408
        self.branch.lock_read()
2301
1409
        try:
2302
 
            if update_branch:
2303
 
                old_tip = self.branch.update(possible_transports)
2304
 
            else:
2305
 
                if old_tip is self._marker:
2306
 
                    old_tip = None
2307
 
            return self._update_tree(old_tip, change_reporter, revision)
 
1410
            result = 0
 
1411
            if self.last_revision() != self.branch.last_revision():
 
1412
                # merge tree state up to new branch tip.
 
1413
                basis = self.basis_tree()
 
1414
                to_tree = self.branch.basis_tree()
 
1415
                result += merge_inner(self.branch,
 
1416
                                      to_tree,
 
1417
                                      basis,
 
1418
                                      this_tree=self)
 
1419
                self.set_last_revision(self.branch.last_revision())
 
1420
            if old_tip and old_tip != self.last_revision():
 
1421
                # our last revision was not the prior branch last revision
 
1422
                # and we have converted that last revision to a pending merge.
 
1423
                # base is somewhere between the branch tip now
 
1424
                # and the now pending merge
 
1425
                from bzrlib.revision import common_ancestor
 
1426
                try:
 
1427
                    base_rev_id = common_ancestor(self.branch.last_revision(),
 
1428
                                                  old_tip,
 
1429
                                                  self.branch.repository)
 
1430
                except errors.NoCommonAncestor:
 
1431
                    base_rev_id = None
 
1432
                base_tree = self.branch.repository.revision_tree(base_rev_id)
 
1433
                other_tree = self.branch.repository.revision_tree(old_tip)
 
1434
                result += merge_inner(self.branch,
 
1435
                                      other_tree,
 
1436
                                      base_tree,
 
1437
                                      this_tree=self)
 
1438
            return result
2308
1439
        finally:
2309
 
            self.unlock()
2310
 
 
2311
 
    @needs_tree_write_lock
2312
 
    def _update_tree(self, old_tip=None, change_reporter=None, revision=None):
2313
 
        """Update a tree to the master branch.
2314
 
 
2315
 
        :param old_tip: if supplied, the previous tip revision the branch,
2316
 
            before it was changed to the master branch's tip.
2317
 
        """
2318
 
        # here if old_tip is not None, it is the old tip of the branch before
2319
 
        # it was updated from the master branch. This should become a pending
2320
 
        # merge in the working tree to preserve the user existing work.  we
2321
 
        # cant set that until we update the working trees last revision to be
2322
 
        # one from the new branch, because it will just get absorbed by the
2323
 
        # parent de-duplication logic.
2324
 
        #
2325
 
        # We MUST save it even if an error occurs, because otherwise the users
2326
 
        # local work is unreferenced and will appear to have been lost.
2327
 
        #
2328
 
        nb_conflicts = 0
2329
 
        try:
2330
 
            last_rev = self.get_parent_ids()[0]
2331
 
        except IndexError:
2332
 
            last_rev = _mod_revision.NULL_REVISION
2333
 
        if revision is None:
2334
 
            revision = self.branch.last_revision()
2335
 
 
2336
 
        old_tip = old_tip or _mod_revision.NULL_REVISION
2337
 
 
2338
 
        if not _mod_revision.is_null(old_tip) and old_tip != last_rev:
2339
 
            # the branch we are bound to was updated
2340
 
            # merge those changes in first
2341
 
            base_tree  = self.basis_tree()
2342
 
            other_tree = self.branch.repository.revision_tree(old_tip)
2343
 
            nb_conflicts = merge.merge_inner(self.branch, other_tree,
2344
 
                                             base_tree, this_tree=self,
2345
 
                                             change_reporter=change_reporter)
2346
 
            if nb_conflicts:
2347
 
                self.add_parent_tree((old_tip, other_tree))
2348
 
                trace.note('Rerun update after fixing the conflicts.')
2349
 
                return nb_conflicts
2350
 
 
2351
 
        if last_rev != _mod_revision.ensure_null(revision):
2352
 
            # the working tree is up to date with the branch
2353
 
            # we can merge the specified revision from master
2354
 
            to_tree = self.branch.repository.revision_tree(revision)
2355
 
            to_root_id = to_tree.get_root_id()
2356
 
 
2357
 
            basis = self.basis_tree()
2358
 
            basis.lock_read()
2359
 
            try:
2360
 
                if (basis.inventory.root is None
2361
 
                    or basis.inventory.root.file_id != to_root_id):
2362
 
                    self.set_root_id(to_root_id)
2363
 
                    self.flush()
2364
 
            finally:
2365
 
                basis.unlock()
2366
 
 
2367
 
            # determine the branch point
2368
 
            graph = self.branch.repository.get_graph()
2369
 
            base_rev_id = graph.find_unique_lca(self.branch.last_revision(),
2370
 
                                                last_rev)
2371
 
            base_tree = self.branch.repository.revision_tree(base_rev_id)
2372
 
 
2373
 
            nb_conflicts = merge.merge_inner(self.branch, to_tree, base_tree,
2374
 
                                             this_tree=self,
2375
 
                                             change_reporter=change_reporter)
2376
 
            self.set_last_revision(revision)
2377
 
            # TODO - dedup parents list with things merged by pull ?
2378
 
            # reuse the tree we've updated to to set the basis:
2379
 
            parent_trees = [(revision, to_tree)]
2380
 
            merges = self.get_parent_ids()[1:]
2381
 
            # Ideally we ask the tree for the trees here, that way the working
2382
 
            # tree can decide whether to give us the entire tree or give us a
2383
 
            # lazy initialised tree. dirstate for instance will have the trees
2384
 
            # in ram already, whereas a last-revision + basis-inventory tree
2385
 
            # will not, but also does not need them when setting parents.
2386
 
            for parent in merges:
2387
 
                parent_trees.append(
2388
 
                    (parent, self.branch.repository.revision_tree(parent)))
2389
 
            if not _mod_revision.is_null(old_tip):
2390
 
                parent_trees.append(
2391
 
                    (old_tip, self.branch.repository.revision_tree(old_tip)))
2392
 
            self.set_parent_trees(parent_trees)
2393
 
            last_rev = parent_trees[0][0]
2394
 
        return nb_conflicts
2395
 
 
2396
 
    def _write_hashcache_if_dirty(self):
2397
 
        """Write out the hashcache if it is dirty."""
2398
 
        if self._hashcache.needs_write:
2399
 
            try:
2400
 
                self._hashcache.write()
2401
 
            except OSError, e:
2402
 
                if e.errno not in (errno.EPERM, errno.EACCES):
2403
 
                    raise
2404
 
                # TODO: jam 20061219 Should this be a warning? A single line
2405
 
                #       warning might be sufficient to let the user know what
2406
 
                #       is going on.
2407
 
                mutter('Could not write hashcache for %s\nError: %s',
2408
 
                       self._hashcache.cache_file_name(), e)
2409
 
 
2410
 
    @needs_tree_write_lock
 
1440
            self.branch.unlock()
 
1441
 
 
1442
    @needs_write_lock
2411
1443
    def _write_inventory(self, inv):
2412
1444
        """Write inventory as the current inventory."""
2413
 
        self._set_inventory(inv, dirty=True)
2414
 
        self.flush()
 
1445
        sio = StringIO()
 
1446
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
 
1447
        sio.seek(0)
 
1448
        self._control_files.put('inventory', sio)
 
1449
        self._set_inventory(inv)
 
1450
        mutter('wrote working inventory')
2415
1451
 
2416
1452
    def set_conflicts(self, arg):
2417
 
        raise errors.UnsupportedOperation(self.set_conflicts, self)
 
1453
        raise UnsupportedOperation(self.set_conflicts, self)
2418
1454
 
2419
1455
    def add_conflicts(self, arg):
2420
 
        raise errors.UnsupportedOperation(self.add_conflicts, self)
 
1456
        raise UnsupportedOperation(self.add_conflicts, self)
2421
1457
 
2422
1458
    @needs_read_lock
2423
1459
    def conflicts(self):
2424
 
        conflicts = _mod_conflicts.ConflictList()
 
1460
        conflicts = ConflictList()
2425
1461
        for conflicted in self._iter_conflicts():
2426
1462
            text = True
2427
1463
            try:
2440
1476
                    if text == False:
2441
1477
                        break
2442
1478
            ctype = {True: 'text conflict', False: 'contents conflict'}[text]
2443
 
            conflicts.append(_mod_conflicts.Conflict.factory(ctype,
2444
 
                             path=conflicted,
 
1479
            conflicts.append(Conflict.factory(ctype, path=conflicted,
2445
1480
                             file_id=self.path2id(conflicted)))
2446
1481
        return conflicts
2447
1482
 
2448
 
    def walkdirs(self, prefix=""):
2449
 
        """Walk the directories of this tree.
2450
 
 
2451
 
        returns a generator which yields items in the form:
2452
 
                ((curren_directory_path, fileid),
2453
 
                 [(file1_path, file1_name, file1_kind, (lstat), file1_id,
2454
 
                   file1_kind), ... ])
2455
 
 
2456
 
        This API returns a generator, which is only valid during the current
2457
 
        tree transaction - within a single lock_read or lock_write duration.
2458
 
 
2459
 
        If the tree is not locked, it may cause an error to be raised,
2460
 
        depending on the tree implementation.
2461
 
        """
2462
 
        disk_top = self.abspath(prefix)
2463
 
        if disk_top.endswith('/'):
2464
 
            disk_top = disk_top[:-1]
2465
 
        top_strip_len = len(disk_top) + 1
2466
 
        inventory_iterator = self._walkdirs(prefix)
2467
 
        disk_iterator = osutils.walkdirs(disk_top, prefix)
2468
 
        try:
2469
 
            current_disk = disk_iterator.next()
2470
 
            disk_finished = False
2471
 
        except OSError, e:
2472
 
            if not (e.errno == errno.ENOENT or
2473
 
                (sys.platform == 'win32' and e.errno == ERROR_PATH_NOT_FOUND)):
2474
 
                raise
2475
 
            current_disk = None
2476
 
            disk_finished = True
2477
 
        try:
2478
 
            current_inv = inventory_iterator.next()
2479
 
            inv_finished = False
2480
 
        except StopIteration:
2481
 
            current_inv = None
2482
 
            inv_finished = True
2483
 
        while not inv_finished or not disk_finished:
2484
 
            if current_disk:
2485
 
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
2486
 
                    cur_disk_dir_content) = current_disk
2487
 
            else:
2488
 
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
2489
 
                    cur_disk_dir_content) = ((None, None), None)
2490
 
            if not disk_finished:
2491
 
                # strip out .bzr dirs
2492
 
                if (cur_disk_dir_path_from_top[top_strip_len:] == '' and
2493
 
                    len(cur_disk_dir_content) > 0):
2494
 
                    # osutils.walkdirs can be made nicer -
2495
 
                    # yield the path-from-prefix rather than the pathjoined
2496
 
                    # value.
2497
 
                    bzrdir_loc = bisect_left(cur_disk_dir_content,
2498
 
                        ('.bzr', '.bzr'))
2499
 
                    if (bzrdir_loc < len(cur_disk_dir_content)
2500
 
                        and self.bzrdir.is_control_filename(
2501
 
                            cur_disk_dir_content[bzrdir_loc][0])):
2502
 
                        # we dont yield the contents of, or, .bzr itself.
2503
 
                        del cur_disk_dir_content[bzrdir_loc]
2504
 
            if inv_finished:
2505
 
                # everything is unknown
2506
 
                direction = 1
2507
 
            elif disk_finished:
2508
 
                # everything is missing
2509
 
                direction = -1
2510
 
            else:
2511
 
                direction = cmp(current_inv[0][0], cur_disk_dir_relpath)
2512
 
            if direction > 0:
2513
 
                # disk is before inventory - unknown
2514
 
                dirblock = [(relpath, basename, kind, stat, None, None) for
2515
 
                    relpath, basename, kind, stat, top_path in
2516
 
                    cur_disk_dir_content]
2517
 
                yield (cur_disk_dir_relpath, None), dirblock
2518
 
                try:
2519
 
                    current_disk = disk_iterator.next()
2520
 
                except StopIteration:
2521
 
                    disk_finished = True
2522
 
            elif direction < 0:
2523
 
                # inventory is before disk - missing.
2524
 
                dirblock = [(relpath, basename, 'unknown', None, fileid, kind)
2525
 
                    for relpath, basename, dkind, stat, fileid, kind in
2526
 
                    current_inv[1]]
2527
 
                yield (current_inv[0][0], current_inv[0][1]), dirblock
2528
 
                try:
2529
 
                    current_inv = inventory_iterator.next()
2530
 
                except StopIteration:
2531
 
                    inv_finished = True
2532
 
            else:
2533
 
                # versioned present directory
2534
 
                # merge the inventory and disk data together
2535
 
                dirblock = []
2536
 
                for relpath, subiterator in itertools.groupby(sorted(
2537
 
                    current_inv[1] + cur_disk_dir_content,
2538
 
                    key=operator.itemgetter(0)), operator.itemgetter(1)):
2539
 
                    path_elements = list(subiterator)
2540
 
                    if len(path_elements) == 2:
2541
 
                        inv_row, disk_row = path_elements
2542
 
                        # versioned, present file
2543
 
                        dirblock.append((inv_row[0],
2544
 
                            inv_row[1], disk_row[2],
2545
 
                            disk_row[3], inv_row[4],
2546
 
                            inv_row[5]))
2547
 
                    elif len(path_elements[0]) == 5:
2548
 
                        # unknown disk file
2549
 
                        dirblock.append((path_elements[0][0],
2550
 
                            path_elements[0][1], path_elements[0][2],
2551
 
                            path_elements[0][3], None, None))
2552
 
                    elif len(path_elements[0]) == 6:
2553
 
                        # versioned, absent file.
2554
 
                        dirblock.append((path_elements[0][0],
2555
 
                            path_elements[0][1], 'unknown', None,
2556
 
                            path_elements[0][4], path_elements[0][5]))
2557
 
                    else:
2558
 
                        raise NotImplementedError('unreachable code')
2559
 
                yield current_inv[0], dirblock
2560
 
                try:
2561
 
                    current_inv = inventory_iterator.next()
2562
 
                except StopIteration:
2563
 
                    inv_finished = True
2564
 
                try:
2565
 
                    current_disk = disk_iterator.next()
2566
 
                except StopIteration:
2567
 
                    disk_finished = True
2568
 
 
2569
 
    def _walkdirs(self, prefix=""):
2570
 
        """Walk the directories of this tree.
2571
 
 
2572
 
           :prefix: is used as the directrory to start with.
2573
 
           returns a generator which yields items in the form:
2574
 
                ((curren_directory_path, fileid),
2575
 
                 [(file1_path, file1_name, file1_kind, None, file1_id,
2576
 
                   file1_kind), ... ])
2577
 
        """
2578
 
        _directory = 'directory'
2579
 
        # get the root in the inventory
2580
 
        inv = self.inventory
2581
 
        top_id = inv.path2id(prefix)
2582
 
        if top_id is None:
2583
 
            pending = []
2584
 
        else:
2585
 
            pending = [(prefix, '', _directory, None, top_id, None)]
2586
 
        while pending:
2587
 
            dirblock = []
2588
 
            currentdir = pending.pop()
2589
 
            # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-id, 5-kind
2590
 
            top_id = currentdir[4]
2591
 
            if currentdir[0]:
2592
 
                relroot = currentdir[0] + '/'
2593
 
            else:
2594
 
                relroot = ""
2595
 
            # FIXME: stash the node in pending
2596
 
            entry = inv[top_id]
2597
 
            if entry.kind == 'directory':
2598
 
                for name, child in entry.sorted_children():
2599
 
                    dirblock.append((relroot + name, name, child.kind, None,
2600
 
                        child.file_id, child.kind
2601
 
                        ))
2602
 
            yield (currentdir[0], entry.file_id), dirblock
2603
 
            # push the user specified dirs from dirblock
2604
 
            for dir in reversed(dirblock):
2605
 
                if dir[2] == _directory:
2606
 
                    pending.append(dir)
2607
 
 
2608
 
    @needs_tree_write_lock
2609
 
    def auto_resolve(self):
2610
 
        """Automatically resolve text conflicts according to contents.
2611
 
 
2612
 
        Only text conflicts are auto_resolvable. Files with no conflict markers
2613
 
        are considered 'resolved', because bzr always puts conflict markers
2614
 
        into files that have text conflicts.  The corresponding .THIS .BASE and
2615
 
        .OTHER files are deleted, as per 'resolve'.
2616
 
        :return: a tuple of ConflictLists: (un_resolved, resolved).
2617
 
        """
2618
 
        un_resolved = _mod_conflicts.ConflictList()
2619
 
        resolved = _mod_conflicts.ConflictList()
2620
 
        conflict_re = re.compile('^(<{7}|={7}|>{7})')
2621
 
        for conflict in self.conflicts():
2622
 
            if (conflict.typestring != 'text conflict' or
2623
 
                self.kind(conflict.file_id) != 'file'):
2624
 
                un_resolved.append(conflict)
2625
 
                continue
2626
 
            my_file = open(self.id2abspath(conflict.file_id), 'rb')
2627
 
            try:
2628
 
                for line in my_file:
2629
 
                    if conflict_re.search(line):
2630
 
                        un_resolved.append(conflict)
2631
 
                        break
2632
 
                else:
2633
 
                    resolved.append(conflict)
2634
 
            finally:
2635
 
                my_file.close()
2636
 
        resolved.remove_files(self)
2637
 
        self.set_conflicts(un_resolved)
2638
 
        return un_resolved, resolved
2639
 
 
2640
 
    @needs_read_lock
2641
 
    def _check(self, references):
2642
 
        """Check the tree for consistency.
2643
 
 
2644
 
        :param references: A dict with keys matching the items returned by
2645
 
            self._get_check_refs(), and values from looking those keys up in
2646
 
            the repository.
2647
 
        """
2648
 
        tree_basis = self.basis_tree()
2649
 
        tree_basis.lock_read()
2650
 
        try:
2651
 
            repo_basis = references[('trees', self.last_revision())]
2652
 
            if len(list(repo_basis.iter_changes(tree_basis))) > 0:
2653
 
                raise errors.BzrCheckError(
2654
 
                    "Mismatched basis inventory content.")
2655
 
            self._validate()
2656
 
        finally:
2657
 
            tree_basis.unlock()
2658
 
 
2659
 
    def _validate(self):
2660
 
        """Validate internal structures.
2661
 
 
2662
 
        This is meant mostly for the test suite. To give it a chance to detect
2663
 
        corruption after actions have occurred. The default implementation is a
2664
 
        just a no-op.
2665
 
 
2666
 
        :return: None. An exception should be raised if there is an error.
2667
 
        """
2668
 
        return
2669
 
 
2670
 
    def _get_rules_searcher(self, default_searcher):
2671
 
        """See Tree._get_rules_searcher."""
2672
 
        if self._rules_searcher is None:
2673
 
            self._rules_searcher = super(WorkingTree,
2674
 
                self)._get_rules_searcher(default_searcher)
2675
 
        return self._rules_searcher
2676
 
 
2677
 
    def get_shelf_manager(self):
2678
 
        """Return the ShelfManager for this WorkingTree."""
2679
 
        from bzrlib.shelf import ShelfManager
2680
 
        return ShelfManager(self, self._transport)
2681
 
 
2682
1483
 
2683
1484
class WorkingTree2(WorkingTree):
2684
1485
    """This is the Format 2 working tree.
2685
1486
 
2686
 
    This was the first weave based working tree.
 
1487
    This was the first weave based working tree. 
2687
1488
     - uses os locks for locking.
2688
1489
     - uses the branch last-revision.
2689
1490
    """
2690
1491
 
2691
 
    def __init__(self, *args, **kwargs):
2692
 
        super(WorkingTree2, self).__init__(*args, **kwargs)
2693
 
        # WorkingTree2 has more of a constraint that self._inventory must
2694
 
        # exist. Because this is an older format, we don't mind the overhead
2695
 
        # caused by the extra computation here.
2696
 
 
2697
 
        # Newer WorkingTree's should only have self._inventory set when they
2698
 
        # have a read lock.
2699
 
        if self._inventory is None:
2700
 
            self.read_working_inventory()
2701
 
 
2702
 
    def _get_check_refs(self):
2703
 
        """Return the references needed to perform a check of this tree."""
2704
 
        return [('trees', self.last_revision())]
2705
 
 
2706
 
    def lock_tree_write(self):
2707
 
        """See WorkingTree.lock_tree_write().
2708
 
 
2709
 
        In Format2 WorkingTrees we have a single lock for the branch and tree
2710
 
        so lock_tree_write() degrades to lock_write().
2711
 
 
2712
 
        :return: An object with an unlock method which will release the lock
2713
 
            obtained.
2714
 
        """
2715
 
        self.branch.lock_write()
2716
 
        try:
2717
 
            self._control_files.lock_write()
2718
 
            return self
2719
 
        except:
2720
 
            self.branch.unlock()
2721
 
            raise
2722
 
 
2723
1492
    def unlock(self):
2724
 
        # do non-implementation specific cleanup
2725
 
        self._cleanup()
2726
 
 
2727
1493
        # we share control files:
2728
 
        if self._control_files._lock_count == 3:
2729
 
            # _inventory_is_modified is always False during a read lock.
2730
 
            if self._inventory_is_modified:
2731
 
                self.flush()
2732
 
            self._write_hashcache_if_dirty()
2733
 
 
 
1494
        if self._hashcache.needs_write and self._control_files._lock_count==3:
 
1495
            self._hashcache.write()
2734
1496
        # reverse order of locking.
2735
1497
        try:
2736
1498
            return self._control_files.unlock()
2749
1511
    """
2750
1512
 
2751
1513
    @needs_read_lock
2752
 
    def _last_revision(self):
2753
 
        """See Mutable.last_revision."""
 
1514
    def last_revision(self):
 
1515
        """See WorkingTree.last_revision."""
2754
1516
        try:
2755
 
            return self._transport.get_bytes('last-revision')
2756
 
        except errors.NoSuchFile:
2757
 
            return _mod_revision.NULL_REVISION
 
1517
            return self._control_files.get_utf8('last-revision').read()
 
1518
        except NoSuchFile:
 
1519
            return None
2758
1520
 
2759
1521
    def _change_last_revision(self, revision_id):
2760
1522
        """See WorkingTree._change_last_revision."""
2761
 
        if revision_id is None or revision_id == _mod_revision.NULL_REVISION:
 
1523
        if revision_id is None or revision_id == NULL_REVISION:
2762
1524
            try:
2763
 
                self._transport.delete('last-revision')
 
1525
                self._control_files._transport.delete('last-revision')
2764
1526
            except errors.NoSuchFile:
2765
1527
                pass
2766
1528
            return False
2767
1529
        else:
2768
 
            self._transport.put_bytes('last-revision', revision_id,
2769
 
                mode=self.bzrdir._get_file_mode())
 
1530
            try:
 
1531
                self.branch.revision_history().index(revision_id)
 
1532
            except ValueError:
 
1533
                raise errors.NoSuchRevision(self.branch, revision_id)
 
1534
            self._control_files.put_utf8('last-revision', revision_id)
2770
1535
            return True
2771
1536
 
2772
 
    def _get_check_refs(self):
2773
 
        """Return the references needed to perform a check of this tree."""
2774
 
        return [('trees', self.last_revision())]
2775
 
 
2776
 
    @needs_tree_write_lock
 
1537
    @needs_write_lock
2777
1538
    def set_conflicts(self, conflicts):
2778
 
        self._put_rio('conflicts', conflicts.to_stanzas(),
 
1539
        self._put_rio('conflicts', conflicts.to_stanzas(), 
2779
1540
                      CONFLICT_HEADER_1)
2780
1541
 
2781
 
    @needs_tree_write_lock
 
1542
    @needs_write_lock
2782
1543
    def add_conflicts(self, new_conflicts):
2783
1544
        conflict_set = set(self.conflicts())
2784
1545
        conflict_set.update(set(list(new_conflicts)))
2785
 
        self.set_conflicts(_mod_conflicts.ConflictList(sorted(conflict_set,
2786
 
                                       key=_mod_conflicts.Conflict.sort_key)))
 
1546
        self.set_conflicts(ConflictList(sorted(conflict_set,
 
1547
                                               key=Conflict.sort_key)))
2787
1548
 
2788
1549
    @needs_read_lock
2789
1550
    def conflicts(self):
2790
1551
        try:
2791
 
            confile = self._transport.get('conflicts')
2792
 
        except errors.NoSuchFile:
2793
 
            return _mod_conflicts.ConflictList()
 
1552
            confile = self._control_files.get('conflicts')
 
1553
        except NoSuchFile:
 
1554
            return ConflictList()
2794
1555
        try:
2795
 
            try:
2796
 
                if confile.next() != CONFLICT_HEADER_1 + '\n':
2797
 
                    raise errors.ConflictFormatError()
2798
 
            except StopIteration:
2799
 
                raise errors.ConflictFormatError()
2800
 
            return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
2801
 
        finally:
2802
 
            confile.close()
 
1556
            if confile.next() != CONFLICT_HEADER_1 + '\n':
 
1557
                raise ConflictFormatError()
 
1558
        except StopIteration:
 
1559
            raise ConflictFormatError()
 
1560
        return ConflictList.from_stanzas(RioReader(confile))
2803
1561
 
2804
1562
    def unlock(self):
2805
 
        # do non-implementation specific cleanup
2806
 
        self._cleanup()
2807
 
        if self._control_files._lock_count == 1:
2808
 
            # _inventory_is_modified is always False during a read lock.
2809
 
            if self._inventory_is_modified:
2810
 
                self.flush()
2811
 
            self._write_hashcache_if_dirty()
 
1563
        if self._hashcache.needs_write and self._control_files._lock_count==1:
 
1564
            self._hashcache.write()
2812
1565
        # reverse order of locking.
2813
1566
        try:
2814
1567
            return self._control_files.unlock()
2817
1570
 
2818
1571
 
2819
1572
def get_conflicted_stem(path):
2820
 
    for suffix in _mod_conflicts.CONFLICT_SUFFIXES:
 
1573
    for suffix in CONFLICT_SUFFIXES:
2821
1574
        if path.endswith(suffix):
2822
1575
            return path[:-len(suffix)]
2823
1576
 
 
1577
@deprecated_function(zero_eight)
 
1578
def is_control_file(filename):
 
1579
    """See WorkingTree.is_control_filename(filename)."""
 
1580
    ## FIXME: better check
 
1581
    filename = normpath(filename)
 
1582
    while filename != '':
 
1583
        head, tail = os.path.split(filename)
 
1584
        ## mutter('check %r for control file' % ((head, tail),))
 
1585
        if tail == '.bzr':
 
1586
            return True
 
1587
        if filename == head:
 
1588
            break
 
1589
        filename = head
 
1590
    return False
 
1591
 
2824
1592
 
2825
1593
class WorkingTreeFormat(object):
2826
1594
    """An encapsulation of the initialization and open routines for a format.
2830
1598
     * a format string,
2831
1599
     * an open routine.
2832
1600
 
2833
 
    Formats are placed in an dict by their format string for reference
 
1601
    Formats are placed in an dict by their format string for reference 
2834
1602
    during workingtree opening. Its not required that these be instances, they
2835
 
    can be classes themselves with class methods - it simply depends on
 
1603
    can be classes themselves with class methods - it simply depends on 
2836
1604
    whether state is needed for a given format or not.
2837
1605
 
2838
1606
    Once a format is deprecated, just deprecate the initialize and open
2839
 
    methods on the format class. Do not deprecate the object, as the
 
1607
    methods on the format class. Do not deprecate the object, as the 
2840
1608
    object will be created every time regardless.
2841
1609
    """
2842
1610
 
2846
1614
    _formats = {}
2847
1615
    """The known formats."""
2848
1616
 
2849
 
    requires_rich_root = False
2850
 
 
2851
 
    upgrade_recommended = False
2852
 
 
2853
1617
    @classmethod
2854
1618
    def find_format(klass, a_bzrdir):
2855
1619
        """Return the format for the working tree object in a_bzrdir."""
2856
1620
        try:
2857
1621
            transport = a_bzrdir.get_workingtree_transport(None)
2858
 
            format_string = transport.get_bytes("format")
 
1622
            format_string = transport.get("format").read()
2859
1623
            return klass._formats[format_string]
2860
 
        except errors.NoSuchFile:
 
1624
        except NoSuchFile:
2861
1625
            raise errors.NoWorkingTree(base=transport.base)
2862
1626
        except KeyError:
2863
 
            raise errors.UnknownFormatError(format=format_string,
2864
 
                                            kind="working tree")
2865
 
 
2866
 
    def __eq__(self, other):
2867
 
        return self.__class__ is other.__class__
2868
 
 
2869
 
    def __ne__(self, other):
2870
 
        return not (self == other)
 
1627
            raise errors.UnknownFormatError(format=format_string)
2871
1628
 
2872
1629
    @classmethod
2873
1630
    def get_default_format(klass):
2886
1643
        """Is this format supported?
2887
1644
 
2888
1645
        Supported formats can be initialized and opened.
2889
 
        Unsupported formats may not support initialization or committing or
 
1646
        Unsupported formats may not support initialization or committing or 
2890
1647
        some other features depending on the reason for not being supported.
2891
1648
        """
2892
1649
        return True
2893
1650
 
2894
 
    def supports_content_filtering(self):
2895
 
        """True if this format supports content filtering."""
2896
 
        return False
2897
 
 
2898
 
    def supports_views(self):
2899
 
        """True if this format supports stored views."""
2900
 
        return False
2901
 
 
2902
1651
    @classmethod
2903
1652
    def register_format(klass, format):
2904
1653
        klass._formats[format.get_format_string()] = format
2909
1658
 
2910
1659
    @classmethod
2911
1660
    def unregister_format(klass, format):
 
1661
        assert klass._formats[format.get_format_string()] is format
2912
1662
        del klass._formats[format.get_format_string()]
2913
1663
 
2914
1664
 
 
1665
 
2915
1666
class WorkingTreeFormat2(WorkingTreeFormat):
2916
 
    """The second working tree format.
 
1667
    """The second working tree format. 
2917
1668
 
2918
1669
    This format modified the hash cache from the format 1 hash cache.
2919
1670
    """
2920
1671
 
2921
 
    upgrade_recommended = True
2922
 
 
2923
1672
    def get_format_description(self):
2924
1673
        """See WorkingTreeFormat.get_format_description()."""
2925
1674
        return "Working tree format 2"
2926
1675
 
2927
 
    def _stub_initialize_on_transport(self, transport, file_mode):
2928
 
        """Workaround: create control files for a remote working tree.
2929
 
 
 
1676
    def stub_initialize_remote(self, control_files):
 
1677
        """As a special workaround create critical control files for a remote working tree
 
1678
        
2930
1679
        This ensures that it can later be updated and dealt with locally,
2931
 
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with
 
1680
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with 
2932
1681
        no working tree.  (See bug #43064).
2933
1682
        """
2934
1683
        sio = StringIO()
2935
 
        inv = inventory.Inventory()
2936
 
        xml5.serializer_v5.write_inventory(inv, sio, working=True)
 
1684
        inv = Inventory()
 
1685
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
2937
1686
        sio.seek(0)
2938
 
        transport.put_file('inventory', sio, file_mode)
2939
 
        transport.put_bytes('pending-merges', '', file_mode)
2940
 
 
2941
 
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
2942
 
                   accelerator_tree=None, hardlink=False):
 
1687
        control_files.put('inventory', sio)
 
1688
 
 
1689
        control_files.put_utf8('pending-merges', '')
 
1690
        
 
1691
 
 
1692
    def initialize(self, a_bzrdir, revision_id=None):
2943
1693
        """See WorkingTreeFormat.initialize()."""
2944
1694
        if not isinstance(a_bzrdir.transport, LocalTransport):
2945
1695
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2946
 
        if from_branch is not None:
2947
 
            branch = from_branch
2948
 
        else:
2949
 
            branch = a_bzrdir.open_branch()
2950
 
        if revision_id is None:
2951
 
            revision_id = _mod_revision.ensure_null(branch.last_revision())
2952
 
        branch.lock_write()
2953
 
        try:
2954
 
            branch.generate_revision_history(revision_id)
2955
 
        finally:
2956
 
            branch.unlock()
2957
 
        inv = inventory.Inventory()
 
1696
        branch = a_bzrdir.open_branch()
 
1697
        if revision_id is not None:
 
1698
            branch.lock_write()
 
1699
            try:
 
1700
                revision_history = branch.revision_history()
 
1701
                try:
 
1702
                    position = revision_history.index(revision_id)
 
1703
                except ValueError:
 
1704
                    raise errors.NoSuchRevision(branch, revision_id)
 
1705
                branch.set_revision_history(revision_history[:position + 1])
 
1706
            finally:
 
1707
                branch.unlock()
 
1708
        revision = branch.last_revision()
 
1709
        inv = Inventory() 
2958
1710
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
2959
1711
                         branch,
2960
1712
                         inv,
2961
1713
                         _internal=True,
2962
1714
                         _format=self,
2963
1715
                         _bzrdir=a_bzrdir)
2964
 
        basis_tree = branch.repository.revision_tree(revision_id)
2965
 
        if basis_tree.inventory.root is not None:
2966
 
            wt.set_root_id(basis_tree.get_root_id())
2967
 
        # set the parent list and cache the basis tree.
2968
 
        if _mod_revision.is_null(revision_id):
2969
 
            parent_trees = []
2970
 
        else:
2971
 
            parent_trees = [(revision_id, basis_tree)]
2972
 
        wt.set_parent_trees(parent_trees)
2973
 
        transform.build_tree(basis_tree, wt)
 
1716
        wt._write_inventory(inv)
 
1717
        wt.set_root_id(inv.root.file_id)
 
1718
        wt.set_last_revision(revision)
 
1719
        wt.set_pending_merges([])
 
1720
        build_tree(wt.basis_tree(), wt)
2974
1721
        return wt
2975
1722
 
2976
1723
    def __init__(self):
2988
1735
            raise NotImplementedError
2989
1736
        if not isinstance(a_bzrdir.transport, LocalTransport):
2990
1737
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2991
 
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
 
1738
        return WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
2992
1739
                           _internal=True,
2993
1740
                           _format=self,
2994
1741
                           _bzrdir=a_bzrdir)
2995
 
        return wt
 
1742
 
2996
1743
 
2997
1744
class WorkingTreeFormat3(WorkingTreeFormat):
2998
1745
    """The second working tree format updated to record a format marker.
3006
1753
        - uses a LockDir to guard access for writes.
3007
1754
    """
3008
1755
 
3009
 
    upgrade_recommended = True
3010
 
 
3011
1756
    def get_format_string(self):
3012
1757
        """See WorkingTreeFormat.get_format_string()."""
3013
1758
        return "Bazaar-NG Working Tree format 3"
3019
1764
    _lock_file_name = 'lock'
3020
1765
    _lock_class = LockDir
3021
1766
 
3022
 
    _tree_class = WorkingTree3
3023
 
 
3024
 
    def __get_matchingbzrdir(self):
3025
 
        return bzrdir.BzrDirMetaFormat1()
3026
 
 
3027
 
    _matchingbzrdir = property(__get_matchingbzrdir)
3028
 
 
3029
1767
    def _open_control_files(self, a_bzrdir):
3030
1768
        transport = a_bzrdir.get_workingtree_transport(None)
3031
 
        return LockableFiles(transport, self._lock_file_name,
 
1769
        return LockableFiles(transport, self._lock_file_name, 
3032
1770
                             self._lock_class)
3033
1771
 
3034
 
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
3035
 
                   accelerator_tree=None, hardlink=False):
 
1772
    def initialize(self, a_bzrdir, revision_id=None):
3036
1773
        """See WorkingTreeFormat.initialize().
3037
 
 
3038
 
        :param revision_id: if supplied, create a working tree at a different
3039
 
            revision than the branch is at.
3040
 
        :param accelerator_tree: A tree which can be used for retrieving file
3041
 
            contents more quickly than the revision tree, i.e. a workingtree.
3042
 
            The revision tree will be used for cases where accelerator_tree's
3043
 
            content is different.
3044
 
        :param hardlink: If true, hard-link files from accelerator_tree,
3045
 
            where possible.
 
1774
        
 
1775
        revision_id allows creating a working tree at a different
 
1776
        revision than the branch is at.
3046
1777
        """
3047
1778
        if not isinstance(a_bzrdir.transport, LocalTransport):
3048
1779
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
3050
1781
        control_files = self._open_control_files(a_bzrdir)
3051
1782
        control_files.create_lock()
3052
1783
        control_files.lock_write()
3053
 
        transport.put_bytes('format', self.get_format_string(),
3054
 
            mode=a_bzrdir._get_file_mode())
3055
 
        if from_branch is not None:
3056
 
            branch = from_branch
3057
 
        else:
3058
 
            branch = a_bzrdir.open_branch()
 
1784
        control_files.put_utf8('format', self.get_format_string())
 
1785
        branch = a_bzrdir.open_branch()
3059
1786
        if revision_id is None:
3060
 
            revision_id = _mod_revision.ensure_null(branch.last_revision())
3061
 
        # WorkingTree3 can handle an inventory which has a unique root id.
3062
 
        # as of bzr 0.12. However, bzr 0.11 and earlier fail to handle
3063
 
        # those trees. And because there isn't a format bump inbetween, we
3064
 
        # are maintaining compatibility with older clients.
3065
 
        # inv = Inventory(root_id=gen_root_id())
3066
 
        inv = self._initial_inventory()
3067
 
        wt = self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
 
1787
            revision_id = branch.last_revision()
 
1788
        inv = Inventory() 
 
1789
        wt = WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
3068
1790
                         branch,
3069
1791
                         inv,
3070
1792
                         _internal=True,
3071
1793
                         _format=self,
3072
1794
                         _bzrdir=a_bzrdir,
3073
1795
                         _control_files=control_files)
3074
 
        wt.lock_tree_write()
 
1796
        wt.lock_write()
3075
1797
        try:
3076
 
            basis_tree = branch.repository.revision_tree(revision_id)
3077
 
            # only set an explicit root id if there is one to set.
3078
 
            if basis_tree.inventory.root is not None:
3079
 
                wt.set_root_id(basis_tree.get_root_id())
3080
 
            if revision_id == _mod_revision.NULL_REVISION:
3081
 
                wt.set_parent_trees([])
3082
 
            else:
3083
 
                wt.set_parent_trees([(revision_id, basis_tree)])
3084
 
            transform.build_tree(basis_tree, wt)
 
1798
            wt._write_inventory(inv)
 
1799
            wt.set_root_id(inv.root.file_id)
 
1800
            wt.set_last_revision(revision_id)
 
1801
            wt.set_pending_merges([])
 
1802
            build_tree(wt.basis_tree(), wt)
3085
1803
        finally:
3086
 
            # Unlock in this order so that the unlock-triggers-flush in
3087
 
            # WorkingTree is given a chance to fire.
 
1804
            wt.unlock()
3088
1805
            control_files.unlock()
3089
 
            wt.unlock()
3090
1806
        return wt
3091
1807
 
3092
 
    def _initial_inventory(self):
3093
 
        return inventory.Inventory()
3094
 
 
3095
1808
    def __init__(self):
3096
1809
        super(WorkingTreeFormat3, self).__init__()
 
1810
        self._matchingbzrdir = bzrdir.BzrDirMetaFormat1()
3097
1811
 
3098
1812
    def open(self, a_bzrdir, _found=False):
3099
1813
        """Return the WorkingTree object for a_bzrdir
3106
1820
            raise NotImplementedError
3107
1821
        if not isinstance(a_bzrdir.transport, LocalTransport):
3108
1822
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
3109
 
        wt = self._open(a_bzrdir, self._open_control_files(a_bzrdir))
3110
 
        return wt
 
1823
        return self._open(a_bzrdir, self._open_control_files(a_bzrdir))
3111
1824
 
3112
1825
    def _open(self, a_bzrdir, control_files):
3113
1826
        """Open the tree itself.
3114
 
 
 
1827
        
3115
1828
        :param a_bzrdir: the dir for the tree.
3116
1829
        :param control_files: the control files for the tree.
3117
1830
        """
3118
 
        return self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
3119
 
                                _internal=True,
3120
 
                                _format=self,
3121
 
                                _bzrdir=a_bzrdir,
3122
 
                                _control_files=control_files)
 
1831
        return WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
 
1832
                           _internal=True,
 
1833
                           _format=self,
 
1834
                           _bzrdir=a_bzrdir,
 
1835
                           _control_files=control_files)
3123
1836
 
3124
1837
    def __str__(self):
3125
1838
        return self.get_format_string()
3126
1839
 
3127
1840
 
3128
 
__default_format = WorkingTreeFormat6()
 
1841
# formats which have no format string are not discoverable
 
1842
# and not independently creatable, so are not registered.
 
1843
__default_format = WorkingTreeFormat3()
3129
1844
WorkingTreeFormat.register_format(__default_format)
3130
 
WorkingTreeFormat.register_format(WorkingTreeFormat5())
3131
 
WorkingTreeFormat.register_format(WorkingTreeFormat4())
3132
 
WorkingTreeFormat.register_format(WorkingTreeFormat3())
3133
1845
WorkingTreeFormat.set_default_format(__default_format)
3134
 
# formats which have no format string are not discoverable
3135
 
# and not independently creatable, so are not registered.
3136
1846
_legacy_formats = [WorkingTreeFormat2(),
3137
1847
                   ]
 
1848
 
 
1849
 
 
1850
class WorkingTreeTestProviderAdapter(object):
 
1851
    """A tool to generate a suite testing multiple workingtree formats at once.
 
1852
 
 
1853
    This is done by copying the test once for each transport and injecting
 
1854
    the transport_server, transport_readonly_server, and workingtree_format
 
1855
    classes into each copy. Each copy is also given a new id() to make it
 
1856
    easy to identify.
 
1857
    """
 
1858
 
 
1859
    def __init__(self, transport_server, transport_readonly_server, formats):
 
1860
        self._transport_server = transport_server
 
1861
        self._transport_readonly_server = transport_readonly_server
 
1862
        self._formats = formats
 
1863
    
 
1864
    def _clone_test(self, test, bzrdir_format, workingtree_format, variation):
 
1865
        """Clone test for adaption."""
 
1866
        new_test = deepcopy(test)
 
1867
        new_test.transport_server = self._transport_server
 
1868
        new_test.transport_readonly_server = self._transport_readonly_server
 
1869
        new_test.bzrdir_format = bzrdir_format
 
1870
        new_test.workingtree_format = workingtree_format
 
1871
        def make_new_test_id():
 
1872
            new_id = "%s(%s)" % (test.id(), variation)
 
1873
            return lambda: new_id
 
1874
        new_test.id = make_new_test_id()
 
1875
        return new_test
 
1876
    
 
1877
    def adapt(self, test):
 
1878
        from bzrlib.tests import TestSuite
 
1879
        result = TestSuite()
 
1880
        for workingtree_format, bzrdir_format in self._formats:
 
1881
            new_test = self._clone_test(
 
1882
                test,
 
1883
                bzrdir_format,
 
1884
                workingtree_format, workingtree_format.__class__.__name__)
 
1885
            result.addTest(new_test)
 
1886
        return result