~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: Marius Kruger
  • Date: 2010-07-10 21:28:56 UTC
  • mto: (5384.1.1 integration)
  • mto: This revision was merged to the branch mainline in revision 5385.
  • Revision ID: marius.kruger@enerweb.co.za-20100710212856-uq4ji3go0u5se7hx
* Update documentation
* add NEWS

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006 Canonical Ltd
 
1
# Copyright (C) 2005-2010 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
17
"""WorkingTree object and friends.
18
18
 
19
19
A WorkingTree represents the editable working copy of a branch.
20
 
Operations which represent the WorkingTree are also done here, 
21
 
such as renaming or adding files.  The WorkingTree has an inventory 
22
 
which is updated by these operations.  A commit produces a 
 
20
Operations which represent the WorkingTree are also done here,
 
21
such as renaming or adding files.  The WorkingTree has an inventory
 
22
which is updated by these operations.  A commit produces a
23
23
new revision based on the workingtree and its inventory.
24
24
 
25
25
At the moment every WorkingTree has its own branch.  Remote
29
29
WorkingTree.open(dir).
30
30
"""
31
31
 
32
 
# TODO: Give the workingtree sole responsibility for the working inventory;
33
 
# remove the variable and references to it from the branch.  This may require
34
 
# updating the commit code so as to update the inventory within the working
35
 
# copy, and making sure there's only one WorkingTree for any directory on disk.
36
 
# At the moment they may alias the inventory and have old copies of it in
37
 
# memory.  (Now done? -- mbp 20060309)
38
32
 
39
33
from cStringIO import StringIO
40
34
import os
41
 
import re
 
35
import sys
42
36
 
43
37
from bzrlib.lazy_import import lazy_import
44
38
lazy_import(globals(), """
 
39
from bisect import bisect_left
45
40
import collections
46
 
from copy import deepcopy
47
41
import errno
48
 
import fnmatch
 
42
import itertools
 
43
import operator
49
44
import stat
50
 
from time import time
51
 
import warnings
 
45
import re
52
46
 
53
47
import bzrlib
54
48
from bzrlib import (
 
49
    branch,
55
50
    bzrdir,
56
51
    conflicts as _mod_conflicts,
57
52
    errors,
 
53
    generate_ids,
 
54
    globbing,
 
55
    graph as _mod_graph,
 
56
    hashcache,
58
57
    ignores,
 
58
    inventory,
59
59
    merge,
60
 
    osutils,
61
 
    textui,
 
60
    revision as _mod_revision,
 
61
    revisiontree,
 
62
    trace,
62
63
    transform,
63
 
    urlutils,
 
64
    transport,
 
65
    ui,
 
66
    views,
64
67
    xml5,
65
 
    xml6,
66
 
    )
67
 
import bzrlib.branch
68
 
from bzrlib.transport import get_transport
69
 
import bzrlib.ui
 
68
    xml7,
 
69
    )
 
70
from bzrlib.workingtree_4 import (
 
71
    WorkingTreeFormat4,
 
72
    WorkingTreeFormat5,
 
73
    WorkingTreeFormat6,
 
74
    )
70
75
""")
71
76
 
72
77
from bzrlib import symbol_versioning
73
78
from bzrlib.decorators import needs_read_lock, needs_write_lock
74
 
from bzrlib.errors import (BzrCheckError,
75
 
                           BzrError,
76
 
                           ConflictFormatError,
77
 
                           WeaveRevisionNotPresent,
78
 
                           NotBranchError,
79
 
                           NoSuchFile,
80
 
                           NotVersionedError,
81
 
                           MergeModifiedFormatError,
82
 
                           UnsupportedOperation,
83
 
                           )
84
 
from bzrlib.inventory import InventoryEntry, Inventory, ROOT_ID
85
 
from bzrlib.lockable_files import LockableFiles, TransportLock
 
79
from bzrlib.lock import LogicalLockResult
 
80
from bzrlib.lockable_files import LockableFiles
86
81
from bzrlib.lockdir import LockDir
87
82
import bzrlib.mutabletree
88
83
from bzrlib.mutabletree import needs_tree_write_lock
 
84
from bzrlib import osutils
89
85
from bzrlib.osutils import (
90
 
    compact_date,
91
86
    file_kind,
92
87
    isdir,
 
88
    normpath,
93
89
    pathjoin,
 
90
    realpath,
94
91
    safe_unicode,
95
92
    splitpath,
96
 
    rand_chars,
97
 
    normpath,
98
 
    realpath,
99
93
    supports_executable,
100
94
    )
 
95
from bzrlib.filters import filtered_input_file
101
96
from bzrlib.trace import mutter, note
102
97
from bzrlib.transport.local import LocalTransport
103
 
import bzrlib.tree
104
 
from bzrlib.progress import DummyProgress, ProgressPhase
105
 
from bzrlib.revision import NULL_REVISION
106
 
import bzrlib.revisiontree
 
98
from bzrlib.revision import CURRENT_REVISION
107
99
from bzrlib.rio import RioReader, rio_file, Stanza
108
 
from bzrlib.symbol_versioning import (deprecated_passed,
109
 
        deprecated_method,
110
 
        deprecated_function,
111
 
        DEPRECATED_PARAMETER,
112
 
        zero_eight,
113
 
        zero_eleven,
114
 
        )
 
100
from bzrlib.symbol_versioning import (
 
101
    deprecated_passed,
 
102
    DEPRECATED_PARAMETER,
 
103
    )
115
104
 
116
105
 
117
106
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
 
107
# TODO: Modifying the conflict objects or their type is currently nearly
 
108
# impossible as there is no clear relationship between the working tree format
 
109
# and the conflict list file format.
118
110
CONFLICT_HEADER_1 = "BZR conflict list format 1"
119
111
 
120
 
# the regex removes any weird characters; we don't escape them 
121
 
# but rather just pull them out
122
 
_gen_file_id_re = re.compile(r'[^\w.]')
123
 
_gen_id_suffix = None
124
 
_gen_id_serial = 0
125
 
 
126
 
 
127
 
def _next_id_suffix():
128
 
    """Create a new file id suffix that is reasonably unique.
129
 
    
130
 
    On the first call we combine the current time with 64 bits of randomness
131
 
    to give a highly probably globally unique number. Then each call in the same
132
 
    process adds 1 to a serial number we append to that unique value.
133
 
    """
134
 
    # XXX TODO: change bzrlib.add.smart_add to call workingtree.add() rather 
135
 
    # than having to move the id randomness out of the inner loop like this.
136
 
    # XXX TODO: for the global randomness this uses we should add the thread-id
137
 
    # before the serial #.
138
 
    global _gen_id_suffix, _gen_id_serial
139
 
    if _gen_id_suffix is None:
140
 
        _gen_id_suffix = "-%s-%s-" % (compact_date(time()), rand_chars(16))
141
 
    _gen_id_serial += 1
142
 
    return _gen_id_suffix + str(_gen_id_serial)
143
 
 
144
 
 
145
 
def gen_file_id(name):
146
 
    """Return new file id for the basename 'name'.
147
 
 
148
 
    The uniqueness is supplied from _next_id_suffix.
149
 
    """
150
 
    # The real randomness is in the _next_id_suffix, the
151
 
    # rest of the identifier is just to be nice.
152
 
    # So we:
153
 
    # 1) Remove non-ascii word characters to keep the ids portable
154
 
    # 2) squash to lowercase, so the file id doesn't have to
155
 
    #    be escaped (case insensitive filesystems would bork for ids
156
 
    #    that only differred in case without escaping).
157
 
    # 3) truncate the filename to 20 chars. Long filenames also bork on some
158
 
    #    filesystems
159
 
    # 4) Removing starting '.' characters to prevent the file ids from
160
 
    #    being considered hidden.
161
 
    ascii_word_only = _gen_file_id_re.sub('', name.lower())
162
 
    short_no_dots = ascii_word_only.lstrip('.')[:20]
163
 
    return short_no_dots + _next_id_suffix()
164
 
 
165
 
 
166
 
def gen_root_id():
167
 
    """Return a new tree-root file id."""
168
 
    return gen_file_id('tree_root')
 
112
ERROR_PATH_NOT_FOUND = 3    # WindowsError errno code, equivalent to ENOENT
169
113
 
170
114
 
171
115
class TreeEntry(object):
172
116
    """An entry that implements the minimum interface used by commands.
173
117
 
174
 
    This needs further inspection, it may be better to have 
 
118
    This needs further inspection, it may be better to have
175
119
    InventoryEntries without ids - though that seems wrong. For now,
176
120
    this is a parallel hierarchy to InventoryEntry, and needs to become
177
121
    one of several things: decorates to that hierarchy, children of, or
180
124
    no InventoryEntry available - i.e. for unversioned objects.
181
125
    Perhaps they should be UnversionedEntry et al. ? - RBC 20051003
182
126
    """
183
 
 
 
127
 
184
128
    def __eq__(self, other):
185
129
        # yes, this us ugly, TODO: best practice __eq__ style.
186
130
        return (isinstance(other, TreeEntry)
187
131
                and other.__class__ == self.__class__)
188
 
 
 
132
 
189
133
    def kind_character(self):
190
134
        return "???"
191
135
 
223
167
        return ''
224
168
 
225
169
 
226
 
class WorkingTree(bzrlib.mutabletree.MutableTree):
 
170
class WorkingTree(bzrlib.mutabletree.MutableTree,
 
171
    bzrdir.ControlComponent):
227
172
    """Working copy tree.
228
173
 
229
174
    The inventory is held in the `Branch` working-inventory, and the
231
176
 
232
177
    It is possible for a `WorkingTree` to have a filename which is
233
178
    not listed in the Inventory and vice versa.
 
179
 
 
180
    :ivar basedir: The root of the tree on disk. This is a unicode path object
 
181
        (as opposed to a URL).
234
182
    """
235
183
 
 
184
    # override this to set the strategy for storing views
 
185
    def _make_views(self):
 
186
        return views.DisabledViews(self)
 
187
 
236
188
    def __init__(self, basedir='.',
237
189
                 branch=DEPRECATED_PARAMETER,
238
190
                 _inventory=None,
240
192
                 _internal=False,
241
193
                 _format=None,
242
194
                 _bzrdir=None):
243
 
        """Construct a WorkingTree for basedir.
 
195
        """Construct a WorkingTree instance. This is not a public API.
244
196
 
245
 
        If the branch is not supplied, it is opened automatically.
246
 
        If the branch is supplied, it must be the branch for this basedir.
247
 
        (branch.base is not cross checked, because for remote branches that
248
 
        would be meaningless).
 
197
        :param branch: A branch to override probing for the branch.
249
198
        """
250
199
        self._format = _format
251
200
        self.bzrdir = _bzrdir
252
201
        if not _internal:
253
 
            # not created via open etc.
254
 
            warnings.warn("WorkingTree() is deprecated as of bzr version 0.8. "
255
 
                 "Please use bzrdir.open_workingtree or WorkingTree.open().",
256
 
                 DeprecationWarning,
257
 
                 stacklevel=2)
258
 
            wt = WorkingTree.open(basedir)
259
 
            self._branch = wt.branch
260
 
            self.basedir = wt.basedir
261
 
            self._control_files = wt._control_files
262
 
            self._hashcache = wt._hashcache
263
 
            self._set_inventory(wt._inventory, dirty=False)
264
 
            self._format = wt._format
265
 
            self.bzrdir = wt.bzrdir
266
 
        from bzrlib.hashcache import HashCache
267
 
        from bzrlib.trace import note, mutter
268
 
        assert isinstance(basedir, basestring), \
269
 
            "base directory %r is not a string" % basedir
 
202
            raise errors.BzrError("Please use bzrdir.open_workingtree or "
 
203
                "WorkingTree.open() to obtain a WorkingTree.")
270
204
        basedir = safe_unicode(basedir)
271
205
        mutter("opening working tree %r", basedir)
272
206
        if deprecated_passed(branch):
273
 
            if not _internal:
274
 
                warnings.warn("WorkingTree(..., branch=XXX) is deprecated as of bzr 0.8."
275
 
                     " Please use bzrdir.open_workingtree() or"
276
 
                     " WorkingTree.open().",
277
 
                     DeprecationWarning,
278
 
                     stacklevel=2
279
 
                     )
280
207
            self._branch = branch
281
208
        else:
282
209
            self._branch = self.bzrdir.open_branch()
287
214
            self._control_files = self.branch.control_files
288
215
        else:
289
216
            # assume all other formats have their own control files.
290
 
            assert isinstance(_control_files, LockableFiles), \
291
 
                    "_control_files must be a LockableFiles, not %r" \
292
 
                    % _control_files
293
217
            self._control_files = _control_files
 
218
        self._transport = self._control_files._transport
294
219
        # update the whole cache up front and write to disk if anything changed;
295
220
        # in the future we might want to do this more selectively
296
221
        # two possible ways offer themselves : in self._unlock, write the cache
297
222
        # if needed, or, when the cache sees a change, append it to the hash
298
223
        # cache file, and have the parser take the most recent entry for a
299
224
        # given path only.
300
 
        cache_filename = self.bzrdir.get_workingtree_transport(None).local_abspath('stat-cache')
301
 
        hc = self._hashcache = HashCache(basedir, cache_filename, self._control_files._file_mode)
 
225
        wt_trans = self.bzrdir.get_workingtree_transport(None)
 
226
        cache_filename = wt_trans.local_abspath('stat-cache')
 
227
        self._hashcache = hashcache.HashCache(basedir, cache_filename,
 
228
            self.bzrdir._get_file_mode(),
 
229
            self._content_filter_stack_provider())
 
230
        hc = self._hashcache
302
231
        hc.read()
303
232
        # is this scan needed ? it makes things kinda slow.
304
233
        #hc.scan()
308
237
            hc.write()
309
238
 
310
239
        if _inventory is None:
 
240
            # This will be acquired on lock_read() or lock_write()
311
241
            self._inventory_is_modified = False
312
 
            self.read_working_inventory()
 
242
            self._inventory = None
313
243
        else:
314
244
            # the caller of __init__ has provided an inventory,
315
245
            # we assume they know what they are doing - as its only
316
246
            # the Format factory and creation methods that are
317
247
            # permitted to do this.
318
248
            self._set_inventory(_inventory, dirty=False)
 
249
        self._detect_case_handling()
 
250
        self._rules_searcher = None
 
251
        self.views = self._make_views()
 
252
 
 
253
    @property
 
254
    def user_transport(self):
 
255
        return self.bzrdir.user_transport
 
256
 
 
257
    @property
 
258
    def control_transport(self):
 
259
        return self._transport
 
260
 
 
261
    def _detect_case_handling(self):
 
262
        wt_trans = self.bzrdir.get_workingtree_transport(None)
 
263
        try:
 
264
            wt_trans.stat("FoRMaT")
 
265
        except errors.NoSuchFile:
 
266
            self.case_sensitive = True
 
267
        else:
 
268
            self.case_sensitive = False
 
269
 
 
270
        self._setup_directory_is_tree_reference()
319
271
 
320
272
    branch = property(
321
273
        fget=lambda self: self._branch,
336
288
        self._control_files.break_lock()
337
289
        self.branch.break_lock()
338
290
 
 
291
    def _get_check_refs(self):
 
292
        """Return the references needed to perform a check of this tree.
 
293
        
 
294
        The default implementation returns no refs, and is only suitable for
 
295
        trees that have no local caching and can commit on ghosts at any time.
 
296
 
 
297
        :seealso: bzrlib.check for details about check_refs.
 
298
        """
 
299
        return []
 
300
 
 
301
    def requires_rich_root(self):
 
302
        return self._format.requires_rich_root
 
303
 
 
304
    def supports_tree_reference(self):
 
305
        return False
 
306
 
 
307
    def supports_content_filtering(self):
 
308
        return self._format.supports_content_filtering()
 
309
 
 
310
    def supports_views(self):
 
311
        return self.views.supports_views()
 
312
 
339
313
    def _set_inventory(self, inv, dirty):
340
314
        """Set the internal cached inventory.
341
315
 
346
320
            False then the inventory is the same as that on disk and any
347
321
            serialisation would be unneeded overhead.
348
322
        """
349
 
        assert inv.root is not None
350
323
        self._inventory = inv
351
324
        self._inventory_is_modified = dirty
352
325
 
356
329
 
357
330
        """
358
331
        if path is None:
359
 
            path = os.path.getcwdu()
 
332
            path = osutils.getcwd()
360
333
        control = bzrdir.BzrDir.open(path, _unsupported)
361
334
        return control.open_workingtree(_unsupported)
362
 
        
 
335
 
363
336
    @staticmethod
364
337
    def open_containing(path=None):
365
338
        """Open an existing working tree which has its root about path.
366
 
        
 
339
 
367
340
        This probes for a working tree at path and searches upwards from there.
368
341
 
369
342
        Basically we keep looking up until we find the control directory or
387
360
        """
388
361
        return WorkingTree.open(path, _unsupported=True)
389
362
 
 
363
    @staticmethod
 
364
    def find_trees(location):
 
365
        def list_current(transport):
 
366
            return [d for d in transport.list_dir('') if d != '.bzr']
 
367
        def evaluate(bzrdir):
 
368
            try:
 
369
                tree = bzrdir.open_workingtree()
 
370
            except errors.NoWorkingTree:
 
371
                return True, None
 
372
            else:
 
373
                return True, tree
 
374
        t = transport.get_transport(location)
 
375
        iterator = bzrdir.BzrDir.find_bzrdirs(t, evaluate=evaluate,
 
376
                                              list_current=list_current)
 
377
        return [tr for tr in iterator if tr is not None]
 
378
 
 
379
    # should be deprecated - this is slow and in any case treating them as a
 
380
    # container is (we now know) bad style -- mbp 20070302
 
381
    ## @deprecated_method(zero_fifteen)
390
382
    def __iter__(self):
391
383
        """Iterate through file_ids for this tree.
392
384
 
398
390
            if osutils.lexists(self.abspath(path)):
399
391
                yield ie.file_id
400
392
 
 
393
    def all_file_ids(self):
 
394
        """See Tree.iter_all_file_ids"""
 
395
        return set(self.inventory)
 
396
 
401
397
    def __repr__(self):
402
398
        return "<%s of %s>" % (self.__class__.__name__,
403
399
                               getattr(self, 'basedir', None))
404
400
 
405
401
    def abspath(self, filename):
406
402
        return pathjoin(self.basedir, filename)
407
 
    
 
403
 
408
404
    def basis_tree(self):
409
405
        """Return RevisionTree for the current last revision.
410
 
        
 
406
 
411
407
        If the left most parent is a ghost then the returned tree will be an
412
 
        empty tree - one obtained by calling repository.revision_tree(None).
 
408
        empty tree - one obtained by calling
 
409
        repository.revision_tree(NULL_REVISION).
413
410
        """
414
411
        try:
415
412
            revision_id = self.get_parent_ids()[0]
417
414
            # no parents, return an empty revision tree.
418
415
            # in the future this should return the tree for
419
416
            # 'empty:' - the implicit root empty tree.
420
 
            return self.branch.repository.revision_tree(None)
421
 
        else:
422
 
            try:
423
 
                xml = self.read_basis_inventory()
424
 
                inv = xml6.serializer_v6.read_inventory_from_string(xml)
425
 
                if inv is not None and inv.revision_id == revision_id:
426
 
                    return bzrlib.revisiontree.RevisionTree(
427
 
                        self.branch.repository, inv, revision_id)
428
 
            except (NoSuchFile, errors.BadInventoryFormat):
429
 
                pass
 
417
            return self.branch.repository.revision_tree(
 
418
                       _mod_revision.NULL_REVISION)
 
419
        try:
 
420
            return self.revision_tree(revision_id)
 
421
        except errors.NoSuchRevision:
 
422
            pass
430
423
        # No cached copy available, retrieve from the repository.
431
424
        # FIXME? RBC 20060403 should we cache the inventory locally
432
425
        # at this point ?
433
426
        try:
434
427
            return self.branch.repository.revision_tree(revision_id)
435
 
        except errors.RevisionNotPresent:
 
428
        except (errors.RevisionNotPresent, errors.NoSuchRevision):
436
429
            # the basis tree *may* be a ghost or a low level error may have
437
 
            # occured. If the revision is present, its a problem, if its not
 
430
            # occurred. If the revision is present, its a problem, if its not
438
431
            # its a ghost.
439
432
            if self.branch.repository.has_revision(revision_id):
440
433
                raise
441
434
            # the basis tree is a ghost so return an empty tree.
442
 
            return self.branch.repository.revision_tree(None)
443
 
 
444
 
    @staticmethod
445
 
    @deprecated_method(zero_eight)
446
 
    def create(branch, directory):
447
 
        """Create a workingtree for branch at directory.
448
 
 
449
 
        If existing_directory already exists it must have a .bzr directory.
450
 
        If it does not exist, it will be created.
451
 
 
452
 
        This returns a new WorkingTree object for the new checkout.
453
 
 
454
 
        TODO FIXME RBC 20060124 when we have checkout formats in place this
455
 
        should accept an optional revisionid to checkout [and reject this if
456
 
        checking out into the same dir as a pre-checkout-aware branch format.]
457
 
 
458
 
        XXX: When BzrDir is present, these should be created through that 
459
 
        interface instead.
460
 
        """
461
 
        warnings.warn('delete WorkingTree.create', stacklevel=3)
462
 
        transport = get_transport(directory)
463
 
        if branch.bzrdir.root_transport.base == transport.base:
464
 
            # same dir 
465
 
            return branch.bzrdir.create_workingtree()
466
 
        # different directory, 
467
 
        # create a branch reference
468
 
        # and now a working tree.
469
 
        raise NotImplementedError
470
 
 
471
 
    @staticmethod
472
 
    @deprecated_method(zero_eight)
473
 
    def create_standalone(directory):
474
 
        """Create a checkout and a branch and a repo at directory.
475
 
 
476
 
        Directory must exist and be empty.
477
 
 
478
 
        please use BzrDir.create_standalone_workingtree
479
 
        """
480
 
        return bzrdir.BzrDir.create_standalone_workingtree(directory)
 
435
            return self.branch.repository.revision_tree(
 
436
                       _mod_revision.NULL_REVISION)
 
437
 
 
438
    def _cleanup(self):
 
439
        self._flush_ignore_list_cache()
481
440
 
482
441
    def relpath(self, path):
483
442
        """Return the local path portion from a given path.
484
 
        
485
 
        The path may be absolute or relative. If its a relative path it is 
 
443
 
 
444
        The path may be absolute or relative. If its a relative path it is
486
445
        interpreted relative to the python current working directory.
487
446
        """
488
447
        return osutils.relpath(self.basedir, path)
490
449
    def has_filename(self, filename):
491
450
        return osutils.lexists(self.abspath(filename))
492
451
 
493
 
    def get_file(self, file_id):
494
 
        return self.get_file_byname(self.id2path(file_id))
495
 
 
496
 
    def get_file_text(self, file_id):
497
 
        return self.get_file(file_id).read()
498
 
 
499
 
    def get_file_byname(self, filename):
500
 
        return file(self.abspath(filename), 'rb')
 
452
    def get_file(self, file_id, path=None, filtered=True):
 
453
        return self.get_file_with_stat(file_id, path, filtered=filtered)[0]
 
454
 
 
455
    def get_file_with_stat(self, file_id, path=None, filtered=True,
 
456
        _fstat=os.fstat):
 
457
        """See Tree.get_file_with_stat."""
 
458
        if path is None:
 
459
            path = self.id2path(file_id)
 
460
        file_obj = self.get_file_byname(path, filtered=False)
 
461
        stat_value = _fstat(file_obj.fileno())
 
462
        if filtered and self.supports_content_filtering():
 
463
            filters = self._content_filter_stack(path)
 
464
            file_obj = filtered_input_file(file_obj, filters)
 
465
        return (file_obj, stat_value)
 
466
 
 
467
    def get_file_text(self, file_id, path=None, filtered=True):
 
468
        my_file = self.get_file(file_id, path=path, filtered=filtered)
 
469
        try:
 
470
            return my_file.read()
 
471
        finally:
 
472
            my_file.close()
 
473
 
 
474
    def get_file_byname(self, filename, filtered=True):
 
475
        path = self.abspath(filename)
 
476
        f = file(path, 'rb')
 
477
        if filtered and self.supports_content_filtering():
 
478
            filters = self._content_filter_stack(filename)
 
479
            return filtered_input_file(f, filters)
 
480
        else:
 
481
            return f
 
482
 
 
483
    def get_file_lines(self, file_id, path=None, filtered=True):
 
484
        """See Tree.get_file_lines()"""
 
485
        file = self.get_file(file_id, path, filtered=filtered)
 
486
        try:
 
487
            return file.readlines()
 
488
        finally:
 
489
            file.close()
 
490
 
 
491
    @needs_read_lock
 
492
    def annotate_iter(self, file_id, default_revision=CURRENT_REVISION):
 
493
        """See Tree.annotate_iter
 
494
 
 
495
        This implementation will use the basis tree implementation if possible.
 
496
        Lines not in the basis are attributed to CURRENT_REVISION
 
497
 
 
498
        If there are pending merges, lines added by those merges will be
 
499
        incorrectly attributed to CURRENT_REVISION (but after committing, the
 
500
        attribution will be correct).
 
501
        """
 
502
        maybe_file_parent_keys = []
 
503
        for parent_id in self.get_parent_ids():
 
504
            try:
 
505
                parent_tree = self.revision_tree(parent_id)
 
506
            except errors.NoSuchRevisionInTree:
 
507
                parent_tree = self.branch.repository.revision_tree(parent_id)
 
508
            parent_tree.lock_read()
 
509
            try:
 
510
                if file_id not in parent_tree:
 
511
                    continue
 
512
                ie = parent_tree.inventory[file_id]
 
513
                if ie.kind != 'file':
 
514
                    # Note: this is slightly unnecessary, because symlinks and
 
515
                    # directories have a "text" which is the empty text, and we
 
516
                    # know that won't mess up annotations. But it seems cleaner
 
517
                    continue
 
518
                parent_text_key = (file_id, ie.revision)
 
519
                if parent_text_key not in maybe_file_parent_keys:
 
520
                    maybe_file_parent_keys.append(parent_text_key)
 
521
            finally:
 
522
                parent_tree.unlock()
 
523
        graph = _mod_graph.Graph(self.branch.repository.texts)
 
524
        heads = graph.heads(maybe_file_parent_keys)
 
525
        file_parent_keys = []
 
526
        for key in maybe_file_parent_keys:
 
527
            if key in heads:
 
528
                file_parent_keys.append(key)
 
529
 
 
530
        # Now we have the parents of this content
 
531
        annotator = self.branch.repository.texts.get_annotator()
 
532
        text = self.get_file_text(file_id)
 
533
        this_key =(file_id, default_revision)
 
534
        annotator.add_special_text(this_key, file_parent_keys, text)
 
535
        annotations = [(key[-1], line)
 
536
                       for key, line in annotator.annotate_flat(this_key)]
 
537
        return annotations
 
538
 
 
539
    def _get_ancestors(self, default_revision):
 
540
        ancestors = set([default_revision])
 
541
        for parent_id in self.get_parent_ids():
 
542
            ancestors.update(self.branch.repository.get_ancestry(
 
543
                             parent_id, topo_sorted=False))
 
544
        return ancestors
501
545
 
502
546
    def get_parent_ids(self):
503
547
        """See Tree.get_parent_ids.
504
 
        
 
548
 
505
549
        This implementation reads the pending merges list and last_revision
506
550
        value and uses that to decide what the parents list should be.
507
551
        """
508
 
        last_rev = self._last_revision()
509
 
        if last_rev is None:
 
552
        last_rev = _mod_revision.ensure_null(self._last_revision())
 
553
        if _mod_revision.NULL_REVISION == last_rev:
510
554
            parents = []
511
555
        else:
512
556
            parents = [last_rev]
513
557
        try:
514
 
            merges_file = self._control_files.get_utf8('pending-merges')
515
 
        except NoSuchFile:
 
558
            merges_bytes = self._transport.get_bytes('pending-merges')
 
559
        except errors.NoSuchFile:
516
560
            pass
517
561
        else:
518
 
            for l in merges_file.readlines():
519
 
                parents.append(l.rstrip('\n'))
 
562
            for l in osutils.split_lines(merges_bytes):
 
563
                revision_id = l.rstrip('\n')
 
564
                parents.append(revision_id)
520
565
        return parents
521
566
 
522
567
    @needs_read_lock
523
568
    def get_root_id(self):
524
569
        """Return the id of this trees root"""
525
570
        return self._inventory.root.file_id
526
 
        
 
571
 
527
572
    def _get_store_filename(self, file_id):
528
573
        ## XXX: badly named; this is not in the store at all
529
574
        return self.abspath(self.id2path(file_id))
530
575
 
531
576
    @needs_read_lock
532
 
    def clone(self, to_bzrdir, revision_id=None, basis=None):
 
577
    def clone(self, to_bzrdir, revision_id=None):
533
578
        """Duplicate this working tree into to_bzr, including all state.
534
 
        
 
579
 
535
580
        Specifically modified files are kept as modified, but
536
581
        ignored and unknown files are discarded.
537
582
 
538
583
        If you want to make a new line of development, see bzrdir.sprout()
539
584
 
540
585
        revision
541
 
            If not None, the cloned tree will have its last revision set to 
542
 
            revision, and and difference between the source trees last revision
 
586
            If not None, the cloned tree will have its last revision set to
 
587
            revision, and difference between the source trees last revision
543
588
            and this one merged in.
544
 
 
545
 
        basis
546
 
            If not None, a closer copy of a tree which may have some files in
547
 
            common, and which file content should be preferentially copied from.
548
589
        """
549
590
        # assumes the target bzr dir format is compatible.
550
 
        result = self._format.initialize(to_bzrdir)
 
591
        result = to_bzrdir.create_workingtree()
551
592
        self.copy_content_into(result, revision_id)
552
593
        return result
553
594
 
568
609
 
569
610
    def has_id(self, file_id):
570
611
        # files that have been deleted are excluded
571
 
        inv = self._inventory
 
612
        inv = self.inventory
572
613
        if not inv.has_id(file_id):
573
614
            return False
574
615
        path = inv.id2path(file_id)
582
623
    __contains__ = has_id
583
624
 
584
625
    def get_file_size(self, file_id):
585
 
        return os.path.getsize(self.id2abspath(file_id))
 
626
        """See Tree.get_file_size"""
 
627
        # XXX: this returns the on-disk size; it should probably return the
 
628
        # canonical size
 
629
        try:
 
630
            return os.path.getsize(self.id2abspath(file_id))
 
631
        except OSError, e:
 
632
            if e.errno != errno.ENOENT:
 
633
                raise
 
634
            else:
 
635
                return None
586
636
 
587
637
    @needs_read_lock
588
 
    def get_file_sha1(self, file_id, path=None):
 
638
    def get_file_sha1(self, file_id, path=None, stat_value=None):
589
639
        if not path:
590
640
            path = self._inventory.id2path(file_id)
591
 
        return self._hashcache.get_sha1(path)
 
641
        return self._hashcache.get_sha1(path, stat_value)
592
642
 
593
643
    def get_file_mtime(self, file_id, path=None):
594
644
        if not path:
595
 
            path = self._inventory.id2path(file_id)
 
645
            path = self.inventory.id2path(file_id)
596
646
        return os.lstat(self.abspath(path)).st_mtime
597
647
 
 
648
    def _is_executable_from_path_and_stat_from_basis(self, path, stat_result):
 
649
        file_id = self.path2id(path)
 
650
        if file_id is None:
 
651
            # For unversioned files on win32, we just assume they are not
 
652
            # executable
 
653
            return False
 
654
        return self._inventory[file_id].executable
 
655
 
 
656
    def _is_executable_from_path_and_stat_from_stat(self, path, stat_result):
 
657
        mode = stat_result.st_mode
 
658
        return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
 
659
 
598
660
    if not supports_executable():
599
661
        def is_executable(self, file_id, path=None):
600
662
            return self._inventory[file_id].executable
 
663
 
 
664
        _is_executable_from_path_and_stat = \
 
665
            _is_executable_from_path_and_stat_from_basis
601
666
    else:
602
667
        def is_executable(self, file_id, path=None):
603
668
            if not path:
604
 
                path = self._inventory.id2path(file_id)
 
669
                path = self.id2path(file_id)
605
670
            mode = os.lstat(self.abspath(path)).st_mode
606
671
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
607
672
 
608
 
    @needs_write_lock
 
673
        _is_executable_from_path_and_stat = \
 
674
            _is_executable_from_path_and_stat_from_stat
 
675
 
 
676
    @needs_tree_write_lock
609
677
    def _add(self, files, ids, kinds):
610
678
        """See MutableTree._add."""
611
679
        # TODO: Re-adding a file that is removed in the working copy
612
680
        # should probably put it back with the previous ID.
613
 
        # the read and write working inventory should not occur in this 
 
681
        # the read and write working inventory should not occur in this
614
682
        # function - they should be part of lock_write and unlock.
615
 
        inv = self.read_working_inventory()
 
683
        inv = self.inventory
616
684
        for f, file_id, kind in zip(files, ids, kinds):
617
 
            assert kind is not None
618
685
            if file_id is None:
619
686
                inv.add_path(f, kind=kind)
620
687
            else:
621
688
                inv.add_path(f, kind=kind, file_id=file_id)
622
 
        self._write_inventory(inv)
 
689
            self._inventory_is_modified = True
623
690
 
624
691
    @needs_tree_write_lock
625
692
    def _gather_kinds(self, files, kinds):
631
698
                    kinds[pos] = file_kind(fullpath)
632
699
                except OSError, e:
633
700
                    if e.errno == errno.ENOENT:
634
 
                        raise NoSuchFile(fullpath)
 
701
                        raise errors.NoSuchFile(fullpath)
635
702
 
636
703
    @needs_write_lock
637
704
    def add_parent_tree_id(self, revision_id, allow_leftmost_as_ghost=False):
646
713
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
647
714
        """
648
715
        parents = self.get_parent_ids() + [revision_id]
649
 
        self.set_parent_ids(parents,
650
 
            allow_leftmost_as_ghost=len(parents) > 1 or allow_leftmost_as_ghost)
 
716
        self.set_parent_ids(parents, allow_leftmost_as_ghost=len(parents) > 1
 
717
            or allow_leftmost_as_ghost)
651
718
 
652
719
    @needs_tree_write_lock
653
720
    def add_parent_tree(self, parent_tuple, allow_leftmost_as_ghost=False):
685
752
        if updated:
686
753
            self.set_parent_ids(parents, allow_leftmost_as_ghost=True)
687
754
 
688
 
    @deprecated_method(zero_eleven)
689
 
    @needs_read_lock
690
 
    def pending_merges(self):
691
 
        """Return a list of pending merges.
692
 
 
693
 
        These are revisions that have been merged into the working
694
 
        directory but not yet committed.
695
 
 
696
 
        As of 0.11 this is deprecated. Please see WorkingTree.get_parent_ids()
697
 
        instead - which is available on all tree objects.
698
 
        """
699
 
        return self.get_parent_ids()[1:]
 
755
    def path_content_summary(self, path, _lstat=os.lstat,
 
756
        _mapper=osutils.file_kind_from_stat_mode):
 
757
        """See Tree.path_content_summary."""
 
758
        abspath = self.abspath(path)
 
759
        try:
 
760
            stat_result = _lstat(abspath)
 
761
        except OSError, e:
 
762
            if getattr(e, 'errno', None) == errno.ENOENT:
 
763
                # no file.
 
764
                return ('missing', None, None, None)
 
765
            # propagate other errors
 
766
            raise
 
767
        kind = _mapper(stat_result.st_mode)
 
768
        if kind == 'file':
 
769
            return self._file_content_summary(path, stat_result)
 
770
        elif kind == 'directory':
 
771
            # perhaps it looks like a plain directory, but it's really a
 
772
            # reference.
 
773
            if self._directory_is_tree_reference(path):
 
774
                kind = 'tree-reference'
 
775
            return kind, None, None, None
 
776
        elif kind == 'symlink':
 
777
            target = osutils.readlink(abspath)
 
778
            return ('symlink', None, None, target)
 
779
        else:
 
780
            return (kind, None, None, None)
 
781
 
 
782
    def _file_content_summary(self, path, stat_result):
 
783
        size = stat_result.st_size
 
784
        executable = self._is_executable_from_path_and_stat(path, stat_result)
 
785
        # try for a stat cache lookup
 
786
        return ('file', size, executable, self._sha_from_stat(
 
787
            path, stat_result))
700
788
 
701
789
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
702
790
        """Common ghost checking functionality from set_parent_*.
712
800
 
713
801
    def _set_merges_from_parent_ids(self, parent_ids):
714
802
        merges = parent_ids[1:]
715
 
        self._control_files.put_utf8('pending-merges', '\n'.join(merges))
 
803
        self._transport.put_bytes('pending-merges', '\n'.join(merges),
 
804
            mode=self.bzrdir._get_file_mode())
 
805
 
 
806
    def _filter_parent_ids_by_ancestry(self, revision_ids):
 
807
        """Check that all merged revisions are proper 'heads'.
 
808
 
 
809
        This will always return the first revision_id, and any merged revisions
 
810
        which are
 
811
        """
 
812
        if len(revision_ids) == 0:
 
813
            return revision_ids
 
814
        graph = self.branch.repository.get_graph()
 
815
        heads = graph.heads(revision_ids)
 
816
        new_revision_ids = revision_ids[:1]
 
817
        for revision_id in revision_ids[1:]:
 
818
            if revision_id in heads and revision_id not in new_revision_ids:
 
819
                new_revision_ids.append(revision_id)
 
820
        if new_revision_ids != revision_ids:
 
821
            trace.mutter('requested to set revision_ids = %s,'
 
822
                         ' but filtered to %s', revision_ids, new_revision_ids)
 
823
        return new_revision_ids
716
824
 
717
825
    @needs_tree_write_lock
718
826
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
719
827
        """Set the parent ids to revision_ids.
720
 
        
 
828
 
721
829
        See also set_parent_trees. This api will try to retrieve the tree data
722
830
        for each element of revision_ids from the trees repository. If you have
723
831
        tree data already available, it is more efficient to use
729
837
        """
730
838
        self._check_parents_for_ghosts(revision_ids,
731
839
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
840
        for revision_id in revision_ids:
 
841
            _mod_revision.check_not_reserved_id(revision_id)
 
842
 
 
843
        revision_ids = self._filter_parent_ids_by_ancestry(revision_ids)
732
844
 
733
845
        if len(revision_ids) > 0:
734
846
            self.set_last_revision(revision_ids[0])
735
847
        else:
736
 
            self.set_last_revision(None)
 
848
            self.set_last_revision(_mod_revision.NULL_REVISION)
737
849
 
738
850
        self._set_merges_from_parent_ids(revision_ids)
739
851
 
741
853
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
742
854
        """See MutableTree.set_parent_trees."""
743
855
        parent_ids = [rev for (rev, tree) in parents_list]
 
856
        for revision_id in parent_ids:
 
857
            _mod_revision.check_not_reserved_id(revision_id)
744
858
 
745
859
        self._check_parents_for_ghosts(parent_ids,
746
860
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
747
861
 
 
862
        parent_ids = self._filter_parent_ids_by_ancestry(parent_ids)
 
863
 
748
864
        if len(parent_ids) == 0:
749
 
            leftmost_parent_id = None
 
865
            leftmost_parent_id = _mod_revision.NULL_REVISION
750
866
            leftmost_parent_tree = None
751
867
        else:
752
868
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
774
890
    def set_merge_modified(self, modified_hashes):
775
891
        def iter_stanzas():
776
892
            for file_id, hash in modified_hashes.iteritems():
777
 
                yield Stanza(file_id=file_id, hash=hash)
 
893
                yield Stanza(file_id=file_id.decode('utf8'), hash=hash)
778
894
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
779
895
 
780
 
    @needs_tree_write_lock
 
896
    def _sha_from_stat(self, path, stat_result):
 
897
        """Get a sha digest from the tree's stat cache.
 
898
 
 
899
        The default implementation assumes no stat cache is present.
 
900
 
 
901
        :param path: The path.
 
902
        :param stat_result: The stat result being looked up.
 
903
        """
 
904
        return None
 
905
 
781
906
    def _put_rio(self, filename, stanzas, header):
 
907
        self._must_be_locked()
782
908
        my_file = rio_file(stanzas, header)
783
 
        self._control_files.put(filename, my_file)
 
909
        self._transport.put_file(filename, my_file,
 
910
            mode=self.bzrdir._get_file_mode())
784
911
 
785
912
    @needs_write_lock # because merge pulls data into the branch.
786
 
    def merge_from_branch(self, branch, to_revision=None):
 
913
    def merge_from_branch(self, branch, to_revision=None, from_revision=None,
 
914
                          merge_type=None, force=False):
787
915
        """Merge from a branch into this working tree.
788
916
 
789
917
        :param branch: The branch to merge from.
790
 
        :param to_revision: If non-None, the merge will merge to to_revision, but 
791
 
            not beyond it. to_revision does not need to be in the history of
792
 
            the branch when it is supplied. If None, to_revision defaults to
 
918
        :param to_revision: If non-None, the merge will merge to to_revision,
 
919
            but not beyond it. to_revision does not need to be in the history
 
920
            of the branch when it is supplied. If None, to_revision defaults to
793
921
            branch.last_revision().
794
922
        """
795
923
        from bzrlib.merge import Merger, Merge3Merger
796
 
        pb = bzrlib.ui.ui_factory.nested_progress_bar()
797
 
        try:
798
 
            merger = Merger(self.branch, this_tree=self, pb=pb)
799
 
            merger.pp = ProgressPhase("Merge phase", 5, pb)
800
 
            merger.pp.next_phase()
801
 
            # check that there are no
802
 
            # local alterations
803
 
            merger.check_basis(check_clean=True, require_commits=False)
804
 
            if to_revision is None:
805
 
                to_revision = branch.last_revision()
806
 
            merger.other_rev_id = to_revision
807
 
            if merger.other_rev_id is None:
808
 
                raise error.NoCommits(branch)
809
 
            self.branch.fetch(branch, last_revision=merger.other_rev_id)
810
 
            merger.other_basis = merger.other_rev_id
811
 
            merger.other_tree = self.branch.repository.revision_tree(
812
 
                merger.other_rev_id)
813
 
            merger.pp.next_phase()
 
924
        merger = Merger(self.branch, this_tree=self)
 
925
        # check that there are no local alterations
 
926
        if not force and self.has_changes():
 
927
            raise errors.UncommittedChanges(self)
 
928
        if to_revision is None:
 
929
            to_revision = _mod_revision.ensure_null(branch.last_revision())
 
930
        merger.other_rev_id = to_revision
 
931
        if _mod_revision.is_null(merger.other_rev_id):
 
932
            raise errors.NoCommits(branch)
 
933
        self.branch.fetch(branch, last_revision=merger.other_rev_id)
 
934
        merger.other_basis = merger.other_rev_id
 
935
        merger.other_tree = self.branch.repository.revision_tree(
 
936
            merger.other_rev_id)
 
937
        merger.other_branch = branch
 
938
        if from_revision is None:
814
939
            merger.find_base()
815
 
            if merger.base_rev_id == merger.other_rev_id:
816
 
                raise errors.PointlessMerge
817
 
            merger.backup_files = False
 
940
        else:
 
941
            merger.set_base_revision(from_revision, branch)
 
942
        if merger.base_rev_id == merger.other_rev_id:
 
943
            raise errors.PointlessMerge
 
944
        merger.backup_files = False
 
945
        if merge_type is None:
818
946
            merger.merge_type = Merge3Merger
819
 
            merger.set_interesting_files(None)
820
 
            merger.show_base = False
821
 
            merger.reprocess = False
822
 
            conflicts = merger.do_merge()
823
 
            merger.set_pending()
824
 
        finally:
825
 
            pb.finished()
 
947
        else:
 
948
            merger.merge_type = merge_type
 
949
        merger.set_interesting_files(None)
 
950
        merger.show_base = False
 
951
        merger.reprocess = False
 
952
        conflicts = merger.do_merge()
 
953
        merger.set_pending()
826
954
        return conflicts
827
955
 
828
956
    @needs_read_lock
829
957
    def merge_modified(self):
 
958
        """Return a dictionary of files modified by a merge.
 
959
 
 
960
        The list is initialized by WorkingTree.set_merge_modified, which is
 
961
        typically called after we make some automatic updates to the tree
 
962
        because of a merge.
 
963
 
 
964
        This returns a map of file_id->sha1, containing only files which are
 
965
        still in the working inventory and have that text hash.
 
966
        """
830
967
        try:
831
 
            hashfile = self._control_files.get('merge-hashes')
832
 
        except NoSuchFile:
 
968
            hashfile = self._transport.get('merge-hashes')
 
969
        except errors.NoSuchFile:
833
970
            return {}
834
 
        merge_hashes = {}
835
971
        try:
836
 
            if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
837
 
                raise MergeModifiedFormatError()
838
 
        except StopIteration:
839
 
            raise MergeModifiedFormatError()
840
 
        for s in RioReader(hashfile):
841
 
            file_id = s.get("file_id")
842
 
            if file_id not in self.inventory:
843
 
                continue
844
 
            hash = s.get("hash")
845
 
            if hash == self.get_file_sha1(file_id):
846
 
                merge_hashes[file_id] = hash
847
 
        return merge_hashes
 
972
            merge_hashes = {}
 
973
            try:
 
974
                if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
 
975
                    raise errors.MergeModifiedFormatError()
 
976
            except StopIteration:
 
977
                raise errors.MergeModifiedFormatError()
 
978
            for s in RioReader(hashfile):
 
979
                # RioReader reads in Unicode, so convert file_ids back to utf8
 
980
                file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
 
981
                if file_id not in self.inventory:
 
982
                    continue
 
983
                text_hash = s.get("hash")
 
984
                if text_hash == self.get_file_sha1(file_id):
 
985
                    merge_hashes[file_id] = text_hash
 
986
            return merge_hashes
 
987
        finally:
 
988
            hashfile.close()
848
989
 
849
990
    @needs_write_lock
850
991
    def mkdir(self, path, file_id=None):
851
992
        """See MutableTree.mkdir()."""
852
993
        if file_id is None:
853
 
            file_id = gen_file_id(os.path.basename(path))
 
994
            file_id = generate_ids.gen_file_id(os.path.basename(path))
854
995
        os.mkdir(self.abspath(path))
855
996
        self.add(path, file_id, 'directory')
856
997
        return file_id
857
998
 
858
999
    def get_symlink_target(self, file_id):
859
 
        return os.readlink(self.id2abspath(file_id))
860
 
 
861
 
    def file_class(self, filename):
862
 
        if self.path2id(filename):
863
 
            return 'V'
864
 
        elif self.is_ignored(filename):
865
 
            return 'I'
866
 
        else:
867
 
            return '?'
 
1000
        abspath = self.id2abspath(file_id)
 
1001
        target = osutils.readlink(abspath)
 
1002
        return target
 
1003
 
 
1004
    @needs_write_lock
 
1005
    def subsume(self, other_tree):
 
1006
        def add_children(inventory, entry):
 
1007
            for child_entry in entry.children.values():
 
1008
                inventory._byid[child_entry.file_id] = child_entry
 
1009
                if child_entry.kind == 'directory':
 
1010
                    add_children(inventory, child_entry)
 
1011
        if other_tree.get_root_id() == self.get_root_id():
 
1012
            raise errors.BadSubsumeSource(self, other_tree,
 
1013
                                          'Trees have the same root')
 
1014
        try:
 
1015
            other_tree_path = self.relpath(other_tree.basedir)
 
1016
        except errors.PathNotChild:
 
1017
            raise errors.BadSubsumeSource(self, other_tree,
 
1018
                'Tree is not contained by the other')
 
1019
        new_root_parent = self.path2id(osutils.dirname(other_tree_path))
 
1020
        if new_root_parent is None:
 
1021
            raise errors.BadSubsumeSource(self, other_tree,
 
1022
                'Parent directory is not versioned.')
 
1023
        # We need to ensure that the result of a fetch will have a
 
1024
        # versionedfile for the other_tree root, and only fetching into
 
1025
        # RepositoryKnit2 guarantees that.
 
1026
        if not self.branch.repository.supports_rich_root():
 
1027
            raise errors.SubsumeTargetNeedsUpgrade(other_tree)
 
1028
        other_tree.lock_tree_write()
 
1029
        try:
 
1030
            new_parents = other_tree.get_parent_ids()
 
1031
            other_root = other_tree.inventory.root
 
1032
            other_root.parent_id = new_root_parent
 
1033
            other_root.name = osutils.basename(other_tree_path)
 
1034
            self.inventory.add(other_root)
 
1035
            add_children(self.inventory, other_root)
 
1036
            self._write_inventory(self.inventory)
 
1037
            # normally we don't want to fetch whole repositories, but i think
 
1038
            # here we really do want to consolidate the whole thing.
 
1039
            for parent_id in other_tree.get_parent_ids():
 
1040
                self.branch.fetch(other_tree.branch, parent_id)
 
1041
                self.add_parent_tree_id(parent_id)
 
1042
        finally:
 
1043
            other_tree.unlock()
 
1044
        other_tree.bzrdir.retire_bzrdir()
 
1045
 
 
1046
    def _setup_directory_is_tree_reference(self):
 
1047
        if self._branch.repository._format.supports_tree_reference:
 
1048
            self._directory_is_tree_reference = \
 
1049
                self._directory_may_be_tree_reference
 
1050
        else:
 
1051
            self._directory_is_tree_reference = \
 
1052
                self._directory_is_never_tree_reference
 
1053
 
 
1054
    def _directory_is_never_tree_reference(self, relpath):
 
1055
        return False
 
1056
 
 
1057
    def _directory_may_be_tree_reference(self, relpath):
 
1058
        # as a special case, if a directory contains control files then
 
1059
        # it's a tree reference, except that the root of the tree is not
 
1060
        return relpath and osutils.isdir(self.abspath(relpath) + u"/.bzr")
 
1061
        # TODO: We could ask all the control formats whether they
 
1062
        # recognize this directory, but at the moment there's no cheap api
 
1063
        # to do that.  Since we probably can only nest bzr checkouts and
 
1064
        # they always use this name it's ok for now.  -- mbp 20060306
 
1065
        #
 
1066
        # FIXME: There is an unhandled case here of a subdirectory
 
1067
        # containing .bzr but not a branch; that will probably blow up
 
1068
        # when you try to commit it.  It might happen if there is a
 
1069
        # checkout in a subdirectory.  This can be avoided by not adding
 
1070
        # it.  mbp 20070306
 
1071
 
 
1072
    @needs_tree_write_lock
 
1073
    def extract(self, file_id, format=None):
 
1074
        """Extract a subtree from this tree.
 
1075
 
 
1076
        A new branch will be created, relative to the path for this tree.
 
1077
        """
 
1078
        self.flush()
 
1079
        def mkdirs(path):
 
1080
            segments = osutils.splitpath(path)
 
1081
            transport = self.branch.bzrdir.root_transport
 
1082
            for name in segments:
 
1083
                transport = transport.clone(name)
 
1084
                transport.ensure_base()
 
1085
            return transport
 
1086
 
 
1087
        sub_path = self.id2path(file_id)
 
1088
        branch_transport = mkdirs(sub_path)
 
1089
        if format is None:
 
1090
            format = self.bzrdir.cloning_metadir()
 
1091
        branch_transport.ensure_base()
 
1092
        branch_bzrdir = format.initialize_on_transport(branch_transport)
 
1093
        try:
 
1094
            repo = branch_bzrdir.find_repository()
 
1095
        except errors.NoRepositoryPresent:
 
1096
            repo = branch_bzrdir.create_repository()
 
1097
        if not repo.supports_rich_root():
 
1098
            raise errors.RootNotRich()
 
1099
        new_branch = branch_bzrdir.create_branch()
 
1100
        new_branch.pull(self.branch)
 
1101
        for parent_id in self.get_parent_ids():
 
1102
            new_branch.fetch(self.branch, parent_id)
 
1103
        tree_transport = self.bzrdir.root_transport.clone(sub_path)
 
1104
        if tree_transport.base != branch_transport.base:
 
1105
            tree_bzrdir = format.initialize_on_transport(tree_transport)
 
1106
            branch.BranchReferenceFormat().initialize(tree_bzrdir,
 
1107
                target_branch=new_branch)
 
1108
        else:
 
1109
            tree_bzrdir = branch_bzrdir
 
1110
        wt = tree_bzrdir.create_workingtree(_mod_revision.NULL_REVISION)
 
1111
        wt.set_parent_ids(self.get_parent_ids())
 
1112
        my_inv = self.inventory
 
1113
        child_inv = inventory.Inventory(root_id=None)
 
1114
        new_root = my_inv[file_id]
 
1115
        my_inv.remove_recursive_id(file_id)
 
1116
        new_root.parent_id = None
 
1117
        child_inv.add(new_root)
 
1118
        self._write_inventory(my_inv)
 
1119
        wt._write_inventory(child_inv)
 
1120
        return wt
 
1121
 
 
1122
    def _serialize(self, inventory, out_file):
 
1123
        xml5.serializer_v5.write_inventory(self._inventory, out_file,
 
1124
            working=True)
 
1125
 
 
1126
    def _deserialize(selt, in_file):
 
1127
        return xml5.serializer_v5.read_inventory(in_file)
868
1128
 
869
1129
    def flush(self):
870
1130
        """Write the in memory inventory to disk."""
872
1132
        if self._control_files._lock_mode != 'w':
873
1133
            raise errors.NotWriteLocked(self)
874
1134
        sio = StringIO()
875
 
        xml5.serializer_v5.write_inventory(self._inventory, sio)
 
1135
        self._serialize(self._inventory, sio)
876
1136
        sio.seek(0)
877
 
        self._control_files.put('inventory', sio)
 
1137
        self._transport.put_file('inventory', sio,
 
1138
            mode=self.bzrdir._get_file_mode())
878
1139
        self._inventory_is_modified = False
879
1140
 
880
 
    def list_files(self, include_root=False):
881
 
        """Recursively list all files as (path, class, kind, id, entry).
 
1141
    def _kind(self, relpath):
 
1142
        return osutils.file_kind(self.abspath(relpath))
 
1143
 
 
1144
    def list_files(self, include_root=False, from_dir=None, recursive=True):
 
1145
        """List all files as (path, class, kind, id, entry).
882
1146
 
883
1147
        Lists, but does not descend into unversioned directories.
884
 
 
885
1148
        This does not include files that have been deleted in this
886
 
        tree.
 
1149
        tree. Skips the control directory.
887
1150
 
888
 
        Skips the control directory.
 
1151
        :param include_root: if True, return an entry for the root
 
1152
        :param from_dir: start from this directory or None for the root
 
1153
        :param recursive: whether to recurse into subdirectories or not
889
1154
        """
890
 
        inv = self._inventory
891
 
        if include_root is True:
 
1155
        # list_files is an iterator, so @needs_read_lock doesn't work properly
 
1156
        # with it. So callers should be careful to always read_lock the tree.
 
1157
        if not self.is_locked():
 
1158
            raise errors.ObjectNotLocked(self)
 
1159
 
 
1160
        inv = self.inventory
 
1161
        if from_dir is None and include_root is True:
892
1162
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
893
1163
        # Convert these into local objects to save lookup times
894
1164
        pathjoin = osutils.pathjoin
895
 
        file_kind = osutils.file_kind
 
1165
        file_kind = self._kind
896
1166
 
897
1167
        # transport.base ends in a slash, we want the piece
898
1168
        # between the last two slashes
901
1171
        fk_entries = {'directory':TreeDirectory, 'file':TreeFile, 'symlink':TreeLink}
902
1172
 
903
1173
        # directory file_id, relative path, absolute path, reverse sorted children
904
 
        children = os.listdir(self.basedir)
 
1174
        if from_dir is not None:
 
1175
            from_dir_id = inv.path2id(from_dir)
 
1176
            if from_dir_id is None:
 
1177
                # Directory not versioned
 
1178
                return
 
1179
            from_dir_abspath = pathjoin(self.basedir, from_dir)
 
1180
        else:
 
1181
            from_dir_id = inv.root.file_id
 
1182
            from_dir_abspath = self.basedir
 
1183
        children = os.listdir(from_dir_abspath)
905
1184
        children.sort()
906
 
        # jam 20060527 The kernel sized tree seems equivalent whether we 
 
1185
        # jam 20060527 The kernel sized tree seems equivalent whether we
907
1186
        # use a deque and popleft to keep them sorted, or if we use a plain
908
1187
        # list and just reverse() them.
909
1188
        children = collections.deque(children)
910
 
        stack = [(inv.root.file_id, u'', self.basedir, children)]
 
1189
        stack = [(from_dir_id, u'', from_dir_abspath, children)]
911
1190
        while stack:
912
1191
            from_dir_id, from_dir_relpath, from_dir_abspath, children = stack[-1]
913
1192
 
929
1208
 
930
1209
                # absolute path
931
1210
                fap = from_dir_abspath + '/' + f
932
 
                
 
1211
 
933
1212
                f_ie = inv.get_child(from_dir_id, f)
934
1213
                if f_ie:
935
1214
                    c = 'V'
958
1237
 
959
1238
                fk = file_kind(fap)
960
1239
 
961
 
                if f_ie:
962
 
                    if f_ie.kind != fk:
963
 
                        raise BzrCheckError("file %r entered as kind %r id %r, "
964
 
                                            "now of kind %r"
965
 
                                            % (fap, f_ie.kind, f_ie.file_id, fk))
966
 
 
967
1240
                # make a last minute entry
968
1241
                if f_ie:
969
1242
                    yield fp[1:], c, fk, f_ie.file_id, f_ie
973
1246
                    except KeyError:
974
1247
                        yield fp[1:], c, fk, None, TreeEntry()
975
1248
                    continue
976
 
                
 
1249
 
977
1250
                if fk != 'directory':
978
1251
                    continue
979
1252
 
980
 
                # But do this child first
981
 
                new_children = os.listdir(fap)
982
 
                new_children.sort()
983
 
                new_children = collections.deque(new_children)
984
 
                stack.append((f_ie.file_id, fp, fap, new_children))
985
 
                # Break out of inner loop, so that we start outer loop with child
986
 
                break
 
1253
                # But do this child first if recursing down
 
1254
                if recursive:
 
1255
                    new_children = os.listdir(fap)
 
1256
                    new_children.sort()
 
1257
                    new_children = collections.deque(new_children)
 
1258
                    stack.append((f_ie.file_id, fp, fap, new_children))
 
1259
                    # Break out of inner loop,
 
1260
                    # so that we start outer loop with child
 
1261
                    break
987
1262
            else:
988
1263
                # if we finished all children, pop it off the stack
989
1264
                stack.pop()
990
1265
 
991
1266
    @needs_tree_write_lock
992
 
    def move(self, from_paths, to_name):
 
1267
    def move(self, from_paths, to_dir=None, after=False, **kwargs):
993
1268
        """Rename files.
994
1269
 
995
 
        to_name must exist in the inventory.
996
 
 
997
 
        If to_name exists and is a directory, the files are moved into
998
 
        it, keeping their old names.  
999
 
 
1000
 
        Note that to_name is only the last component of the new name;
 
1270
        to_dir must exist in the inventory.
 
1271
 
 
1272
        If to_dir exists and is a directory, the files are moved into
 
1273
        it, keeping their old names.
 
1274
 
 
1275
        Note that to_dir is only the last component of the new name;
1001
1276
        this doesn't change the directory.
1002
1277
 
 
1278
        For each entry in from_paths the move mode will be determined
 
1279
        independently.
 
1280
 
 
1281
        The first mode moves the file in the filesystem and updates the
 
1282
        inventory. The second mode only updates the inventory without
 
1283
        touching the file on the filesystem. This is the new mode introduced
 
1284
        in version 0.15.
 
1285
 
 
1286
        move uses the second mode if 'after == True' and the target is not
 
1287
        versioned but present in the working tree.
 
1288
 
 
1289
        move uses the second mode if 'after == False' and the source is
 
1290
        versioned but no longer in the working tree, and the target is not
 
1291
        versioned but present in the working tree.
 
1292
 
 
1293
        move uses the first mode if 'after == False' and the source is
 
1294
        versioned and present in the working tree, and the target is not
 
1295
        versioned and not present in the working tree.
 
1296
 
 
1297
        Everything else results in an error.
 
1298
 
1003
1299
        This returns a list of (from_path, to_path) pairs for each
1004
1300
        entry that is moved.
1005
1301
        """
1006
 
        result = []
1007
 
        ## TODO: Option to move IDs only
1008
 
        assert not isinstance(from_paths, basestring)
 
1302
        rename_entries = []
 
1303
        rename_tuples = []
 
1304
 
 
1305
        # check for deprecated use of signature
 
1306
        if to_dir is None:
 
1307
            to_dir = kwargs.get('to_name', None)
 
1308
            if to_dir is None:
 
1309
                raise TypeError('You must supply a target directory')
 
1310
            else:
 
1311
                symbol_versioning.warn('The parameter to_name was deprecated'
 
1312
                                       ' in version 0.13. Use to_dir instead',
 
1313
                                       DeprecationWarning)
 
1314
 
 
1315
        # check destination directory
 
1316
        if isinstance(from_paths, basestring):
 
1317
            raise ValueError()
1009
1318
        inv = self.inventory
1010
 
        to_abs = self.abspath(to_name)
 
1319
        to_abs = self.abspath(to_dir)
1011
1320
        if not isdir(to_abs):
1012
 
            raise BzrError("destination %r is not a directory" % to_abs)
1013
 
        if not self.has_filename(to_name):
1014
 
            raise BzrError("destination %r not in working directory" % to_abs)
1015
 
        to_dir_id = inv.path2id(to_name)
1016
 
        if to_dir_id is None and to_name != '':
1017
 
            raise BzrError("destination %r is not a versioned directory" % to_name)
 
1321
            raise errors.BzrMoveFailedError('',to_dir,
 
1322
                errors.NotADirectory(to_abs))
 
1323
        if not self.has_filename(to_dir):
 
1324
            raise errors.BzrMoveFailedError('',to_dir,
 
1325
                errors.NotInWorkingDirectory(to_dir))
 
1326
        to_dir_id = inv.path2id(to_dir)
 
1327
        if to_dir_id is None:
 
1328
            raise errors.BzrMoveFailedError('',to_dir,
 
1329
                errors.NotVersionedError(path=str(to_dir)))
 
1330
 
1018
1331
        to_dir_ie = inv[to_dir_id]
1019
1332
        if to_dir_ie.kind != 'directory':
1020
 
            raise BzrError("destination %r is not a directory" % to_abs)
1021
 
 
1022
 
        to_idpath = inv.get_idpath(to_dir_id)
1023
 
 
1024
 
        for f in from_paths:
1025
 
            if not self.has_filename(f):
1026
 
                raise BzrError("%r does not exist in working tree" % f)
1027
 
            f_id = inv.path2id(f)
1028
 
            if f_id is None:
1029
 
                raise BzrError("%r is not versioned" % f)
1030
 
            name_tail = splitpath(f)[-1]
1031
 
            dest_path = pathjoin(to_name, name_tail)
1032
 
            if self.has_filename(dest_path):
1033
 
                raise BzrError("destination %r already exists" % dest_path)
1034
 
            if f_id in to_idpath:
1035
 
                raise BzrError("can't move %r to a subdirectory of itself" % f)
1036
 
 
1037
 
        # OK, so there's a race here, it's possible that someone will
1038
 
        # create a file in this interval and then the rename might be
1039
 
        # left half-done.  But we should have caught most problems.
1040
 
        orig_inv = deepcopy(self.inventory)
 
1333
            raise errors.BzrMoveFailedError('',to_dir,
 
1334
                errors.NotADirectory(to_abs))
 
1335
 
 
1336
        # create rename entries and tuples
 
1337
        for from_rel in from_paths:
 
1338
            from_tail = splitpath(from_rel)[-1]
 
1339
            from_id = inv.path2id(from_rel)
 
1340
            if from_id is None:
 
1341
                raise errors.BzrMoveFailedError(from_rel,to_dir,
 
1342
                    errors.NotVersionedError(path=str(from_rel)))
 
1343
 
 
1344
            from_entry = inv[from_id]
 
1345
            from_parent_id = from_entry.parent_id
 
1346
            to_rel = pathjoin(to_dir, from_tail)
 
1347
            rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
 
1348
                                         from_id=from_id,
 
1349
                                         from_tail=from_tail,
 
1350
                                         from_parent_id=from_parent_id,
 
1351
                                         to_rel=to_rel, to_tail=from_tail,
 
1352
                                         to_parent_id=to_dir_id)
 
1353
            rename_entries.append(rename_entry)
 
1354
            rename_tuples.append((from_rel, to_rel))
 
1355
 
 
1356
        # determine which move mode to use. checks also for movability
 
1357
        rename_entries = self._determine_mv_mode(rename_entries, after)
 
1358
 
1041
1359
        original_modified = self._inventory_is_modified
1042
1360
        try:
1043
1361
            if len(from_paths):
1044
1362
                self._inventory_is_modified = True
1045
 
            for f in from_paths:
1046
 
                name_tail = splitpath(f)[-1]
1047
 
                dest_path = pathjoin(to_name, name_tail)
1048
 
                result.append((f, dest_path))
1049
 
                inv.rename(inv.path2id(f), to_dir_id, name_tail)
1050
 
                try:
1051
 
                    osutils.rename(self.abspath(f), self.abspath(dest_path))
1052
 
                except OSError, e:
1053
 
                    raise BzrError("failed to rename %r to %r: %s" %
1054
 
                                   (f, dest_path, e[1]))
 
1363
            self._move(rename_entries)
1055
1364
        except:
1056
1365
            # restore the inventory on error
1057
 
            self._set_inventory(orig_inv, dirty=original_modified)
 
1366
            self._inventory_is_modified = original_modified
1058
1367
            raise
1059
1368
        self._write_inventory(inv)
1060
 
        return result
 
1369
        return rename_tuples
 
1370
 
 
1371
    def _determine_mv_mode(self, rename_entries, after=False):
 
1372
        """Determines for each from-to pair if both inventory and working tree
 
1373
        or only the inventory has to be changed.
 
1374
 
 
1375
        Also does basic plausability tests.
 
1376
        """
 
1377
        inv = self.inventory
 
1378
 
 
1379
        for rename_entry in rename_entries:
 
1380
            # store to local variables for easier reference
 
1381
            from_rel = rename_entry.from_rel
 
1382
            from_id = rename_entry.from_id
 
1383
            to_rel = rename_entry.to_rel
 
1384
            to_id = inv.path2id(to_rel)
 
1385
            only_change_inv = False
 
1386
 
 
1387
            # check the inventory for source and destination
 
1388
            if from_id is None:
 
1389
                raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1390
                    errors.NotVersionedError(path=str(from_rel)))
 
1391
            if to_id is not None:
 
1392
                raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1393
                    errors.AlreadyVersionedError(path=str(to_rel)))
 
1394
 
 
1395
            # try to determine the mode for rename (only change inv or change
 
1396
            # inv and file system)
 
1397
            if after:
 
1398
                if not self.has_filename(to_rel):
 
1399
                    raise errors.BzrMoveFailedError(from_id,to_rel,
 
1400
                        errors.NoSuchFile(path=str(to_rel),
 
1401
                        extra="New file has not been created yet"))
 
1402
                only_change_inv = True
 
1403
            elif not self.has_filename(from_rel) and self.has_filename(to_rel):
 
1404
                only_change_inv = True
 
1405
            elif self.has_filename(from_rel) and not self.has_filename(to_rel):
 
1406
                only_change_inv = False
 
1407
            elif (not self.case_sensitive
 
1408
                  and from_rel.lower() == to_rel.lower()
 
1409
                  and self.has_filename(from_rel)):
 
1410
                only_change_inv = False
 
1411
            else:
 
1412
                # something is wrong, so lets determine what exactly
 
1413
                if not self.has_filename(from_rel) and \
 
1414
                   not self.has_filename(to_rel):
 
1415
                    raise errors.BzrRenameFailedError(from_rel,to_rel,
 
1416
                        errors.PathsDoNotExist(paths=(str(from_rel),
 
1417
                        str(to_rel))))
 
1418
                else:
 
1419
                    raise errors.RenameFailedFilesExist(from_rel, to_rel)
 
1420
            rename_entry.only_change_inv = only_change_inv
 
1421
        return rename_entries
 
1422
 
 
1423
    def _move(self, rename_entries):
 
1424
        """Moves a list of files.
 
1425
 
 
1426
        Depending on the value of the flag 'only_change_inv', the
 
1427
        file will be moved on the file system or not.
 
1428
        """
 
1429
        inv = self.inventory
 
1430
        moved = []
 
1431
 
 
1432
        for entry in rename_entries:
 
1433
            try:
 
1434
                self._move_entry(entry)
 
1435
            except:
 
1436
                self._rollback_move(moved)
 
1437
                raise
 
1438
            moved.append(entry)
 
1439
 
 
1440
    def _rollback_move(self, moved):
 
1441
        """Try to rollback a previous move in case of an filesystem error."""
 
1442
        inv = self.inventory
 
1443
        for entry in moved:
 
1444
            try:
 
1445
                self._move_entry(WorkingTree._RenameEntry(
 
1446
                    entry.to_rel, entry.from_id,
 
1447
                    entry.to_tail, entry.to_parent_id, entry.from_rel,
 
1448
                    entry.from_tail, entry.from_parent_id,
 
1449
                    entry.only_change_inv))
 
1450
            except errors.BzrMoveFailedError, e:
 
1451
                raise errors.BzrMoveFailedError( '', '', "Rollback failed."
 
1452
                        " The working tree is in an inconsistent state."
 
1453
                        " Please consider doing a 'bzr revert'."
 
1454
                        " Error message is: %s" % e)
 
1455
 
 
1456
    def _move_entry(self, entry):
 
1457
        inv = self.inventory
 
1458
        from_rel_abs = self.abspath(entry.from_rel)
 
1459
        to_rel_abs = self.abspath(entry.to_rel)
 
1460
        if from_rel_abs == to_rel_abs:
 
1461
            raise errors.BzrMoveFailedError(entry.from_rel, entry.to_rel,
 
1462
                "Source and target are identical.")
 
1463
 
 
1464
        if not entry.only_change_inv:
 
1465
            try:
 
1466
                osutils.rename(from_rel_abs, to_rel_abs)
 
1467
            except OSError, e:
 
1468
                raise errors.BzrMoveFailedError(entry.from_rel,
 
1469
                    entry.to_rel, e[1])
 
1470
        inv.rename(entry.from_id, entry.to_parent_id, entry.to_tail)
1061
1471
 
1062
1472
    @needs_tree_write_lock
1063
 
    def rename_one(self, from_rel, to_rel):
 
1473
    def rename_one(self, from_rel, to_rel, after=False):
1064
1474
        """Rename one file.
1065
1475
 
1066
1476
        This can change the directory or the filename or both.
 
1477
 
 
1478
        rename_one has several 'modes' to work. First, it can rename a physical
 
1479
        file and change the file_id. That is the normal mode. Second, it can
 
1480
        only change the file_id without touching any physical file. This is
 
1481
        the new mode introduced in version 0.15.
 
1482
 
 
1483
        rename_one uses the second mode if 'after == True' and 'to_rel' is not
 
1484
        versioned but present in the working tree.
 
1485
 
 
1486
        rename_one uses the second mode if 'after == False' and 'from_rel' is
 
1487
        versioned but no longer in the working tree, and 'to_rel' is not
 
1488
        versioned but present in the working tree.
 
1489
 
 
1490
        rename_one uses the first mode if 'after == False' and 'from_rel' is
 
1491
        versioned and present in the working tree, and 'to_rel' is not
 
1492
        versioned and not present in the working tree.
 
1493
 
 
1494
        Everything else results in an error.
1067
1495
        """
1068
1496
        inv = self.inventory
1069
 
        if not self.has_filename(from_rel):
1070
 
            raise BzrError("can't rename: old working file %r does not exist" % from_rel)
1071
 
        if self.has_filename(to_rel):
1072
 
            raise BzrError("can't rename: new working file %r already exists" % to_rel)
1073
 
 
1074
 
        file_id = inv.path2id(from_rel)
1075
 
        if file_id is None:
1076
 
            raise BzrError("can't rename: old name %r is not versioned" % from_rel)
1077
 
 
1078
 
        entry = inv[file_id]
1079
 
        from_parent = entry.parent_id
1080
 
        from_name = entry.name
1081
 
        
1082
 
        if inv.path2id(to_rel):
1083
 
            raise BzrError("can't rename: new name %r is already versioned" % to_rel)
1084
 
 
 
1497
        rename_entries = []
 
1498
 
 
1499
        # create rename entries and tuples
 
1500
        from_tail = splitpath(from_rel)[-1]
 
1501
        from_id = inv.path2id(from_rel)
 
1502
        if from_id is None:
 
1503
            # if file is missing in the inventory maybe it's in the basis_tree
 
1504
            basis_tree = self.branch.basis_tree()
 
1505
            from_id = basis_tree.path2id(from_rel)
 
1506
            if from_id is None:
 
1507
                raise errors.BzrRenameFailedError(from_rel,to_rel,
 
1508
                    errors.NotVersionedError(path=str(from_rel)))
 
1509
            # put entry back in the inventory so we can rename it
 
1510
            from_entry = basis_tree.inventory[from_id].copy()
 
1511
            inv.add(from_entry)
 
1512
        else:
 
1513
            from_entry = inv[from_id]
 
1514
        from_parent_id = from_entry.parent_id
1085
1515
        to_dir, to_tail = os.path.split(to_rel)
1086
1516
        to_dir_id = inv.path2id(to_dir)
1087
 
        if to_dir_id is None and to_dir != '':
1088
 
            raise BzrError("can't determine destination directory id for %r" % to_dir)
1089
 
 
1090
 
        mutter("rename_one:")
1091
 
        mutter("  file_id    {%s}" % file_id)
1092
 
        mutter("  from_rel   %r" % from_rel)
1093
 
        mutter("  to_rel     %r" % to_rel)
1094
 
        mutter("  to_dir     %r" % to_dir)
1095
 
        mutter("  to_dir_id  {%s}" % to_dir_id)
1096
 
 
1097
 
        inv.rename(file_id, to_dir_id, to_tail)
1098
 
 
1099
 
        from_abs = self.abspath(from_rel)
1100
 
        to_abs = self.abspath(to_rel)
1101
 
        try:
1102
 
            osutils.rename(from_abs, to_abs)
1103
 
        except OSError, e:
1104
 
            inv.rename(file_id, from_parent, from_name)
1105
 
            raise BzrError("failed to rename %r to %r: %s"
1106
 
                    % (from_abs, to_abs, e[1]))
 
1517
        rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
 
1518
                                     from_id=from_id,
 
1519
                                     from_tail=from_tail,
 
1520
                                     from_parent_id=from_parent_id,
 
1521
                                     to_rel=to_rel, to_tail=to_tail,
 
1522
                                     to_parent_id=to_dir_id)
 
1523
        rename_entries.append(rename_entry)
 
1524
 
 
1525
        # determine which move mode to use. checks also for movability
 
1526
        rename_entries = self._determine_mv_mode(rename_entries, after)
 
1527
 
 
1528
        # check if the target changed directory and if the target directory is
 
1529
        # versioned
 
1530
        if to_dir_id is None:
 
1531
            raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1532
                errors.NotVersionedError(path=str(to_dir)))
 
1533
 
 
1534
        # all checks done. now we can continue with our actual work
 
1535
        mutter('rename_one:\n'
 
1536
               '  from_id   {%s}\n'
 
1537
               '  from_rel: %r\n'
 
1538
               '  to_rel:   %r\n'
 
1539
               '  to_dir    %r\n'
 
1540
               '  to_dir_id {%s}\n',
 
1541
               from_id, from_rel, to_rel, to_dir, to_dir_id)
 
1542
 
 
1543
        self._move(rename_entries)
1107
1544
        self._write_inventory(inv)
1108
1545
 
 
1546
    class _RenameEntry(object):
 
1547
        def __init__(self, from_rel, from_id, from_tail, from_parent_id,
 
1548
                     to_rel, to_tail, to_parent_id, only_change_inv=False):
 
1549
            self.from_rel = from_rel
 
1550
            self.from_id = from_id
 
1551
            self.from_tail = from_tail
 
1552
            self.from_parent_id = from_parent_id
 
1553
            self.to_rel = to_rel
 
1554
            self.to_tail = to_tail
 
1555
            self.to_parent_id = to_parent_id
 
1556
            self.only_change_inv = only_change_inv
 
1557
 
1109
1558
    @needs_read_lock
1110
1559
    def unknowns(self):
1111
1560
        """Return all unknown files.
1113
1562
        These are files in the working directory that are not versioned or
1114
1563
        control files or ignored.
1115
1564
        """
1116
 
        for subp in self.extras():
1117
 
            if not self.is_ignored(subp):
1118
 
                yield subp
1119
 
    
 
1565
        # force the extras method to be fully executed before returning, to
 
1566
        # prevent race conditions with the lock
 
1567
        return iter(
 
1568
            [subp for subp in self.extras() if not self.is_ignored(subp)])
 
1569
 
1120
1570
    @needs_tree_write_lock
1121
1571
    def unversion(self, file_ids):
1122
1572
        """Remove the file ids in file_ids from the current versioned set.
1128
1578
        :raises: NoSuchId if any fileid is not currently versioned.
1129
1579
        """
1130
1580
        for file_id in file_ids:
 
1581
            if file_id not in self._inventory:
 
1582
                raise errors.NoSuchId(self, file_id)
 
1583
        for file_id in file_ids:
1131
1584
            if self._inventory.has_id(file_id):
1132
1585
                self._inventory.remove_recursive_id(file_id)
1133
 
            else:
1134
 
                raise errors.NoSuchId(self, file_id)
1135
1586
        if len(file_ids):
1136
 
            # in the future this should just set a dirty bit to wait for the 
 
1587
            # in the future this should just set a dirty bit to wait for the
1137
1588
            # final unlock. However, until all methods of workingtree start
1138
 
            # with the current in -memory inventory rather than triggering 
 
1589
            # with the current in -memory inventory rather than triggering
1139
1590
            # a read, it is more complex - we need to teach read_inventory
1140
1591
            # to know when to read, and when to not read first... and possibly
1141
1592
            # to save first when the in memory one may be corrupted.
1142
1593
            # so for now, we just only write it if it is indeed dirty.
1143
1594
            # - RBC 20060907
1144
1595
            self._write_inventory(self._inventory)
1145
 
    
1146
 
    @deprecated_method(zero_eight)
1147
 
    def iter_conflicts(self):
1148
 
        """List all files in the tree that have text or content conflicts.
1149
 
        DEPRECATED.  Use conflicts instead."""
1150
 
        return self._iter_conflicts()
1151
1596
 
1152
1597
    def _iter_conflicts(self):
1153
1598
        conflicted = set()
1161
1606
                yield stem
1162
1607
 
1163
1608
    @needs_write_lock
1164
 
    def pull(self, source, overwrite=False, stop_revision=None):
1165
 
        top_pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
1609
    def pull(self, source, overwrite=False, stop_revision=None,
 
1610
             change_reporter=None, possible_transports=None, local=False):
1166
1611
        source.lock_read()
1167
1612
        try:
1168
 
            pp = ProgressPhase("Pull phase", 2, top_pb)
1169
 
            pp.next_phase()
1170
 
            old_revision_history = self.branch.revision_history()
 
1613
            old_revision_info = self.branch.last_revision_info()
1171
1614
            basis_tree = self.basis_tree()
1172
 
            count = self.branch.pull(source, overwrite, stop_revision)
1173
 
            new_revision_history = self.branch.revision_history()
1174
 
            if new_revision_history != old_revision_history:
1175
 
                pp.next_phase()
1176
 
                if len(old_revision_history):
1177
 
                    other_revision = old_revision_history[-1]
1178
 
                else:
1179
 
                    other_revision = None
 
1615
            count = self.branch.pull(source, overwrite, stop_revision,
 
1616
                                     possible_transports=possible_transports,
 
1617
                                     local=local)
 
1618
            new_revision_info = self.branch.last_revision_info()
 
1619
            if new_revision_info != old_revision_info:
1180
1620
                repository = self.branch.repository
1181
 
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
1621
                basis_tree.lock_read()
1182
1622
                try:
1183
1623
                    new_basis_tree = self.branch.basis_tree()
1184
1624
                    merge.merge_inner(
1186
1626
                                new_basis_tree,
1187
1627
                                basis_tree,
1188
1628
                                this_tree=self,
1189
 
                                pb=pb)
1190
 
                    if (basis_tree.inventory.root is None and
1191
 
                        new_basis_tree.inventory.root is not None):
1192
 
                        self.set_root_id(new_basis_tree.inventory.root.file_id)
 
1629
                                pb=None,
 
1630
                                change_reporter=change_reporter)
 
1631
                    basis_root_id = basis_tree.get_root_id()
 
1632
                    new_root_id = new_basis_tree.get_root_id()
 
1633
                    if basis_root_id != new_root_id:
 
1634
                        self.set_root_id(new_root_id)
1193
1635
                finally:
1194
 
                    pb.finished()
 
1636
                    basis_tree.unlock()
1195
1637
                # TODO - dedup parents list with things merged by pull ?
1196
1638
                # reuse the revisiontree we merged against to set the new
1197
1639
                # tree data.
1198
1640
                parent_trees = [(self.branch.last_revision(), new_basis_tree)]
1199
 
                # we have to pull the merge trees out again, because 
1200
 
                # merge_inner has set the ids. - this corner is not yet 
 
1641
                # we have to pull the merge trees out again, because
 
1642
                # merge_inner has set the ids. - this corner is not yet
1201
1643
                # layered well enough to prevent double handling.
 
1644
                # XXX TODO: Fix the double handling: telling the tree about
 
1645
                # the already known parent data is wasteful.
1202
1646
                merges = self.get_parent_ids()[1:]
1203
1647
                parent_trees.extend([
1204
1648
                    (parent, repository.revision_tree(parent)) for
1207
1651
            return count
1208
1652
        finally:
1209
1653
            source.unlock()
1210
 
            top_pb.finished()
1211
1654
 
1212
1655
    @needs_write_lock
1213
1656
    def put_file_bytes_non_atomic(self, file_id, bytes):
1220
1663
        # TODO: update the hashcache here ?
1221
1664
 
1222
1665
    def extras(self):
1223
 
        """Yield all unknown files in this WorkingTree.
 
1666
        """Yield all unversioned files in this WorkingTree.
1224
1667
 
1225
 
        If there are any unknown directories then only the directory is
1226
 
        returned, not all its children.  But if there are unknown files
 
1668
        If there are any unversioned directories then only the directory is
 
1669
        returned, not all its children.  But if there are unversioned files
1227
1670
        under a versioned subdirectory, they are returned.
1228
1671
 
1229
1672
        Currently returned depth-first, sorted by name within directories.
 
1673
        This is the same order used by 'osutils.walkdirs'.
1230
1674
        """
1231
1675
        ## TODO: Work from given directory downwards
1232
1676
        for path, dir_entry in self.inventory.directories():
1238
1682
 
1239
1683
            fl = []
1240
1684
            for subf in os.listdir(dirabs):
1241
 
                if subf == '.bzr':
 
1685
                if self.bzrdir.is_control_filename(subf):
1242
1686
                    continue
1243
1687
                if subf not in dir_entry.children:
1244
 
                    subf_norm, can_access = osutils.normalized_filename(subf)
 
1688
                    try:
 
1689
                        (subf_norm,
 
1690
                         can_access) = osutils.normalized_filename(subf)
 
1691
                    except UnicodeDecodeError:
 
1692
                        path_os_enc = path.encode(osutils._fs_enc)
 
1693
                        relpath = path_os_enc + '/' + subf
 
1694
                        raise errors.BadFilenameEncoding(relpath,
 
1695
                                                         osutils._fs_enc)
1245
1696
                    if subf_norm != subf and can_access:
1246
1697
                        if subf_norm not in dir_entry.children:
1247
1698
                            fl.append(subf_norm)
1248
1699
                    else:
1249
1700
                        fl.append(subf)
1250
 
            
 
1701
 
1251
1702
            fl.sort()
1252
1703
            for subf in fl:
1253
1704
                subp = pathjoin(path, subf)
1254
1705
                yield subp
1255
1706
 
1256
 
    def _translate_ignore_rule(self, rule):
1257
 
        """Translate a single ignore rule to a regex.
1258
 
 
1259
 
        There are two types of ignore rules.  Those that do not contain a / are
1260
 
        matched against the tail of the filename (that is, they do not care
1261
 
        what directory the file is in.)  Rules which do contain a slash must
1262
 
        match the entire path.  As a special case, './' at the start of the
1263
 
        string counts as a slash in the string but is removed before matching
1264
 
        (e.g. ./foo.c, ./src/foo.c)
1265
 
 
1266
 
        :return: The translated regex.
1267
 
        """
1268
 
        if rule[:2] in ('./', '.\\'):
1269
 
            # rootdir rule
1270
 
            result = fnmatch.translate(rule[2:])
1271
 
        elif '/' in rule or '\\' in rule:
1272
 
            # path prefix 
1273
 
            result = fnmatch.translate(rule)
1274
 
        else:
1275
 
            # default rule style.
1276
 
            result = "(?:.*/)?(?!.*/)" + fnmatch.translate(rule)
1277
 
        assert result[-1] == '$', "fnmatch.translate did not add the expected $"
1278
 
        return "(" + result + ")"
1279
 
 
1280
 
    def _combine_ignore_rules(self, rules):
1281
 
        """Combine a list of ignore rules into a single regex object.
1282
 
 
1283
 
        Each individual rule is combined with | to form a big regex, which then
1284
 
        has $ added to it to form something like ()|()|()$. The group index for
1285
 
        each subregex's outermost group is placed in a dictionary mapping back 
1286
 
        to the rule. This allows quick identification of the matching rule that
1287
 
        triggered a match.
1288
 
        :return: a list of the compiled regex and the matching-group index 
1289
 
        dictionaries. We return a list because python complains if you try to 
1290
 
        combine more than 100 regexes.
1291
 
        """
1292
 
        result = []
1293
 
        groups = {}
1294
 
        next_group = 0
1295
 
        translated_rules = []
1296
 
        for rule in rules:
1297
 
            translated_rule = self._translate_ignore_rule(rule)
1298
 
            compiled_rule = re.compile(translated_rule)
1299
 
            groups[next_group] = rule
1300
 
            next_group += compiled_rule.groups
1301
 
            translated_rules.append(translated_rule)
1302
 
            if next_group == 99:
1303
 
                result.append((re.compile("|".join(translated_rules)), groups))
1304
 
                groups = {}
1305
 
                next_group = 0
1306
 
                translated_rules = []
1307
 
        if len(translated_rules):
1308
 
            result.append((re.compile("|".join(translated_rules)), groups))
1309
 
        return result
1310
 
 
1311
1707
    def ignored_files(self):
1312
1708
        """Yield list of PATH, IGNORE_PATTERN"""
1313
1709
        for subp in self.extras():
1324
1720
        if ignoreset is not None:
1325
1721
            return ignoreset
1326
1722
 
1327
 
        ignore_globs = set(bzrlib.DEFAULT_IGNORE)
 
1723
        ignore_globs = set()
1328
1724
        ignore_globs.update(ignores.get_runtime_ignores())
1329
 
 
1330
1725
        ignore_globs.update(ignores.get_user_ignores())
1331
 
 
1332
1726
        if self.has_filename(bzrlib.IGNORE_FILENAME):
1333
1727
            f = self.get_file_byname(bzrlib.IGNORE_FILENAME)
1334
1728
            try:
1335
1729
                ignore_globs.update(ignores.parse_ignore_file(f))
1336
1730
            finally:
1337
1731
                f.close()
1338
 
 
1339
1732
        self._ignoreset = ignore_globs
1340
 
        self._ignore_regex = self._combine_ignore_rules(ignore_globs)
1341
1733
        return ignore_globs
1342
1734
 
1343
 
    def _get_ignore_rules_as_regex(self):
1344
 
        """Return a regex of the ignore rules and a mapping dict.
1345
 
 
1346
 
        :return: (ignore rules compiled regex, dictionary mapping rule group 
1347
 
        indices to original rule.)
1348
 
        """
1349
 
        if getattr(self, '_ignoreset', None) is None:
1350
 
            self.get_ignore_list()
1351
 
        return self._ignore_regex
 
1735
    def _flush_ignore_list_cache(self):
 
1736
        """Resets the cached ignore list to force a cache rebuild."""
 
1737
        self._ignoreset = None
 
1738
        self._ignoreglobster = None
1352
1739
 
1353
1740
    def is_ignored(self, filename):
1354
1741
        r"""Check whether the filename matches an ignore pattern.
1355
1742
 
1356
1743
        Patterns containing '/' or '\' need to match the whole path;
1357
 
        others match against only the last component.
 
1744
        others match against only the last component.  Patterns starting
 
1745
        with '!' are ignore exceptions.  Exceptions take precedence
 
1746
        over regular patterns and cause the filename to not be ignored.
1358
1747
 
1359
1748
        If the file is ignored, returns the pattern which caused it to
1360
1749
        be ignored, otherwise None.  So this can simply be used as a
1361
1750
        boolean if desired."""
1362
 
 
1363
 
        # TODO: Use '**' to match directories, and other extended
1364
 
        # globbing stuff from cvs/rsync.
1365
 
 
1366
 
        # XXX: fnmatch is actually not quite what we want: it's only
1367
 
        # approximately the same as real Unix fnmatch, and doesn't
1368
 
        # treat dotfiles correctly and allows * to match /.
1369
 
        # Eventually it should be replaced with something more
1370
 
        # accurate.
1371
 
    
1372
 
        rules = self._get_ignore_rules_as_regex()
1373
 
        for regex, mapping in rules:
1374
 
            match = regex.match(filename)
1375
 
            if match is not None:
1376
 
                # one or more of the groups in mapping will have a non-None
1377
 
                # group match.
1378
 
                groups = match.groups()
1379
 
                rules = [mapping[group] for group in 
1380
 
                    mapping if groups[group] is not None]
1381
 
                return rules[0]
1382
 
        return None
 
1751
        if getattr(self, '_ignoreglobster', None) is None:
 
1752
            self._ignoreglobster = globbing.ExceptionGlobster(self.get_ignore_list())
 
1753
        return self._ignoreglobster.match(filename)
1383
1754
 
1384
1755
    def kind(self, file_id):
1385
1756
        return file_kind(self.id2abspath(file_id))
1386
1757
 
 
1758
    def stored_kind(self, file_id):
 
1759
        """See Tree.stored_kind"""
 
1760
        return self.inventory[file_id].kind
 
1761
 
 
1762
    def _comparison_data(self, entry, path):
 
1763
        abspath = self.abspath(path)
 
1764
        try:
 
1765
            stat_value = os.lstat(abspath)
 
1766
        except OSError, e:
 
1767
            if getattr(e, 'errno', None) == errno.ENOENT:
 
1768
                stat_value = None
 
1769
                kind = None
 
1770
                executable = False
 
1771
            else:
 
1772
                raise
 
1773
        else:
 
1774
            mode = stat_value.st_mode
 
1775
            kind = osutils.file_kind_from_stat_mode(mode)
 
1776
            if not supports_executable():
 
1777
                executable = entry is not None and entry.executable
 
1778
            else:
 
1779
                executable = bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
 
1780
        return kind, executable, stat_value
 
1781
 
 
1782
    def _file_size(self, entry, stat_value):
 
1783
        return stat_value.st_size
 
1784
 
1387
1785
    def last_revision(self):
1388
1786
        """Return the last revision of the branch for this tree.
1389
1787
 
1397
1795
    @needs_read_lock
1398
1796
    def _last_revision(self):
1399
1797
        """helper for get_parent_ids."""
1400
 
        return self.branch.last_revision()
 
1798
        return _mod_revision.ensure_null(self.branch.last_revision())
1401
1799
 
1402
1800
    def is_locked(self):
1403
1801
        return self._control_files.is_locked()
1404
1802
 
 
1803
    def _must_be_locked(self):
 
1804
        if not self.is_locked():
 
1805
            raise errors.ObjectNotLocked(self)
 
1806
 
1405
1807
    def lock_read(self):
1406
 
        """See Branch.lock_read, and WorkingTree.unlock."""
 
1808
        """Lock the tree for reading.
 
1809
 
 
1810
        This also locks the branch, and can be unlocked via self.unlock().
 
1811
 
 
1812
        :return: A bzrlib.lock.LogicalLockResult.
 
1813
        """
 
1814
        if not self.is_locked():
 
1815
            self._reset_data()
1407
1816
        self.branch.lock_read()
1408
1817
        try:
1409
 
            return self._control_files.lock_read()
 
1818
            self._control_files.lock_read()
 
1819
            return LogicalLockResult(self.unlock)
1410
1820
        except:
1411
1821
            self.branch.unlock()
1412
1822
            raise
1413
1823
 
1414
1824
    def lock_tree_write(self):
1415
 
        """See MutableTree.lock_tree_write, and WorkingTree.unlock."""
 
1825
        """See MutableTree.lock_tree_write, and WorkingTree.unlock.
 
1826
 
 
1827
        :return: A bzrlib.lock.LogicalLockResult.
 
1828
        """
 
1829
        if not self.is_locked():
 
1830
            self._reset_data()
1416
1831
        self.branch.lock_read()
1417
1832
        try:
1418
 
            return self._control_files.lock_write()
 
1833
            self._control_files.lock_write()
 
1834
            return LogicalLockResult(self.unlock)
1419
1835
        except:
1420
1836
            self.branch.unlock()
1421
1837
            raise
1422
1838
 
1423
1839
    def lock_write(self):
1424
 
        """See MutableTree.lock_write, and WorkingTree.unlock."""
 
1840
        """See MutableTree.lock_write, and WorkingTree.unlock.
 
1841
 
 
1842
        :return: A bzrlib.lock.LogicalLockResult.
 
1843
        """
 
1844
        if not self.is_locked():
 
1845
            self._reset_data()
1425
1846
        self.branch.lock_write()
1426
1847
        try:
1427
 
            return self._control_files.lock_write()
 
1848
            self._control_files.lock_write()
 
1849
            return LogicalLockResult(self.unlock)
1428
1850
        except:
1429
1851
            self.branch.unlock()
1430
1852
            raise
1435
1857
    def _basis_inventory_name(self):
1436
1858
        return 'basis-inventory-cache'
1437
1859
 
 
1860
    def _reset_data(self):
 
1861
        """Reset transient data that cannot be revalidated."""
 
1862
        self._inventory_is_modified = False
 
1863
        f = self._transport.get('inventory')
 
1864
        try:
 
1865
            result = self._deserialize(f)
 
1866
        finally:
 
1867
            f.close()
 
1868
        self._set_inventory(result, dirty=False)
 
1869
 
1438
1870
    @needs_tree_write_lock
1439
1871
    def set_last_revision(self, new_revision):
1440
1872
        """Change the last revision in the working tree."""
1443
1875
 
1444
1876
    def _change_last_revision(self, new_revision):
1445
1877
        """Template method part of set_last_revision to perform the change.
1446
 
        
 
1878
 
1447
1879
        This is used to allow WorkingTree3 instances to not affect branch
1448
1880
        when their last revision is set.
1449
1881
        """
1450
 
        if new_revision is None:
 
1882
        if _mod_revision.is_null(new_revision):
1451
1883
            self.branch.set_revision_history([])
1452
1884
            return False
1453
1885
        try:
1459
1891
 
1460
1892
    def _write_basis_inventory(self, xml):
1461
1893
        """Write the basis inventory XML to the basis-inventory file"""
1462
 
        assert isinstance(xml, str), 'serialised xml must be bytestring.'
1463
1894
        path = self._basis_inventory_name()
1464
1895
        sio = StringIO(xml)
1465
 
        self._control_files.put(path, sio)
 
1896
        self._transport.put_file(path, sio,
 
1897
            mode=self.bzrdir._get_file_mode())
1466
1898
 
1467
1899
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
1468
1900
        """Create the text that will be saved in basis-inventory"""
1469
1901
        inventory.revision_id = revision_id
1470
 
        return xml6.serializer_v6.write_inventory_to_string(inventory)
 
1902
        return xml7.serializer_v7.write_inventory_to_string(inventory)
1471
1903
 
1472
1904
    def _cache_basis_inventory(self, new_revision):
1473
1905
        """Cache new_revision as the basis inventory."""
1475
1907
        # as commit already has that ready-to-use [while the format is the
1476
1908
        # same, that is].
1477
1909
        try:
1478
 
            # this double handles the inventory - unpack and repack - 
 
1910
            # this double handles the inventory - unpack and repack -
1479
1911
            # but is easier to understand. We can/should put a conditional
1480
1912
            # in here based on whether the inventory is in the latest format
1481
1913
            # - perhaps we should repack all inventories on a repository
1482
1914
            # upgrade ?
1483
1915
            # the fast path is to copy the raw xml from the repository. If the
1484
 
            # xml contains 'revision_id="', then we assume the right 
 
1916
            # xml contains 'revision_id="', then we assume the right
1485
1917
            # revision_id is set. We must check for this full string, because a
1486
1918
            # root node id can legitimately look like 'revision_id' but cannot
1487
1919
            # contain a '"'.
1488
 
            xml = self.branch.repository.get_inventory_xml(new_revision)
 
1920
            xml = self.branch.repository._get_inventory_xml(new_revision)
1489
1921
            firstline = xml.split('\n', 1)[0]
1490
 
            if (not 'revision_id="' in firstline or 
1491
 
                'format="6"' not in firstline):
1492
 
                inv = self.branch.repository.deserialise_inventory(
1493
 
                    new_revision, xml)
 
1922
            if (not 'revision_id="' in firstline or
 
1923
                'format="7"' not in firstline):
 
1924
                inv = self.branch.repository._serializer.read_inventory_from_string(
 
1925
                    xml, new_revision)
1494
1926
                xml = self._create_basis_xml_from_inventory(new_revision, inv)
1495
1927
            self._write_basis_inventory(xml)
1496
1928
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
1499
1931
    def read_basis_inventory(self):
1500
1932
        """Read the cached basis inventory."""
1501
1933
        path = self._basis_inventory_name()
1502
 
        return self._control_files.get(path).read()
1503
 
        
 
1934
        return self._transport.get_bytes(path)
 
1935
 
1504
1936
    @needs_read_lock
1505
1937
    def read_working_inventory(self):
1506
1938
        """Read the working inventory.
1507
 
        
 
1939
 
1508
1940
        :raises errors.InventoryModified: read_working_inventory will fail
1509
1941
            when the current in memory inventory has been modified.
1510
1942
        """
1511
 
        # conceptually this should be an implementation detail of the tree. 
 
1943
        # conceptually this should be an implementation detail of the tree.
1512
1944
        # XXX: Deprecate this.
1513
1945
        # ElementTree does its own conversion from UTF-8, so open in
1514
1946
        # binary.
1515
1947
        if self._inventory_is_modified:
1516
1948
            raise errors.InventoryModified(self)
1517
 
        result = xml5.serializer_v5.read_inventory(
1518
 
            self._control_files.get('inventory'))
 
1949
        f = self._transport.get('inventory')
 
1950
        try:
 
1951
            result = self._deserialize(f)
 
1952
        finally:
 
1953
            f.close()
1519
1954
        self._set_inventory(result, dirty=False)
1520
1955
        return result
1521
1956
 
1522
1957
    @needs_tree_write_lock
1523
 
    def remove(self, files, verbose=False, to_file=None):
1524
 
        """Remove nominated files from the working inventory..
1525
 
 
1526
 
        This does not remove their text.  This does not run on XXX on what? RBC
1527
 
 
1528
 
        TODO: Refuse to remove modified files unless --force is given?
1529
 
 
1530
 
        TODO: Do something useful with directories.
1531
 
 
1532
 
        TODO: Should this remove the text or not?  Tough call; not
1533
 
        removing may be useful and the user can just use use rm, and
1534
 
        is the opposite of add.  Removing it is consistent with most
1535
 
        other tools.  Maybe an option.
 
1958
    def remove(self, files, verbose=False, to_file=None, keep_files=True,
 
1959
        force=False):
 
1960
        """Remove nominated files from the working inventory.
 
1961
 
 
1962
        :files: File paths relative to the basedir.
 
1963
        :keep_files: If true, the files will also be kept.
 
1964
        :force: Delete files and directories, even if they are changed and
 
1965
            even if the directories are not empty.
1536
1966
        """
1537
 
        ## TODO: Normalize names
1538
 
        ## TODO: Remove nested loops; better scalability
1539
1967
        if isinstance(files, basestring):
1540
1968
            files = [files]
1541
1969
 
1542
 
        inv = self.inventory
1543
 
 
1544
 
        # do this before any modifications
 
1970
        inv_delta = []
 
1971
 
 
1972
        all_files = set() # specified and nested files 
 
1973
        unknown_nested_files=set()
 
1974
        if to_file is None:
 
1975
            to_file = sys.stdout
 
1976
 
 
1977
        files_to_backup = []
 
1978
 
 
1979
        def recurse_directory_to_add_files(directory):
 
1980
            # Recurse directory and add all files
 
1981
            # so we can check if they have changed.
 
1982
            for parent_info, file_infos in self.walkdirs(directory):
 
1983
                for relpath, basename, kind, lstat, fileid, kind in file_infos:
 
1984
                    # Is it versioned or ignored?
 
1985
                    if self.path2id(relpath):
 
1986
                        # Add nested content for deletion.
 
1987
                        all_files.add(relpath)
 
1988
                    else:
 
1989
                        # Files which are not versioned
 
1990
                        # should be treated as unknown.
 
1991
                        files_to_backup.append(relpath)
 
1992
 
 
1993
        for filename in files:
 
1994
            # Get file name into canonical form.
 
1995
            abspath = self.abspath(filename)
 
1996
            filename = self.relpath(abspath)
 
1997
            if len(filename) > 0:
 
1998
                all_files.add(filename)
 
1999
                recurse_directory_to_add_files(filename)
 
2000
 
 
2001
        files = list(all_files)
 
2002
 
 
2003
        if len(files) == 0:
 
2004
            return # nothing to do
 
2005
 
 
2006
        # Sort needed to first handle directory content before the directory
 
2007
        files.sort(reverse=True)
 
2008
 
 
2009
        # Bail out if we are going to delete files we shouldn't
 
2010
        if not keep_files and not force:
 
2011
            for (file_id, path, content_change, versioned, parent_id, name,
 
2012
                 kind, executable) in self.iter_changes(self.basis_tree(),
 
2013
                     include_unchanged=True, require_versioned=False,
 
2014
                     want_unversioned=True, specific_files=files):
 
2015
                if versioned[0] == False:
 
2016
                    # The record is unknown or newly added
 
2017
                    files_to_backup.append(path[1])
 
2018
                elif (content_change and (kind[1] is not None) and
 
2019
                        osutils.is_inside_any(files, path[1])):
 
2020
                    # Versioned and changed, but not deleted, and still
 
2021
                    # in one of the dirs to be deleted.
 
2022
                    files_to_backup.append(path[1])
 
2023
 
 
2024
        def backup(file_to_backup):
 
2025
            backup_name = self.bzrdir.generate_backup_name(file_to_backup)
 
2026
            osutils.rename(abs_path, self.abspath(backup_name))
 
2027
            return "removed %s (but kept a copy: %s)" % (file_to_backup, backup_name)
 
2028
 
 
2029
        # Build inv_delta and delete files where applicable,
 
2030
        # do this before any modifications to inventory.
1545
2031
        for f in files:
1546
 
            fid = inv.path2id(f)
 
2032
            fid = self.path2id(f)
 
2033
            message = None
1547
2034
            if not fid:
1548
 
                # TODO: Perhaps make this just a warning, and continue?
1549
 
                # This tends to happen when 
1550
 
                raise NotVersionedError(path=f)
1551
 
            if verbose:
1552
 
                # having remove it, it must be either ignored or unknown
1553
 
                if self.is_ignored(f):
1554
 
                    new_status = 'I'
1555
 
                else:
1556
 
                    new_status = '?'
1557
 
                textui.show_status(new_status, inv[fid].kind, f,
1558
 
                                   to_file=to_file)
1559
 
            del inv[fid]
1560
 
 
1561
 
        self._write_inventory(inv)
 
2035
                message = "%s is not versioned." % (f,)
 
2036
            else:
 
2037
                if verbose:
 
2038
                    # having removed it, it must be either ignored or unknown
 
2039
                    if self.is_ignored(f):
 
2040
                        new_status = 'I'
 
2041
                    else:
 
2042
                        new_status = '?'
 
2043
                    # XXX: Really should be a more abstract reporter interface
 
2044
                    kind_ch = osutils.kind_marker(self.kind(fid))
 
2045
                    to_file.write(new_status + '       ' + f + kind_ch + '\n')
 
2046
                # Unversion file
 
2047
                inv_delta.append((f, None, fid, None))
 
2048
                message = "removed %s" % (f,)
 
2049
 
 
2050
            if not keep_files:
 
2051
                abs_path = self.abspath(f)
 
2052
                if osutils.lexists(abs_path):
 
2053
                    if (osutils.isdir(abs_path) and
 
2054
                        len(os.listdir(abs_path)) > 0):
 
2055
                        if force:
 
2056
                            osutils.rmtree(abs_path)
 
2057
                            message = "deleted %s" % (f,)
 
2058
                        else:
 
2059
                            message = backup(f)
 
2060
                    else:
 
2061
                        if f in files_to_backup:
 
2062
                            message = backup(f)
 
2063
                        else:
 
2064
                            osutils.delete_any(abs_path)
 
2065
                            message = "deleted %s" % (f,)
 
2066
                elif message is not None:
 
2067
                    # Only care if we haven't done anything yet.
 
2068
                    message = "%s does not exist." % (f,)
 
2069
 
 
2070
            # Print only one message (if any) per file.
 
2071
            if message is not None:
 
2072
                note(message)
 
2073
        self.apply_inventory_delta(inv_delta)
1562
2074
 
1563
2075
    @needs_tree_write_lock
1564
 
    def revert(self, filenames, old_tree=None, backups=True, 
1565
 
               pb=DummyProgress()):
 
2076
    def revert(self, filenames=None, old_tree=None, backups=True,
 
2077
               pb=None, report_changes=False):
1566
2078
        from bzrlib.conflicts import resolve
 
2079
        if filenames == []:
 
2080
            filenames = None
 
2081
            symbol_versioning.warn('Using [] to revert all files is deprecated'
 
2082
                ' as of bzr 0.91.  Please use None (the default) instead.',
 
2083
                DeprecationWarning, stacklevel=2)
1567
2084
        if old_tree is None:
1568
 
            old_tree = self.basis_tree()
1569
 
        conflicts = transform.revert(self, old_tree, filenames, backups, pb)
1570
 
        if not len(filenames):
1571
 
            self.set_parent_ids(self.get_parent_ids()[:1])
1572
 
            resolve(self)
 
2085
            basis_tree = self.basis_tree()
 
2086
            basis_tree.lock_read()
 
2087
            old_tree = basis_tree
1573
2088
        else:
1574
 
            resolve(self, filenames, ignore_misses=True)
 
2089
            basis_tree = None
 
2090
        try:
 
2091
            conflicts = transform.revert(self, old_tree, filenames, backups, pb,
 
2092
                                         report_changes)
 
2093
            if filenames is None and len(self.get_parent_ids()) > 1:
 
2094
                parent_trees = []
 
2095
                last_revision = self.last_revision()
 
2096
                if last_revision != _mod_revision.NULL_REVISION:
 
2097
                    if basis_tree is None:
 
2098
                        basis_tree = self.basis_tree()
 
2099
                        basis_tree.lock_read()
 
2100
                    parent_trees.append((last_revision, basis_tree))
 
2101
                self.set_parent_trees(parent_trees)
 
2102
                resolve(self)
 
2103
            else:
 
2104
                resolve(self, filenames, ignore_misses=True, recursive=True)
 
2105
        finally:
 
2106
            if basis_tree is not None:
 
2107
                basis_tree.unlock()
1575
2108
        return conflicts
1576
2109
 
 
2110
    def revision_tree(self, revision_id):
 
2111
        """See Tree.revision_tree.
 
2112
 
 
2113
        WorkingTree can supply revision_trees for the basis revision only
 
2114
        because there is only one cached inventory in the bzr directory.
 
2115
        """
 
2116
        if revision_id == self.last_revision():
 
2117
            try:
 
2118
                xml = self.read_basis_inventory()
 
2119
            except errors.NoSuchFile:
 
2120
                pass
 
2121
            else:
 
2122
                try:
 
2123
                    inv = xml7.serializer_v7.read_inventory_from_string(xml)
 
2124
                    # dont use the repository revision_tree api because we want
 
2125
                    # to supply the inventory.
 
2126
                    if inv.revision_id == revision_id:
 
2127
                        return revisiontree.RevisionTree(self.branch.repository,
 
2128
                            inv, revision_id)
 
2129
                except errors.BadInventoryFormat:
 
2130
                    pass
 
2131
        # raise if there was no inventory, or if we read the wrong inventory.
 
2132
        raise errors.NoSuchRevisionInTree(self, revision_id)
 
2133
 
1577
2134
    # XXX: This method should be deprecated in favour of taking in a proper
1578
2135
    # new Inventory object.
1579
2136
    @needs_tree_write_lock
1580
2137
    def set_inventory(self, new_inventory_list):
1581
2138
        from bzrlib.inventory import (Inventory,
1582
2139
                                      InventoryDirectory,
1583
 
                                      InventoryEntry,
1584
2140
                                      InventoryFile,
1585
2141
                                      InventoryLink)
1586
2142
        inv = Inventory(self.get_root_id())
1588
2144
            name = os.path.basename(path)
1589
2145
            if name == "":
1590
2146
                continue
1591
 
            # fixme, there should be a factory function inv,add_?? 
 
2147
            # fixme, there should be a factory function inv,add_??
1592
2148
            if kind == 'directory':
1593
2149
                inv.add(InventoryDirectory(file_id, name, parent))
1594
2150
            elif kind == 'file':
1596
2152
            elif kind == 'symlink':
1597
2153
                inv.add(InventoryLink(file_id, name, parent))
1598
2154
            else:
1599
 
                raise BzrError("unknown kind %r" % kind)
 
2155
                raise errors.BzrError("unknown kind %r" % kind)
1600
2156
        self._write_inventory(inv)
1601
2157
 
1602
2158
    @needs_tree_write_lock
1603
2159
    def set_root_id(self, file_id):
1604
2160
        """Set the root id for this tree."""
1605
 
        # for compatability 
 
2161
        # for compatability
1606
2162
        if file_id is None:
1607
 
            symbol_versioning.warn(symbol_versioning.zero_twelve
1608
 
                % 'WorkingTree.set_root_id with fileid=None',
1609
 
                DeprecationWarning,
1610
 
                stacklevel=3)
1611
 
            file_id = ROOT_ID
 
2163
            raise ValueError(
 
2164
                'WorkingTree.set_root_id with fileid=None')
 
2165
        file_id = osutils.safe_file_id(file_id)
 
2166
        self._set_root_id(file_id)
 
2167
 
 
2168
    def _set_root_id(self, file_id):
 
2169
        """Set the root id for this tree, in a format specific manner.
 
2170
 
 
2171
        :param file_id: The file id to assign to the root. It must not be
 
2172
            present in the current inventory or an error will occur. It must
 
2173
            not be None, but rather a valid file id.
 
2174
        """
1612
2175
        inv = self._inventory
1613
2176
        orig_root_id = inv.root.file_id
1614
2177
        # TODO: it might be nice to exit early if there was nothing
1630
2193
 
1631
2194
    def unlock(self):
1632
2195
        """See Branch.unlock.
1633
 
        
 
2196
 
1634
2197
        WorkingTree locking just uses the Branch locking facilities.
1635
2198
        This is current because all working trees have an embedded branch
1636
2199
        within them. IF in the future, we were to make branch data shareable
1637
 
        between multiple working trees, i.e. via shared storage, then we 
 
2200
        between multiple working trees, i.e. via shared storage, then we
1638
2201
        would probably want to lock both the local tree, and the branch.
1639
2202
        """
1640
2203
        raise NotImplementedError(self.unlock)
1641
2204
 
1642
 
    def update(self):
 
2205
    _marker = object()
 
2206
 
 
2207
    def update(self, change_reporter=None, possible_transports=None,
 
2208
               revision=None, old_tip=_marker):
1643
2209
        """Update a working tree along its branch.
1644
2210
 
1645
2211
        This will update the branch if its bound too, which means we have
1663
2229
        - Merge current state -> basis tree of the master w.r.t. the old tree
1664
2230
          basis.
1665
2231
        - Do a 'normal' merge of the old branch basis if it is relevant.
 
2232
 
 
2233
        :param revision: The target revision to update to. Must be in the
 
2234
            revision history.
 
2235
        :param old_tip: If branch.update() has already been run, the value it
 
2236
            returned (old tip of the branch or None). _marker is used
 
2237
            otherwise.
1666
2238
        """
1667
 
        if self.branch.get_master_branch() is not None:
 
2239
        if self.branch.get_bound_location() is not None:
1668
2240
            self.lock_write()
1669
 
            update_branch = True
 
2241
            update_branch = (old_tip is self._marker)
1670
2242
        else:
1671
2243
            self.lock_tree_write()
1672
2244
            update_branch = False
1673
2245
        try:
1674
2246
            if update_branch:
1675
 
                old_tip = self.branch.update()
 
2247
                old_tip = self.branch.update(possible_transports)
1676
2248
            else:
1677
 
                old_tip = None
1678
 
            return self._update_tree(old_tip)
 
2249
                if old_tip is self._marker:
 
2250
                    old_tip = None
 
2251
            return self._update_tree(old_tip, change_reporter, revision)
1679
2252
        finally:
1680
2253
            self.unlock()
1681
2254
 
1682
2255
    @needs_tree_write_lock
1683
 
    def _update_tree(self, old_tip=None):
 
2256
    def _update_tree(self, old_tip=None, change_reporter=None, revision=None):
1684
2257
        """Update a tree to the master branch.
1685
2258
 
1686
2259
        :param old_tip: if supplied, the previous tip revision the branch,
1692
2265
        # cant set that until we update the working trees last revision to be
1693
2266
        # one from the new branch, because it will just get absorbed by the
1694
2267
        # parent de-duplication logic.
1695
 
        # 
 
2268
        #
1696
2269
        # We MUST save it even if an error occurs, because otherwise the users
1697
2270
        # local work is unreferenced and will appear to have been lost.
1698
 
        # 
1699
 
        result = 0
 
2271
        #
 
2272
        nb_conflicts = 0
1700
2273
        try:
1701
2274
            last_rev = self.get_parent_ids()[0]
1702
2275
        except IndexError:
1703
 
            last_rev = None
1704
 
        if last_rev != self.branch.last_revision():
1705
 
            # merge tree state up to new branch tip.
 
2276
            last_rev = _mod_revision.NULL_REVISION
 
2277
        if revision is None:
 
2278
            revision = self.branch.last_revision()
 
2279
 
 
2280
        old_tip = old_tip or _mod_revision.NULL_REVISION
 
2281
 
 
2282
        if not _mod_revision.is_null(old_tip) and old_tip != last_rev:
 
2283
            # the branch we are bound to was updated
 
2284
            # merge those changes in first
 
2285
            base_tree  = self.basis_tree()
 
2286
            other_tree = self.branch.repository.revision_tree(old_tip)
 
2287
            nb_conflicts = merge.merge_inner(self.branch, other_tree,
 
2288
                                             base_tree, this_tree=self,
 
2289
                                             change_reporter=change_reporter)
 
2290
            if nb_conflicts:
 
2291
                self.add_parent_tree((old_tip, other_tree))
 
2292
                trace.note('Rerun update after fixing the conflicts.')
 
2293
                return nb_conflicts
 
2294
 
 
2295
        if last_rev != _mod_revision.ensure_null(revision):
 
2296
            # the working tree is up to date with the branch
 
2297
            # we can merge the specified revision from master
 
2298
            to_tree = self.branch.repository.revision_tree(revision)
 
2299
            to_root_id = to_tree.get_root_id()
 
2300
 
1706
2301
            basis = self.basis_tree()
1707
 
            to_tree = self.branch.basis_tree()
1708
 
            if basis.inventory.root is None:
1709
 
                self.set_root_id(to_tree.inventory.root.file_id)
1710
 
            result += merge.merge_inner(
1711
 
                                  self.branch,
1712
 
                                  to_tree,
1713
 
                                  basis,
1714
 
                                  this_tree=self)
 
2302
            basis.lock_read()
 
2303
            try:
 
2304
                if (basis.inventory.root is None
 
2305
                    or basis.inventory.root.file_id != to_root_id):
 
2306
                    self.set_root_id(to_root_id)
 
2307
                    self.flush()
 
2308
            finally:
 
2309
                basis.unlock()
 
2310
 
 
2311
            # determine the branch point
 
2312
            graph = self.branch.repository.get_graph()
 
2313
            base_rev_id = graph.find_unique_lca(self.branch.last_revision(),
 
2314
                                                last_rev)
 
2315
            base_tree = self.branch.repository.revision_tree(base_rev_id)
 
2316
 
 
2317
            nb_conflicts = merge.merge_inner(self.branch, to_tree, base_tree,
 
2318
                                             this_tree=self,
 
2319
                                             change_reporter=change_reporter)
 
2320
            self.set_last_revision(revision)
1715
2321
            # TODO - dedup parents list with things merged by pull ?
1716
2322
            # reuse the tree we've updated to to set the basis:
1717
 
            parent_trees = [(self.branch.last_revision(), to_tree)]
 
2323
            parent_trees = [(revision, to_tree)]
1718
2324
            merges = self.get_parent_ids()[1:]
1719
2325
            # Ideally we ask the tree for the trees here, that way the working
1720
 
            # tree can decide whether to give us teh entire tree or give us a
 
2326
            # tree can decide whether to give us the entire tree or give us a
1721
2327
            # lazy initialised tree. dirstate for instance will have the trees
1722
2328
            # in ram already, whereas a last-revision + basis-inventory tree
1723
2329
            # will not, but also does not need them when setting parents.
1724
2330
            for parent in merges:
1725
2331
                parent_trees.append(
1726
2332
                    (parent, self.branch.repository.revision_tree(parent)))
1727
 
            if old_tip is not None:
 
2333
            if not _mod_revision.is_null(old_tip):
1728
2334
                parent_trees.append(
1729
2335
                    (old_tip, self.branch.repository.revision_tree(old_tip)))
1730
2336
            self.set_parent_trees(parent_trees)
1731
2337
            last_rev = parent_trees[0][0]
1732
 
        else:
1733
 
            # the working tree had the same last-revision as the master
1734
 
            # branch did. We may still have pivot local work from the local
1735
 
            # branch into old_tip:
1736
 
            if old_tip is not None:
1737
 
                self.add_parent_tree_id(old_tip)
1738
 
        if old_tip and old_tip != last_rev:
1739
 
            # our last revision was not the prior branch last revision
1740
 
            # and we have converted that last revision to a pending merge.
1741
 
            # base is somewhere between the branch tip now
1742
 
            # and the now pending merge
1743
 
            from bzrlib.revision import common_ancestor
 
2338
        return nb_conflicts
 
2339
 
 
2340
    def _write_hashcache_if_dirty(self):
 
2341
        """Write out the hashcache if it is dirty."""
 
2342
        if self._hashcache.needs_write:
1744
2343
            try:
1745
 
                base_rev_id = common_ancestor(self.branch.last_revision(),
1746
 
                                              old_tip,
1747
 
                                              self.branch.repository)
1748
 
            except errors.NoCommonAncestor:
1749
 
                base_rev_id = None
1750
 
            base_tree = self.branch.repository.revision_tree(base_rev_id)
1751
 
            other_tree = self.branch.repository.revision_tree(old_tip)
1752
 
            result += merge.merge_inner(
1753
 
                                  self.branch,
1754
 
                                  other_tree,
1755
 
                                  base_tree,
1756
 
                                  this_tree=self)
1757
 
        return result
 
2344
                self._hashcache.write()
 
2345
            except OSError, e:
 
2346
                if e.errno not in (errno.EPERM, errno.EACCES):
 
2347
                    raise
 
2348
                # TODO: jam 20061219 Should this be a warning? A single line
 
2349
                #       warning might be sufficient to let the user know what
 
2350
                #       is going on.
 
2351
                mutter('Could not write hashcache for %s\nError: %s',
 
2352
                       self._hashcache.cache_file_name(), e)
1758
2353
 
1759
2354
    @needs_tree_write_lock
1760
2355
    def _write_inventory(self, inv):
1763
2358
        self.flush()
1764
2359
 
1765
2360
    def set_conflicts(self, arg):
1766
 
        raise UnsupportedOperation(self.set_conflicts, self)
 
2361
        raise errors.UnsupportedOperation(self.set_conflicts, self)
1767
2362
 
1768
2363
    def add_conflicts(self, arg):
1769
 
        raise UnsupportedOperation(self.add_conflicts, self)
 
2364
        raise errors.UnsupportedOperation(self.add_conflicts, self)
1770
2365
 
1771
2366
    @needs_read_lock
1772
2367
    def conflicts(self):
1794
2389
                             file_id=self.path2id(conflicted)))
1795
2390
        return conflicts
1796
2391
 
 
2392
    def walkdirs(self, prefix=""):
 
2393
        """Walk the directories of this tree.
 
2394
 
 
2395
        returns a generator which yields items in the form:
 
2396
                ((curren_directory_path, fileid),
 
2397
                 [(file1_path, file1_name, file1_kind, (lstat), file1_id,
 
2398
                   file1_kind), ... ])
 
2399
 
 
2400
        This API returns a generator, which is only valid during the current
 
2401
        tree transaction - within a single lock_read or lock_write duration.
 
2402
 
 
2403
        If the tree is not locked, it may cause an error to be raised,
 
2404
        depending on the tree implementation.
 
2405
        """
 
2406
        disk_top = self.abspath(prefix)
 
2407
        if disk_top.endswith('/'):
 
2408
            disk_top = disk_top[:-1]
 
2409
        top_strip_len = len(disk_top) + 1
 
2410
        inventory_iterator = self._walkdirs(prefix)
 
2411
        disk_iterator = osutils.walkdirs(disk_top, prefix)
 
2412
        try:
 
2413
            current_disk = disk_iterator.next()
 
2414
            disk_finished = False
 
2415
        except OSError, e:
 
2416
            if not (e.errno == errno.ENOENT or
 
2417
                (sys.platform == 'win32' and e.errno == ERROR_PATH_NOT_FOUND)):
 
2418
                raise
 
2419
            current_disk = None
 
2420
            disk_finished = True
 
2421
        try:
 
2422
            current_inv = inventory_iterator.next()
 
2423
            inv_finished = False
 
2424
        except StopIteration:
 
2425
            current_inv = None
 
2426
            inv_finished = True
 
2427
        while not inv_finished or not disk_finished:
 
2428
            if current_disk:
 
2429
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
 
2430
                    cur_disk_dir_content) = current_disk
 
2431
            else:
 
2432
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
 
2433
                    cur_disk_dir_content) = ((None, None), None)
 
2434
            if not disk_finished:
 
2435
                # strip out .bzr dirs
 
2436
                if (cur_disk_dir_path_from_top[top_strip_len:] == '' and
 
2437
                    len(cur_disk_dir_content) > 0):
 
2438
                    # osutils.walkdirs can be made nicer -
 
2439
                    # yield the path-from-prefix rather than the pathjoined
 
2440
                    # value.
 
2441
                    bzrdir_loc = bisect_left(cur_disk_dir_content,
 
2442
                        ('.bzr', '.bzr'))
 
2443
                    if (bzrdir_loc < len(cur_disk_dir_content)
 
2444
                        and self.bzrdir.is_control_filename(
 
2445
                            cur_disk_dir_content[bzrdir_loc][0])):
 
2446
                        # we dont yield the contents of, or, .bzr itself.
 
2447
                        del cur_disk_dir_content[bzrdir_loc]
 
2448
            if inv_finished:
 
2449
                # everything is unknown
 
2450
                direction = 1
 
2451
            elif disk_finished:
 
2452
                # everything is missing
 
2453
                direction = -1
 
2454
            else:
 
2455
                direction = cmp(current_inv[0][0], cur_disk_dir_relpath)
 
2456
            if direction > 0:
 
2457
                # disk is before inventory - unknown
 
2458
                dirblock = [(relpath, basename, kind, stat, None, None) for
 
2459
                    relpath, basename, kind, stat, top_path in
 
2460
                    cur_disk_dir_content]
 
2461
                yield (cur_disk_dir_relpath, None), dirblock
 
2462
                try:
 
2463
                    current_disk = disk_iterator.next()
 
2464
                except StopIteration:
 
2465
                    disk_finished = True
 
2466
            elif direction < 0:
 
2467
                # inventory is before disk - missing.
 
2468
                dirblock = [(relpath, basename, 'unknown', None, fileid, kind)
 
2469
                    for relpath, basename, dkind, stat, fileid, kind in
 
2470
                    current_inv[1]]
 
2471
                yield (current_inv[0][0], current_inv[0][1]), dirblock
 
2472
                try:
 
2473
                    current_inv = inventory_iterator.next()
 
2474
                except StopIteration:
 
2475
                    inv_finished = True
 
2476
            else:
 
2477
                # versioned present directory
 
2478
                # merge the inventory and disk data together
 
2479
                dirblock = []
 
2480
                for relpath, subiterator in itertools.groupby(sorted(
 
2481
                    current_inv[1] + cur_disk_dir_content,
 
2482
                    key=operator.itemgetter(0)), operator.itemgetter(1)):
 
2483
                    path_elements = list(subiterator)
 
2484
                    if len(path_elements) == 2:
 
2485
                        inv_row, disk_row = path_elements
 
2486
                        # versioned, present file
 
2487
                        dirblock.append((inv_row[0],
 
2488
                            inv_row[1], disk_row[2],
 
2489
                            disk_row[3], inv_row[4],
 
2490
                            inv_row[5]))
 
2491
                    elif len(path_elements[0]) == 5:
 
2492
                        # unknown disk file
 
2493
                        dirblock.append((path_elements[0][0],
 
2494
                            path_elements[0][1], path_elements[0][2],
 
2495
                            path_elements[0][3], None, None))
 
2496
                    elif len(path_elements[0]) == 6:
 
2497
                        # versioned, absent file.
 
2498
                        dirblock.append((path_elements[0][0],
 
2499
                            path_elements[0][1], 'unknown', None,
 
2500
                            path_elements[0][4], path_elements[0][5]))
 
2501
                    else:
 
2502
                        raise NotImplementedError('unreachable code')
 
2503
                yield current_inv[0], dirblock
 
2504
                try:
 
2505
                    current_inv = inventory_iterator.next()
 
2506
                except StopIteration:
 
2507
                    inv_finished = True
 
2508
                try:
 
2509
                    current_disk = disk_iterator.next()
 
2510
                except StopIteration:
 
2511
                    disk_finished = True
 
2512
 
 
2513
    def _walkdirs(self, prefix=""):
 
2514
        """Walk the directories of this tree.
 
2515
 
 
2516
           :prefix: is used as the directrory to start with.
 
2517
           returns a generator which yields items in the form:
 
2518
                ((curren_directory_path, fileid),
 
2519
                 [(file1_path, file1_name, file1_kind, None, file1_id,
 
2520
                   file1_kind), ... ])
 
2521
        """
 
2522
        _directory = 'directory'
 
2523
        # get the root in the inventory
 
2524
        inv = self.inventory
 
2525
        top_id = inv.path2id(prefix)
 
2526
        if top_id is None:
 
2527
            pending = []
 
2528
        else:
 
2529
            pending = [(prefix, '', _directory, None, top_id, None)]
 
2530
        while pending:
 
2531
            dirblock = []
 
2532
            currentdir = pending.pop()
 
2533
            # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-id, 5-kind
 
2534
            top_id = currentdir[4]
 
2535
            if currentdir[0]:
 
2536
                relroot = currentdir[0] + '/'
 
2537
            else:
 
2538
                relroot = ""
 
2539
            # FIXME: stash the node in pending
 
2540
            entry = inv[top_id]
 
2541
            if entry.kind == 'directory':
 
2542
                for name, child in entry.sorted_children():
 
2543
                    dirblock.append((relroot + name, name, child.kind, None,
 
2544
                        child.file_id, child.kind
 
2545
                        ))
 
2546
            yield (currentdir[0], entry.file_id), dirblock
 
2547
            # push the user specified dirs from dirblock
 
2548
            for dir in reversed(dirblock):
 
2549
                if dir[2] == _directory:
 
2550
                    pending.append(dir)
 
2551
 
 
2552
    @needs_tree_write_lock
 
2553
    def auto_resolve(self):
 
2554
        """Automatically resolve text conflicts according to contents.
 
2555
 
 
2556
        Only text conflicts are auto_resolvable. Files with no conflict markers
 
2557
        are considered 'resolved', because bzr always puts conflict markers
 
2558
        into files that have text conflicts.  The corresponding .THIS .BASE and
 
2559
        .OTHER files are deleted, as per 'resolve'.
 
2560
        :return: a tuple of ConflictLists: (un_resolved, resolved).
 
2561
        """
 
2562
        un_resolved = _mod_conflicts.ConflictList()
 
2563
        resolved = _mod_conflicts.ConflictList()
 
2564
        conflict_re = re.compile('^(<{7}|={7}|>{7})')
 
2565
        for conflict in self.conflicts():
 
2566
            if (conflict.typestring != 'text conflict' or
 
2567
                self.kind(conflict.file_id) != 'file'):
 
2568
                un_resolved.append(conflict)
 
2569
                continue
 
2570
            my_file = open(self.id2abspath(conflict.file_id), 'rb')
 
2571
            try:
 
2572
                for line in my_file:
 
2573
                    if conflict_re.search(line):
 
2574
                        un_resolved.append(conflict)
 
2575
                        break
 
2576
                else:
 
2577
                    resolved.append(conflict)
 
2578
            finally:
 
2579
                my_file.close()
 
2580
        resolved.remove_files(self)
 
2581
        self.set_conflicts(un_resolved)
 
2582
        return un_resolved, resolved
 
2583
 
 
2584
    @needs_read_lock
 
2585
    def _check(self, references):
 
2586
        """Check the tree for consistency.
 
2587
 
 
2588
        :param references: A dict with keys matching the items returned by
 
2589
            self._get_check_refs(), and values from looking those keys up in
 
2590
            the repository.
 
2591
        """
 
2592
        tree_basis = self.basis_tree()
 
2593
        tree_basis.lock_read()
 
2594
        try:
 
2595
            repo_basis = references[('trees', self.last_revision())]
 
2596
            if len(list(repo_basis.iter_changes(tree_basis))) > 0:
 
2597
                raise errors.BzrCheckError(
 
2598
                    "Mismatched basis inventory content.")
 
2599
            self._validate()
 
2600
        finally:
 
2601
            tree_basis.unlock()
 
2602
 
 
2603
    def _validate(self):
 
2604
        """Validate internal structures.
 
2605
 
 
2606
        This is meant mostly for the test suite. To give it a chance to detect
 
2607
        corruption after actions have occurred. The default implementation is a
 
2608
        just a no-op.
 
2609
 
 
2610
        :return: None. An exception should be raised if there is an error.
 
2611
        """
 
2612
        return
 
2613
 
 
2614
    def _get_rules_searcher(self, default_searcher):
 
2615
        """See Tree._get_rules_searcher."""
 
2616
        if self._rules_searcher is None:
 
2617
            self._rules_searcher = super(WorkingTree,
 
2618
                self)._get_rules_searcher(default_searcher)
 
2619
        return self._rules_searcher
 
2620
 
 
2621
    def get_shelf_manager(self):
 
2622
        """Return the ShelfManager for this WorkingTree."""
 
2623
        from bzrlib.shelf import ShelfManager
 
2624
        return ShelfManager(self, self._transport)
 
2625
 
1797
2626
 
1798
2627
class WorkingTree2(WorkingTree):
1799
2628
    """This is the Format 2 working tree.
1800
2629
 
1801
 
    This was the first weave based working tree. 
 
2630
    This was the first weave based working tree.
1802
2631
     - uses os locks for locking.
1803
2632
     - uses the branch last-revision.
1804
2633
    """
1805
2634
 
 
2635
    def __init__(self, *args, **kwargs):
 
2636
        super(WorkingTree2, self).__init__(*args, **kwargs)
 
2637
        # WorkingTree2 has more of a constraint that self._inventory must
 
2638
        # exist. Because this is an older format, we don't mind the overhead
 
2639
        # caused by the extra computation here.
 
2640
 
 
2641
        # Newer WorkingTree's should only have self._inventory set when they
 
2642
        # have a read lock.
 
2643
        if self._inventory is None:
 
2644
            self.read_working_inventory()
 
2645
 
 
2646
    def _get_check_refs(self):
 
2647
        """Return the references needed to perform a check of this tree."""
 
2648
        return [('trees', self.last_revision())]
 
2649
 
1806
2650
    def lock_tree_write(self):
1807
2651
        """See WorkingTree.lock_tree_write().
1808
2652
 
1809
2653
        In Format2 WorkingTrees we have a single lock for the branch and tree
1810
2654
        so lock_tree_write() degrades to lock_write().
 
2655
 
 
2656
        :return: An object with an unlock method which will release the lock
 
2657
            obtained.
1811
2658
        """
1812
2659
        self.branch.lock_write()
1813
2660
        try:
1814
 
            return self._control_files.lock_write()
 
2661
            self._control_files.lock_write()
 
2662
            return self
1815
2663
        except:
1816
2664
            self.branch.unlock()
1817
2665
            raise
1818
2666
 
1819
2667
    def unlock(self):
 
2668
        # do non-implementation specific cleanup
 
2669
        self._cleanup()
 
2670
 
1820
2671
        # we share control files:
1821
2672
        if self._control_files._lock_count == 3:
1822
2673
            # _inventory_is_modified is always False during a read lock.
1823
2674
            if self._inventory_is_modified:
1824
2675
                self.flush()
1825
 
            if self._hashcache.needs_write:
1826
 
                self._hashcache.write()
 
2676
            self._write_hashcache_if_dirty()
 
2677
 
1827
2678
        # reverse order of locking.
1828
2679
        try:
1829
2680
            return self._control_files.unlock()
1845
2696
    def _last_revision(self):
1846
2697
        """See Mutable.last_revision."""
1847
2698
        try:
1848
 
            return self._control_files.get_utf8('last-revision').read()
1849
 
        except NoSuchFile:
1850
 
            return None
 
2699
            return self._transport.get_bytes('last-revision')
 
2700
        except errors.NoSuchFile:
 
2701
            return _mod_revision.NULL_REVISION
1851
2702
 
1852
2703
    def _change_last_revision(self, revision_id):
1853
2704
        """See WorkingTree._change_last_revision."""
1854
 
        if revision_id is None or revision_id == NULL_REVISION:
 
2705
        if revision_id is None or revision_id == _mod_revision.NULL_REVISION:
1855
2706
            try:
1856
 
                self._control_files._transport.delete('last-revision')
 
2707
                self._transport.delete('last-revision')
1857
2708
            except errors.NoSuchFile:
1858
2709
                pass
1859
2710
            return False
1860
2711
        else:
1861
 
            self._control_files.put_utf8('last-revision', revision_id)
 
2712
            self._transport.put_bytes('last-revision', revision_id,
 
2713
                mode=self.bzrdir._get_file_mode())
1862
2714
            return True
1863
2715
 
 
2716
    def _get_check_refs(self):
 
2717
        """Return the references needed to perform a check of this tree."""
 
2718
        return [('trees', self.last_revision())]
 
2719
 
1864
2720
    @needs_tree_write_lock
1865
2721
    def set_conflicts(self, conflicts):
1866
 
        self._put_rio('conflicts', conflicts.to_stanzas(), 
 
2722
        self._put_rio('conflicts', conflicts.to_stanzas(),
1867
2723
                      CONFLICT_HEADER_1)
1868
2724
 
1869
2725
    @needs_tree_write_lock
1876
2732
    @needs_read_lock
1877
2733
    def conflicts(self):
1878
2734
        try:
1879
 
            confile = self._control_files.get('conflicts')
1880
 
        except NoSuchFile:
 
2735
            confile = self._transport.get('conflicts')
 
2736
        except errors.NoSuchFile:
1881
2737
            return _mod_conflicts.ConflictList()
1882
2738
        try:
1883
 
            if confile.next() != CONFLICT_HEADER_1 + '\n':
1884
 
                raise ConflictFormatError()
1885
 
        except StopIteration:
1886
 
            raise ConflictFormatError()
1887
 
        return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
 
2739
            try:
 
2740
                if confile.next() != CONFLICT_HEADER_1 + '\n':
 
2741
                    raise errors.ConflictFormatError()
 
2742
            except StopIteration:
 
2743
                raise errors.ConflictFormatError()
 
2744
            return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
 
2745
        finally:
 
2746
            confile.close()
1888
2747
 
1889
2748
    def unlock(self):
 
2749
        # do non-implementation specific cleanup
 
2750
        self._cleanup()
1890
2751
        if self._control_files._lock_count == 1:
1891
2752
            # _inventory_is_modified is always False during a read lock.
1892
2753
            if self._inventory_is_modified:
1893
2754
                self.flush()
1894
 
            if self._hashcache.needs_write:
1895
 
                self._hashcache.write()
 
2755
            self._write_hashcache_if_dirty()
1896
2756
        # reverse order of locking.
1897
2757
        try:
1898
2758
            return self._control_files.unlock()
1905
2765
        if path.endswith(suffix):
1906
2766
            return path[:-len(suffix)]
1907
2767
 
1908
 
@deprecated_function(zero_eight)
1909
 
def is_control_file(filename):
1910
 
    """See WorkingTree.is_control_filename(filename)."""
1911
 
    ## FIXME: better check
1912
 
    filename = normpath(filename)
1913
 
    while filename != '':
1914
 
        head, tail = os.path.split(filename)
1915
 
        ## mutter('check %r for control file' % ((head, tail),))
1916
 
        if tail == '.bzr':
1917
 
            return True
1918
 
        if filename == head:
1919
 
            break
1920
 
        filename = head
1921
 
    return False
1922
 
 
1923
2768
 
1924
2769
class WorkingTreeFormat(object):
1925
2770
    """An encapsulation of the initialization and open routines for a format.
1929
2774
     * a format string,
1930
2775
     * an open routine.
1931
2776
 
1932
 
    Formats are placed in an dict by their format string for reference 
 
2777
    Formats are placed in an dict by their format string for reference
1933
2778
    during workingtree opening. Its not required that these be instances, they
1934
 
    can be classes themselves with class methods - it simply depends on 
 
2779
    can be classes themselves with class methods - it simply depends on
1935
2780
    whether state is needed for a given format or not.
1936
2781
 
1937
2782
    Once a format is deprecated, just deprecate the initialize and open
1938
 
    methods on the format class. Do not deprecate the object, as the 
 
2783
    methods on the format class. Do not deprecate the object, as the
1939
2784
    object will be created every time regardless.
1940
2785
    """
1941
2786
 
1945
2790
    _formats = {}
1946
2791
    """The known formats."""
1947
2792
 
 
2793
    requires_rich_root = False
 
2794
 
 
2795
    upgrade_recommended = False
 
2796
 
1948
2797
    @classmethod
1949
2798
    def find_format(klass, a_bzrdir):
1950
2799
        """Return the format for the working tree object in a_bzrdir."""
1951
2800
        try:
1952
2801
            transport = a_bzrdir.get_workingtree_transport(None)
1953
 
            format_string = transport.get("format").read()
 
2802
            format_string = transport.get_bytes("format")
1954
2803
            return klass._formats[format_string]
1955
 
        except NoSuchFile:
 
2804
        except errors.NoSuchFile:
1956
2805
            raise errors.NoWorkingTree(base=transport.base)
1957
2806
        except KeyError:
1958
 
            raise errors.UnknownFormatError(format=format_string)
 
2807
            raise errors.UnknownFormatError(format=format_string,
 
2808
                                            kind="working tree")
 
2809
 
 
2810
    def __eq__(self, other):
 
2811
        return self.__class__ is other.__class__
 
2812
 
 
2813
    def __ne__(self, other):
 
2814
        return not (self == other)
1959
2815
 
1960
2816
    @classmethod
1961
2817
    def get_default_format(klass):
1974
2830
        """Is this format supported?
1975
2831
 
1976
2832
        Supported formats can be initialized and opened.
1977
 
        Unsupported formats may not support initialization or committing or 
 
2833
        Unsupported formats may not support initialization or committing or
1978
2834
        some other features depending on the reason for not being supported.
1979
2835
        """
1980
2836
        return True
1981
2837
 
 
2838
    def supports_content_filtering(self):
 
2839
        """True if this format supports content filtering."""
 
2840
        return False
 
2841
 
 
2842
    def supports_views(self):
 
2843
        """True if this format supports stored views."""
 
2844
        return False
 
2845
 
1982
2846
    @classmethod
1983
2847
    def register_format(klass, format):
1984
2848
        klass._formats[format.get_format_string()] = format
1989
2853
 
1990
2854
    @classmethod
1991
2855
    def unregister_format(klass, format):
1992
 
        assert klass._formats[format.get_format_string()] is format
1993
2856
        del klass._formats[format.get_format_string()]
1994
2857
 
1995
2858
 
1996
 
 
1997
2859
class WorkingTreeFormat2(WorkingTreeFormat):
1998
 
    """The second working tree format. 
 
2860
    """The second working tree format.
1999
2861
 
2000
2862
    This format modified the hash cache from the format 1 hash cache.
2001
2863
    """
2002
2864
 
 
2865
    upgrade_recommended = True
 
2866
 
2003
2867
    def get_format_description(self):
2004
2868
        """See WorkingTreeFormat.get_format_description()."""
2005
2869
        return "Working tree format 2"
2006
2870
 
2007
 
    def stub_initialize_remote(self, control_files):
2008
 
        """As a special workaround create critical control files for a remote working tree
2009
 
        
 
2871
    def _stub_initialize_on_transport(self, transport, file_mode):
 
2872
        """Workaround: create control files for a remote working tree.
 
2873
 
2010
2874
        This ensures that it can later be updated and dealt with locally,
2011
 
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with 
 
2875
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with
2012
2876
        no working tree.  (See bug #43064).
2013
2877
        """
2014
2878
        sio = StringIO()
2015
 
        inv = Inventory()
2016
 
        xml5.serializer_v5.write_inventory(inv, sio)
 
2879
        inv = inventory.Inventory()
 
2880
        xml5.serializer_v5.write_inventory(inv, sio, working=True)
2017
2881
        sio.seek(0)
2018
 
        control_files.put('inventory', sio)
2019
 
 
2020
 
        control_files.put_utf8('pending-merges', '')
2021
 
        
2022
 
 
2023
 
    def initialize(self, a_bzrdir, revision_id=None):
 
2882
        transport.put_file('inventory', sio, file_mode)
 
2883
        transport.put_bytes('pending-merges', '', file_mode)
 
2884
 
 
2885
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
 
2886
                   accelerator_tree=None, hardlink=False):
2024
2887
        """See WorkingTreeFormat.initialize()."""
2025
2888
        if not isinstance(a_bzrdir.transport, LocalTransport):
2026
2889
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2027
 
        branch = a_bzrdir.open_branch()
2028
 
        if revision_id is not None:
2029
 
            branch.lock_write()
2030
 
            try:
2031
 
                revision_history = branch.revision_history()
2032
 
                try:
2033
 
                    position = revision_history.index(revision_id)
2034
 
                except ValueError:
2035
 
                    raise errors.NoSuchRevision(branch, revision_id)
2036
 
                branch.set_revision_history(revision_history[:position + 1])
2037
 
            finally:
2038
 
                branch.unlock()
2039
 
        revision = branch.last_revision()
2040
 
        inv = Inventory()
 
2890
        if from_branch is not None:
 
2891
            branch = from_branch
 
2892
        else:
 
2893
            branch = a_bzrdir.open_branch()
 
2894
        if revision_id is None:
 
2895
            revision_id = _mod_revision.ensure_null(branch.last_revision())
 
2896
        branch.lock_write()
 
2897
        try:
 
2898
            branch.generate_revision_history(revision_id)
 
2899
        finally:
 
2900
            branch.unlock()
 
2901
        inv = inventory.Inventory()
2041
2902
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
2042
2903
                         branch,
2043
2904
                         inv,
2044
2905
                         _internal=True,
2045
2906
                         _format=self,
2046
2907
                         _bzrdir=a_bzrdir)
2047
 
        basis_tree = branch.repository.revision_tree(revision)
 
2908
        basis_tree = branch.repository.revision_tree(revision_id)
2048
2909
        if basis_tree.inventory.root is not None:
2049
 
            wt.set_root_id(basis_tree.inventory.root.file_id)
 
2910
            wt.set_root_id(basis_tree.get_root_id())
2050
2911
        # set the parent list and cache the basis tree.
2051
 
        wt.set_parent_trees([(revision, basis_tree)])
 
2912
        if _mod_revision.is_null(revision_id):
 
2913
            parent_trees = []
 
2914
        else:
 
2915
            parent_trees = [(revision_id, basis_tree)]
 
2916
        wt.set_parent_trees(parent_trees)
2052
2917
        transform.build_tree(basis_tree, wt)
2053
2918
        return wt
2054
2919
 
2067
2932
            raise NotImplementedError
2068
2933
        if not isinstance(a_bzrdir.transport, LocalTransport):
2069
2934
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2070
 
        return WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
 
2935
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
2071
2936
                           _internal=True,
2072
2937
                           _format=self,
2073
2938
                           _bzrdir=a_bzrdir)
2074
 
 
 
2939
        return wt
2075
2940
 
2076
2941
class WorkingTreeFormat3(WorkingTreeFormat):
2077
2942
    """The second working tree format updated to record a format marker.
2085
2950
        - uses a LockDir to guard access for writes.
2086
2951
    """
2087
2952
 
 
2953
    upgrade_recommended = True
 
2954
 
2088
2955
    def get_format_string(self):
2089
2956
        """See WorkingTreeFormat.get_format_string()."""
2090
2957
        return "Bazaar-NG Working Tree format 3"
2096
2963
    _lock_file_name = 'lock'
2097
2964
    _lock_class = LockDir
2098
2965
 
 
2966
    _tree_class = WorkingTree3
 
2967
 
 
2968
    def __get_matchingbzrdir(self):
 
2969
        return bzrdir.BzrDirMetaFormat1()
 
2970
 
 
2971
    _matchingbzrdir = property(__get_matchingbzrdir)
 
2972
 
2099
2973
    def _open_control_files(self, a_bzrdir):
2100
2974
        transport = a_bzrdir.get_workingtree_transport(None)
2101
 
        return LockableFiles(transport, self._lock_file_name, 
 
2975
        return LockableFiles(transport, self._lock_file_name,
2102
2976
                             self._lock_class)
2103
2977
 
2104
 
    def initialize(self, a_bzrdir, revision_id=None):
 
2978
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
 
2979
                   accelerator_tree=None, hardlink=False):
2105
2980
        """See WorkingTreeFormat.initialize().
2106
 
        
2107
 
        revision_id allows creating a working tree at a different
2108
 
        revision than the branch is at.
 
2981
 
 
2982
        :param revision_id: if supplied, create a working tree at a different
 
2983
            revision than the branch is at.
 
2984
        :param accelerator_tree: A tree which can be used for retrieving file
 
2985
            contents more quickly than the revision tree, i.e. a workingtree.
 
2986
            The revision tree will be used for cases where accelerator_tree's
 
2987
            content is different.
 
2988
        :param hardlink: If true, hard-link files from accelerator_tree,
 
2989
            where possible.
2109
2990
        """
2110
2991
        if not isinstance(a_bzrdir.transport, LocalTransport):
2111
2992
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2113
2994
        control_files = self._open_control_files(a_bzrdir)
2114
2995
        control_files.create_lock()
2115
2996
        control_files.lock_write()
2116
 
        control_files.put_utf8('format', self.get_format_string())
2117
 
        branch = a_bzrdir.open_branch()
 
2997
        transport.put_bytes('format', self.get_format_string(),
 
2998
            mode=a_bzrdir._get_file_mode())
 
2999
        if from_branch is not None:
 
3000
            branch = from_branch
 
3001
        else:
 
3002
            branch = a_bzrdir.open_branch()
2118
3003
        if revision_id is None:
2119
 
            revision_id = branch.last_revision()
 
3004
            revision_id = _mod_revision.ensure_null(branch.last_revision())
2120
3005
        # WorkingTree3 can handle an inventory which has a unique root id.
2121
3006
        # as of bzr 0.12. However, bzr 0.11 and earlier fail to handle
2122
3007
        # those trees. And because there isn't a format bump inbetween, we
2123
3008
        # are maintaining compatibility with older clients.
2124
3009
        # inv = Inventory(root_id=gen_root_id())
2125
 
        inv = Inventory()
2126
 
        wt = WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
 
3010
        inv = self._initial_inventory()
 
3011
        wt = self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
2127
3012
                         branch,
2128
3013
                         inv,
2129
3014
                         _internal=True,
2135
3020
            basis_tree = branch.repository.revision_tree(revision_id)
2136
3021
            # only set an explicit root id if there is one to set.
2137
3022
            if basis_tree.inventory.root is not None:
2138
 
                wt.set_root_id(basis_tree.inventory.root.file_id)
2139
 
            if revision_id == NULL_REVISION:
 
3023
                wt.set_root_id(basis_tree.get_root_id())
 
3024
            if revision_id == _mod_revision.NULL_REVISION:
2140
3025
                wt.set_parent_trees([])
2141
3026
            else:
2142
3027
                wt.set_parent_trees([(revision_id, basis_tree)])
2148
3033
            wt.unlock()
2149
3034
        return wt
2150
3035
 
 
3036
    def _initial_inventory(self):
 
3037
        return inventory.Inventory()
 
3038
 
2151
3039
    def __init__(self):
2152
3040
        super(WorkingTreeFormat3, self).__init__()
2153
 
        self._matchingbzrdir = bzrdir.BzrDirMetaFormat1()
2154
3041
 
2155
3042
    def open(self, a_bzrdir, _found=False):
2156
3043
        """Return the WorkingTree object for a_bzrdir
2163
3050
            raise NotImplementedError
2164
3051
        if not isinstance(a_bzrdir.transport, LocalTransport):
2165
3052
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2166
 
        return self._open(a_bzrdir, self._open_control_files(a_bzrdir))
 
3053
        wt = self._open(a_bzrdir, self._open_control_files(a_bzrdir))
 
3054
        return wt
2167
3055
 
2168
3056
    def _open(self, a_bzrdir, control_files):
2169
3057
        """Open the tree itself.
2170
 
        
 
3058
 
2171
3059
        :param a_bzrdir: the dir for the tree.
2172
3060
        :param control_files: the control files for the tree.
2173
3061
        """
2174
 
        return WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
2175
 
                           _internal=True,
2176
 
                           _format=self,
2177
 
                           _bzrdir=a_bzrdir,
2178
 
                           _control_files=control_files)
 
3062
        return self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
 
3063
                                _internal=True,
 
3064
                                _format=self,
 
3065
                                _bzrdir=a_bzrdir,
 
3066
                                _control_files=control_files)
2179
3067
 
2180
3068
    def __str__(self):
2181
3069
        return self.get_format_string()
2182
3070
 
2183
3071
 
 
3072
__default_format = WorkingTreeFormat6()
 
3073
WorkingTreeFormat.register_format(__default_format)
 
3074
WorkingTreeFormat.register_format(WorkingTreeFormat5())
 
3075
WorkingTreeFormat.register_format(WorkingTreeFormat4())
 
3076
WorkingTreeFormat.register_format(WorkingTreeFormat3())
 
3077
WorkingTreeFormat.set_default_format(__default_format)
2184
3078
# formats which have no format string are not discoverable
2185
3079
# and not independently creatable, so are not registered.
2186
 
__default_format = WorkingTreeFormat3()
2187
 
WorkingTreeFormat.register_format(__default_format)
2188
 
WorkingTreeFormat.set_default_format(__default_format)
2189
3080
_legacy_formats = [WorkingTreeFormat2(),
2190
3081
                   ]
2191
 
 
2192
 
 
2193
 
class WorkingTreeTestProviderAdapter(object):
2194
 
    """A tool to generate a suite testing multiple workingtree formats at once.
2195
 
 
2196
 
    This is done by copying the test once for each transport and injecting
2197
 
    the transport_server, transport_readonly_server, and workingtree_format
2198
 
    classes into each copy. Each copy is also given a new id() to make it
2199
 
    easy to identify.
2200
 
    """
2201
 
 
2202
 
    def __init__(self, transport_server, transport_readonly_server, formats):
2203
 
        self._transport_server = transport_server
2204
 
        self._transport_readonly_server = transport_readonly_server
2205
 
        self._formats = formats
2206
 
    
2207
 
    def _clone_test(self, test, bzrdir_format, workingtree_format, variation):
2208
 
        """Clone test for adaption."""
2209
 
        new_test = deepcopy(test)
2210
 
        new_test.transport_server = self._transport_server
2211
 
        new_test.transport_readonly_server = self._transport_readonly_server
2212
 
        new_test.bzrdir_format = bzrdir_format
2213
 
        new_test.workingtree_format = workingtree_format
2214
 
        def make_new_test_id():
2215
 
            new_id = "%s(%s)" % (test.id(), variation)
2216
 
            return lambda: new_id
2217
 
        new_test.id = make_new_test_id()
2218
 
        return new_test
2219
 
    
2220
 
    def adapt(self, test):
2221
 
        from bzrlib.tests import TestSuite
2222
 
        result = TestSuite()
2223
 
        for workingtree_format, bzrdir_format in self._formats:
2224
 
            new_test = self._clone_test(
2225
 
                test,
2226
 
                bzrdir_format,
2227
 
                workingtree_format, workingtree_format.__class__.__name__)
2228
 
            result.addTest(new_test)
2229
 
        return result