~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: Andrew Bennetts
  • Date: 2008-09-05 10:48:03 UTC
  • mto: This revision was merged to the branch mainline in revision 3693.
  • Revision ID: andrew.bennetts@canonical.com-20080905104803-6g72dz6wcldosfs2
Remove monkey-patching of branch._ensure_real from test_remote.py.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006 Canonical Ltd
2
 
 
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
 
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
 
 
7
#
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
 
 
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
29
29
WorkingTree.open(dir).
30
30
"""
31
31
 
32
 
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
33
 
CONFLICT_HEADER_1 = "BZR conflict list format 1"
34
 
 
35
32
# TODO: Give the workingtree sole responsibility for the working inventory;
36
33
# remove the variable and references to it from the branch.  This may require
37
34
# updating the commit code so as to update the inventory within the working
39
36
# At the moment they may alias the inventory and have old copies of it in
40
37
# memory.  (Now done? -- mbp 20060309)
41
38
 
42
 
from binascii import hexlify
 
39
from cStringIO import StringIO
 
40
import os
 
41
import sys
 
42
 
 
43
from bzrlib.lazy_import import lazy_import
 
44
lazy_import(globals(), """
 
45
from bisect import bisect_left
43
46
import collections
44
 
from copy import deepcopy
45
 
from cStringIO import StringIO
46
47
import errno
47
 
import fnmatch
48
 
import os
49
 
import re
 
48
import itertools
 
49
import operator
50
50
import stat
51
51
from time import time
52
 
 
53
 
from bzrlib.atomicfile import AtomicFile
54
 
from bzrlib.branch import (Branch,
55
 
                           quotefn)
56
 
from bzrlib.conflicts import Conflict, ConflictList, CONFLICT_SUFFIXES
57
 
import bzrlib.bzrdir as bzrdir
 
52
import warnings
 
53
import re
 
54
 
 
55
import bzrlib
 
56
from bzrlib import (
 
57
    branch,
 
58
    bzrdir,
 
59
    conflicts as _mod_conflicts,
 
60
    dirstate,
 
61
    errors,
 
62
    generate_ids,
 
63
    globbing,
 
64
    hashcache,
 
65
    ignores,
 
66
    merge,
 
67
    revision as _mod_revision,
 
68
    revisiontree,
 
69
    repository,
 
70
    textui,
 
71
    trace,
 
72
    transform,
 
73
    ui,
 
74
    urlutils,
 
75
    xml5,
 
76
    xml6,
 
77
    xml7,
 
78
    )
 
79
import bzrlib.branch
 
80
from bzrlib.transport import get_transport
 
81
import bzrlib.ui
 
82
from bzrlib.workingtree_4 import WorkingTreeFormat4
 
83
""")
 
84
 
 
85
from bzrlib import symbol_versioning
58
86
from bzrlib.decorators import needs_read_lock, needs_write_lock
59
 
import bzrlib.errors as errors
60
 
from bzrlib.errors import (BzrCheckError,
61
 
                           BzrError,
62
 
                           ConflictFormatError,
63
 
                           DivergedBranches,
64
 
                           WeaveRevisionNotPresent,
65
 
                           NotBranchError,
66
 
                           NoSuchFile,
67
 
                           NotVersionedError,
68
 
                           MergeModifiedFormatError,
69
 
                           UnsupportedOperation,
70
 
                           )
71
 
from bzrlib.inventory import InventoryEntry, Inventory
 
87
from bzrlib.inventory import InventoryEntry, Inventory, ROOT_ID, TreeReference
72
88
from bzrlib.lockable_files import LockableFiles, TransportLock
73
89
from bzrlib.lockdir import LockDir
74
 
from bzrlib.merge import merge_inner, transform_tree
 
90
import bzrlib.mutabletree
 
91
from bzrlib.mutabletree import needs_tree_write_lock
 
92
from bzrlib import osutils
75
93
from bzrlib.osutils import (
76
 
                            abspath,
77
 
                            compact_date,
78
 
                            file_kind,
79
 
                            isdir,
80
 
                            getcwd,
81
 
                            pathjoin,
82
 
                            pumpfile,
83
 
                            safe_unicode,
84
 
                            splitpath,
85
 
                            rand_chars,
86
 
                            normpath,
87
 
                            realpath,
88
 
                            relpath,
89
 
                            rename,
90
 
                            supports_executable,
91
 
                            )
 
94
    compact_date,
 
95
    file_kind,
 
96
    isdir,
 
97
    normpath,
 
98
    pathjoin,
 
99
    rand_chars,
 
100
    realpath,
 
101
    safe_unicode,
 
102
    splitpath,
 
103
    supports_executable,
 
104
    )
 
105
from bzrlib.trace import mutter, note
 
106
from bzrlib.transport.local import LocalTransport
92
107
from bzrlib.progress import DummyProgress, ProgressPhase
93
 
from bzrlib.revision import NULL_REVISION
 
108
from bzrlib.revision import NULL_REVISION, CURRENT_REVISION
94
109
from bzrlib.rio import RioReader, rio_file, Stanza
95
 
from bzrlib.symbol_versioning import *
96
 
from bzrlib.textui import show_status
97
 
import bzrlib.tree
98
 
from bzrlib.transform import build_tree
99
 
from bzrlib.trace import mutter, note
100
 
from bzrlib.transport import get_transport
101
 
from bzrlib.transport.local import LocalTransport
102
 
import bzrlib.urlutils as urlutils
103
 
import bzrlib.ui
104
 
import bzrlib.xml5
105
 
 
106
 
 
107
 
# the regex here does the following:
108
 
# 1) remove any weird characters; we don't escape them but rather
109
 
# just pull them out
110
 
 # 2) match leading '.'s to make it not hidden
111
 
_gen_file_id_re = re.compile(r'[^\w.]|(^\.*)')
112
 
_gen_id_suffix = None
113
 
_gen_id_serial = 0
114
 
 
115
 
 
116
 
def _next_id_suffix():
117
 
    """Create a new file id suffix that is reasonably unique.
118
 
    
119
 
    On the first call we combine the current time with 64 bits of randomness
120
 
    to give a highly probably globally unique number. Then each call in the same
121
 
    process adds 1 to a serial number we append to that unique value.
122
 
    """
123
 
    # XXX TODO: change bzrlib.add.smart_add to call workingtree.add() rather 
124
 
    # than having to move the id randomness out of the inner loop like this.
125
 
    # XXX TODO: for the global randomness this uses we should add the thread-id
126
 
    # before the serial #.
127
 
    global _gen_id_suffix, _gen_id_serial
128
 
    if _gen_id_suffix is None:
129
 
        _gen_id_suffix = "-%s-%s-" % (compact_date(time()), rand_chars(16))
130
 
    _gen_id_serial += 1
131
 
    return _gen_id_suffix + str(_gen_id_serial)
132
 
 
133
 
 
134
 
def gen_file_id(name):
135
 
    """Return new file id for the basename 'name'.
136
 
 
137
 
    The uniqueness is supplied from _next_id_suffix.
138
 
    """
139
 
    # XXX TODO: squash the filename to lowercase.
140
 
    # XXX TODO: truncate the filename to something like 20 or 30 chars.
141
 
    # XXX TODO: consider what to do with ids that look like illegal filepaths
142
 
    # on platforms we support.
143
 
    return _gen_file_id_re.sub('', name) + _next_id_suffix()
144
 
 
145
 
 
146
 
def gen_root_id():
147
 
    """Return a new tree-root file id."""
148
 
    return gen_file_id('TREE_ROOT')
 
110
from bzrlib.symbol_versioning import (deprecated_passed,
 
111
        deprecated_method,
 
112
        deprecated_function,
 
113
        DEPRECATED_PARAMETER,
 
114
        )
 
115
 
 
116
 
 
117
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
 
118
CONFLICT_HEADER_1 = "BZR conflict list format 1"
 
119
 
 
120
ERROR_PATH_NOT_FOUND = 3    # WindowsError errno code, equivalent to ENOENT
149
121
 
150
122
 
151
123
class TreeEntry(object):
203
175
        return ''
204
176
 
205
177
 
206
 
class WorkingTree(bzrlib.tree.Tree):
 
178
class WorkingTree(bzrlib.mutabletree.MutableTree):
207
179
    """Working copy tree.
208
180
 
209
181
    The inventory is held in the `Branch` working-inventory, and the
220
192
                 _internal=False,
221
193
                 _format=None,
222
194
                 _bzrdir=None):
223
 
        """Construct a WorkingTree for basedir.
 
195
        """Construct a WorkingTree instance. This is not a public API.
224
196
 
225
 
        If the branch is not supplied, it is opened automatically.
226
 
        If the branch is supplied, it must be the branch for this basedir.
227
 
        (branch.base is not cross checked, because for remote branches that
228
 
        would be meaningless).
 
197
        :param branch: A branch to override probing for the branch.
229
198
        """
230
199
        self._format = _format
231
200
        self.bzrdir = _bzrdir
232
201
        if not _internal:
233
 
            # not created via open etc.
234
 
            warn("WorkingTree() is deprecated as of bzr version 0.8. "
235
 
                 "Please use bzrdir.open_workingtree or WorkingTree.open().",
236
 
                 DeprecationWarning,
237
 
                 stacklevel=2)
238
 
            wt = WorkingTree.open(basedir)
239
 
            self._branch = wt.branch
240
 
            self.basedir = wt.basedir
241
 
            self._control_files = wt._control_files
242
 
            self._hashcache = wt._hashcache
243
 
            self._set_inventory(wt._inventory)
244
 
            self._format = wt._format
245
 
            self.bzrdir = wt.bzrdir
246
 
        from bzrlib.hashcache import HashCache
247
 
        from bzrlib.trace import note, mutter
248
 
        assert isinstance(basedir, basestring), \
249
 
            "base directory %r is not a string" % basedir
 
202
            raise errors.BzrError("Please use bzrdir.open_workingtree or "
 
203
                "WorkingTree.open() to obtain a WorkingTree.")
250
204
        basedir = safe_unicode(basedir)
251
205
        mutter("opening working tree %r", basedir)
252
206
        if deprecated_passed(branch):
253
 
            if not _internal:
254
 
                warn("WorkingTree(..., branch=XXX) is deprecated as of bzr 0.8."
255
 
                     " Please use bzrdir.open_workingtree() or"
256
 
                     " WorkingTree.open().",
257
 
                     DeprecationWarning,
258
 
                     stacklevel=2
259
 
                     )
260
207
            self._branch = branch
261
208
        else:
262
209
            self._branch = self.bzrdir.open_branch()
263
 
        assert isinstance(self.branch, Branch), \
264
 
            "branch %r is not a Branch" % self.branch
265
210
        self.basedir = realpath(basedir)
266
211
        # if branch is at our basedir and is a format 6 or less
267
212
        if isinstance(self._format, WorkingTreeFormat2):
268
213
            # share control object
269
214
            self._control_files = self.branch.control_files
270
215
        else:
271
 
            # only ready for format 3
272
 
            assert isinstance(self._format, WorkingTreeFormat3)
273
 
            assert isinstance(_control_files, LockableFiles), \
274
 
                    "_control_files must be a LockableFiles, not %r" \
275
 
                    % _control_files
 
216
            # assume all other formats have their own control files.
276
217
            self._control_files = _control_files
 
218
        self._transport = self._control_files._transport
277
219
        # update the whole cache up front and write to disk if anything changed;
278
220
        # in the future we might want to do this more selectively
279
221
        # two possible ways offer themselves : in self._unlock, write the cache
280
222
        # if needed, or, when the cache sees a change, append it to the hash
281
223
        # cache file, and have the parser take the most recent entry for a
282
224
        # given path only.
283
 
        cache_filename = self.bzrdir.get_workingtree_transport(None).local_abspath('stat-cache')
284
 
        hc = self._hashcache = HashCache(basedir, cache_filename, self._control_files._file_mode)
 
225
        wt_trans = self.bzrdir.get_workingtree_transport(None)
 
226
        cache_filename = wt_trans.local_abspath('stat-cache')
 
227
        self._hashcache = hashcache.HashCache(basedir, cache_filename,
 
228
            self.bzrdir._get_file_mode())
 
229
        hc = self._hashcache
285
230
        hc.read()
286
231
        # is this scan needed ? it makes things kinda slow.
287
232
        #hc.scan()
291
236
            hc.write()
292
237
 
293
238
        if _inventory is None:
294
 
            self._set_inventory(self.read_working_inventory())
295
 
        else:
296
 
            self._set_inventory(_inventory)
 
239
            # This will be acquired on lock_read() or lock_write()
 
240
            self._inventory_is_modified = False
 
241
            self._inventory = None
 
242
        else:
 
243
            # the caller of __init__ has provided an inventory,
 
244
            # we assume they know what they are doing - as its only
 
245
            # the Format factory and creation methods that are
 
246
            # permitted to do this.
 
247
            self._set_inventory(_inventory, dirty=False)
 
248
        self._detect_case_handling()
 
249
        self._rules_searcher = None
 
250
 
 
251
    def _detect_case_handling(self):
 
252
        wt_trans = self.bzrdir.get_workingtree_transport(None)
 
253
        try:
 
254
            wt_trans.stat("FoRMaT")
 
255
        except errors.NoSuchFile:
 
256
            self.case_sensitive = True
 
257
        else:
 
258
            self.case_sensitive = False
 
259
 
 
260
        self._setup_directory_is_tree_reference()
297
261
 
298
262
    branch = property(
299
263
        fget=lambda self: self._branch,
314
278
        self._control_files.break_lock()
315
279
        self.branch.break_lock()
316
280
 
317
 
    def _set_inventory(self, inv):
 
281
    def requires_rich_root(self):
 
282
        return self._format.requires_rich_root
 
283
 
 
284
    def supports_tree_reference(self):
 
285
        return False
 
286
 
 
287
    def _set_inventory(self, inv, dirty):
 
288
        """Set the internal cached inventory.
 
289
 
 
290
        :param inv: The inventory to set.
 
291
        :param dirty: A boolean indicating whether the inventory is the same
 
292
            logical inventory as whats on disk. If True the inventory is not
 
293
            the same and should be written to disk or data will be lost, if
 
294
            False then the inventory is the same as that on disk and any
 
295
            serialisation would be unneeded overhead.
 
296
        """
318
297
        self._inventory = inv
319
 
        self.path2id = self._inventory.path2id
320
 
 
321
 
    def is_control_filename(self, filename):
322
 
        """True if filename is the name of a control file in this tree.
323
 
        
324
 
        :param filename: A filename within the tree. This is a relative path
325
 
        from the root of this tree.
326
 
 
327
 
        This is true IF and ONLY IF the filename is part of the meta data
328
 
        that bzr controls in this tree. I.E. a random .bzr directory placed
329
 
        on disk will not be a control file for this tree.
330
 
        """
331
 
        return self.bzrdir.is_control_filename(filename)
 
298
        self._inventory_is_modified = dirty
332
299
 
333
300
    @staticmethod
334
301
    def open(path=None, _unsupported=False):
354
321
        :return: The WorkingTree that contains 'path', and the rest of path
355
322
        """
356
323
        if path is None:
357
 
            path = os.getcwdu()
 
324
            path = osutils.getcwd()
358
325
        control, relpath = bzrdir.BzrDir.open_containing(path)
359
326
 
360
327
        return control.open_workingtree(), relpath
367
334
        """
368
335
        return WorkingTree.open(path, _unsupported=True)
369
336
 
 
337
    @staticmethod
 
338
    def find_trees(location):
 
339
        def list_current(transport):
 
340
            return [d for d in transport.list_dir('') if d != '.bzr']
 
341
        def evaluate(bzrdir):
 
342
            try:
 
343
                tree = bzrdir.open_workingtree()
 
344
            except errors.NoWorkingTree:
 
345
                return True, None
 
346
            else:
 
347
                return True, tree
 
348
        transport = get_transport(location)
 
349
        iterator = bzrdir.BzrDir.find_bzrdirs(transport, evaluate=evaluate,
 
350
                                              list_current=list_current)
 
351
        return [t for t in iterator if t is not None]
 
352
 
 
353
    # should be deprecated - this is slow and in any case treating them as a
 
354
    # container is (we now know) bad style -- mbp 20070302
 
355
    ## @deprecated_method(zero_fifteen)
370
356
    def __iter__(self):
371
357
        """Iterate through file_ids for this tree.
372
358
 
375
361
        """
376
362
        inv = self._inventory
377
363
        for path, ie in inv.iter_entries():
378
 
            if bzrlib.osutils.lexists(self.abspath(path)):
 
364
            if osutils.lexists(self.abspath(path)):
379
365
                yield ie.file_id
380
366
 
 
367
    def all_file_ids(self):
 
368
        """See Tree.iter_all_file_ids"""
 
369
        return set(self.inventory)
 
370
 
381
371
    def __repr__(self):
382
372
        return "<%s of %s>" % (self.__class__.__name__,
383
373
                               getattr(self, 'basedir', None))
384
374
 
385
375
    def abspath(self, filename):
386
376
        return pathjoin(self.basedir, filename)
387
 
    
 
377
 
388
378
    def basis_tree(self):
389
 
        """Return RevisionTree for the current last revision."""
390
 
        revision_id = self.last_revision()
391
 
        if revision_id is not None:
392
 
            try:
393
 
                xml = self.read_basis_inventory()
394
 
                inv = bzrlib.xml5.serializer_v5.read_inventory_from_string(xml)
395
 
            except NoSuchFile:
396
 
                inv = None
397
 
            if inv is not None and inv.revision_id == revision_id:
398
 
                return bzrlib.tree.RevisionTree(self.branch.repository, inv,
399
 
                                                revision_id)
400
 
        # FIXME? RBC 20060403 should we cache the inventory here ?
401
 
        return self.branch.repository.revision_tree(revision_id)
402
 
 
403
 
    @staticmethod
404
 
    @deprecated_method(zero_eight)
405
 
    def create(branch, directory):
406
 
        """Create a workingtree for branch at directory.
407
 
 
408
 
        If existing_directory already exists it must have a .bzr directory.
409
 
        If it does not exist, it will be created.
410
 
 
411
 
        This returns a new WorkingTree object for the new checkout.
412
 
 
413
 
        TODO FIXME RBC 20060124 when we have checkout formats in place this
414
 
        should accept an optional revisionid to checkout [and reject this if
415
 
        checking out into the same dir as a pre-checkout-aware branch format.]
416
 
 
417
 
        XXX: When BzrDir is present, these should be created through that 
418
 
        interface instead.
419
 
        """
420
 
        warn('delete WorkingTree.create', stacklevel=3)
421
 
        transport = get_transport(directory)
422
 
        if branch.bzrdir.root_transport.base == transport.base:
423
 
            # same dir 
424
 
            return branch.bzrdir.create_workingtree()
425
 
        # different directory, 
426
 
        # create a branch reference
427
 
        # and now a working tree.
428
 
        raise NotImplementedError
429
 
 
430
 
    @staticmethod
431
 
    @deprecated_method(zero_eight)
432
 
    def create_standalone(directory):
433
 
        """Create a checkout and a branch and a repo at directory.
434
 
 
435
 
        Directory must exist and be empty.
436
 
 
437
 
        please use BzrDir.create_standalone_workingtree
438
 
        """
439
 
        return bzrdir.BzrDir.create_standalone_workingtree(directory)
 
379
        """Return RevisionTree for the current last revision.
 
380
        
 
381
        If the left most parent is a ghost then the returned tree will be an
 
382
        empty tree - one obtained by calling 
 
383
        repository.revision_tree(NULL_REVISION).
 
384
        """
 
385
        try:
 
386
            revision_id = self.get_parent_ids()[0]
 
387
        except IndexError:
 
388
            # no parents, return an empty revision tree.
 
389
            # in the future this should return the tree for
 
390
            # 'empty:' - the implicit root empty tree.
 
391
            return self.branch.repository.revision_tree(
 
392
                       _mod_revision.NULL_REVISION)
 
393
        try:
 
394
            return self.revision_tree(revision_id)
 
395
        except errors.NoSuchRevision:
 
396
            pass
 
397
        # No cached copy available, retrieve from the repository.
 
398
        # FIXME? RBC 20060403 should we cache the inventory locally
 
399
        # at this point ?
 
400
        try:
 
401
            return self.branch.repository.revision_tree(revision_id)
 
402
        except (errors.RevisionNotPresent, errors.NoSuchRevision):
 
403
            # the basis tree *may* be a ghost or a low level error may have
 
404
            # occured. If the revision is present, its a problem, if its not
 
405
            # its a ghost.
 
406
            if self.branch.repository.has_revision(revision_id):
 
407
                raise
 
408
            # the basis tree is a ghost so return an empty tree.
 
409
            return self.branch.repository.revision_tree(
 
410
                       _mod_revision.NULL_REVISION)
 
411
 
 
412
    def _cleanup(self):
 
413
        self._flush_ignore_list_cache()
440
414
 
441
415
    def relpath(self, path):
442
416
        """Return the local path portion from a given path.
444
418
        The path may be absolute or relative. If its a relative path it is 
445
419
        interpreted relative to the python current working directory.
446
420
        """
447
 
        return relpath(self.basedir, path)
 
421
        return osutils.relpath(self.basedir, path)
448
422
 
449
423
    def has_filename(self, filename):
450
 
        return bzrlib.osutils.lexists(self.abspath(filename))
451
 
 
452
 
    def get_file(self, file_id):
453
 
        return self.get_file_byname(self.id2path(file_id))
 
424
        return osutils.lexists(self.abspath(filename))
 
425
 
 
426
    def get_file(self, file_id, path=None):
 
427
        if path is None:
 
428
            path = self.id2path(file_id)
 
429
        return self.get_file_byname(path)
 
430
 
 
431
    def get_file_text(self, file_id):
 
432
        return self.get_file(file_id).read()
454
433
 
455
434
    def get_file_byname(self, filename):
456
435
        return file(self.abspath(filename), 'rb')
457
436
 
 
437
    @needs_read_lock
 
438
    def annotate_iter(self, file_id, default_revision=CURRENT_REVISION):
 
439
        """See Tree.annotate_iter
 
440
 
 
441
        This implementation will use the basis tree implementation if possible.
 
442
        Lines not in the basis are attributed to CURRENT_REVISION
 
443
 
 
444
        If there are pending merges, lines added by those merges will be
 
445
        incorrectly attributed to CURRENT_REVISION (but after committing, the
 
446
        attribution will be correct).
 
447
        """
 
448
        basis = self.basis_tree()
 
449
        basis.lock_read()
 
450
        try:
 
451
            changes = self.iter_changes(basis, True, [self.id2path(file_id)],
 
452
                require_versioned=True).next()
 
453
            changed_content, kind = changes[2], changes[6]
 
454
            if not changed_content:
 
455
                return basis.annotate_iter(file_id)
 
456
            if kind[1] is None:
 
457
                return None
 
458
            import annotate
 
459
            if kind[0] != 'file':
 
460
                old_lines = []
 
461
            else:
 
462
                old_lines = list(basis.annotate_iter(file_id))
 
463
            old = [old_lines]
 
464
            for tree in self.branch.repository.revision_trees(
 
465
                self.get_parent_ids()[1:]):
 
466
                if file_id not in tree:
 
467
                    continue
 
468
                old.append(list(tree.annotate_iter(file_id)))
 
469
            return annotate.reannotate(old, self.get_file(file_id).readlines(),
 
470
                                       default_revision)
 
471
        finally:
 
472
            basis.unlock()
 
473
 
 
474
    def _get_ancestors(self, default_revision):
 
475
        ancestors = set([default_revision])
 
476
        for parent_id in self.get_parent_ids():
 
477
            ancestors.update(self.branch.repository.get_ancestry(
 
478
                             parent_id, topo_sorted=False))
 
479
        return ancestors
 
480
 
 
481
    def get_parent_ids(self):
 
482
        """See Tree.get_parent_ids.
 
483
        
 
484
        This implementation reads the pending merges list and last_revision
 
485
        value and uses that to decide what the parents list should be.
 
486
        """
 
487
        last_rev = _mod_revision.ensure_null(self._last_revision())
 
488
        if _mod_revision.NULL_REVISION == last_rev:
 
489
            parents = []
 
490
        else:
 
491
            parents = [last_rev]
 
492
        try:
 
493
            merges_file = self._transport.get('pending-merges')
 
494
        except errors.NoSuchFile:
 
495
            pass
 
496
        else:
 
497
            for l in merges_file.readlines():
 
498
                revision_id = l.rstrip('\n')
 
499
                parents.append(revision_id)
 
500
        return parents
 
501
 
 
502
    @needs_read_lock
458
503
    def get_root_id(self):
459
504
        """Return the id of this trees root"""
460
 
        inv = self.read_working_inventory()
461
 
        return inv.root.file_id
 
505
        return self._inventory.root.file_id
462
506
        
463
507
    def _get_store_filename(self, file_id):
464
508
        ## XXX: badly named; this is not in the store at all
465
509
        return self.abspath(self.id2path(file_id))
466
510
 
467
511
    @needs_read_lock
468
 
    def clone(self, to_bzrdir, revision_id=None, basis=None):
 
512
    def clone(self, to_bzrdir, revision_id=None):
469
513
        """Duplicate this working tree into to_bzr, including all state.
470
514
        
471
515
        Specifically modified files are kept as modified, but
477
521
            If not None, the cloned tree will have its last revision set to 
478
522
            revision, and and difference between the source trees last revision
479
523
            and this one merged in.
480
 
 
481
 
        basis
482
 
            If not None, a closer copy of a tree which may have some files in
483
 
            common, and which file content should be preferentially copied from.
484
524
        """
485
525
        # assumes the target bzr dir format is compatible.
486
 
        result = self._format.initialize(to_bzrdir)
 
526
        result = to_bzrdir.create_workingtree()
487
527
        self.copy_content_into(result, revision_id)
488
528
        return result
489
529
 
490
530
    @needs_read_lock
491
531
    def copy_content_into(self, tree, revision_id=None):
492
532
        """Copy the current content and user files of this tree into tree."""
 
533
        tree.set_root_id(self.get_root_id())
493
534
        if revision_id is None:
494
 
            transform_tree(tree, self)
 
535
            merge.transform_tree(tree, self)
495
536
        else:
496
 
            # TODO now merge from tree.last_revision to revision
497
 
            transform_tree(tree, self)
498
 
            tree.set_last_revision(revision_id)
499
 
 
500
 
    @needs_write_lock
501
 
    def commit(self, message=None, revprops=None, *args, **kwargs):
502
 
        # avoid circular imports
503
 
        from bzrlib.commit import Commit
504
 
        if revprops is None:
505
 
            revprops = {}
506
 
        if not 'branch-nick' in revprops:
507
 
            revprops['branch-nick'] = self.branch.nick
508
 
        # args for wt.commit start at message from the Commit.commit method,
509
 
        # but with branch a kwarg now, passing in args as is results in the
510
 
        #message being used for the branch
511
 
        args = (DEPRECATED_PARAMETER, message, ) + args
512
 
        committed_id = Commit().commit( working_tree=self, revprops=revprops,
513
 
            *args, **kwargs)
514
 
        self._set_inventory(self.read_working_inventory())
515
 
        return committed_id
 
537
            # TODO now merge from tree.last_revision to revision (to preserve
 
538
            # user local changes)
 
539
            merge.transform_tree(tree, self)
 
540
            tree.set_parent_ids([revision_id])
516
541
 
517
542
    def id2abspath(self, file_id):
518
543
        return self.abspath(self.id2path(file_id))
519
544
 
520
545
    def has_id(self, file_id):
521
546
        # files that have been deleted are excluded
522
 
        inv = self._inventory
 
547
        inv = self.inventory
523
548
        if not inv.has_id(file_id):
524
549
            return False
525
550
        path = inv.id2path(file_id)
526
 
        return bzrlib.osutils.lexists(self.abspath(path))
 
551
        return osutils.lexists(self.abspath(path))
527
552
 
528
553
    def has_or_had_id(self, file_id):
529
554
        if file_id == self.inventory.root.file_id:
533
558
    __contains__ = has_id
534
559
 
535
560
    def get_file_size(self, file_id):
536
 
        return os.path.getsize(self.id2abspath(file_id))
 
561
        """See Tree.get_file_size"""
 
562
        try:
 
563
            return os.path.getsize(self.id2abspath(file_id))
 
564
        except OSError, e:
 
565
            if e.errno != errno.ENOENT:
 
566
                raise
 
567
            else:
 
568
                return None
537
569
 
538
570
    @needs_read_lock
539
 
    def get_file_sha1(self, file_id, path=None):
 
571
    def get_file_sha1(self, file_id, path=None, stat_value=None):
540
572
        if not path:
541
573
            path = self._inventory.id2path(file_id)
542
 
        return self._hashcache.get_sha1(path)
 
574
        return self._hashcache.get_sha1(path, stat_value)
543
575
 
544
576
    def get_file_mtime(self, file_id, path=None):
545
577
        if not path:
546
 
            path = self._inventory.id2path(file_id)
 
578
            path = self.inventory.id2path(file_id)
547
579
        return os.lstat(self.abspath(path)).st_mtime
548
580
 
 
581
    def _is_executable_from_path_and_stat_from_basis(self, path, stat_result):
 
582
        file_id = self.path2id(path)
 
583
        return self._inventory[file_id].executable
 
584
 
 
585
    def _is_executable_from_path_and_stat_from_stat(self, path, stat_result):
 
586
        mode = stat_result.st_mode
 
587
        return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
 
588
 
549
589
    if not supports_executable():
550
590
        def is_executable(self, file_id, path=None):
551
591
            return self._inventory[file_id].executable
 
592
 
 
593
        _is_executable_from_path_and_stat = \
 
594
            _is_executable_from_path_and_stat_from_basis
552
595
    else:
553
596
        def is_executable(self, file_id, path=None):
554
597
            if not path:
555
 
                path = self._inventory.id2path(file_id)
 
598
                path = self.id2path(file_id)
556
599
            mode = os.lstat(self.abspath(path)).st_mode
557
600
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
558
601
 
559
 
    @needs_write_lock
560
 
    def add(self, files, ids=None):
561
 
        """Make files versioned.
562
 
 
563
 
        Note that the command line normally calls smart_add instead,
564
 
        which can automatically recurse.
565
 
 
566
 
        This adds the files to the inventory, so that they will be
567
 
        recorded by the next commit.
568
 
 
569
 
        files
570
 
            List of paths to add, relative to the base of the tree.
571
 
 
572
 
        ids
573
 
            If set, use these instead of automatically generated ids.
574
 
            Must be the same length as the list of files, but may
575
 
            contain None for ids that are to be autogenerated.
576
 
 
577
 
        TODO: Perhaps have an option to add the ids even if the files do
578
 
              not (yet) exist.
579
 
 
580
 
        TODO: Perhaps callback with the ids and paths as they're added.
581
 
        """
 
602
        _is_executable_from_path_and_stat = \
 
603
            _is_executable_from_path_and_stat_from_stat
 
604
 
 
605
    @needs_tree_write_lock
 
606
    def _add(self, files, ids, kinds):
 
607
        """See MutableTree._add."""
582
608
        # TODO: Re-adding a file that is removed in the working copy
583
609
        # should probably put it back with the previous ID.
584
 
        if isinstance(files, basestring):
585
 
            assert(ids is None or isinstance(ids, basestring))
586
 
            files = [files]
587
 
            if ids is not None:
588
 
                ids = [ids]
589
 
 
590
 
        if ids is None:
591
 
            ids = [None] * len(files)
592
 
        else:
593
 
            assert(len(ids) == len(files))
594
 
 
595
 
        inv = self.read_working_inventory()
596
 
        for f,file_id in zip(files, ids):
597
 
            if self.is_control_filename(f):
598
 
                raise BzrError("cannot add control file %s" % quotefn(f))
599
 
 
600
 
            fp = splitpath(f)
601
 
 
602
 
            if len(fp) == 0:
603
 
                raise BzrError("cannot add top-level %r" % f)
604
 
 
605
 
            fullpath = normpath(self.abspath(f))
606
 
 
607
 
            try:
608
 
                kind = file_kind(fullpath)
609
 
            except OSError, e:
610
 
                if e.errno == errno.ENOENT:
611
 
                    raise NoSuchFile(fullpath)
612
 
                # maybe something better?
613
 
                raise BzrError('cannot add: not a regular file, symlink or directory: %s' % quotefn(f))
614
 
 
615
 
            if not InventoryEntry.versionable_kind(kind):
616
 
                raise BzrError('cannot add: not a versionable file ('
617
 
                               'i.e. regular file, symlink or directory): %s' % quotefn(f))
618
 
 
 
610
        # the read and write working inventory should not occur in this 
 
611
        # function - they should be part of lock_write and unlock.
 
612
        inv = self.inventory
 
613
        for f, file_id, kind in zip(files, ids, kinds):
619
614
            if file_id is None:
620
615
                inv.add_path(f, kind=kind)
621
616
            else:
622
617
                inv.add_path(f, kind=kind, file_id=file_id)
 
618
            self._inventory_is_modified = True
623
619
 
624
 
        self._write_inventory(inv)
 
620
    @needs_tree_write_lock
 
621
    def _gather_kinds(self, files, kinds):
 
622
        """See MutableTree._gather_kinds."""
 
623
        for pos, f in enumerate(files):
 
624
            if kinds[pos] is None:
 
625
                fullpath = normpath(self.abspath(f))
 
626
                try:
 
627
                    kinds[pos] = file_kind(fullpath)
 
628
                except OSError, e:
 
629
                    if e.errno == errno.ENOENT:
 
630
                        raise errors.NoSuchFile(fullpath)
625
631
 
626
632
    @needs_write_lock
 
633
    def add_parent_tree_id(self, revision_id, allow_leftmost_as_ghost=False):
 
634
        """Add revision_id as a parent.
 
635
 
 
636
        This is equivalent to retrieving the current list of parent ids
 
637
        and setting the list to its value plus revision_id.
 
638
 
 
639
        :param revision_id: The revision id to add to the parent list. It may
 
640
        be a ghost revision as long as its not the first parent to be added,
 
641
        or the allow_leftmost_as_ghost parameter is set True.
 
642
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
 
643
        """
 
644
        parents = self.get_parent_ids() + [revision_id]
 
645
        self.set_parent_ids(parents, allow_leftmost_as_ghost=len(parents) > 1
 
646
            or allow_leftmost_as_ghost)
 
647
 
 
648
    @needs_tree_write_lock
 
649
    def add_parent_tree(self, parent_tuple, allow_leftmost_as_ghost=False):
 
650
        """Add revision_id, tree tuple as a parent.
 
651
 
 
652
        This is equivalent to retrieving the current list of parent trees
 
653
        and setting the list to its value plus parent_tuple. See also
 
654
        add_parent_tree_id - if you only have a parent id available it will be
 
655
        simpler to use that api. If you have the parent already available, using
 
656
        this api is preferred.
 
657
 
 
658
        :param parent_tuple: The (revision id, tree) to add to the parent list.
 
659
            If the revision_id is a ghost, pass None for the tree.
 
660
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
 
661
        """
 
662
        parent_ids = self.get_parent_ids() + [parent_tuple[0]]
 
663
        if len(parent_ids) > 1:
 
664
            # the leftmost may have already been a ghost, preserve that if it
 
665
            # was.
 
666
            allow_leftmost_as_ghost = True
 
667
        self.set_parent_ids(parent_ids,
 
668
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
669
 
 
670
    @needs_tree_write_lock
627
671
    def add_pending_merge(self, *revision_ids):
628
672
        # TODO: Perhaps should check at this point that the
629
673
        # history of the revision is actually present?
630
 
        p = self.pending_merges()
 
674
        parents = self.get_parent_ids()
631
675
        updated = False
632
676
        for rev_id in revision_ids:
633
 
            if rev_id in p:
 
677
            if rev_id in parents:
634
678
                continue
635
 
            p.append(rev_id)
 
679
            parents.append(rev_id)
636
680
            updated = True
637
681
        if updated:
638
 
            self.set_pending_merges(p)
639
 
 
640
 
    @needs_read_lock
641
 
    def pending_merges(self):
642
 
        """Return a list of pending merges.
643
 
 
644
 
        These are revisions that have been merged into the working
645
 
        directory but not yet committed.
646
 
        """
 
682
            self.set_parent_ids(parents, allow_leftmost_as_ghost=True)
 
683
 
 
684
    def path_content_summary(self, path, _lstat=os.lstat,
 
685
        _mapper=osutils.file_kind_from_stat_mode):
 
686
        """See Tree.path_content_summary."""
 
687
        abspath = self.abspath(path)
647
688
        try:
648
 
            merges_file = self._control_files.get_utf8('pending-merges')
 
689
            stat_result = _lstat(abspath)
649
690
        except OSError, e:
650
 
            if e.errno != errno.ENOENT:
651
 
                raise
652
 
            return []
653
 
        p = []
654
 
        for l in merges_file.readlines():
655
 
            p.append(l.rstrip('\n'))
656
 
        return p
657
 
 
658
 
    @needs_write_lock
 
691
            if getattr(e, 'errno', None) == errno.ENOENT:
 
692
                # no file.
 
693
                return ('missing', None, None, None)
 
694
            # propagate other errors
 
695
            raise
 
696
        kind = _mapper(stat_result.st_mode)
 
697
        if kind == 'file':
 
698
            size = stat_result.st_size
 
699
            # try for a stat cache lookup
 
700
            executable = self._is_executable_from_path_and_stat(path, stat_result)
 
701
            return (kind, size, executable, self._sha_from_stat(
 
702
                path, stat_result))
 
703
        elif kind == 'directory':
 
704
            # perhaps it looks like a plain directory, but it's really a
 
705
            # reference.
 
706
            if self._directory_is_tree_reference(path):
 
707
                kind = 'tree-reference'
 
708
            return kind, None, None, None
 
709
        elif kind == 'symlink':
 
710
            return ('symlink', None, None, os.readlink(abspath))
 
711
        else:
 
712
            return (kind, None, None, None)
 
713
 
 
714
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
 
715
        """Common ghost checking functionality from set_parent_*.
 
716
 
 
717
        This checks that the left hand-parent exists if there are any
 
718
        revisions present.
 
719
        """
 
720
        if len(revision_ids) > 0:
 
721
            leftmost_id = revision_ids[0]
 
722
            if (not allow_leftmost_as_ghost and not
 
723
                self.branch.repository.has_revision(leftmost_id)):
 
724
                raise errors.GhostRevisionUnusableHere(leftmost_id)
 
725
 
 
726
    def _set_merges_from_parent_ids(self, parent_ids):
 
727
        merges = parent_ids[1:]
 
728
        self._transport.put_bytes('pending-merges', '\n'.join(merges),
 
729
            mode=self._control_files._file_mode)
 
730
 
 
731
    def _filter_parent_ids_by_ancestry(self, revision_ids):
 
732
        """Check that all merged revisions are proper 'heads'.
 
733
 
 
734
        This will always return the first revision_id, and any merged revisions
 
735
        which are 
 
736
        """
 
737
        if len(revision_ids) == 0:
 
738
            return revision_ids
 
739
        graph = self.branch.repository.get_graph()
 
740
        heads = graph.heads(revision_ids)
 
741
        new_revision_ids = revision_ids[:1]
 
742
        for revision_id in revision_ids[1:]:
 
743
            if revision_id in heads and revision_id not in new_revision_ids:
 
744
                new_revision_ids.append(revision_id)
 
745
        if new_revision_ids != revision_ids:
 
746
            trace.mutter('requested to set revision_ids = %s,'
 
747
                         ' but filtered to %s', revision_ids, new_revision_ids)
 
748
        return new_revision_ids
 
749
 
 
750
    @needs_tree_write_lock
 
751
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
 
752
        """Set the parent ids to revision_ids.
 
753
        
 
754
        See also set_parent_trees. This api will try to retrieve the tree data
 
755
        for each element of revision_ids from the trees repository. If you have
 
756
        tree data already available, it is more efficient to use
 
757
        set_parent_trees rather than set_parent_ids. set_parent_ids is however
 
758
        an easier API to use.
 
759
 
 
760
        :param revision_ids: The revision_ids to set as the parent ids of this
 
761
            working tree. Any of these may be ghosts.
 
762
        """
 
763
        self._check_parents_for_ghosts(revision_ids,
 
764
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
765
        for revision_id in revision_ids:
 
766
            _mod_revision.check_not_reserved_id(revision_id)
 
767
 
 
768
        revision_ids = self._filter_parent_ids_by_ancestry(revision_ids)
 
769
 
 
770
        if len(revision_ids) > 0:
 
771
            self.set_last_revision(revision_ids[0])
 
772
        else:
 
773
            self.set_last_revision(_mod_revision.NULL_REVISION)
 
774
 
 
775
        self._set_merges_from_parent_ids(revision_ids)
 
776
 
 
777
    @needs_tree_write_lock
 
778
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
 
779
        """See MutableTree.set_parent_trees."""
 
780
        parent_ids = [rev for (rev, tree) in parents_list]
 
781
        for revision_id in parent_ids:
 
782
            _mod_revision.check_not_reserved_id(revision_id)
 
783
 
 
784
        self._check_parents_for_ghosts(parent_ids,
 
785
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
786
 
 
787
        parent_ids = self._filter_parent_ids_by_ancestry(parent_ids)
 
788
 
 
789
        if len(parent_ids) == 0:
 
790
            leftmost_parent_id = _mod_revision.NULL_REVISION
 
791
            leftmost_parent_tree = None
 
792
        else:
 
793
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
 
794
 
 
795
        if self._change_last_revision(leftmost_parent_id):
 
796
            if leftmost_parent_tree is None:
 
797
                # If we don't have a tree, fall back to reading the
 
798
                # parent tree from the repository.
 
799
                self._cache_basis_inventory(leftmost_parent_id)
 
800
            else:
 
801
                inv = leftmost_parent_tree.inventory
 
802
                xml = self._create_basis_xml_from_inventory(
 
803
                                        leftmost_parent_id, inv)
 
804
                self._write_basis_inventory(xml)
 
805
        self._set_merges_from_parent_ids(parent_ids)
 
806
 
 
807
    @needs_tree_write_lock
659
808
    def set_pending_merges(self, rev_list):
660
 
        self._control_files.put_utf8('pending-merges', '\n'.join(rev_list))
 
809
        parents = self.get_parent_ids()
 
810
        leftmost = parents[:1]
 
811
        new_parents = leftmost + rev_list
 
812
        self.set_parent_ids(new_parents)
661
813
 
662
 
    @needs_write_lock
 
814
    @needs_tree_write_lock
663
815
    def set_merge_modified(self, modified_hashes):
664
816
        def iter_stanzas():
665
817
            for file_id, hash in modified_hashes.iteritems():
666
 
                yield Stanza(file_id=file_id, hash=hash)
 
818
                yield Stanza(file_id=file_id.decode('utf8'), hash=hash)
667
819
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
668
820
 
669
 
    @needs_write_lock
 
821
    def _sha_from_stat(self, path, stat_result):
 
822
        """Get a sha digest from the tree's stat cache.
 
823
 
 
824
        The default implementation assumes no stat cache is present.
 
825
 
 
826
        :param path: The path.
 
827
        :param stat_result: The stat result being looked up.
 
828
        """
 
829
        return None
 
830
 
670
831
    def _put_rio(self, filename, stanzas, header):
 
832
        self._must_be_locked()
671
833
        my_file = rio_file(stanzas, header)
672
 
        self._control_files.put(filename, my_file)
 
834
        self._transport.put_file(filename, my_file,
 
835
            mode=self._control_files._file_mode)
 
836
 
 
837
    @needs_write_lock # because merge pulls data into the branch.
 
838
    def merge_from_branch(self, branch, to_revision=None, from_revision=None,
 
839
        merge_type=None):
 
840
        """Merge from a branch into this working tree.
 
841
 
 
842
        :param branch: The branch to merge from.
 
843
        :param to_revision: If non-None, the merge will merge to to_revision,
 
844
            but not beyond it. to_revision does not need to be in the history
 
845
            of the branch when it is supplied. If None, to_revision defaults to
 
846
            branch.last_revision().
 
847
        """
 
848
        from bzrlib.merge import Merger, Merge3Merger
 
849
        pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
850
        try:
 
851
            merger = Merger(self.branch, this_tree=self, pb=pb)
 
852
            merger.pp = ProgressPhase("Merge phase", 5, pb)
 
853
            merger.pp.next_phase()
 
854
            # check that there are no
 
855
            # local alterations
 
856
            merger.check_basis(check_clean=True, require_commits=False)
 
857
            if to_revision is None:
 
858
                to_revision = _mod_revision.ensure_null(branch.last_revision())
 
859
            merger.other_rev_id = to_revision
 
860
            if _mod_revision.is_null(merger.other_rev_id):
 
861
                raise errors.NoCommits(branch)
 
862
            self.branch.fetch(branch, last_revision=merger.other_rev_id)
 
863
            merger.other_basis = merger.other_rev_id
 
864
            merger.other_tree = self.branch.repository.revision_tree(
 
865
                merger.other_rev_id)
 
866
            merger.other_branch = branch
 
867
            merger.pp.next_phase()
 
868
            if from_revision is None:
 
869
                merger.find_base()
 
870
            else:
 
871
                merger.set_base_revision(from_revision, branch)
 
872
            if merger.base_rev_id == merger.other_rev_id:
 
873
                raise errors.PointlessMerge
 
874
            merger.backup_files = False
 
875
            if merge_type is None:
 
876
                merger.merge_type = Merge3Merger
 
877
            else:
 
878
                merger.merge_type = merge_type
 
879
            merger.set_interesting_files(None)
 
880
            merger.show_base = False
 
881
            merger.reprocess = False
 
882
            conflicts = merger.do_merge()
 
883
            merger.set_pending()
 
884
        finally:
 
885
            pb.finished()
 
886
        return conflicts
673
887
 
674
888
    @needs_read_lock
675
889
    def merge_modified(self):
 
890
        """Return a dictionary of files modified by a merge.
 
891
 
 
892
        The list is initialized by WorkingTree.set_merge_modified, which is 
 
893
        typically called after we make some automatic updates to the tree
 
894
        because of a merge.
 
895
 
 
896
        This returns a map of file_id->sha1, containing only files which are
 
897
        still in the working inventory and have that text hash.
 
898
        """
676
899
        try:
677
 
            hashfile = self._control_files.get('merge-hashes')
678
 
        except NoSuchFile:
 
900
            hashfile = self._transport.get('merge-hashes')
 
901
        except errors.NoSuchFile:
679
902
            return {}
680
 
        merge_hashes = {}
681
903
        try:
682
 
            if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
683
 
                raise MergeModifiedFormatError()
684
 
        except StopIteration:
685
 
            raise MergeModifiedFormatError()
686
 
        for s in RioReader(hashfile):
687
 
            file_id = s.get("file_id")
688
 
            if file_id not in self.inventory:
689
 
                continue
690
 
            hash = s.get("hash")
691
 
            if hash == self.get_file_sha1(file_id):
692
 
                merge_hashes[file_id] = hash
693
 
        return merge_hashes
 
904
            merge_hashes = {}
 
905
            try:
 
906
                if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
 
907
                    raise errors.MergeModifiedFormatError()
 
908
            except StopIteration:
 
909
                raise errors.MergeModifiedFormatError()
 
910
            for s in RioReader(hashfile):
 
911
                # RioReader reads in Unicode, so convert file_ids back to utf8
 
912
                file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
 
913
                if file_id not in self.inventory:
 
914
                    continue
 
915
                text_hash = s.get("hash")
 
916
                if text_hash == self.get_file_sha1(file_id):
 
917
                    merge_hashes[file_id] = text_hash
 
918
            return merge_hashes
 
919
        finally:
 
920
            hashfile.close()
 
921
 
 
922
    @needs_write_lock
 
923
    def mkdir(self, path, file_id=None):
 
924
        """See MutableTree.mkdir()."""
 
925
        if file_id is None:
 
926
            file_id = generate_ids.gen_file_id(os.path.basename(path))
 
927
        os.mkdir(self.abspath(path))
 
928
        self.add(path, file_id, 'directory')
 
929
        return file_id
694
930
 
695
931
    def get_symlink_target(self, file_id):
696
932
        return os.readlink(self.id2abspath(file_id))
697
933
 
698
 
    def file_class(self, filename):
699
 
        if self.path2id(filename):
700
 
            return 'V'
701
 
        elif self.is_ignored(filename):
702
 
            return 'I'
703
 
        else:
704
 
            return '?'
705
 
 
706
 
    def list_files(self):
 
934
    @needs_write_lock
 
935
    def subsume(self, other_tree):
 
936
        def add_children(inventory, entry):
 
937
            for child_entry in entry.children.values():
 
938
                inventory._byid[child_entry.file_id] = child_entry
 
939
                if child_entry.kind == 'directory':
 
940
                    add_children(inventory, child_entry)
 
941
        if other_tree.get_root_id() == self.get_root_id():
 
942
            raise errors.BadSubsumeSource(self, other_tree,
 
943
                                          'Trees have the same root')
 
944
        try:
 
945
            other_tree_path = self.relpath(other_tree.basedir)
 
946
        except errors.PathNotChild:
 
947
            raise errors.BadSubsumeSource(self, other_tree,
 
948
                'Tree is not contained by the other')
 
949
        new_root_parent = self.path2id(osutils.dirname(other_tree_path))
 
950
        if new_root_parent is None:
 
951
            raise errors.BadSubsumeSource(self, other_tree,
 
952
                'Parent directory is not versioned.')
 
953
        # We need to ensure that the result of a fetch will have a
 
954
        # versionedfile for the other_tree root, and only fetching into
 
955
        # RepositoryKnit2 guarantees that.
 
956
        if not self.branch.repository.supports_rich_root():
 
957
            raise errors.SubsumeTargetNeedsUpgrade(other_tree)
 
958
        other_tree.lock_tree_write()
 
959
        try:
 
960
            new_parents = other_tree.get_parent_ids()
 
961
            other_root = other_tree.inventory.root
 
962
            other_root.parent_id = new_root_parent
 
963
            other_root.name = osutils.basename(other_tree_path)
 
964
            self.inventory.add(other_root)
 
965
            add_children(self.inventory, other_root)
 
966
            self._write_inventory(self.inventory)
 
967
            # normally we don't want to fetch whole repositories, but i think
 
968
            # here we really do want to consolidate the whole thing.
 
969
            for parent_id in other_tree.get_parent_ids():
 
970
                self.branch.fetch(other_tree.branch, parent_id)
 
971
                self.add_parent_tree_id(parent_id)
 
972
        finally:
 
973
            other_tree.unlock()
 
974
        other_tree.bzrdir.retire_bzrdir()
 
975
 
 
976
    def _setup_directory_is_tree_reference(self):
 
977
        if self._branch.repository._format.supports_tree_reference:
 
978
            self._directory_is_tree_reference = \
 
979
                self._directory_may_be_tree_reference
 
980
        else:
 
981
            self._directory_is_tree_reference = \
 
982
                self._directory_is_never_tree_reference
 
983
 
 
984
    def _directory_is_never_tree_reference(self, relpath):
 
985
        return False
 
986
 
 
987
    def _directory_may_be_tree_reference(self, relpath):
 
988
        # as a special case, if a directory contains control files then 
 
989
        # it's a tree reference, except that the root of the tree is not
 
990
        return relpath and osutils.isdir(self.abspath(relpath) + u"/.bzr")
 
991
        # TODO: We could ask all the control formats whether they
 
992
        # recognize this directory, but at the moment there's no cheap api
 
993
        # to do that.  Since we probably can only nest bzr checkouts and
 
994
        # they always use this name it's ok for now.  -- mbp 20060306
 
995
        #
 
996
        # FIXME: There is an unhandled case here of a subdirectory
 
997
        # containing .bzr but not a branch; that will probably blow up
 
998
        # when you try to commit it.  It might happen if there is a
 
999
        # checkout in a subdirectory.  This can be avoided by not adding
 
1000
        # it.  mbp 20070306
 
1001
 
 
1002
    @needs_tree_write_lock
 
1003
    def extract(self, file_id, format=None):
 
1004
        """Extract a subtree from this tree.
 
1005
        
 
1006
        A new branch will be created, relative to the path for this tree.
 
1007
        """
 
1008
        self.flush()
 
1009
        def mkdirs(path):
 
1010
            segments = osutils.splitpath(path)
 
1011
            transport = self.branch.bzrdir.root_transport
 
1012
            for name in segments:
 
1013
                transport = transport.clone(name)
 
1014
                transport.ensure_base()
 
1015
            return transport
 
1016
            
 
1017
        sub_path = self.id2path(file_id)
 
1018
        branch_transport = mkdirs(sub_path)
 
1019
        if format is None:
 
1020
            format = self.bzrdir.cloning_metadir()
 
1021
        branch_transport.ensure_base()
 
1022
        branch_bzrdir = format.initialize_on_transport(branch_transport)
 
1023
        try:
 
1024
            repo = branch_bzrdir.find_repository()
 
1025
        except errors.NoRepositoryPresent:
 
1026
            repo = branch_bzrdir.create_repository()
 
1027
        if not repo.supports_rich_root():
 
1028
            raise errors.RootNotRich()
 
1029
        new_branch = branch_bzrdir.create_branch()
 
1030
        new_branch.pull(self.branch)
 
1031
        for parent_id in self.get_parent_ids():
 
1032
            new_branch.fetch(self.branch, parent_id)
 
1033
        tree_transport = self.bzrdir.root_transport.clone(sub_path)
 
1034
        if tree_transport.base != branch_transport.base:
 
1035
            tree_bzrdir = format.initialize_on_transport(tree_transport)
 
1036
            branch.BranchReferenceFormat().initialize(tree_bzrdir, new_branch)
 
1037
        else:
 
1038
            tree_bzrdir = branch_bzrdir
 
1039
        wt = tree_bzrdir.create_workingtree(NULL_REVISION)
 
1040
        wt.set_parent_ids(self.get_parent_ids())
 
1041
        my_inv = self.inventory
 
1042
        child_inv = Inventory(root_id=None)
 
1043
        new_root = my_inv[file_id]
 
1044
        my_inv.remove_recursive_id(file_id)
 
1045
        new_root.parent_id = None
 
1046
        child_inv.add(new_root)
 
1047
        self._write_inventory(my_inv)
 
1048
        wt._write_inventory(child_inv)
 
1049
        return wt
 
1050
 
 
1051
    def _serialize(self, inventory, out_file):
 
1052
        xml5.serializer_v5.write_inventory(self._inventory, out_file,
 
1053
            working=True)
 
1054
 
 
1055
    def _deserialize(selt, in_file):
 
1056
        return xml5.serializer_v5.read_inventory(in_file)
 
1057
 
 
1058
    def flush(self):
 
1059
        """Write the in memory inventory to disk."""
 
1060
        # TODO: Maybe this should only write on dirty ?
 
1061
        if self._control_files._lock_mode != 'w':
 
1062
            raise errors.NotWriteLocked(self)
 
1063
        sio = StringIO()
 
1064
        self._serialize(self._inventory, sio)
 
1065
        sio.seek(0)
 
1066
        self._transport.put_file('inventory', sio,
 
1067
            mode=self._control_files._file_mode)
 
1068
        self._inventory_is_modified = False
 
1069
 
 
1070
    def _kind(self, relpath):
 
1071
        return osutils.file_kind(self.abspath(relpath))
 
1072
 
 
1073
    def list_files(self, include_root=False):
707
1074
        """Recursively list all files as (path, class, kind, id, entry).
708
1075
 
709
1076
        Lists, but does not descend into unversioned directories.
713
1080
 
714
1081
        Skips the control directory.
715
1082
        """
716
 
        inv = self._inventory
 
1083
        # list_files is an iterator, so @needs_read_lock doesn't work properly
 
1084
        # with it. So callers should be careful to always read_lock the tree.
 
1085
        if not self.is_locked():
 
1086
            raise errors.ObjectNotLocked(self)
 
1087
 
 
1088
        inv = self.inventory
 
1089
        if include_root is True:
 
1090
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
717
1091
        # Convert these into local objects to save lookup times
718
 
        pathjoin = bzrlib.osutils.pathjoin
719
 
        file_kind = bzrlib.osutils.file_kind
 
1092
        pathjoin = osutils.pathjoin
 
1093
        file_kind = self._kind
720
1094
 
721
1095
        # transport.base ends in a slash, we want the piece
722
1096
        # between the last two slashes
760
1134
                elif self.is_ignored(fp[1:]):
761
1135
                    c = 'I'
762
1136
                else:
763
 
                    c = '?'
 
1137
                    # we may not have found this file, because of a unicode issue
 
1138
                    f_norm, can_access = osutils.normalized_filename(f)
 
1139
                    if f == f_norm or not can_access:
 
1140
                        # No change, so treat this file normally
 
1141
                        c = '?'
 
1142
                    else:
 
1143
                        # this file can be accessed by a normalized path
 
1144
                        # check again if it is versioned
 
1145
                        # these lines are repeated here for performance
 
1146
                        f = f_norm
 
1147
                        fp = from_dir_relpath + '/' + f
 
1148
                        fap = from_dir_abspath + '/' + f
 
1149
                        f_ie = inv.get_child(from_dir_id, f)
 
1150
                        if f_ie:
 
1151
                            c = 'V'
 
1152
                        elif self.is_ignored(fp[1:]):
 
1153
                            c = 'I'
 
1154
                        else:
 
1155
                            c = '?'
764
1156
 
765
1157
                fk = file_kind(fap)
766
1158
 
767
 
                if f_ie:
768
 
                    if f_ie.kind != fk:
769
 
                        raise BzrCheckError("file %r entered as kind %r id %r, "
770
 
                                            "now of kind %r"
771
 
                                            % (fap, f_ie.kind, f_ie.file_id, fk))
772
 
 
773
1159
                # make a last minute entry
774
1160
                if f_ie:
775
1161
                    yield fp[1:], c, fk, f_ie.file_id, f_ie
788
1174
                new_children.sort()
789
1175
                new_children = collections.deque(new_children)
790
1176
                stack.append((f_ie.file_id, fp, fap, new_children))
791
 
                # Break out of inner loop, so that we start outer loop with child
 
1177
                # Break out of inner loop,
 
1178
                # so that we start outer loop with child
792
1179
                break
793
1180
            else:
794
1181
                # if we finished all children, pop it off the stack
795
1182
                stack.pop()
796
1183
 
797
 
 
798
 
    @needs_write_lock
799
 
    def move(self, from_paths, to_name):
 
1184
    @needs_tree_write_lock
 
1185
    def move(self, from_paths, to_dir=None, after=False, **kwargs):
800
1186
        """Rename files.
801
1187
 
802
 
        to_name must exist in the inventory.
 
1188
        to_dir must exist in the inventory.
803
1189
 
804
 
        If to_name exists and is a directory, the files are moved into
 
1190
        If to_dir exists and is a directory, the files are moved into
805
1191
        it, keeping their old names.  
806
1192
 
807
 
        Note that to_name is only the last component of the new name;
 
1193
        Note that to_dir is only the last component of the new name;
808
1194
        this doesn't change the directory.
809
1195
 
 
1196
        For each entry in from_paths the move mode will be determined
 
1197
        independently.
 
1198
 
 
1199
        The first mode moves the file in the filesystem and updates the
 
1200
        inventory. The second mode only updates the inventory without
 
1201
        touching the file on the filesystem. This is the new mode introduced
 
1202
        in version 0.15.
 
1203
 
 
1204
        move uses the second mode if 'after == True' and the target is not
 
1205
        versioned but present in the working tree.
 
1206
 
 
1207
        move uses the second mode if 'after == False' and the source is
 
1208
        versioned but no longer in the working tree, and the target is not
 
1209
        versioned but present in the working tree.
 
1210
 
 
1211
        move uses the first mode if 'after == False' and the source is
 
1212
        versioned and present in the working tree, and the target is not
 
1213
        versioned and not present in the working tree.
 
1214
 
 
1215
        Everything else results in an error.
 
1216
 
810
1217
        This returns a list of (from_path, to_path) pairs for each
811
1218
        entry that is moved.
812
1219
        """
813
 
        result = []
814
 
        ## TODO: Option to move IDs only
815
 
        assert not isinstance(from_paths, basestring)
 
1220
        rename_entries = []
 
1221
        rename_tuples = []
 
1222
 
 
1223
        # check for deprecated use of signature
 
1224
        if to_dir is None:
 
1225
            to_dir = kwargs.get('to_name', None)
 
1226
            if to_dir is None:
 
1227
                raise TypeError('You must supply a target directory')
 
1228
            else:
 
1229
                symbol_versioning.warn('The parameter to_name was deprecated'
 
1230
                                       ' in version 0.13. Use to_dir instead',
 
1231
                                       DeprecationWarning)
 
1232
 
 
1233
        # check destination directory
 
1234
        if isinstance(from_paths, basestring):
 
1235
            raise ValueError()
816
1236
        inv = self.inventory
817
 
        to_abs = self.abspath(to_name)
 
1237
        to_abs = self.abspath(to_dir)
818
1238
        if not isdir(to_abs):
819
 
            raise BzrError("destination %r is not a directory" % to_abs)
820
 
        if not self.has_filename(to_name):
821
 
            raise BzrError("destination %r not in working directory" % to_abs)
822
 
        to_dir_id = inv.path2id(to_name)
823
 
        if to_dir_id == None and to_name != '':
824
 
            raise BzrError("destination %r is not a versioned directory" % to_name)
 
1239
            raise errors.BzrMoveFailedError('',to_dir,
 
1240
                errors.NotADirectory(to_abs))
 
1241
        if not self.has_filename(to_dir):
 
1242
            raise errors.BzrMoveFailedError('',to_dir,
 
1243
                errors.NotInWorkingDirectory(to_dir))
 
1244
        to_dir_id = inv.path2id(to_dir)
 
1245
        if to_dir_id is None:
 
1246
            raise errors.BzrMoveFailedError('',to_dir,
 
1247
                errors.NotVersionedError(path=str(to_dir)))
 
1248
 
825
1249
        to_dir_ie = inv[to_dir_id]
826
 
        if to_dir_ie.kind not in ('directory', 'root_directory'):
827
 
            raise BzrError("destination %r is not a directory" % to_abs)
828
 
 
829
 
        to_idpath = inv.get_idpath(to_dir_id)
830
 
 
831
 
        for f in from_paths:
832
 
            if not self.has_filename(f):
833
 
                raise BzrError("%r does not exist in working tree" % f)
834
 
            f_id = inv.path2id(f)
835
 
            if f_id == None:
836
 
                raise BzrError("%r is not versioned" % f)
837
 
            name_tail = splitpath(f)[-1]
838
 
            dest_path = pathjoin(to_name, name_tail)
839
 
            if self.has_filename(dest_path):
840
 
                raise BzrError("destination %r already exists" % dest_path)
841
 
            if f_id in to_idpath:
842
 
                raise BzrError("can't move %r to a subdirectory of itself" % f)
843
 
 
844
 
        # OK, so there's a race here, it's possible that someone will
845
 
        # create a file in this interval and then the rename might be
846
 
        # left half-done.  But we should have caught most problems.
847
 
        orig_inv = deepcopy(self.inventory)
 
1250
        if to_dir_ie.kind != 'directory':
 
1251
            raise errors.BzrMoveFailedError('',to_dir,
 
1252
                errors.NotADirectory(to_abs))
 
1253
 
 
1254
        # create rename entries and tuples
 
1255
        for from_rel in from_paths:
 
1256
            from_tail = splitpath(from_rel)[-1]
 
1257
            from_id = inv.path2id(from_rel)
 
1258
            if from_id is None:
 
1259
                raise errors.BzrMoveFailedError(from_rel,to_dir,
 
1260
                    errors.NotVersionedError(path=str(from_rel)))
 
1261
 
 
1262
            from_entry = inv[from_id]
 
1263
            from_parent_id = from_entry.parent_id
 
1264
            to_rel = pathjoin(to_dir, from_tail)
 
1265
            rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
 
1266
                                         from_id=from_id,
 
1267
                                         from_tail=from_tail,
 
1268
                                         from_parent_id=from_parent_id,
 
1269
                                         to_rel=to_rel, to_tail=from_tail,
 
1270
                                         to_parent_id=to_dir_id)
 
1271
            rename_entries.append(rename_entry)
 
1272
            rename_tuples.append((from_rel, to_rel))
 
1273
 
 
1274
        # determine which move mode to use. checks also for movability
 
1275
        rename_entries = self._determine_mv_mode(rename_entries, after)
 
1276
 
 
1277
        original_modified = self._inventory_is_modified
848
1278
        try:
849
 
            for f in from_paths:
850
 
                name_tail = splitpath(f)[-1]
851
 
                dest_path = pathjoin(to_name, name_tail)
852
 
                result.append((f, dest_path))
853
 
                inv.rename(inv.path2id(f), to_dir_id, name_tail)
854
 
                try:
855
 
                    rename(self.abspath(f), self.abspath(dest_path))
856
 
                except OSError, e:
857
 
                    raise BzrError("failed to rename %r to %r: %s" %
858
 
                                   (f, dest_path, e[1]),
859
 
                            ["rename rolled back"])
 
1279
            if len(from_paths):
 
1280
                self._inventory_is_modified = True
 
1281
            self._move(rename_entries)
860
1282
        except:
861
1283
            # restore the inventory on error
862
 
            self._set_inventory(orig_inv)
 
1284
            self._inventory_is_modified = original_modified
863
1285
            raise
864
1286
        self._write_inventory(inv)
865
 
        return result
866
 
 
867
 
    @needs_write_lock
868
 
    def rename_one(self, from_rel, to_rel):
 
1287
        return rename_tuples
 
1288
 
 
1289
    def _determine_mv_mode(self, rename_entries, after=False):
 
1290
        """Determines for each from-to pair if both inventory and working tree
 
1291
        or only the inventory has to be changed.
 
1292
 
 
1293
        Also does basic plausability tests.
 
1294
        """
 
1295
        inv = self.inventory
 
1296
 
 
1297
        for rename_entry in rename_entries:
 
1298
            # store to local variables for easier reference
 
1299
            from_rel = rename_entry.from_rel
 
1300
            from_id = rename_entry.from_id
 
1301
            to_rel = rename_entry.to_rel
 
1302
            to_id = inv.path2id(to_rel)
 
1303
            only_change_inv = False
 
1304
 
 
1305
            # check the inventory for source and destination
 
1306
            if from_id is None:
 
1307
                raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1308
                    errors.NotVersionedError(path=str(from_rel)))
 
1309
            if to_id is not None:
 
1310
                raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1311
                    errors.AlreadyVersionedError(path=str(to_rel)))
 
1312
 
 
1313
            # try to determine the mode for rename (only change inv or change
 
1314
            # inv and file system)
 
1315
            if after:
 
1316
                if not self.has_filename(to_rel):
 
1317
                    raise errors.BzrMoveFailedError(from_id,to_rel,
 
1318
                        errors.NoSuchFile(path=str(to_rel),
 
1319
                        extra="New file has not been created yet"))
 
1320
                only_change_inv = True
 
1321
            elif not self.has_filename(from_rel) and self.has_filename(to_rel):
 
1322
                only_change_inv = True
 
1323
            elif self.has_filename(from_rel) and not self.has_filename(to_rel):
 
1324
                only_change_inv = False
 
1325
            elif (not self.case_sensitive
 
1326
                  and from_rel.lower() == to_rel.lower()
 
1327
                  and self.has_filename(from_rel)):
 
1328
                only_change_inv = False
 
1329
            else:
 
1330
                # something is wrong, so lets determine what exactly
 
1331
                if not self.has_filename(from_rel) and \
 
1332
                   not self.has_filename(to_rel):
 
1333
                    raise errors.BzrRenameFailedError(from_rel,to_rel,
 
1334
                        errors.PathsDoNotExist(paths=(str(from_rel),
 
1335
                        str(to_rel))))
 
1336
                else:
 
1337
                    raise errors.RenameFailedFilesExist(from_rel, to_rel)
 
1338
            rename_entry.only_change_inv = only_change_inv
 
1339
        return rename_entries
 
1340
 
 
1341
    def _move(self, rename_entries):
 
1342
        """Moves a list of files.
 
1343
 
 
1344
        Depending on the value of the flag 'only_change_inv', the
 
1345
        file will be moved on the file system or not.
 
1346
        """
 
1347
        inv = self.inventory
 
1348
        moved = []
 
1349
 
 
1350
        for entry in rename_entries:
 
1351
            try:
 
1352
                self._move_entry(entry)
 
1353
            except:
 
1354
                self._rollback_move(moved)
 
1355
                raise
 
1356
            moved.append(entry)
 
1357
 
 
1358
    def _rollback_move(self, moved):
 
1359
        """Try to rollback a previous move in case of an filesystem error."""
 
1360
        inv = self.inventory
 
1361
        for entry in moved:
 
1362
            try:
 
1363
                self._move_entry(_RenameEntry(entry.to_rel, entry.from_id,
 
1364
                    entry.to_tail, entry.to_parent_id, entry.from_rel,
 
1365
                    entry.from_tail, entry.from_parent_id,
 
1366
                    entry.only_change_inv))
 
1367
            except errors.BzrMoveFailedError, e:
 
1368
                raise errors.BzrMoveFailedError( '', '', "Rollback failed."
 
1369
                        " The working tree is in an inconsistent state."
 
1370
                        " Please consider doing a 'bzr revert'."
 
1371
                        " Error message is: %s" % e)
 
1372
 
 
1373
    def _move_entry(self, entry):
 
1374
        inv = self.inventory
 
1375
        from_rel_abs = self.abspath(entry.from_rel)
 
1376
        to_rel_abs = self.abspath(entry.to_rel)
 
1377
        if from_rel_abs == to_rel_abs:
 
1378
            raise errors.BzrMoveFailedError(entry.from_rel, entry.to_rel,
 
1379
                "Source and target are identical.")
 
1380
 
 
1381
        if not entry.only_change_inv:
 
1382
            try:
 
1383
                osutils.rename(from_rel_abs, to_rel_abs)
 
1384
            except OSError, e:
 
1385
                raise errors.BzrMoveFailedError(entry.from_rel,
 
1386
                    entry.to_rel, e[1])
 
1387
        inv.rename(entry.from_id, entry.to_parent_id, entry.to_tail)
 
1388
 
 
1389
    @needs_tree_write_lock
 
1390
    def rename_one(self, from_rel, to_rel, after=False):
869
1391
        """Rename one file.
870
1392
 
871
1393
        This can change the directory or the filename or both.
 
1394
 
 
1395
        rename_one has several 'modes' to work. First, it can rename a physical
 
1396
        file and change the file_id. That is the normal mode. Second, it can
 
1397
        only change the file_id without touching any physical file. This is
 
1398
        the new mode introduced in version 0.15.
 
1399
 
 
1400
        rename_one uses the second mode if 'after == True' and 'to_rel' is not
 
1401
        versioned but present in the working tree.
 
1402
 
 
1403
        rename_one uses the second mode if 'after == False' and 'from_rel' is
 
1404
        versioned but no longer in the working tree, and 'to_rel' is not
 
1405
        versioned but present in the working tree.
 
1406
 
 
1407
        rename_one uses the first mode if 'after == False' and 'from_rel' is
 
1408
        versioned and present in the working tree, and 'to_rel' is not
 
1409
        versioned and not present in the working tree.
 
1410
 
 
1411
        Everything else results in an error.
872
1412
        """
873
1413
        inv = self.inventory
874
 
        if not self.has_filename(from_rel):
875
 
            raise BzrError("can't rename: old working file %r does not exist" % from_rel)
876
 
        if self.has_filename(to_rel):
877
 
            raise BzrError("can't rename: new working file %r already exists" % to_rel)
878
 
 
879
 
        file_id = inv.path2id(from_rel)
880
 
        if file_id == None:
881
 
            raise BzrError("can't rename: old name %r is not versioned" % from_rel)
882
 
 
883
 
        entry = inv[file_id]
884
 
        from_parent = entry.parent_id
885
 
        from_name = entry.name
886
 
        
887
 
        if inv.path2id(to_rel):
888
 
            raise BzrError("can't rename: new name %r is already versioned" % to_rel)
889
 
 
 
1414
        rename_entries = []
 
1415
 
 
1416
        # create rename entries and tuples
 
1417
        from_tail = splitpath(from_rel)[-1]
 
1418
        from_id = inv.path2id(from_rel)
 
1419
        if from_id is None:
 
1420
            raise errors.BzrRenameFailedError(from_rel,to_rel,
 
1421
                errors.NotVersionedError(path=str(from_rel)))
 
1422
        from_entry = inv[from_id]
 
1423
        from_parent_id = from_entry.parent_id
890
1424
        to_dir, to_tail = os.path.split(to_rel)
891
1425
        to_dir_id = inv.path2id(to_dir)
892
 
        if to_dir_id == None and to_dir != '':
893
 
            raise BzrError("can't determine destination directory id for %r" % to_dir)
894
 
 
895
 
        mutter("rename_one:")
896
 
        mutter("  file_id    {%s}" % file_id)
897
 
        mutter("  from_rel   %r" % from_rel)
898
 
        mutter("  to_rel     %r" % to_rel)
899
 
        mutter("  to_dir     %r" % to_dir)
900
 
        mutter("  to_dir_id  {%s}" % to_dir_id)
901
 
 
902
 
        inv.rename(file_id, to_dir_id, to_tail)
903
 
 
904
 
        from_abs = self.abspath(from_rel)
905
 
        to_abs = self.abspath(to_rel)
906
 
        try:
907
 
            rename(from_abs, to_abs)
908
 
        except OSError, e:
909
 
            inv.rename(file_id, from_parent, from_name)
910
 
            raise BzrError("failed to rename %r to %r: %s"
911
 
                    % (from_abs, to_abs, e[1]),
912
 
                    ["rename rolled back"])
 
1426
        rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
 
1427
                                     from_id=from_id,
 
1428
                                     from_tail=from_tail,
 
1429
                                     from_parent_id=from_parent_id,
 
1430
                                     to_rel=to_rel, to_tail=to_tail,
 
1431
                                     to_parent_id=to_dir_id)
 
1432
        rename_entries.append(rename_entry)
 
1433
 
 
1434
        # determine which move mode to use. checks also for movability
 
1435
        rename_entries = self._determine_mv_mode(rename_entries, after)
 
1436
 
 
1437
        # check if the target changed directory and if the target directory is
 
1438
        # versioned
 
1439
        if to_dir_id is None:
 
1440
            raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1441
                errors.NotVersionedError(path=str(to_dir)))
 
1442
 
 
1443
        # all checks done. now we can continue with our actual work
 
1444
        mutter('rename_one:\n'
 
1445
               '  from_id   {%s}\n'
 
1446
               '  from_rel: %r\n'
 
1447
               '  to_rel:   %r\n'
 
1448
               '  to_dir    %r\n'
 
1449
               '  to_dir_id {%s}\n',
 
1450
               from_id, from_rel, to_rel, to_dir, to_dir_id)
 
1451
 
 
1452
        self._move(rename_entries)
913
1453
        self._write_inventory(inv)
914
1454
 
 
1455
    class _RenameEntry(object):
 
1456
        def __init__(self, from_rel, from_id, from_tail, from_parent_id,
 
1457
                     to_rel, to_tail, to_parent_id, only_change_inv=False):
 
1458
            self.from_rel = from_rel
 
1459
            self.from_id = from_id
 
1460
            self.from_tail = from_tail
 
1461
            self.from_parent_id = from_parent_id
 
1462
            self.to_rel = to_rel
 
1463
            self.to_tail = to_tail
 
1464
            self.to_parent_id = to_parent_id
 
1465
            self.only_change_inv = only_change_inv
 
1466
 
915
1467
    @needs_read_lock
916
1468
    def unknowns(self):
917
1469
        """Return all unknown files.
918
1470
 
919
1471
        These are files in the working directory that are not versioned or
920
1472
        control files or ignored.
921
 
        
922
 
        >>> from bzrlib.bzrdir import ScratchDir
923
 
        >>> d = ScratchDir(files=['foo', 'foo~'])
924
 
        >>> b = d.open_branch()
925
 
        >>> tree = d.open_workingtree()
926
 
        >>> map(str, tree.unknowns())
927
 
        ['foo']
928
 
        >>> tree.add('foo')
929
 
        >>> list(b.unknowns())
930
 
        []
931
 
        >>> tree.remove('foo')
932
 
        >>> list(b.unknowns())
933
 
        [u'foo']
934
 
        """
935
 
        for subp in self.extras():
936
 
            if not self.is_ignored(subp):
937
 
                yield subp
938
 
 
939
 
    @deprecated_method(zero_eight)
940
 
    def iter_conflicts(self):
941
 
        """List all files in the tree that have text or content conflicts.
942
 
        DEPRECATED.  Use conflicts instead."""
943
 
        return self._iter_conflicts()
944
 
 
 
1473
        """
 
1474
        # force the extras method to be fully executed before returning, to 
 
1475
        # prevent race conditions with the lock
 
1476
        return iter(
 
1477
            [subp for subp in self.extras() if not self.is_ignored(subp)])
 
1478
 
 
1479
    @needs_tree_write_lock
 
1480
    def unversion(self, file_ids):
 
1481
        """Remove the file ids in file_ids from the current versioned set.
 
1482
 
 
1483
        When a file_id is unversioned, all of its children are automatically
 
1484
        unversioned.
 
1485
 
 
1486
        :param file_ids: The file ids to stop versioning.
 
1487
        :raises: NoSuchId if any fileid is not currently versioned.
 
1488
        """
 
1489
        for file_id in file_ids:
 
1490
            if self._inventory.has_id(file_id):
 
1491
                self._inventory.remove_recursive_id(file_id)
 
1492
            else:
 
1493
                raise errors.NoSuchId(self, file_id)
 
1494
        if len(file_ids):
 
1495
            # in the future this should just set a dirty bit to wait for the 
 
1496
            # final unlock. However, until all methods of workingtree start
 
1497
            # with the current in -memory inventory rather than triggering 
 
1498
            # a read, it is more complex - we need to teach read_inventory
 
1499
            # to know when to read, and when to not read first... and possibly
 
1500
            # to save first when the in memory one may be corrupted.
 
1501
            # so for now, we just only write it if it is indeed dirty.
 
1502
            # - RBC 20060907
 
1503
            self._write_inventory(self._inventory)
 
1504
    
945
1505
    def _iter_conflicts(self):
946
1506
        conflicted = set()
947
1507
        for info in self.list_files():
954
1514
                yield stem
955
1515
 
956
1516
    @needs_write_lock
957
 
    def pull(self, source, overwrite=False, stop_revision=None):
 
1517
    def pull(self, source, overwrite=False, stop_revision=None,
 
1518
             change_reporter=None, possible_transports=None):
958
1519
        top_pb = bzrlib.ui.ui_factory.nested_progress_bar()
959
1520
        source.lock_read()
960
1521
        try:
961
1522
            pp = ProgressPhase("Pull phase", 2, top_pb)
962
1523
            pp.next_phase()
963
 
            old_revision_history = self.branch.revision_history()
 
1524
            old_revision_info = self.branch.last_revision_info()
964
1525
            basis_tree = self.basis_tree()
965
 
            count = self.branch.pull(source, overwrite, stop_revision)
966
 
            new_revision_history = self.branch.revision_history()
967
 
            if new_revision_history != old_revision_history:
 
1526
            count = self.branch.pull(source, overwrite, stop_revision,
 
1527
                                     possible_transports=possible_transports)
 
1528
            new_revision_info = self.branch.last_revision_info()
 
1529
            if new_revision_info != old_revision_info:
968
1530
                pp.next_phase()
969
 
                if len(old_revision_history):
970
 
                    other_revision = old_revision_history[-1]
971
 
                else:
972
 
                    other_revision = None
973
1531
                repository = self.branch.repository
974
1532
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
1533
                basis_tree.lock_read()
975
1534
                try:
976
 
                    merge_inner(self.branch,
977
 
                                self.branch.basis_tree(),
978
 
                                basis_tree, 
979
 
                                this_tree=self, 
980
 
                                pb=pb)
 
1535
                    new_basis_tree = self.branch.basis_tree()
 
1536
                    merge.merge_inner(
 
1537
                                self.branch,
 
1538
                                new_basis_tree,
 
1539
                                basis_tree,
 
1540
                                this_tree=self,
 
1541
                                pb=pb,
 
1542
                                change_reporter=change_reporter)
 
1543
                    if (basis_tree.inventory.root is None and
 
1544
                        new_basis_tree.inventory.root is not None):
 
1545
                        self.set_root_id(new_basis_tree.get_root_id())
981
1546
                finally:
982
1547
                    pb.finished()
983
 
                self.set_last_revision(self.branch.last_revision())
 
1548
                    basis_tree.unlock()
 
1549
                # TODO - dedup parents list with things merged by pull ?
 
1550
                # reuse the revisiontree we merged against to set the new
 
1551
                # tree data.
 
1552
                parent_trees = [(self.branch.last_revision(), new_basis_tree)]
 
1553
                # we have to pull the merge trees out again, because 
 
1554
                # merge_inner has set the ids. - this corner is not yet 
 
1555
                # layered well enough to prevent double handling.
 
1556
                # XXX TODO: Fix the double handling: telling the tree about
 
1557
                # the already known parent data is wasteful.
 
1558
                merges = self.get_parent_ids()[1:]
 
1559
                parent_trees.extend([
 
1560
                    (parent, repository.revision_tree(parent)) for
 
1561
                     parent in merges])
 
1562
                self.set_parent_trees(parent_trees)
984
1563
            return count
985
1564
        finally:
986
1565
            source.unlock()
987
1566
            top_pb.finished()
988
1567
 
 
1568
    @needs_write_lock
 
1569
    def put_file_bytes_non_atomic(self, file_id, bytes):
 
1570
        """See MutableTree.put_file_bytes_non_atomic."""
 
1571
        stream = file(self.id2abspath(file_id), 'wb')
 
1572
        try:
 
1573
            stream.write(bytes)
 
1574
        finally:
 
1575
            stream.close()
 
1576
        # TODO: update the hashcache here ?
 
1577
 
989
1578
    def extras(self):
990
 
        """Yield all unknown files in this WorkingTree.
 
1579
        """Yield all unversioned files in this WorkingTree.
991
1580
 
992
 
        If there are any unknown directories then only the directory is
993
 
        returned, not all its children.  But if there are unknown files
 
1581
        If there are any unversioned directories then only the directory is
 
1582
        returned, not all its children.  But if there are unversioned files
994
1583
        under a versioned subdirectory, they are returned.
995
1584
 
996
1585
        Currently returned depth-first, sorted by name within directories.
 
1586
        This is the same order used by 'osutils.walkdirs'.
997
1587
        """
998
1588
        ## TODO: Work from given directory downwards
999
1589
        for path, dir_entry in self.inventory.directories():
1000
 
            mutter("search for unknowns in %r", path)
 
1590
            # mutter("search for unknowns in %r", path)
1001
1591
            dirabs = self.abspath(path)
1002
1592
            if not isdir(dirabs):
1003
1593
                # e.g. directory deleted
1005
1595
 
1006
1596
            fl = []
1007
1597
            for subf in os.listdir(dirabs):
1008
 
                if (subf != '.bzr'
1009
 
                    and (subf not in dir_entry.children)):
1010
 
                    fl.append(subf)
 
1598
                if subf == '.bzr':
 
1599
                    continue
 
1600
                if subf not in dir_entry.children:
 
1601
                    try:
 
1602
                        (subf_norm,
 
1603
                         can_access) = osutils.normalized_filename(subf)
 
1604
                    except UnicodeDecodeError:
 
1605
                        path_os_enc = path.encode(osutils._fs_enc)
 
1606
                        relpath = path_os_enc + '/' + subf
 
1607
                        raise errors.BadFilenameEncoding(relpath,
 
1608
                                                         osutils._fs_enc)
 
1609
                    if subf_norm != subf and can_access:
 
1610
                        if subf_norm not in dir_entry.children:
 
1611
                            fl.append(subf_norm)
 
1612
                    else:
 
1613
                        fl.append(subf)
1011
1614
            
1012
1615
            fl.sort()
1013
1616
            for subf in fl:
1014
1617
                subp = pathjoin(path, subf)
1015
1618
                yield subp
1016
1619
 
1017
 
    def _translate_ignore_rule(self, rule):
1018
 
        """Translate a single ignore rule to a regex.
1019
 
 
1020
 
        There are two types of ignore rules.  Those that do not contain a / are
1021
 
        matched against the tail of the filename (that is, they do not care
1022
 
        what directory the file is in.)  Rules which do contain a slash must
1023
 
        match the entire path.  As a special case, './' at the start of the
1024
 
        string counts as a slash in the string but is removed before matching
1025
 
        (e.g. ./foo.c, ./src/foo.c)
1026
 
 
1027
 
        :return: The translated regex.
1028
 
        """
1029
 
        if rule[:2] in ('./', '.\\'):
1030
 
            # rootdir rule
1031
 
            result = fnmatch.translate(rule[2:])
1032
 
        elif '/' in rule or '\\' in rule:
1033
 
            # path prefix 
1034
 
            result = fnmatch.translate(rule)
1035
 
        else:
1036
 
            # default rule style.
1037
 
            result = "(?:.*/)?(?!.*/)" + fnmatch.translate(rule)
1038
 
        assert result[-1] == '$', "fnmatch.translate did not add the expected $"
1039
 
        return "(" + result + ")"
1040
 
 
1041
 
    def _combine_ignore_rules(self, rules):
1042
 
        """Combine a list of ignore rules into a single regex object.
1043
 
 
1044
 
        Each individual rule is combined with | to form a big regex, which then
1045
 
        has $ added to it to form something like ()|()|()$. The group index for
1046
 
        each subregex's outermost group is placed in a dictionary mapping back 
1047
 
        to the rule. This allows quick identification of the matching rule that
1048
 
        triggered a match.
1049
 
        :return: a list of the compiled regex and the matching-group index 
1050
 
        dictionaries. We return a list because python complains if you try to 
1051
 
        combine more than 100 regexes.
1052
 
        """
1053
 
        result = []
1054
 
        groups = {}
1055
 
        next_group = 0
1056
 
        translated_rules = []
1057
 
        for rule in rules:
1058
 
            translated_rule = self._translate_ignore_rule(rule)
1059
 
            compiled_rule = re.compile(translated_rule)
1060
 
            groups[next_group] = rule
1061
 
            next_group += compiled_rule.groups
1062
 
            translated_rules.append(translated_rule)
1063
 
            if next_group == 99:
1064
 
                result.append((re.compile("|".join(translated_rules)), groups))
1065
 
                groups = {}
1066
 
                next_group = 0
1067
 
                translated_rules = []
1068
 
        if len(translated_rules):
1069
 
            result.append((re.compile("|".join(translated_rules)), groups))
1070
 
        return result
1071
 
 
1072
1620
    def ignored_files(self):
1073
1621
        """Yield list of PATH, IGNORE_PATTERN"""
1074
1622
        for subp in self.extras():
1075
1623
            pat = self.is_ignored(subp)
1076
 
            if pat != None:
 
1624
            if pat is not None:
1077
1625
                yield subp, pat
1078
1626
 
1079
1627
    def get_ignore_list(self):
1081
1629
 
1082
1630
        Cached in the Tree object after the first call.
1083
1631
        """
1084
 
        if hasattr(self, '_ignorelist'):
1085
 
            return self._ignorelist
 
1632
        ignoreset = getattr(self, '_ignoreset', None)
 
1633
        if ignoreset is not None:
 
1634
            return ignoreset
1086
1635
 
1087
 
        l = bzrlib.DEFAULT_IGNORE[:]
 
1636
        ignore_globs = set()
 
1637
        ignore_globs.update(ignores.get_runtime_ignores())
 
1638
        ignore_globs.update(ignores.get_user_ignores())
1088
1639
        if self.has_filename(bzrlib.IGNORE_FILENAME):
1089
1640
            f = self.get_file_byname(bzrlib.IGNORE_FILENAME)
1090
 
            l.extend([line.rstrip("\n\r").decode('utf-8') 
1091
 
                      for line in f.readlines()])
1092
 
        self._ignorelist = l
1093
 
        self._ignore_regex = self._combine_ignore_rules(l)
1094
 
        return l
1095
 
 
1096
 
    def _get_ignore_rules_as_regex(self):
1097
 
        """Return a regex of the ignore rules and a mapping dict.
1098
 
 
1099
 
        :return: (ignore rules compiled regex, dictionary mapping rule group 
1100
 
        indices to original rule.)
1101
 
        """
1102
 
        if getattr(self, '_ignorelist', None) is None:
1103
 
            self.get_ignore_list()
1104
 
        return self._ignore_regex
 
1641
            try:
 
1642
                ignore_globs.update(ignores.parse_ignore_file(f))
 
1643
            finally:
 
1644
                f.close()
 
1645
        self._ignoreset = ignore_globs
 
1646
        return ignore_globs
 
1647
 
 
1648
    def _flush_ignore_list_cache(self):
 
1649
        """Resets the cached ignore list to force a cache rebuild."""
 
1650
        self._ignoreset = None
 
1651
        self._ignoreglobster = None
1105
1652
 
1106
1653
    def is_ignored(self, filename):
1107
1654
        r"""Check whether the filename matches an ignore pattern.
1112
1659
        If the file is ignored, returns the pattern which caused it to
1113
1660
        be ignored, otherwise None.  So this can simply be used as a
1114
1661
        boolean if desired."""
1115
 
 
1116
 
        # TODO: Use '**' to match directories, and other extended
1117
 
        # globbing stuff from cvs/rsync.
1118
 
 
1119
 
        # XXX: fnmatch is actually not quite what we want: it's only
1120
 
        # approximately the same as real Unix fnmatch, and doesn't
1121
 
        # treat dotfiles correctly and allows * to match /.
1122
 
        # Eventually it should be replaced with something more
1123
 
        # accurate.
1124
 
    
1125
 
        rules = self._get_ignore_rules_as_regex()
1126
 
        for regex, mapping in rules:
1127
 
            match = regex.match(filename)
1128
 
            if match is not None:
1129
 
                # one or more of the groups in mapping will have a non-None group 
1130
 
                # match.
1131
 
                groups = match.groups()
1132
 
                rules = [mapping[group] for group in 
1133
 
                    mapping if groups[group] is not None]
1134
 
                return rules[0]
1135
 
        return None
 
1662
        if getattr(self, '_ignoreglobster', None) is None:
 
1663
            self._ignoreglobster = globbing.Globster(self.get_ignore_list())
 
1664
        return self._ignoreglobster.match(filename)
1136
1665
 
1137
1666
    def kind(self, file_id):
1138
1667
        return file_kind(self.id2abspath(file_id))
1139
1668
 
1140
 
    @needs_read_lock
 
1669
    def stored_kind(self, file_id):
 
1670
        """See Tree.stored_kind"""
 
1671
        return self.inventory[file_id].kind
 
1672
 
 
1673
    def _comparison_data(self, entry, path):
 
1674
        abspath = self.abspath(path)
 
1675
        try:
 
1676
            stat_value = os.lstat(abspath)
 
1677
        except OSError, e:
 
1678
            if getattr(e, 'errno', None) == errno.ENOENT:
 
1679
                stat_value = None
 
1680
                kind = None
 
1681
                executable = False
 
1682
            else:
 
1683
                raise
 
1684
        else:
 
1685
            mode = stat_value.st_mode
 
1686
            kind = osutils.file_kind_from_stat_mode(mode)
 
1687
            if not supports_executable():
 
1688
                executable = entry is not None and entry.executable
 
1689
            else:
 
1690
                executable = bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
 
1691
        return kind, executable, stat_value
 
1692
 
 
1693
    def _file_size(self, entry, stat_value):
 
1694
        return stat_value.st_size
 
1695
 
1141
1696
    def last_revision(self):
1142
 
        """Return the last revision id of this working tree.
1143
 
 
1144
 
        In early branch formats this was == the branch last_revision,
1145
 
        but that cannot be relied upon - for working tree operations,
1146
 
        always use tree.last_revision().
 
1697
        """Return the last revision of the branch for this tree.
 
1698
 
 
1699
        This format tree does not support a separate marker for last-revision
 
1700
        compared to the branch.
 
1701
 
 
1702
        See MutableTree.last_revision
1147
1703
        """
1148
 
        return self.branch.last_revision()
 
1704
        return self._last_revision()
 
1705
 
 
1706
    @needs_read_lock
 
1707
    def _last_revision(self):
 
1708
        """helper for get_parent_ids."""
 
1709
        return _mod_revision.ensure_null(self.branch.last_revision())
1149
1710
 
1150
1711
    def is_locked(self):
1151
1712
        return self._control_files.is_locked()
1152
1713
 
 
1714
    def _must_be_locked(self):
 
1715
        if not self.is_locked():
 
1716
            raise errors.ObjectNotLocked(self)
 
1717
 
1153
1718
    def lock_read(self):
1154
1719
        """See Branch.lock_read, and WorkingTree.unlock."""
 
1720
        if not self.is_locked():
 
1721
            self._reset_data()
1155
1722
        self.branch.lock_read()
1156
1723
        try:
1157
1724
            return self._control_files.lock_read()
1159
1726
            self.branch.unlock()
1160
1727
            raise
1161
1728
 
 
1729
    def lock_tree_write(self):
 
1730
        """See MutableTree.lock_tree_write, and WorkingTree.unlock."""
 
1731
        if not self.is_locked():
 
1732
            self._reset_data()
 
1733
        self.branch.lock_read()
 
1734
        try:
 
1735
            return self._control_files.lock_write()
 
1736
        except:
 
1737
            self.branch.unlock()
 
1738
            raise
 
1739
 
1162
1740
    def lock_write(self):
1163
 
        """See Branch.lock_write, and WorkingTree.unlock."""
 
1741
        """See MutableTree.lock_write, and WorkingTree.unlock."""
 
1742
        if not self.is_locked():
 
1743
            self._reset_data()
1164
1744
        self.branch.lock_write()
1165
1745
        try:
1166
1746
            return self._control_files.lock_write()
1172
1752
        return self._control_files.get_physical_lock_status()
1173
1753
 
1174
1754
    def _basis_inventory_name(self):
1175
 
        return 'basis-inventory'
1176
 
 
1177
 
    @needs_write_lock
 
1755
        return 'basis-inventory-cache'
 
1756
 
 
1757
    def _reset_data(self):
 
1758
        """Reset transient data that cannot be revalidated."""
 
1759
        self._inventory_is_modified = False
 
1760
        result = self._deserialize(self._transport.get('inventory'))
 
1761
        self._set_inventory(result, dirty=False)
 
1762
 
 
1763
    @needs_tree_write_lock
1178
1764
    def set_last_revision(self, new_revision):
1179
1765
        """Change the last revision in the working tree."""
1180
1766
        if self._change_last_revision(new_revision):
1186
1772
        This is used to allow WorkingTree3 instances to not affect branch
1187
1773
        when their last revision is set.
1188
1774
        """
1189
 
        if new_revision is None:
 
1775
        if _mod_revision.is_null(new_revision):
1190
1776
            self.branch.set_revision_history([])
1191
1777
            return False
1192
 
        # current format is locked in with the branch
1193
 
        revision_history = self.branch.revision_history()
1194
1778
        try:
1195
 
            position = revision_history.index(new_revision)
1196
 
        except ValueError:
1197
 
            raise errors.NoSuchRevision(self.branch, new_revision)
1198
 
        self.branch.set_revision_history(revision_history[:position + 1])
 
1779
            self.branch.generate_revision_history(new_revision)
 
1780
        except errors.NoSuchRevision:
 
1781
            # not present in the repo - dont try to set it deeper than the tip
 
1782
            self.branch.set_revision_history([new_revision])
1199
1783
        return True
1200
1784
 
 
1785
    def _write_basis_inventory(self, xml):
 
1786
        """Write the basis inventory XML to the basis-inventory file"""
 
1787
        path = self._basis_inventory_name()
 
1788
        sio = StringIO(xml)
 
1789
        self._transport.put_file(path, sio,
 
1790
            mode=self._control_files._file_mode)
 
1791
 
 
1792
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
 
1793
        """Create the text that will be saved in basis-inventory"""
 
1794
        inventory.revision_id = revision_id
 
1795
        return xml7.serializer_v7.write_inventory_to_string(inventory)
 
1796
 
1201
1797
    def _cache_basis_inventory(self, new_revision):
1202
1798
        """Cache new_revision as the basis inventory."""
1203
1799
        # TODO: this should allow the ready-to-use inventory to be passed in,
1215
1811
            # root node id can legitimately look like 'revision_id' but cannot
1216
1812
            # contain a '"'.
1217
1813
            xml = self.branch.repository.get_inventory_xml(new_revision)
1218
 
            if not 'revision_id="' in xml.split('\n', 1)[0]:
 
1814
            firstline = xml.split('\n', 1)[0]
 
1815
            if (not 'revision_id="' in firstline or 
 
1816
                'format="7"' not in firstline):
1219
1817
                inv = self.branch.repository.deserialise_inventory(
1220
1818
                    new_revision, xml)
1221
 
                inv.revision_id = new_revision
1222
 
                xml = bzrlib.xml5.serializer_v5.write_inventory_to_string(inv)
1223
 
            assert isinstance(xml, str), 'serialised xml must be bytestring.'
1224
 
            path = self._basis_inventory_name()
1225
 
            sio = StringIO(xml)
1226
 
            self._control_files.put(path, sio)
1227
 
        except WeaveRevisionNotPresent:
 
1819
                xml = self._create_basis_xml_from_inventory(new_revision, inv)
 
1820
            self._write_basis_inventory(xml)
 
1821
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
1228
1822
            pass
1229
1823
 
1230
1824
    def read_basis_inventory(self):
1231
1825
        """Read the cached basis inventory."""
1232
1826
        path = self._basis_inventory_name()
1233
 
        return self._control_files.get(path).read()
 
1827
        return self._transport.get_bytes(path)
1234
1828
        
1235
1829
    @needs_read_lock
1236
1830
    def read_working_inventory(self):
1237
 
        """Read the working inventory."""
 
1831
        """Read the working inventory.
 
1832
        
 
1833
        :raises errors.InventoryModified: read_working_inventory will fail
 
1834
            when the current in memory inventory has been modified.
 
1835
        """
 
1836
        # conceptually this should be an implementation detail of the tree. 
 
1837
        # XXX: Deprecate this.
1238
1838
        # ElementTree does its own conversion from UTF-8, so open in
1239
1839
        # binary.
1240
 
        result = bzrlib.xml5.serializer_v5.read_inventory(
1241
 
            self._control_files.get('inventory'))
1242
 
        self._set_inventory(result)
 
1840
        if self._inventory_is_modified:
 
1841
            raise errors.InventoryModified(self)
 
1842
        result = self._deserialize(self._transport.get('inventory'))
 
1843
        self._set_inventory(result, dirty=False)
1243
1844
        return result
1244
1845
 
1245
 
    @needs_write_lock
1246
 
    def remove(self, files, verbose=False, to_file=None):
1247
 
        """Remove nominated files from the working inventory..
1248
 
 
1249
 
        This does not remove their text.  This does not run on XXX on what? RBC
1250
 
 
1251
 
        TODO: Refuse to remove modified files unless --force is given?
1252
 
 
1253
 
        TODO: Do something useful with directories.
1254
 
 
1255
 
        TODO: Should this remove the text or not?  Tough call; not
1256
 
        removing may be useful and the user can just use use rm, and
1257
 
        is the opposite of add.  Removing it is consistent with most
1258
 
        other tools.  Maybe an option.
 
1846
    @needs_tree_write_lock
 
1847
    def remove(self, files, verbose=False, to_file=None, keep_files=True,
 
1848
        force=False):
 
1849
        """Remove nominated files from the working inventory.
 
1850
 
 
1851
        :files: File paths relative to the basedir.
 
1852
        :keep_files: If true, the files will also be kept.
 
1853
        :force: Delete files and directories, even if they are changed and
 
1854
            even if the directories are not empty.
1259
1855
        """
1260
 
        ## TODO: Normalize names
1261
 
        ## TODO: Remove nested loops; better scalability
1262
1856
        if isinstance(files, basestring):
1263
1857
            files = [files]
1264
1858
 
1265
 
        inv = self.inventory
1266
 
 
1267
 
        # do this before any modifications
 
1859
        inv_delta = []
 
1860
 
 
1861
        new_files=set()
 
1862
        unknown_nested_files=set()
 
1863
 
 
1864
        def recurse_directory_to_add_files(directory):
 
1865
            # Recurse directory and add all files
 
1866
            # so we can check if they have changed.
 
1867
            for parent_info, file_infos in\
 
1868
                self.walkdirs(directory):
 
1869
                for relpath, basename, kind, lstat, fileid, kind in file_infos:
 
1870
                    # Is it versioned or ignored?
 
1871
                    if self.path2id(relpath) or self.is_ignored(relpath):
 
1872
                        # Add nested content for deletion.
 
1873
                        new_files.add(relpath)
 
1874
                    else:
 
1875
                        # Files which are not versioned and not ignored
 
1876
                        # should be treated as unknown.
 
1877
                        unknown_nested_files.add((relpath, None, kind))
 
1878
 
 
1879
        for filename in files:
 
1880
            # Get file name into canonical form.
 
1881
            abspath = self.abspath(filename)
 
1882
            filename = self.relpath(abspath)
 
1883
            if len(filename) > 0:
 
1884
                new_files.add(filename)
 
1885
                recurse_directory_to_add_files(filename)
 
1886
 
 
1887
        files = list(new_files)
 
1888
 
 
1889
        if len(files) == 0:
 
1890
            return # nothing to do
 
1891
 
 
1892
        # Sort needed to first handle directory content before the directory
 
1893
        files.sort(reverse=True)
 
1894
 
 
1895
        # Bail out if we are going to delete files we shouldn't
 
1896
        if not keep_files and not force:
 
1897
            has_changed_files = len(unknown_nested_files) > 0
 
1898
            if not has_changed_files:
 
1899
                for (file_id, path, content_change, versioned, parent_id, name,
 
1900
                     kind, executable) in self.iter_changes(self.basis_tree(),
 
1901
                         include_unchanged=True, require_versioned=False,
 
1902
                         want_unversioned=True, specific_files=files):
 
1903
                    if versioned == (False, False):
 
1904
                        # The record is unknown ...
 
1905
                        if not self.is_ignored(path[1]):
 
1906
                            # ... but not ignored
 
1907
                            has_changed_files = True
 
1908
                            break
 
1909
                    elif content_change and (kind[1] is not None):
 
1910
                        # Versioned and changed, but not deleted
 
1911
                        has_changed_files = True
 
1912
                        break
 
1913
 
 
1914
            if has_changed_files:
 
1915
                # Make delta show ALL applicable changes in error message.
 
1916
                tree_delta = self.changes_from(self.basis_tree(),
 
1917
                    require_versioned=False, want_unversioned=True,
 
1918
                    specific_files=files)
 
1919
                for unknown_file in unknown_nested_files:
 
1920
                    if unknown_file not in tree_delta.unversioned:
 
1921
                        tree_delta.unversioned.extend((unknown_file,))
 
1922
                raise errors.BzrRemoveChangedFilesError(tree_delta)
 
1923
 
 
1924
        # Build inv_delta and delete files where applicaple,
 
1925
        # do this before any modifications to inventory.
1268
1926
        for f in files:
1269
 
            fid = inv.path2id(f)
 
1927
            fid = self.path2id(f)
 
1928
            message = None
1270
1929
            if not fid:
1271
 
                # TODO: Perhaps make this just a warning, and continue?
1272
 
                # This tends to happen when 
1273
 
                raise NotVersionedError(path=f)
1274
 
            mutter("remove inventory entry %s {%s}", quotefn(f), fid)
1275
 
            if verbose:
1276
 
                # having remove it, it must be either ignored or unknown
1277
 
                if self.is_ignored(f):
1278
 
                    new_status = 'I'
1279
 
                else:
1280
 
                    new_status = '?'
1281
 
                show_status(new_status, inv[fid].kind, quotefn(f), to_file=to_file)
1282
 
            del inv[fid]
1283
 
 
1284
 
        self._write_inventory(inv)
1285
 
 
1286
 
    @needs_write_lock
1287
 
    def revert(self, filenames, old_tree=None, backups=True, 
1288
 
               pb=DummyProgress()):
1289
 
        from transform import revert
1290
 
        from conflicts import resolve
 
1930
                message = "%s is not versioned." % (f,)
 
1931
            else:
 
1932
                if verbose:
 
1933
                    # having removed it, it must be either ignored or unknown
 
1934
                    if self.is_ignored(f):
 
1935
                        new_status = 'I'
 
1936
                    else:
 
1937
                        new_status = '?'
 
1938
                    textui.show_status(new_status, self.kind(fid), f,
 
1939
                                       to_file=to_file)
 
1940
                # Unversion file
 
1941
                inv_delta.append((f, None, fid, None))
 
1942
                message = "removed %s" % (f,)
 
1943
 
 
1944
            if not keep_files:
 
1945
                abs_path = self.abspath(f)
 
1946
                if osutils.lexists(abs_path):
 
1947
                    if (osutils.isdir(abs_path) and
 
1948
                        len(os.listdir(abs_path)) > 0):
 
1949
                        if force:
 
1950
                            osutils.rmtree(abs_path)
 
1951
                        else:
 
1952
                            message = "%s is not an empty directory "\
 
1953
                                "and won't be deleted." % (f,)
 
1954
                    else:
 
1955
                        osutils.delete_any(abs_path)
 
1956
                        message = "deleted %s" % (f,)
 
1957
                elif message is not None:
 
1958
                    # Only care if we haven't done anything yet.
 
1959
                    message = "%s does not exist." % (f,)
 
1960
 
 
1961
            # Print only one message (if any) per file.
 
1962
            if message is not None:
 
1963
                note(message)
 
1964
        self.apply_inventory_delta(inv_delta)
 
1965
 
 
1966
    @needs_tree_write_lock
 
1967
    def revert(self, filenames=None, old_tree=None, backups=True,
 
1968
               pb=DummyProgress(), report_changes=False):
 
1969
        from bzrlib.conflicts import resolve
 
1970
        if filenames == []:
 
1971
            filenames = None
 
1972
            symbol_versioning.warn('Using [] to revert all files is deprecated'
 
1973
                ' as of bzr 0.91.  Please use None (the default) instead.',
 
1974
                DeprecationWarning, stacklevel=2)
1291
1975
        if old_tree is None:
1292
 
            old_tree = self.basis_tree()
1293
 
        conflicts = revert(self, old_tree, filenames, backups, pb)
1294
 
        if not len(filenames):
1295
 
            self.set_pending_merges([])
1296
 
            resolve(self)
 
1976
            basis_tree = self.basis_tree()
 
1977
            basis_tree.lock_read()
 
1978
            old_tree = basis_tree
1297
1979
        else:
1298
 
            resolve(self, filenames, ignore_misses=True)
 
1980
            basis_tree = None
 
1981
        try:
 
1982
            conflicts = transform.revert(self, old_tree, filenames, backups, pb,
 
1983
                                         report_changes)
 
1984
            if filenames is None and len(self.get_parent_ids()) > 1:
 
1985
                parent_trees = []
 
1986
                last_revision = self.last_revision()
 
1987
                if last_revision != NULL_REVISION:
 
1988
                    if basis_tree is None:
 
1989
                        basis_tree = self.basis_tree()
 
1990
                        basis_tree.lock_read()
 
1991
                    parent_trees.append((last_revision, basis_tree))
 
1992
                self.set_parent_trees(parent_trees)
 
1993
                resolve(self)
 
1994
            else:
 
1995
                resolve(self, filenames, ignore_misses=True, recursive=True)
 
1996
        finally:
 
1997
            if basis_tree is not None:
 
1998
                basis_tree.unlock()
1299
1999
        return conflicts
1300
2000
 
 
2001
    def revision_tree(self, revision_id):
 
2002
        """See Tree.revision_tree.
 
2003
 
 
2004
        WorkingTree can supply revision_trees for the basis revision only
 
2005
        because there is only one cached inventory in the bzr directory.
 
2006
        """
 
2007
        if revision_id == self.last_revision():
 
2008
            try:
 
2009
                xml = self.read_basis_inventory()
 
2010
            except errors.NoSuchFile:
 
2011
                pass
 
2012
            else:
 
2013
                try:
 
2014
                    inv = xml7.serializer_v7.read_inventory_from_string(xml)
 
2015
                    # dont use the repository revision_tree api because we want
 
2016
                    # to supply the inventory.
 
2017
                    if inv.revision_id == revision_id:
 
2018
                        return revisiontree.RevisionTree(self.branch.repository,
 
2019
                            inv, revision_id)
 
2020
                except errors.BadInventoryFormat:
 
2021
                    pass
 
2022
        # raise if there was no inventory, or if we read the wrong inventory.
 
2023
        raise errors.NoSuchRevisionInTree(self, revision_id)
 
2024
 
1301
2025
    # XXX: This method should be deprecated in favour of taking in a proper
1302
2026
    # new Inventory object.
1303
 
    @needs_write_lock
 
2027
    @needs_tree_write_lock
1304
2028
    def set_inventory(self, new_inventory_list):
1305
2029
        from bzrlib.inventory import (Inventory,
1306
2030
                                      InventoryDirectory,
1320
2044
            elif kind == 'symlink':
1321
2045
                inv.add(InventoryLink(file_id, name, parent))
1322
2046
            else:
1323
 
                raise BzrError("unknown kind %r" % kind)
 
2047
                raise errors.BzrError("unknown kind %r" % kind)
1324
2048
        self._write_inventory(inv)
1325
2049
 
1326
 
    @needs_write_lock
 
2050
    @needs_tree_write_lock
1327
2051
    def set_root_id(self, file_id):
1328
2052
        """Set the root id for this tree."""
1329
 
        inv = self.read_working_inventory()
 
2053
        # for compatability 
 
2054
        if file_id is None:
 
2055
            raise ValueError(
 
2056
                'WorkingTree.set_root_id with fileid=None')
 
2057
        file_id = osutils.safe_file_id(file_id)
 
2058
        self._set_root_id(file_id)
 
2059
 
 
2060
    def _set_root_id(self, file_id):
 
2061
        """Set the root id for this tree, in a format specific manner.
 
2062
 
 
2063
        :param file_id: The file id to assign to the root. It must not be 
 
2064
            present in the current inventory or an error will occur. It must
 
2065
            not be None, but rather a valid file id.
 
2066
        """
 
2067
        inv = self._inventory
1330
2068
        orig_root_id = inv.root.file_id
 
2069
        # TODO: it might be nice to exit early if there was nothing
 
2070
        # to do, saving us from trigger a sync on unlock.
 
2071
        self._inventory_is_modified = True
 
2072
        # we preserve the root inventory entry object, but
 
2073
        # unlinkit from the byid index
1331
2074
        del inv._byid[inv.root.file_id]
1332
2075
        inv.root.file_id = file_id
 
2076
        # and link it into the index with the new changed id.
1333
2077
        inv._byid[inv.root.file_id] = inv.root
 
2078
        # and finally update all children to reference the new id.
 
2079
        # XXX: this should be safe to just look at the root.children
 
2080
        # list, not the WHOLE INVENTORY.
1334
2081
        for fid in inv:
1335
2082
            entry = inv[fid]
1336
2083
            if entry.parent_id == orig_root_id:
1337
2084
                entry.parent_id = inv.root.file_id
1338
 
        self._write_inventory(inv)
1339
2085
 
1340
2086
    def unlock(self):
1341
2087
        """See Branch.unlock.
1346
2092
        between multiple working trees, i.e. via shared storage, then we 
1347
2093
        would probably want to lock both the local tree, and the branch.
1348
2094
        """
1349
 
        # FIXME: We want to write out the hashcache only when the last lock on
1350
 
        # this working copy is released.  Peeking at the lock count is a bit
1351
 
        # of a nasty hack; probably it's better to have a transaction object,
1352
 
        # which can do some finalization when it's either successfully or
1353
 
        # unsuccessfully completed.  (Denys's original patch did that.)
1354
 
        # RBC 20060206 hooking into transaction will couple lock and transaction
1355
 
        # wrongly. Hooking into unlock on the control files object is fine though.
1356
 
        
1357
 
        # TODO: split this per format so there is no ugly if block
1358
 
        if self._hashcache.needs_write and (
1359
 
            # dedicated lock files
1360
 
            self._control_files._lock_count==1 or 
1361
 
            # shared lock files
1362
 
            (self._control_files is self.branch.control_files and 
1363
 
             self._control_files._lock_count==3)):
1364
 
            self._hashcache.write()
1365
 
        # reverse order of locking.
1366
 
        try:
1367
 
            return self._control_files.unlock()
1368
 
        finally:
1369
 
            self.branch.unlock()
 
2095
        raise NotImplementedError(self.unlock)
1370
2096
 
1371
 
    @needs_write_lock
1372
 
    def update(self):
 
2097
    def update(self, change_reporter=None, possible_transports=None):
1373
2098
        """Update a working tree along its branch.
1374
2099
 
1375
 
        This will update the branch if its bound too, which means we have multiple trees involved:
1376
 
        The new basis tree of the master.
1377
 
        The old basis tree of the branch.
1378
 
        The old basis tree of the working tree.
1379
 
        The current working tree state.
1380
 
        pathologically all three may be different, and non ancestors of each other.
1381
 
        Conceptually we want to:
1382
 
        Preserve the wt.basis->wt.state changes
1383
 
        Transform the wt.basis to the new master basis.
1384
 
        Apply a merge of the old branch basis to get any 'local' changes from it into the tree.
1385
 
        Restore the wt.basis->wt.state changes.
 
2100
        This will update the branch if its bound too, which means we have
 
2101
        multiple trees involved:
 
2102
 
 
2103
        - The new basis tree of the master.
 
2104
        - The old basis tree of the branch.
 
2105
        - The old basis tree of the working tree.
 
2106
        - The current working tree state.
 
2107
 
 
2108
        Pathologically, all three may be different, and non-ancestors of each
 
2109
        other.  Conceptually we want to:
 
2110
 
 
2111
        - Preserve the wt.basis->wt.state changes
 
2112
        - Transform the wt.basis to the new master basis.
 
2113
        - Apply a merge of the old branch basis to get any 'local' changes from
 
2114
          it into the tree.
 
2115
        - Restore the wt.basis->wt.state changes.
1386
2116
 
1387
2117
        There isn't a single operation at the moment to do that, so we:
1388
 
        Merge current state -> basis tree of the master w.r.t. the old tree basis.
1389
 
        Do a 'normal' merge of the old branch basis if it is relevant.
1390
 
        """
1391
 
        old_tip = self.branch.update()
1392
 
        if old_tip is not None:
1393
 
            self.add_pending_merge(old_tip)
1394
 
        self.branch.lock_read()
1395
 
        try:
1396
 
            result = 0
1397
 
            if self.last_revision() != self.branch.last_revision():
1398
 
                # merge tree state up to new branch tip.
1399
 
                basis = self.basis_tree()
 
2118
        - Merge current state -> basis tree of the master w.r.t. the old tree
 
2119
          basis.
 
2120
        - Do a 'normal' merge of the old branch basis if it is relevant.
 
2121
        """
 
2122
        if self.branch.get_bound_location() is not None:
 
2123
            self.lock_write()
 
2124
            update_branch = True
 
2125
        else:
 
2126
            self.lock_tree_write()
 
2127
            update_branch = False
 
2128
        try:
 
2129
            if update_branch:
 
2130
                old_tip = self.branch.update(possible_transports)
 
2131
            else:
 
2132
                old_tip = None
 
2133
            return self._update_tree(old_tip, change_reporter)
 
2134
        finally:
 
2135
            self.unlock()
 
2136
 
 
2137
    @needs_tree_write_lock
 
2138
    def _update_tree(self, old_tip=None, change_reporter=None):
 
2139
        """Update a tree to the master branch.
 
2140
 
 
2141
        :param old_tip: if supplied, the previous tip revision the branch,
 
2142
            before it was changed to the master branch's tip.
 
2143
        """
 
2144
        # here if old_tip is not None, it is the old tip of the branch before
 
2145
        # it was updated from the master branch. This should become a pending
 
2146
        # merge in the working tree to preserve the user existing work.  we
 
2147
        # cant set that until we update the working trees last revision to be
 
2148
        # one from the new branch, because it will just get absorbed by the
 
2149
        # parent de-duplication logic.
 
2150
        # 
 
2151
        # We MUST save it even if an error occurs, because otherwise the users
 
2152
        # local work is unreferenced and will appear to have been lost.
 
2153
        # 
 
2154
        result = 0
 
2155
        try:
 
2156
            last_rev = self.get_parent_ids()[0]
 
2157
        except IndexError:
 
2158
            last_rev = _mod_revision.NULL_REVISION
 
2159
        if last_rev != _mod_revision.ensure_null(self.branch.last_revision()):
 
2160
            # merge tree state up to new branch tip.
 
2161
            basis = self.basis_tree()
 
2162
            basis.lock_read()
 
2163
            try:
1400
2164
                to_tree = self.branch.basis_tree()
1401
 
                result += merge_inner(self.branch,
 
2165
                if basis.inventory.root is None:
 
2166
                    self.set_root_id(to_tree.get_root_id())
 
2167
                    self.flush()
 
2168
                result += merge.merge_inner(
 
2169
                                      self.branch,
1402
2170
                                      to_tree,
1403
2171
                                      basis,
1404
 
                                      this_tree=self)
1405
 
                self.set_last_revision(self.branch.last_revision())
1406
 
            if old_tip and old_tip != self.last_revision():
1407
 
                # our last revision was not the prior branch last revision
1408
 
                # and we have converted that last revision to a pending merge.
1409
 
                # base is somewhere between the branch tip now
1410
 
                # and the now pending merge
1411
 
                from bzrlib.revision import common_ancestor
1412
 
                try:
1413
 
                    base_rev_id = common_ancestor(self.branch.last_revision(),
1414
 
                                                  old_tip,
1415
 
                                                  self.branch.repository)
1416
 
                except errors.NoCommonAncestor:
1417
 
                    base_rev_id = None
1418
 
                base_tree = self.branch.repository.revision_tree(base_rev_id)
1419
 
                other_tree = self.branch.repository.revision_tree(old_tip)
1420
 
                result += merge_inner(self.branch,
1421
 
                                      other_tree,
1422
 
                                      base_tree,
1423
 
                                      this_tree=self)
1424
 
            return result
1425
 
        finally:
1426
 
            self.branch.unlock()
1427
 
 
1428
 
    @needs_write_lock
 
2172
                                      this_tree=self,
 
2173
                                      change_reporter=change_reporter)
 
2174
            finally:
 
2175
                basis.unlock()
 
2176
            # TODO - dedup parents list with things merged by pull ?
 
2177
            # reuse the tree we've updated to to set the basis:
 
2178
            parent_trees = [(self.branch.last_revision(), to_tree)]
 
2179
            merges = self.get_parent_ids()[1:]
 
2180
            # Ideally we ask the tree for the trees here, that way the working
 
2181
            # tree can decide whether to give us teh entire tree or give us a
 
2182
            # lazy initialised tree. dirstate for instance will have the trees
 
2183
            # in ram already, whereas a last-revision + basis-inventory tree
 
2184
            # will not, but also does not need them when setting parents.
 
2185
            for parent in merges:
 
2186
                parent_trees.append(
 
2187
                    (parent, self.branch.repository.revision_tree(parent)))
 
2188
            if (old_tip is not None and not _mod_revision.is_null(old_tip)):
 
2189
                parent_trees.append(
 
2190
                    (old_tip, self.branch.repository.revision_tree(old_tip)))
 
2191
            self.set_parent_trees(parent_trees)
 
2192
            last_rev = parent_trees[0][0]
 
2193
        else:
 
2194
            # the working tree had the same last-revision as the master
 
2195
            # branch did. We may still have pivot local work from the local
 
2196
            # branch into old_tip:
 
2197
            if (old_tip is not None and not _mod_revision.is_null(old_tip)):
 
2198
                self.add_parent_tree_id(old_tip)
 
2199
        if (old_tip is not None and not _mod_revision.is_null(old_tip)
 
2200
            and old_tip != last_rev):
 
2201
            # our last revision was not the prior branch last revision
 
2202
            # and we have converted that last revision to a pending merge.
 
2203
            # base is somewhere between the branch tip now
 
2204
            # and the now pending merge
 
2205
 
 
2206
            # Since we just modified the working tree and inventory, flush out
 
2207
            # the current state, before we modify it again.
 
2208
            # TODO: jam 20070214 WorkingTree3 doesn't require this, dirstate
 
2209
            #       requires it only because TreeTransform directly munges the
 
2210
            #       inventory and calls tree._write_inventory(). Ultimately we
 
2211
            #       should be able to remove this extra flush.
 
2212
            self.flush()
 
2213
            graph = self.branch.repository.get_graph()
 
2214
            base_rev_id = graph.find_unique_lca(self.branch.last_revision(),
 
2215
                                                old_tip)
 
2216
            base_tree = self.branch.repository.revision_tree(base_rev_id)
 
2217
            other_tree = self.branch.repository.revision_tree(old_tip)
 
2218
            result += merge.merge_inner(
 
2219
                                  self.branch,
 
2220
                                  other_tree,
 
2221
                                  base_tree,
 
2222
                                  this_tree=self,
 
2223
                                  change_reporter=change_reporter)
 
2224
        return result
 
2225
 
 
2226
    def _write_hashcache_if_dirty(self):
 
2227
        """Write out the hashcache if it is dirty."""
 
2228
        if self._hashcache.needs_write:
 
2229
            try:
 
2230
                self._hashcache.write()
 
2231
            except OSError, e:
 
2232
                if e.errno not in (errno.EPERM, errno.EACCES):
 
2233
                    raise
 
2234
                # TODO: jam 20061219 Should this be a warning? A single line
 
2235
                #       warning might be sufficient to let the user know what
 
2236
                #       is going on.
 
2237
                mutter('Could not write hashcache for %s\nError: %s',
 
2238
                       self._hashcache.cache_file_name(), e)
 
2239
 
 
2240
    @needs_tree_write_lock
1429
2241
    def _write_inventory(self, inv):
1430
2242
        """Write inventory as the current inventory."""
1431
 
        sio = StringIO()
1432
 
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
1433
 
        sio.seek(0)
1434
 
        self._control_files.put('inventory', sio)
1435
 
        self._set_inventory(inv)
1436
 
        mutter('wrote working inventory')
 
2243
        self._set_inventory(inv, dirty=True)
 
2244
        self.flush()
1437
2245
 
1438
2246
    def set_conflicts(self, arg):
1439
 
        raise UnsupportedOperation(self.set_conflicts, self)
 
2247
        raise errors.UnsupportedOperation(self.set_conflicts, self)
 
2248
 
 
2249
    def add_conflicts(self, arg):
 
2250
        raise errors.UnsupportedOperation(self.add_conflicts, self)
1440
2251
 
1441
2252
    @needs_read_lock
1442
2253
    def conflicts(self):
1443
 
        conflicts = ConflictList()
 
2254
        conflicts = _mod_conflicts.ConflictList()
1444
2255
        for conflicted in self._iter_conflicts():
1445
2256
            text = True
1446
2257
            try:
1459
2270
                    if text == False:
1460
2271
                        break
1461
2272
            ctype = {True: 'text conflict', False: 'contents conflict'}[text]
1462
 
            conflicts.append(Conflict.factory(ctype, path=conflicted,
 
2273
            conflicts.append(_mod_conflicts.Conflict.factory(ctype,
 
2274
                             path=conflicted,
1463
2275
                             file_id=self.path2id(conflicted)))
1464
2276
        return conflicts
1465
2277
 
 
2278
    def walkdirs(self, prefix=""):
 
2279
        """Walk the directories of this tree.
 
2280
 
 
2281
        returns a generator which yields items in the form:
 
2282
                ((curren_directory_path, fileid),
 
2283
                 [(file1_path, file1_name, file1_kind, (lstat), file1_id,
 
2284
                   file1_kind), ... ])
 
2285
 
 
2286
        This API returns a generator, which is only valid during the current
 
2287
        tree transaction - within a single lock_read or lock_write duration.
 
2288
 
 
2289
        If the tree is not locked, it may cause an error to be raised,
 
2290
        depending on the tree implementation.
 
2291
        """
 
2292
        disk_top = self.abspath(prefix)
 
2293
        if disk_top.endswith('/'):
 
2294
            disk_top = disk_top[:-1]
 
2295
        top_strip_len = len(disk_top) + 1
 
2296
        inventory_iterator = self._walkdirs(prefix)
 
2297
        disk_iterator = osutils.walkdirs(disk_top, prefix)
 
2298
        try:
 
2299
            current_disk = disk_iterator.next()
 
2300
            disk_finished = False
 
2301
        except OSError, e:
 
2302
            if not (e.errno == errno.ENOENT or
 
2303
                (sys.platform == 'win32' and e.errno == ERROR_PATH_NOT_FOUND)):
 
2304
                raise
 
2305
            current_disk = None
 
2306
            disk_finished = True
 
2307
        try:
 
2308
            current_inv = inventory_iterator.next()
 
2309
            inv_finished = False
 
2310
        except StopIteration:
 
2311
            current_inv = None
 
2312
            inv_finished = True
 
2313
        while not inv_finished or not disk_finished:
 
2314
            if current_disk:
 
2315
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
 
2316
                    cur_disk_dir_content) = current_disk
 
2317
            else:
 
2318
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
 
2319
                    cur_disk_dir_content) = ((None, None), None)
 
2320
            if not disk_finished:
 
2321
                # strip out .bzr dirs
 
2322
                if (cur_disk_dir_path_from_top[top_strip_len:] == '' and
 
2323
                    len(cur_disk_dir_content) > 0):
 
2324
                    # osutils.walkdirs can be made nicer -
 
2325
                    # yield the path-from-prefix rather than the pathjoined
 
2326
                    # value.
 
2327
                    bzrdir_loc = bisect_left(cur_disk_dir_content,
 
2328
                        ('.bzr', '.bzr'))
 
2329
                    if cur_disk_dir_content[bzrdir_loc][0] == '.bzr':
 
2330
                        # we dont yield the contents of, or, .bzr itself.
 
2331
                        del cur_disk_dir_content[bzrdir_loc]
 
2332
            if inv_finished:
 
2333
                # everything is unknown
 
2334
                direction = 1
 
2335
            elif disk_finished:
 
2336
                # everything is missing
 
2337
                direction = -1
 
2338
            else:
 
2339
                direction = cmp(current_inv[0][0], cur_disk_dir_relpath)
 
2340
            if direction > 0:
 
2341
                # disk is before inventory - unknown
 
2342
                dirblock = [(relpath, basename, kind, stat, None, None) for
 
2343
                    relpath, basename, kind, stat, top_path in
 
2344
                    cur_disk_dir_content]
 
2345
                yield (cur_disk_dir_relpath, None), dirblock
 
2346
                try:
 
2347
                    current_disk = disk_iterator.next()
 
2348
                except StopIteration:
 
2349
                    disk_finished = True
 
2350
            elif direction < 0:
 
2351
                # inventory is before disk - missing.
 
2352
                dirblock = [(relpath, basename, 'unknown', None, fileid, kind)
 
2353
                    for relpath, basename, dkind, stat, fileid, kind in
 
2354
                    current_inv[1]]
 
2355
                yield (current_inv[0][0], current_inv[0][1]), dirblock
 
2356
                try:
 
2357
                    current_inv = inventory_iterator.next()
 
2358
                except StopIteration:
 
2359
                    inv_finished = True
 
2360
            else:
 
2361
                # versioned present directory
 
2362
                # merge the inventory and disk data together
 
2363
                dirblock = []
 
2364
                for relpath, subiterator in itertools.groupby(sorted(
 
2365
                    current_inv[1] + cur_disk_dir_content,
 
2366
                    key=operator.itemgetter(0)), operator.itemgetter(1)):
 
2367
                    path_elements = list(subiterator)
 
2368
                    if len(path_elements) == 2:
 
2369
                        inv_row, disk_row = path_elements
 
2370
                        # versioned, present file
 
2371
                        dirblock.append((inv_row[0],
 
2372
                            inv_row[1], disk_row[2],
 
2373
                            disk_row[3], inv_row[4],
 
2374
                            inv_row[5]))
 
2375
                    elif len(path_elements[0]) == 5:
 
2376
                        # unknown disk file
 
2377
                        dirblock.append((path_elements[0][0],
 
2378
                            path_elements[0][1], path_elements[0][2],
 
2379
                            path_elements[0][3], None, None))
 
2380
                    elif len(path_elements[0]) == 6:
 
2381
                        # versioned, absent file.
 
2382
                        dirblock.append((path_elements[0][0],
 
2383
                            path_elements[0][1], 'unknown', None,
 
2384
                            path_elements[0][4], path_elements[0][5]))
 
2385
                    else:
 
2386
                        raise NotImplementedError('unreachable code')
 
2387
                yield current_inv[0], dirblock
 
2388
                try:
 
2389
                    current_inv = inventory_iterator.next()
 
2390
                except StopIteration:
 
2391
                    inv_finished = True
 
2392
                try:
 
2393
                    current_disk = disk_iterator.next()
 
2394
                except StopIteration:
 
2395
                    disk_finished = True
 
2396
 
 
2397
    def _walkdirs(self, prefix=""):
 
2398
        """Walk the directories of this tree.
 
2399
 
 
2400
           :prefix: is used as the directrory to start with.
 
2401
           returns a generator which yields items in the form:
 
2402
                ((curren_directory_path, fileid),
 
2403
                 [(file1_path, file1_name, file1_kind, None, file1_id,
 
2404
                   file1_kind), ... ])
 
2405
        """
 
2406
        _directory = 'directory'
 
2407
        # get the root in the inventory
 
2408
        inv = self.inventory
 
2409
        top_id = inv.path2id(prefix)
 
2410
        if top_id is None:
 
2411
            pending = []
 
2412
        else:
 
2413
            pending = [(prefix, '', _directory, None, top_id, None)]
 
2414
        while pending:
 
2415
            dirblock = []
 
2416
            currentdir = pending.pop()
 
2417
            # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-id, 5-kind
 
2418
            top_id = currentdir[4]
 
2419
            if currentdir[0]:
 
2420
                relroot = currentdir[0] + '/'
 
2421
            else:
 
2422
                relroot = ""
 
2423
            # FIXME: stash the node in pending
 
2424
            entry = inv[top_id]
 
2425
            if entry.kind == 'directory':
 
2426
                for name, child in entry.sorted_children():
 
2427
                    dirblock.append((relroot + name, name, child.kind, None,
 
2428
                        child.file_id, child.kind
 
2429
                        ))
 
2430
            yield (currentdir[0], entry.file_id), dirblock
 
2431
            # push the user specified dirs from dirblock
 
2432
            for dir in reversed(dirblock):
 
2433
                if dir[2] == _directory:
 
2434
                    pending.append(dir)
 
2435
 
 
2436
    @needs_tree_write_lock
 
2437
    def auto_resolve(self):
 
2438
        """Automatically resolve text conflicts according to contents.
 
2439
 
 
2440
        Only text conflicts are auto_resolvable. Files with no conflict markers
 
2441
        are considered 'resolved', because bzr always puts conflict markers
 
2442
        into files that have text conflicts.  The corresponding .THIS .BASE and
 
2443
        .OTHER files are deleted, as per 'resolve'.
 
2444
        :return: a tuple of ConflictLists: (un_resolved, resolved).
 
2445
        """
 
2446
        un_resolved = _mod_conflicts.ConflictList()
 
2447
        resolved = _mod_conflicts.ConflictList()
 
2448
        conflict_re = re.compile('^(<{7}|={7}|>{7})')
 
2449
        for conflict in self.conflicts():
 
2450
            if (conflict.typestring != 'text conflict' or
 
2451
                self.kind(conflict.file_id) != 'file'):
 
2452
                un_resolved.append(conflict)
 
2453
                continue
 
2454
            my_file = open(self.id2abspath(conflict.file_id), 'rb')
 
2455
            try:
 
2456
                for line in my_file:
 
2457
                    if conflict_re.search(line):
 
2458
                        un_resolved.append(conflict)
 
2459
                        break
 
2460
                else:
 
2461
                    resolved.append(conflict)
 
2462
            finally:
 
2463
                my_file.close()
 
2464
        resolved.remove_files(self)
 
2465
        self.set_conflicts(un_resolved)
 
2466
        return un_resolved, resolved
 
2467
 
 
2468
    @needs_read_lock
 
2469
    def _check(self):
 
2470
        tree_basis = self.basis_tree()
 
2471
        tree_basis.lock_read()
 
2472
        try:
 
2473
            repo_basis = self.branch.repository.revision_tree(
 
2474
                self.last_revision())
 
2475
            if len(list(repo_basis.iter_changes(tree_basis))) > 0:
 
2476
                raise errors.BzrCheckError(
 
2477
                    "Mismatched basis inventory content.")
 
2478
            self._validate()
 
2479
        finally:
 
2480
            tree_basis.unlock()
 
2481
 
 
2482
    def _validate(self):
 
2483
        """Validate internal structures.
 
2484
 
 
2485
        This is meant mostly for the test suite. To give it a chance to detect
 
2486
        corruption after actions have occurred. The default implementation is a
 
2487
        just a no-op.
 
2488
 
 
2489
        :return: None. An exception should be raised if there is an error.
 
2490
        """
 
2491
        return
 
2492
 
 
2493
    @needs_read_lock
 
2494
    def _get_rules_searcher(self, default_searcher):
 
2495
        """See Tree._get_rules_searcher."""
 
2496
        if self._rules_searcher is None:
 
2497
            self._rules_searcher = super(WorkingTree,
 
2498
                self)._get_rules_searcher(default_searcher)
 
2499
        return self._rules_searcher
 
2500
 
 
2501
 
 
2502
class WorkingTree2(WorkingTree):
 
2503
    """This is the Format 2 working tree.
 
2504
 
 
2505
    This was the first weave based working tree. 
 
2506
     - uses os locks for locking.
 
2507
     - uses the branch last-revision.
 
2508
    """
 
2509
 
 
2510
    def __init__(self, *args, **kwargs):
 
2511
        super(WorkingTree2, self).__init__(*args, **kwargs)
 
2512
        # WorkingTree2 has more of a constraint that self._inventory must
 
2513
        # exist. Because this is an older format, we don't mind the overhead
 
2514
        # caused by the extra computation here.
 
2515
 
 
2516
        # Newer WorkingTree's should only have self._inventory set when they
 
2517
        # have a read lock.
 
2518
        if self._inventory is None:
 
2519
            self.read_working_inventory()
 
2520
 
 
2521
    def lock_tree_write(self):
 
2522
        """See WorkingTree.lock_tree_write().
 
2523
 
 
2524
        In Format2 WorkingTrees we have a single lock for the branch and tree
 
2525
        so lock_tree_write() degrades to lock_write().
 
2526
        """
 
2527
        self.branch.lock_write()
 
2528
        try:
 
2529
            return self._control_files.lock_write()
 
2530
        except:
 
2531
            self.branch.unlock()
 
2532
            raise
 
2533
 
 
2534
    def unlock(self):
 
2535
        # do non-implementation specific cleanup
 
2536
        self._cleanup()
 
2537
 
 
2538
        # we share control files:
 
2539
        if self._control_files._lock_count == 3:
 
2540
            # _inventory_is_modified is always False during a read lock.
 
2541
            if self._inventory_is_modified:
 
2542
                self.flush()
 
2543
            self._write_hashcache_if_dirty()
 
2544
                    
 
2545
        # reverse order of locking.
 
2546
        try:
 
2547
            return self._control_files.unlock()
 
2548
        finally:
 
2549
            self.branch.unlock()
 
2550
 
1466
2551
 
1467
2552
class WorkingTree3(WorkingTree):
1468
2553
    """This is the Format 3 working tree.
1475
2560
    """
1476
2561
 
1477
2562
    @needs_read_lock
1478
 
    def last_revision(self):
1479
 
        """See WorkingTree.last_revision."""
 
2563
    def _last_revision(self):
 
2564
        """See Mutable.last_revision."""
1480
2565
        try:
1481
 
            return self._control_files.get_utf8('last-revision').read()
1482
 
        except NoSuchFile:
1483
 
            return None
 
2566
            return self._transport.get_bytes('last-revision')
 
2567
        except errors.NoSuchFile:
 
2568
            return _mod_revision.NULL_REVISION
1484
2569
 
1485
2570
    def _change_last_revision(self, revision_id):
1486
2571
        """See WorkingTree._change_last_revision."""
1487
2572
        if revision_id is None or revision_id == NULL_REVISION:
1488
2573
            try:
1489
 
                self._control_files._transport.delete('last-revision')
 
2574
                self._transport.delete('last-revision')
1490
2575
            except errors.NoSuchFile:
1491
2576
                pass
1492
2577
            return False
1493
2578
        else:
1494
 
            try:
1495
 
                self.branch.revision_history().index(revision_id)
1496
 
            except ValueError:
1497
 
                raise errors.NoSuchRevision(self.branch, revision_id)
1498
 
            self._control_files.put_utf8('last-revision', revision_id)
 
2579
            self._transport.put_bytes('last-revision', revision_id,
 
2580
                mode=self._control_files._file_mode)
1499
2581
            return True
1500
2582
 
1501
 
    @needs_write_lock
 
2583
    @needs_tree_write_lock
1502
2584
    def set_conflicts(self, conflicts):
1503
2585
        self._put_rio('conflicts', conflicts.to_stanzas(), 
1504
2586
                      CONFLICT_HEADER_1)
1505
2587
 
 
2588
    @needs_tree_write_lock
 
2589
    def add_conflicts(self, new_conflicts):
 
2590
        conflict_set = set(self.conflicts())
 
2591
        conflict_set.update(set(list(new_conflicts)))
 
2592
        self.set_conflicts(_mod_conflicts.ConflictList(sorted(conflict_set,
 
2593
                                       key=_mod_conflicts.Conflict.sort_key)))
 
2594
 
1506
2595
    @needs_read_lock
1507
2596
    def conflicts(self):
1508
2597
        try:
1509
 
            confile = self._control_files.get('conflicts')
1510
 
        except NoSuchFile:
1511
 
            return ConflictList()
1512
 
        try:
1513
 
            if confile.next() != CONFLICT_HEADER_1 + '\n':
1514
 
                raise ConflictFormatError()
1515
 
        except StopIteration:
1516
 
            raise ConflictFormatError()
1517
 
        return ConflictList.from_stanzas(RioReader(confile))
 
2598
            confile = self._transport.get('conflicts')
 
2599
        except errors.NoSuchFile:
 
2600
            return _mod_conflicts.ConflictList()
 
2601
        try:
 
2602
            try:
 
2603
                if confile.next() != CONFLICT_HEADER_1 + '\n':
 
2604
                    raise errors.ConflictFormatError()
 
2605
            except StopIteration:
 
2606
                raise errors.ConflictFormatError()
 
2607
            return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
 
2608
        finally:
 
2609
            confile.close()
 
2610
 
 
2611
    def unlock(self):
 
2612
        # do non-implementation specific cleanup
 
2613
        self._cleanup()
 
2614
        if self._control_files._lock_count == 1:
 
2615
            # _inventory_is_modified is always False during a read lock.
 
2616
            if self._inventory_is_modified:
 
2617
                self.flush()
 
2618
            self._write_hashcache_if_dirty()
 
2619
        # reverse order of locking.
 
2620
        try:
 
2621
            return self._control_files.unlock()
 
2622
        finally:
 
2623
            self.branch.unlock()
1518
2624
 
1519
2625
 
1520
2626
def get_conflicted_stem(path):
1521
 
    for suffix in CONFLICT_SUFFIXES:
 
2627
    for suffix in _mod_conflicts.CONFLICT_SUFFIXES:
1522
2628
        if path.endswith(suffix):
1523
2629
            return path[:-len(suffix)]
1524
2630
 
1525
 
@deprecated_function(zero_eight)
1526
 
def is_control_file(filename):
1527
 
    """See WorkingTree.is_control_filename(filename)."""
1528
 
    ## FIXME: better check
1529
 
    filename = normpath(filename)
1530
 
    while filename != '':
1531
 
        head, tail = os.path.split(filename)
1532
 
        ## mutter('check %r for control file' % ((head, tail),))
1533
 
        if tail == '.bzr':
1534
 
            return True
1535
 
        if filename == head:
1536
 
            break
1537
 
        filename = head
1538
 
    return False
1539
 
 
1540
2631
 
1541
2632
class WorkingTreeFormat(object):
1542
2633
    """An encapsulation of the initialization and open routines for a format.
1562
2653
    _formats = {}
1563
2654
    """The known formats."""
1564
2655
 
 
2656
    requires_rich_root = False
 
2657
 
 
2658
    upgrade_recommended = False
 
2659
 
1565
2660
    @classmethod
1566
2661
    def find_format(klass, a_bzrdir):
1567
2662
        """Return the format for the working tree object in a_bzrdir."""
1569
2664
            transport = a_bzrdir.get_workingtree_transport(None)
1570
2665
            format_string = transport.get("format").read()
1571
2666
            return klass._formats[format_string]
1572
 
        except NoSuchFile:
 
2667
        except errors.NoSuchFile:
1573
2668
            raise errors.NoWorkingTree(base=transport.base)
1574
2669
        except KeyError:
1575
 
            raise errors.UnknownFormatError(format_string)
 
2670
            raise errors.UnknownFormatError(format=format_string,
 
2671
                                            kind="working tree")
 
2672
 
 
2673
    def __eq__(self, other):
 
2674
        return self.__class__ is other.__class__
 
2675
 
 
2676
    def __ne__(self, other):
 
2677
        return not (self == other)
1576
2678
 
1577
2679
    @classmethod
1578
2680
    def get_default_format(klass):
1606
2708
 
1607
2709
    @classmethod
1608
2710
    def unregister_format(klass, format):
1609
 
        assert klass._formats[format.get_format_string()] is format
1610
2711
        del klass._formats[format.get_format_string()]
1611
2712
 
1612
2713
 
1613
 
 
1614
2714
class WorkingTreeFormat2(WorkingTreeFormat):
1615
2715
    """The second working tree format. 
1616
2716
 
1617
2717
    This format modified the hash cache from the format 1 hash cache.
1618
2718
    """
1619
2719
 
 
2720
    upgrade_recommended = True
 
2721
 
1620
2722
    def get_format_description(self):
1621
2723
        """See WorkingTreeFormat.get_format_description()."""
1622
2724
        return "Working tree format 2"
1623
2725
 
1624
 
    def stub_initialize_remote(self, control_files):
1625
 
        """As a special workaround create critical control files for a remote working tree
1626
 
        
 
2726
    def _stub_initialize_on_transport(self, transport, file_mode):
 
2727
        """Workaround: create control files for a remote working tree.
 
2728
 
1627
2729
        This ensures that it can later be updated and dealt with locally,
1628
 
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with 
 
2730
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with
1629
2731
        no working tree.  (See bug #43064).
1630
2732
        """
1631
2733
        sio = StringIO()
1632
2734
        inv = Inventory()
1633
 
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
 
2735
        xml5.serializer_v5.write_inventory(inv, sio, working=True)
1634
2736
        sio.seek(0)
1635
 
        control_files.put('inventory', sio)
1636
 
 
1637
 
        control_files.put_utf8('pending-merges', '')
1638
 
        
1639
 
 
1640
 
    def initialize(self, a_bzrdir, revision_id=None):
 
2737
        transport.put_file('inventory', sio, file_mode)
 
2738
        transport.put_bytes('pending-merges', '', file_mode)
 
2739
 
 
2740
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
 
2741
                   accelerator_tree=None, hardlink=False):
1641
2742
        """See WorkingTreeFormat.initialize()."""
1642
2743
        if not isinstance(a_bzrdir.transport, LocalTransport):
1643
2744
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1644
 
        branch = a_bzrdir.open_branch()
1645
 
        if revision_id is not None:
1646
 
            branch.lock_write()
1647
 
            try:
1648
 
                revision_history = branch.revision_history()
1649
 
                try:
1650
 
                    position = revision_history.index(revision_id)
1651
 
                except ValueError:
1652
 
                    raise errors.NoSuchRevision(branch, revision_id)
1653
 
                branch.set_revision_history(revision_history[:position + 1])
1654
 
            finally:
1655
 
                branch.unlock()
1656
 
        revision = branch.last_revision()
1657
 
        inv = Inventory() 
1658
 
        wt = WorkingTree(a_bzrdir.root_transport.local_abspath('.'),
 
2745
        if from_branch is not None:
 
2746
            branch = from_branch
 
2747
        else:
 
2748
            branch = a_bzrdir.open_branch()
 
2749
        if revision_id is None:
 
2750
            revision_id = _mod_revision.ensure_null(branch.last_revision())
 
2751
        branch.lock_write()
 
2752
        try:
 
2753
            branch.generate_revision_history(revision_id)
 
2754
        finally:
 
2755
            branch.unlock()
 
2756
        inv = Inventory()
 
2757
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
1659
2758
                         branch,
1660
2759
                         inv,
1661
2760
                         _internal=True,
1662
2761
                         _format=self,
1663
2762
                         _bzrdir=a_bzrdir)
1664
 
        wt._write_inventory(inv)
1665
 
        wt.set_root_id(inv.root.file_id)
1666
 
        wt.set_last_revision(revision)
1667
 
        wt.set_pending_merges([])
1668
 
        build_tree(wt.basis_tree(), wt)
 
2763
        basis_tree = branch.repository.revision_tree(revision_id)
 
2764
        if basis_tree.inventory.root is not None:
 
2765
            wt.set_root_id(basis_tree.get_root_id())
 
2766
        # set the parent list and cache the basis tree.
 
2767
        if _mod_revision.is_null(revision_id):
 
2768
            parent_trees = []
 
2769
        else:
 
2770
            parent_trees = [(revision_id, basis_tree)]
 
2771
        wt.set_parent_trees(parent_trees)
 
2772
        transform.build_tree(basis_tree, wt)
1669
2773
        return wt
1670
2774
 
1671
2775
    def __init__(self):
1683
2787
            raise NotImplementedError
1684
2788
        if not isinstance(a_bzrdir.transport, LocalTransport):
1685
2789
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1686
 
        return WorkingTree(a_bzrdir.root_transport.local_abspath('.'),
 
2790
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
1687
2791
                           _internal=True,
1688
2792
                           _format=self,
1689
2793
                           _bzrdir=a_bzrdir)
1690
 
 
 
2794
        return wt
1691
2795
 
1692
2796
class WorkingTreeFormat3(WorkingTreeFormat):
1693
2797
    """The second working tree format updated to record a format marker.
1698
2802
          files, separate from the BzrDir format
1699
2803
        - modifies the hash cache format
1700
2804
        - is new in bzr 0.8
1701
 
        - uses a LockDir to guard access to the repository
 
2805
        - uses a LockDir to guard access for writes.
1702
2806
    """
 
2807
    
 
2808
    upgrade_recommended = True
1703
2809
 
1704
2810
    def get_format_string(self):
1705
2811
        """See WorkingTreeFormat.get_format_string()."""
1712
2818
    _lock_file_name = 'lock'
1713
2819
    _lock_class = LockDir
1714
2820
 
 
2821
    _tree_class = WorkingTree3
 
2822
 
 
2823
    def __get_matchingbzrdir(self):
 
2824
        return bzrdir.BzrDirMetaFormat1()
 
2825
 
 
2826
    _matchingbzrdir = property(__get_matchingbzrdir)
 
2827
 
1715
2828
    def _open_control_files(self, a_bzrdir):
1716
2829
        transport = a_bzrdir.get_workingtree_transport(None)
1717
2830
        return LockableFiles(transport, self._lock_file_name, 
1718
2831
                             self._lock_class)
1719
2832
 
1720
 
    def initialize(self, a_bzrdir, revision_id=None):
 
2833
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
 
2834
                   accelerator_tree=None, hardlink=False):
1721
2835
        """See WorkingTreeFormat.initialize().
1722
2836
        
1723
 
        revision_id allows creating a working tree at a different
1724
 
        revision than the branch is at.
 
2837
        :param revision_id: if supplied, create a working tree at a different
 
2838
            revision than the branch is at.
 
2839
        :param accelerator_tree: A tree which can be used for retrieving file
 
2840
            contents more quickly than the revision tree, i.e. a workingtree.
 
2841
            The revision tree will be used for cases where accelerator_tree's
 
2842
            content is different.
 
2843
        :param hardlink: If true, hard-link files from accelerator_tree,
 
2844
            where possible.
1725
2845
        """
1726
2846
        if not isinstance(a_bzrdir.transport, LocalTransport):
1727
2847
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1729
2849
        control_files = self._open_control_files(a_bzrdir)
1730
2850
        control_files.create_lock()
1731
2851
        control_files.lock_write()
1732
 
        control_files.put_utf8('format', self.get_format_string())
1733
 
        branch = a_bzrdir.open_branch()
 
2852
        transport.put_bytes('format', self.get_format_string(),
 
2853
            mode=control_files._file_mode)
 
2854
        if from_branch is not None:
 
2855
            branch = from_branch
 
2856
        else:
 
2857
            branch = a_bzrdir.open_branch()
1734
2858
        if revision_id is None:
1735
 
            revision_id = branch.last_revision()
1736
 
        inv = Inventory() 
1737
 
        wt = WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
 
2859
            revision_id = _mod_revision.ensure_null(branch.last_revision())
 
2860
        # WorkingTree3 can handle an inventory which has a unique root id.
 
2861
        # as of bzr 0.12. However, bzr 0.11 and earlier fail to handle
 
2862
        # those trees. And because there isn't a format bump inbetween, we
 
2863
        # are maintaining compatibility with older clients.
 
2864
        # inv = Inventory(root_id=gen_root_id())
 
2865
        inv = self._initial_inventory()
 
2866
        wt = self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
1738
2867
                         branch,
1739
2868
                         inv,
1740
2869
                         _internal=True,
1741
2870
                         _format=self,
1742
2871
                         _bzrdir=a_bzrdir,
1743
2872
                         _control_files=control_files)
1744
 
        wt.lock_write()
 
2873
        wt.lock_tree_write()
1745
2874
        try:
1746
 
            wt._write_inventory(inv)
1747
 
            wt.set_root_id(inv.root.file_id)
1748
 
            wt.set_last_revision(revision_id)
1749
 
            wt.set_pending_merges([])
1750
 
            build_tree(wt.basis_tree(), wt)
 
2875
            basis_tree = branch.repository.revision_tree(revision_id)
 
2876
            # only set an explicit root id if there is one to set.
 
2877
            if basis_tree.inventory.root is not None:
 
2878
                wt.set_root_id(basis_tree.get_root_id())
 
2879
            if revision_id == NULL_REVISION:
 
2880
                wt.set_parent_trees([])
 
2881
            else:
 
2882
                wt.set_parent_trees([(revision_id, basis_tree)])
 
2883
            transform.build_tree(basis_tree, wt)
1751
2884
        finally:
 
2885
            # Unlock in this order so that the unlock-triggers-flush in
 
2886
            # WorkingTree is given a chance to fire.
 
2887
            control_files.unlock()
1752
2888
            wt.unlock()
1753
 
            control_files.unlock()
1754
2889
        return wt
1755
2890
 
 
2891
    def _initial_inventory(self):
 
2892
        return Inventory()
 
2893
 
1756
2894
    def __init__(self):
1757
2895
        super(WorkingTreeFormat3, self).__init__()
1758
 
        self._matchingbzrdir = bzrdir.BzrDirMetaFormat1()
1759
2896
 
1760
2897
    def open(self, a_bzrdir, _found=False):
1761
2898
        """Return the WorkingTree object for a_bzrdir
1768
2905
            raise NotImplementedError
1769
2906
        if not isinstance(a_bzrdir.transport, LocalTransport):
1770
2907
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1771
 
        control_files = self._open_control_files(a_bzrdir)
1772
 
        return WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
1773
 
                           _internal=True,
1774
 
                           _format=self,
1775
 
                           _bzrdir=a_bzrdir,
1776
 
                           _control_files=control_files)
 
2908
        wt = self._open(a_bzrdir, self._open_control_files(a_bzrdir))
 
2909
        return wt
 
2910
 
 
2911
    def _open(self, a_bzrdir, control_files):
 
2912
        """Open the tree itself.
 
2913
        
 
2914
        :param a_bzrdir: the dir for the tree.
 
2915
        :param control_files: the control files for the tree.
 
2916
        """
 
2917
        return self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
 
2918
                                _internal=True,
 
2919
                                _format=self,
 
2920
                                _bzrdir=a_bzrdir,
 
2921
                                _control_files=control_files)
1777
2922
 
1778
2923
    def __str__(self):
1779
2924
        return self.get_format_string()
1780
2925
 
1781
2926
 
 
2927
__default_format = WorkingTreeFormat4()
 
2928
WorkingTreeFormat.register_format(__default_format)
 
2929
WorkingTreeFormat.register_format(WorkingTreeFormat3())
 
2930
WorkingTreeFormat.set_default_format(__default_format)
1782
2931
# formats which have no format string are not discoverable
1783
2932
# and not independently creatable, so are not registered.
1784
 
__default_format = WorkingTreeFormat3()
1785
 
WorkingTreeFormat.register_format(__default_format)
1786
 
WorkingTreeFormat.set_default_format(__default_format)
1787
2933
_legacy_formats = [WorkingTreeFormat2(),
1788
2934
                   ]
1789
 
 
1790
 
 
1791
 
class WorkingTreeTestProviderAdapter(object):
1792
 
    """A tool to generate a suite testing multiple workingtree formats at once.
1793
 
 
1794
 
    This is done by copying the test once for each transport and injecting
1795
 
    the transport_server, transport_readonly_server, and workingtree_format
1796
 
    classes into each copy. Each copy is also given a new id() to make it
1797
 
    easy to identify.
1798
 
    """
1799
 
 
1800
 
    def __init__(self, transport_server, transport_readonly_server, formats):
1801
 
        self._transport_server = transport_server
1802
 
        self._transport_readonly_server = transport_readonly_server
1803
 
        self._formats = formats
1804
 
    
1805
 
    def adapt(self, test):
1806
 
        from bzrlib.tests import TestSuite
1807
 
        result = TestSuite()
1808
 
        for workingtree_format, bzrdir_format in self._formats:
1809
 
            new_test = deepcopy(test)
1810
 
            new_test.transport_server = self._transport_server
1811
 
            new_test.transport_readonly_server = self._transport_readonly_server
1812
 
            new_test.bzrdir_format = bzrdir_format
1813
 
            new_test.workingtree_format = workingtree_format
1814
 
            def make_new_test_id():
1815
 
                new_id = "%s(%s)" % (new_test.id(), workingtree_format.__class__.__name__)
1816
 
                return lambda: new_id
1817
 
            new_test.id = make_new_test_id()
1818
 
            result.addTest(new_test)
1819
 
        return result