~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: Aaron Bentley
  • Date: 2006-06-14 19:45:57 UTC
  • mto: This revision was merged to the branch mainline in revision 1777.
  • Revision ID: abentley@panoramicfeedback.com-20060614194557-6b499aa1cf03f7e6
Use create_signature for signing policy, deprecate check_signatures for this

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007, 2008 Canonical Ltd
2
 
#
 
1
# Copyright (C) 2005, 2006 Canonical Ltd
 
2
 
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
#
 
7
 
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
#
 
12
 
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
29
29
WorkingTree.open(dir).
30
30
"""
31
31
 
 
32
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
 
33
CONFLICT_HEADER_1 = "BZR conflict list format 1"
 
34
 
32
35
# TODO: Give the workingtree sole responsibility for the working inventory;
33
36
# remove the variable and references to it from the branch.  This may require
34
37
# updating the commit code so as to update the inventory within the working
36
39
# At the moment they may alias the inventory and have old copies of it in
37
40
# memory.  (Now done? -- mbp 20060309)
38
41
 
 
42
from binascii import hexlify
 
43
import collections
 
44
from copy import deepcopy
39
45
from cStringIO import StringIO
 
46
import errno
 
47
import fnmatch
40
48
import os
41
 
import sys
42
 
 
43
 
from bzrlib.lazy_import import lazy_import
44
 
lazy_import(globals(), """
45
 
from bisect import bisect_left
46
 
import collections
47
 
import errno
48
 
import itertools
49
 
import operator
 
49
import re
50
50
import stat
51
51
from time import time
52
 
import warnings
53
 
import re
54
 
 
55
 
import bzrlib
56
 
from bzrlib import (
57
 
    branch,
58
 
    bzrdir,
59
 
    conflicts as _mod_conflicts,
60
 
    dirstate,
61
 
    errors,
62
 
    generate_ids,
63
 
    globbing,
64
 
    hashcache,
65
 
    ignores,
66
 
    merge,
67
 
    revision as _mod_revision,
68
 
    revisiontree,
69
 
    repository,
70
 
    textui,
71
 
    trace,
72
 
    transform,
73
 
    ui,
74
 
    urlutils,
75
 
    xml5,
76
 
    xml6,
77
 
    xml7,
78
 
    )
79
 
import bzrlib.branch
80
 
from bzrlib.transport import get_transport
81
 
import bzrlib.ui
82
 
from bzrlib.workingtree_4 import WorkingTreeFormat4
83
 
""")
84
 
 
85
 
from bzrlib import symbol_versioning
 
52
 
 
53
from bzrlib.atomicfile import AtomicFile
 
54
from bzrlib.branch import (Branch,
 
55
                           quotefn)
 
56
from bzrlib.conflicts import Conflict, ConflictList, CONFLICT_SUFFIXES
 
57
import bzrlib.bzrdir as bzrdir
86
58
from bzrlib.decorators import needs_read_lock, needs_write_lock
87
 
from bzrlib.inventory import InventoryEntry, Inventory, ROOT_ID, TreeReference
 
59
import bzrlib.errors as errors
 
60
from bzrlib.errors import (BzrCheckError,
 
61
                           BzrError,
 
62
                           ConflictFormatError,
 
63
                           DivergedBranches,
 
64
                           WeaveRevisionNotPresent,
 
65
                           NotBranchError,
 
66
                           NoSuchFile,
 
67
                           NotVersionedError,
 
68
                           MergeModifiedFormatError,
 
69
                           UnsupportedOperation,
 
70
                           )
 
71
from bzrlib.inventory import InventoryEntry, Inventory
88
72
from bzrlib.lockable_files import LockableFiles, TransportLock
89
73
from bzrlib.lockdir import LockDir
90
 
import bzrlib.mutabletree
91
 
from bzrlib.mutabletree import needs_tree_write_lock
92
 
from bzrlib import osutils
 
74
from bzrlib.merge import merge_inner, transform_tree
93
75
from bzrlib.osutils import (
94
 
    compact_date,
95
 
    file_kind,
96
 
    isdir,
97
 
    normpath,
98
 
    pathjoin,
99
 
    rand_chars,
100
 
    realpath,
101
 
    safe_unicode,
102
 
    splitpath,
103
 
    supports_executable,
104
 
    )
 
76
                            abspath,
 
77
                            compact_date,
 
78
                            file_kind,
 
79
                            isdir,
 
80
                            getcwd,
 
81
                            pathjoin,
 
82
                            pumpfile,
 
83
                            safe_unicode,
 
84
                            splitpath,
 
85
                            rand_chars,
 
86
                            normpath,
 
87
                            realpath,
 
88
                            relpath,
 
89
                            rename,
 
90
                            supports_executable,
 
91
                            )
 
92
from bzrlib.progress import DummyProgress, ProgressPhase
 
93
from bzrlib.revision import NULL_REVISION
 
94
from bzrlib.rio import RioReader, rio_file, Stanza
 
95
from bzrlib.symbol_versioning import *
 
96
from bzrlib.textui import show_status
 
97
import bzrlib.tree
 
98
from bzrlib.transform import build_tree
105
99
from bzrlib.trace import mutter, note
 
100
from bzrlib.transport import get_transport
106
101
from bzrlib.transport.local import LocalTransport
107
 
from bzrlib.progress import DummyProgress, ProgressPhase
108
 
from bzrlib.revision import NULL_REVISION, CURRENT_REVISION
109
 
from bzrlib.rio import RioReader, rio_file, Stanza
110
 
from bzrlib.symbol_versioning import (deprecated_passed,
111
 
        deprecated_method,
112
 
        deprecated_function,
113
 
        DEPRECATED_PARAMETER,
114
 
        )
115
 
 
116
 
 
117
 
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
118
 
CONFLICT_HEADER_1 = "BZR conflict list format 1"
119
 
 
120
 
ERROR_PATH_NOT_FOUND = 3    # WindowsError errno code, equivalent to ENOENT
 
102
import bzrlib.urlutils as urlutils
 
103
import bzrlib.ui
 
104
import bzrlib.xml5
 
105
 
 
106
 
 
107
# the regex here does the following:
 
108
# 1) remove any weird characters; we don't escape them but rather
 
109
# just pull them out
 
110
 # 2) match leading '.'s to make it not hidden
 
111
_gen_file_id_re = re.compile(r'[^\w.]|(^\.*)')
 
112
_gen_id_suffix = None
 
113
_gen_id_serial = 0
 
114
 
 
115
 
 
116
def _next_id_suffix():
 
117
    """Create a new file id suffix that is reasonably unique.
 
118
    
 
119
    On the first call we combine the current time with 64 bits of randomness
 
120
    to give a highly probably globally unique number. Then each call in the same
 
121
    process adds 1 to a serial number we append to that unique value.
 
122
    """
 
123
    # XXX TODO: change bzrlib.add.smart_add to call workingtree.add() rather 
 
124
    # than having to move the id randomness out of the inner loop like this.
 
125
    # XXX TODO: for the global randomness this uses we should add the thread-id
 
126
    # before the serial #.
 
127
    global _gen_id_suffix, _gen_id_serial
 
128
    if _gen_id_suffix is None:
 
129
        _gen_id_suffix = "-%s-%s-" % (compact_date(time()), rand_chars(16))
 
130
    _gen_id_serial += 1
 
131
    return _gen_id_suffix + str(_gen_id_serial)
 
132
 
 
133
 
 
134
def gen_file_id(name):
 
135
    """Return new file id for the basename 'name'.
 
136
 
 
137
    The uniqueness is supplied from _next_id_suffix.
 
138
    """
 
139
    # XXX TODO: squash the filename to lowercase.
 
140
    # XXX TODO: truncate the filename to something like 20 or 30 chars.
 
141
    # XXX TODO: consider what to do with ids that look like illegal filepaths
 
142
    # on platforms we support.
 
143
    return _gen_file_id_re.sub('', name) + _next_id_suffix()
 
144
 
 
145
 
 
146
def gen_root_id():
 
147
    """Return a new tree-root file id."""
 
148
    return gen_file_id('TREE_ROOT')
121
149
 
122
150
 
123
151
class TreeEntry(object):
175
203
        return ''
176
204
 
177
205
 
178
 
class WorkingTree(bzrlib.mutabletree.MutableTree):
 
206
class WorkingTree(bzrlib.tree.Tree):
179
207
    """Working copy tree.
180
208
 
181
209
    The inventory is held in the `Branch` working-inventory, and the
192
220
                 _internal=False,
193
221
                 _format=None,
194
222
                 _bzrdir=None):
195
 
        """Construct a WorkingTree instance. This is not a public API.
 
223
        """Construct a WorkingTree for basedir.
196
224
 
197
 
        :param branch: A branch to override probing for the branch.
 
225
        If the branch is not supplied, it is opened automatically.
 
226
        If the branch is supplied, it must be the branch for this basedir.
 
227
        (branch.base is not cross checked, because for remote branches that
 
228
        would be meaningless).
198
229
        """
199
230
        self._format = _format
200
231
        self.bzrdir = _bzrdir
201
232
        if not _internal:
202
 
            raise errors.BzrError("Please use bzrdir.open_workingtree or "
203
 
                "WorkingTree.open() to obtain a WorkingTree.")
 
233
            # not created via open etc.
 
234
            warn("WorkingTree() is deprecated as of bzr version 0.8. "
 
235
                 "Please use bzrdir.open_workingtree or WorkingTree.open().",
 
236
                 DeprecationWarning,
 
237
                 stacklevel=2)
 
238
            wt = WorkingTree.open(basedir)
 
239
            self._branch = wt.branch
 
240
            self.basedir = wt.basedir
 
241
            self._control_files = wt._control_files
 
242
            self._hashcache = wt._hashcache
 
243
            self._set_inventory(wt._inventory)
 
244
            self._format = wt._format
 
245
            self.bzrdir = wt.bzrdir
 
246
        from bzrlib.hashcache import HashCache
 
247
        from bzrlib.trace import note, mutter
 
248
        assert isinstance(basedir, basestring), \
 
249
            "base directory %r is not a string" % basedir
204
250
        basedir = safe_unicode(basedir)
205
251
        mutter("opening working tree %r", basedir)
206
252
        if deprecated_passed(branch):
 
253
            if not _internal:
 
254
                warn("WorkingTree(..., branch=XXX) is deprecated as of bzr 0.8."
 
255
                     " Please use bzrdir.open_workingtree() or"
 
256
                     " WorkingTree.open().",
 
257
                     DeprecationWarning,
 
258
                     stacklevel=2
 
259
                     )
207
260
            self._branch = branch
208
261
        else:
209
262
            self._branch = self.bzrdir.open_branch()
 
263
        assert isinstance(self.branch, Branch), \
 
264
            "branch %r is not a Branch" % self.branch
210
265
        self.basedir = realpath(basedir)
211
266
        # if branch is at our basedir and is a format 6 or less
212
267
        if isinstance(self._format, WorkingTreeFormat2):
213
268
            # share control object
214
269
            self._control_files = self.branch.control_files
215
270
        else:
216
 
            # assume all other formats have their own control files.
 
271
            # only ready for format 3
 
272
            assert isinstance(self._format, WorkingTreeFormat3)
 
273
            assert isinstance(_control_files, LockableFiles), \
 
274
                    "_control_files must be a LockableFiles, not %r" \
 
275
                    % _control_files
217
276
            self._control_files = _control_files
218
 
        self._transport = self._control_files._transport
219
277
        # update the whole cache up front and write to disk if anything changed;
220
278
        # in the future we might want to do this more selectively
221
279
        # two possible ways offer themselves : in self._unlock, write the cache
222
280
        # if needed, or, when the cache sees a change, append it to the hash
223
281
        # cache file, and have the parser take the most recent entry for a
224
282
        # given path only.
225
 
        wt_trans = self.bzrdir.get_workingtree_transport(None)
226
 
        cache_filename = wt_trans.local_abspath('stat-cache')
227
 
        self._hashcache = hashcache.HashCache(basedir, cache_filename,
228
 
            self.bzrdir._get_file_mode())
229
 
        hc = self._hashcache
 
283
        cache_filename = self.bzrdir.get_workingtree_transport(None).local_abspath('stat-cache')
 
284
        hc = self._hashcache = HashCache(basedir, cache_filename, self._control_files._file_mode)
230
285
        hc.read()
231
286
        # is this scan needed ? it makes things kinda slow.
232
287
        #hc.scan()
236
291
            hc.write()
237
292
 
238
293
        if _inventory is None:
239
 
            # This will be acquired on lock_read() or lock_write()
240
 
            self._inventory_is_modified = False
241
 
            self._inventory = None
242
 
        else:
243
 
            # the caller of __init__ has provided an inventory,
244
 
            # we assume they know what they are doing - as its only
245
 
            # the Format factory and creation methods that are
246
 
            # permitted to do this.
247
 
            self._set_inventory(_inventory, dirty=False)
248
 
        self._detect_case_handling()
249
 
        self._rules_searcher = None
250
 
 
251
 
    def _detect_case_handling(self):
252
 
        wt_trans = self.bzrdir.get_workingtree_transport(None)
253
 
        try:
254
 
            wt_trans.stat("FoRMaT")
255
 
        except errors.NoSuchFile:
256
 
            self.case_sensitive = True
257
 
        else:
258
 
            self.case_sensitive = False
259
 
 
260
 
        self._setup_directory_is_tree_reference()
 
294
            self._set_inventory(self.read_working_inventory())
 
295
        else:
 
296
            self._set_inventory(_inventory)
261
297
 
262
298
    branch = property(
263
299
        fget=lambda self: self._branch,
278
314
        self._control_files.break_lock()
279
315
        self.branch.break_lock()
280
316
 
281
 
    def requires_rich_root(self):
282
 
        return self._format.requires_rich_root
283
 
 
284
 
    def supports_tree_reference(self):
285
 
        return False
286
 
 
287
 
    def _set_inventory(self, inv, dirty):
288
 
        """Set the internal cached inventory.
289
 
 
290
 
        :param inv: The inventory to set.
291
 
        :param dirty: A boolean indicating whether the inventory is the same
292
 
            logical inventory as whats on disk. If True the inventory is not
293
 
            the same and should be written to disk or data will be lost, if
294
 
            False then the inventory is the same as that on disk and any
295
 
            serialisation would be unneeded overhead.
296
 
        """
 
317
    def _set_inventory(self, inv):
297
318
        self._inventory = inv
298
 
        self._inventory_is_modified = dirty
 
319
        self.path2id = self._inventory.path2id
 
320
 
 
321
    def is_control_filename(self, filename):
 
322
        """True if filename is the name of a control file in this tree.
 
323
        
 
324
        :param filename: A filename within the tree. This is a relative path
 
325
        from the root of this tree.
 
326
 
 
327
        This is true IF and ONLY IF the filename is part of the meta data
 
328
        that bzr controls in this tree. I.E. a random .bzr directory placed
 
329
        on disk will not be a control file for this tree.
 
330
        """
 
331
        return self.bzrdir.is_control_filename(filename)
299
332
 
300
333
    @staticmethod
301
334
    def open(path=None, _unsupported=False):
303
336
 
304
337
        """
305
338
        if path is None:
306
 
            path = osutils.getcwd()
 
339
            path = os.path.getcwdu()
307
340
        control = bzrdir.BzrDir.open(path, _unsupported)
308
341
        return control.open_workingtree(_unsupported)
309
 
 
 
342
        
310
343
    @staticmethod
311
344
    def open_containing(path=None):
312
345
        """Open an existing working tree which has its root about path.
313
 
 
 
346
        
314
347
        This probes for a working tree at path and searches upwards from there.
315
348
 
316
349
        Basically we keep looking up until we find the control directory or
321
354
        :return: The WorkingTree that contains 'path', and the rest of path
322
355
        """
323
356
        if path is None:
324
 
            path = osutils.getcwd()
 
357
            path = os.getcwdu()
325
358
        control, relpath = bzrdir.BzrDir.open_containing(path)
326
359
 
327
360
        return control.open_workingtree(), relpath
334
367
        """
335
368
        return WorkingTree.open(path, _unsupported=True)
336
369
 
337
 
    @staticmethod
338
 
    def find_trees(location):
339
 
        def list_current(transport):
340
 
            return [d for d in transport.list_dir('') if d != '.bzr']
341
 
        def evaluate(bzrdir):
342
 
            try:
343
 
                tree = bzrdir.open_workingtree()
344
 
            except errors.NoWorkingTree:
345
 
                return True, None
346
 
            else:
347
 
                return True, tree
348
 
        transport = get_transport(location)
349
 
        iterator = bzrdir.BzrDir.find_bzrdirs(transport, evaluate=evaluate,
350
 
                                              list_current=list_current)
351
 
        return [t for t in iterator if t is not None]
352
 
 
353
 
    # should be deprecated - this is slow and in any case treating them as a
354
 
    # container is (we now know) bad style -- mbp 20070302
355
 
    ## @deprecated_method(zero_fifteen)
356
370
    def __iter__(self):
357
371
        """Iterate through file_ids for this tree.
358
372
 
361
375
        """
362
376
        inv = self._inventory
363
377
        for path, ie in inv.iter_entries():
364
 
            if osutils.lexists(self.abspath(path)):
 
378
            if bzrlib.osutils.lexists(self.abspath(path)):
365
379
                yield ie.file_id
366
380
 
367
 
    def all_file_ids(self):
368
 
        """See Tree.iter_all_file_ids"""
369
 
        return set(self.inventory)
370
 
 
371
381
    def __repr__(self):
372
382
        return "<%s of %s>" % (self.__class__.__name__,
373
383
                               getattr(self, 'basedir', None))
374
384
 
375
385
    def abspath(self, filename):
376
386
        return pathjoin(self.basedir, filename)
377
 
 
 
387
    
378
388
    def basis_tree(self):
379
 
        """Return RevisionTree for the current last revision.
380
 
        
381
 
        If the left most parent is a ghost then the returned tree will be an
382
 
        empty tree - one obtained by calling 
383
 
        repository.revision_tree(NULL_REVISION).
384
 
        """
385
 
        try:
386
 
            revision_id = self.get_parent_ids()[0]
387
 
        except IndexError:
388
 
            # no parents, return an empty revision tree.
389
 
            # in the future this should return the tree for
390
 
            # 'empty:' - the implicit root empty tree.
391
 
            return self.branch.repository.revision_tree(
392
 
                       _mod_revision.NULL_REVISION)
393
 
        try:
394
 
            return self.revision_tree(revision_id)
395
 
        except errors.NoSuchRevision:
396
 
            pass
397
 
        # No cached copy available, retrieve from the repository.
398
 
        # FIXME? RBC 20060403 should we cache the inventory locally
399
 
        # at this point ?
400
 
        try:
401
 
            return self.branch.repository.revision_tree(revision_id)
402
 
        except (errors.RevisionNotPresent, errors.NoSuchRevision):
403
 
            # the basis tree *may* be a ghost or a low level error may have
404
 
            # occured. If the revision is present, its a problem, if its not
405
 
            # its a ghost.
406
 
            if self.branch.repository.has_revision(revision_id):
407
 
                raise
408
 
            # the basis tree is a ghost so return an empty tree.
409
 
            return self.branch.repository.revision_tree(
410
 
                       _mod_revision.NULL_REVISION)
411
 
 
412
 
    def _cleanup(self):
413
 
        self._flush_ignore_list_cache()
 
389
        """Return RevisionTree for the current last revision."""
 
390
        revision_id = self.last_revision()
 
391
        if revision_id is not None:
 
392
            try:
 
393
                xml = self.read_basis_inventory()
 
394
                inv = bzrlib.xml5.serializer_v5.read_inventory_from_string(xml)
 
395
            except NoSuchFile:
 
396
                inv = None
 
397
            if inv is not None and inv.revision_id == revision_id:
 
398
                return bzrlib.tree.RevisionTree(self.branch.repository, inv,
 
399
                                                revision_id)
 
400
        # FIXME? RBC 20060403 should we cache the inventory here ?
 
401
        return self.branch.repository.revision_tree(revision_id)
 
402
 
 
403
    @staticmethod
 
404
    @deprecated_method(zero_eight)
 
405
    def create(branch, directory):
 
406
        """Create a workingtree for branch at directory.
 
407
 
 
408
        If existing_directory already exists it must have a .bzr directory.
 
409
        If it does not exist, it will be created.
 
410
 
 
411
        This returns a new WorkingTree object for the new checkout.
 
412
 
 
413
        TODO FIXME RBC 20060124 when we have checkout formats in place this
 
414
        should accept an optional revisionid to checkout [and reject this if
 
415
        checking out into the same dir as a pre-checkout-aware branch format.]
 
416
 
 
417
        XXX: When BzrDir is present, these should be created through that 
 
418
        interface instead.
 
419
        """
 
420
        warn('delete WorkingTree.create', stacklevel=3)
 
421
        transport = get_transport(directory)
 
422
        if branch.bzrdir.root_transport.base == transport.base:
 
423
            # same dir 
 
424
            return branch.bzrdir.create_workingtree()
 
425
        # different directory, 
 
426
        # create a branch reference
 
427
        # and now a working tree.
 
428
        raise NotImplementedError
 
429
 
 
430
    @staticmethod
 
431
    @deprecated_method(zero_eight)
 
432
    def create_standalone(directory):
 
433
        """Create a checkout and a branch and a repo at directory.
 
434
 
 
435
        Directory must exist and be empty.
 
436
 
 
437
        please use BzrDir.create_standalone_workingtree
 
438
        """
 
439
        return bzrdir.BzrDir.create_standalone_workingtree(directory)
414
440
 
415
441
    def relpath(self, path):
416
442
        """Return the local path portion from a given path.
418
444
        The path may be absolute or relative. If its a relative path it is 
419
445
        interpreted relative to the python current working directory.
420
446
        """
421
 
        return osutils.relpath(self.basedir, path)
 
447
        return relpath(self.basedir, path)
422
448
 
423
449
    def has_filename(self, filename):
424
 
        return osutils.lexists(self.abspath(filename))
425
 
 
426
 
    def get_file(self, file_id, path=None):
427
 
        return self.get_file_with_stat(file_id, path)[0]
428
 
 
429
 
    def get_file_with_stat(self, file_id, path=None, _fstat=os.fstat):
430
 
        """See MutableTree.get_file_with_stat."""
431
 
        if path is None:
432
 
            path = self.id2path(file_id)
433
 
        file_obj = self.get_file_byname(path)
434
 
        return (file_obj, _fstat(file_obj.fileno()))
435
 
 
436
 
    def get_file_text(self, file_id):
437
 
        return self.get_file(file_id).read()
 
450
        return bzrlib.osutils.lexists(self.abspath(filename))
 
451
 
 
452
    def get_file(self, file_id):
 
453
        return self.get_file_byname(self.id2path(file_id))
438
454
 
439
455
    def get_file_byname(self, filename):
440
456
        return file(self.abspath(filename), 'rb')
441
457
 
442
 
    @needs_read_lock
443
 
    def annotate_iter(self, file_id, default_revision=CURRENT_REVISION):
444
 
        """See Tree.annotate_iter
445
 
 
446
 
        This implementation will use the basis tree implementation if possible.
447
 
        Lines not in the basis are attributed to CURRENT_REVISION
448
 
 
449
 
        If there are pending merges, lines added by those merges will be
450
 
        incorrectly attributed to CURRENT_REVISION (but after committing, the
451
 
        attribution will be correct).
452
 
        """
453
 
        basis = self.basis_tree()
454
 
        basis.lock_read()
455
 
        try:
456
 
            changes = self.iter_changes(basis, True, [self.id2path(file_id)],
457
 
                require_versioned=True).next()
458
 
            changed_content, kind = changes[2], changes[6]
459
 
            if not changed_content:
460
 
                return basis.annotate_iter(file_id)
461
 
            if kind[1] is None:
462
 
                return None
463
 
            import annotate
464
 
            if kind[0] != 'file':
465
 
                old_lines = []
466
 
            else:
467
 
                old_lines = list(basis.annotate_iter(file_id))
468
 
            old = [old_lines]
469
 
            for tree in self.branch.repository.revision_trees(
470
 
                self.get_parent_ids()[1:]):
471
 
                if file_id not in tree:
472
 
                    continue
473
 
                old.append(list(tree.annotate_iter(file_id)))
474
 
            return annotate.reannotate(old, self.get_file(file_id).readlines(),
475
 
                                       default_revision)
476
 
        finally:
477
 
            basis.unlock()
478
 
 
479
 
    def _get_ancestors(self, default_revision):
480
 
        ancestors = set([default_revision])
481
 
        for parent_id in self.get_parent_ids():
482
 
            ancestors.update(self.branch.repository.get_ancestry(
483
 
                             parent_id, topo_sorted=False))
484
 
        return ancestors
485
 
 
486
 
    def get_parent_ids(self):
487
 
        """See Tree.get_parent_ids.
488
 
        
489
 
        This implementation reads the pending merges list and last_revision
490
 
        value and uses that to decide what the parents list should be.
491
 
        """
492
 
        last_rev = _mod_revision.ensure_null(self._last_revision())
493
 
        if _mod_revision.NULL_REVISION == last_rev:
494
 
            parents = []
495
 
        else:
496
 
            parents = [last_rev]
497
 
        try:
498
 
            merges_file = self._transport.get('pending-merges')
499
 
        except errors.NoSuchFile:
500
 
            pass
501
 
        else:
502
 
            for l in merges_file.readlines():
503
 
                revision_id = l.rstrip('\n')
504
 
                parents.append(revision_id)
505
 
        return parents
506
 
 
507
 
    @needs_read_lock
508
458
    def get_root_id(self):
509
459
        """Return the id of this trees root"""
510
 
        return self._inventory.root.file_id
 
460
        inv = self.read_working_inventory()
 
461
        return inv.root.file_id
511
462
        
512
463
    def _get_store_filename(self, file_id):
513
464
        ## XXX: badly named; this is not in the store at all
514
465
        return self.abspath(self.id2path(file_id))
515
466
 
516
467
    @needs_read_lock
517
 
    def clone(self, to_bzrdir, revision_id=None):
 
468
    def clone(self, to_bzrdir, revision_id=None, basis=None):
518
469
        """Duplicate this working tree into to_bzr, including all state.
519
470
        
520
471
        Specifically modified files are kept as modified, but
526
477
            If not None, the cloned tree will have its last revision set to 
527
478
            revision, and and difference between the source trees last revision
528
479
            and this one merged in.
 
480
 
 
481
        basis
 
482
            If not None, a closer copy of a tree which may have some files in
 
483
            common, and which file content should be preferentially copied from.
529
484
        """
530
485
        # assumes the target bzr dir format is compatible.
531
 
        result = to_bzrdir.create_workingtree()
 
486
        result = self._format.initialize(to_bzrdir)
532
487
        self.copy_content_into(result, revision_id)
533
488
        return result
534
489
 
535
490
    @needs_read_lock
536
491
    def copy_content_into(self, tree, revision_id=None):
537
492
        """Copy the current content and user files of this tree into tree."""
538
 
        tree.set_root_id(self.get_root_id())
539
493
        if revision_id is None:
540
 
            merge.transform_tree(tree, self)
 
494
            transform_tree(tree, self)
541
495
        else:
542
 
            # TODO now merge from tree.last_revision to revision (to preserve
543
 
            # user local changes)
544
 
            merge.transform_tree(tree, self)
545
 
            tree.set_parent_ids([revision_id])
 
496
            # TODO now merge from tree.last_revision to revision
 
497
            transform_tree(tree, self)
 
498
            tree.set_last_revision(revision_id)
 
499
 
 
500
    @needs_write_lock
 
501
    def commit(self, message=None, revprops=None, *args, **kwargs):
 
502
        # avoid circular imports
 
503
        from bzrlib.commit import Commit
 
504
        if revprops is None:
 
505
            revprops = {}
 
506
        if not 'branch-nick' in revprops:
 
507
            revprops['branch-nick'] = self.branch.nick
 
508
        # args for wt.commit start at message from the Commit.commit method,
 
509
        # but with branch a kwarg now, passing in args as is results in the
 
510
        #message being used for the branch
 
511
        args = (DEPRECATED_PARAMETER, message, ) + args
 
512
        Commit().commit(working_tree=self, revprops=revprops, *args, **kwargs)
 
513
        self._set_inventory(self.read_working_inventory())
546
514
 
547
515
    def id2abspath(self, file_id):
548
516
        return self.abspath(self.id2path(file_id))
549
517
 
550
518
    def has_id(self, file_id):
551
519
        # files that have been deleted are excluded
552
 
        inv = self.inventory
 
520
        inv = self._inventory
553
521
        if not inv.has_id(file_id):
554
522
            return False
555
523
        path = inv.id2path(file_id)
556
 
        return osutils.lexists(self.abspath(path))
 
524
        return bzrlib.osutils.lexists(self.abspath(path))
557
525
 
558
526
    def has_or_had_id(self, file_id):
559
527
        if file_id == self.inventory.root.file_id:
563
531
    __contains__ = has_id
564
532
 
565
533
    def get_file_size(self, file_id):
566
 
        """See Tree.get_file_size"""
567
 
        try:
568
 
            return os.path.getsize(self.id2abspath(file_id))
569
 
        except OSError, e:
570
 
            if e.errno != errno.ENOENT:
571
 
                raise
572
 
            else:
573
 
                return None
 
534
        return os.path.getsize(self.id2abspath(file_id))
574
535
 
575
536
    @needs_read_lock
576
 
    def get_file_sha1(self, file_id, path=None, stat_value=None):
 
537
    def get_file_sha1(self, file_id, path=None):
577
538
        if not path:
578
539
            path = self._inventory.id2path(file_id)
579
 
        return self._hashcache.get_sha1(path, stat_value)
 
540
        return self._hashcache.get_sha1(path)
580
541
 
581
542
    def get_file_mtime(self, file_id, path=None):
582
543
        if not path:
583
 
            path = self.inventory.id2path(file_id)
 
544
            path = self._inventory.id2path(file_id)
584
545
        return os.lstat(self.abspath(path)).st_mtime
585
546
 
586
 
    def _is_executable_from_path_and_stat_from_basis(self, path, stat_result):
587
 
        file_id = self.path2id(path)
588
 
        return self._inventory[file_id].executable
589
 
 
590
 
    def _is_executable_from_path_and_stat_from_stat(self, path, stat_result):
591
 
        mode = stat_result.st_mode
592
 
        return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
593
 
 
594
547
    if not supports_executable():
595
548
        def is_executable(self, file_id, path=None):
596
549
            return self._inventory[file_id].executable
597
 
 
598
 
        _is_executable_from_path_and_stat = \
599
 
            _is_executable_from_path_and_stat_from_basis
600
550
    else:
601
551
        def is_executable(self, file_id, path=None):
602
552
            if not path:
603
 
                path = self.id2path(file_id)
 
553
                path = self._inventory.id2path(file_id)
604
554
            mode = os.lstat(self.abspath(path)).st_mode
605
555
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
606
556
 
607
 
        _is_executable_from_path_and_stat = \
608
 
            _is_executable_from_path_and_stat_from_stat
609
 
 
610
 
    @needs_tree_write_lock
611
 
    def _add(self, files, ids, kinds):
612
 
        """See MutableTree._add."""
 
557
    @needs_write_lock
 
558
    def add(self, files, ids=None):
 
559
        """Make files versioned.
 
560
 
 
561
        Note that the command line normally calls smart_add instead,
 
562
        which can automatically recurse.
 
563
 
 
564
        This adds the files to the inventory, so that they will be
 
565
        recorded by the next commit.
 
566
 
 
567
        files
 
568
            List of paths to add, relative to the base of the tree.
 
569
 
 
570
        ids
 
571
            If set, use these instead of automatically generated ids.
 
572
            Must be the same length as the list of files, but may
 
573
            contain None for ids that are to be autogenerated.
 
574
 
 
575
        TODO: Perhaps have an option to add the ids even if the files do
 
576
              not (yet) exist.
 
577
 
 
578
        TODO: Perhaps callback with the ids and paths as they're added.
 
579
        """
613
580
        # TODO: Re-adding a file that is removed in the working copy
614
581
        # should probably put it back with the previous ID.
615
 
        # the read and write working inventory should not occur in this 
616
 
        # function - they should be part of lock_write and unlock.
617
 
        inv = self.inventory
618
 
        for f, file_id, kind in zip(files, ids, kinds):
 
582
        if isinstance(files, basestring):
 
583
            assert(ids is None or isinstance(ids, basestring))
 
584
            files = [files]
 
585
            if ids is not None:
 
586
                ids = [ids]
 
587
 
 
588
        if ids is None:
 
589
            ids = [None] * len(files)
 
590
        else:
 
591
            assert(len(ids) == len(files))
 
592
 
 
593
        inv = self.read_working_inventory()
 
594
        for f,file_id in zip(files, ids):
 
595
            if self.is_control_filename(f):
 
596
                raise BzrError("cannot add control file %s" % quotefn(f))
 
597
 
 
598
            fp = splitpath(f)
 
599
 
 
600
            if len(fp) == 0:
 
601
                raise BzrError("cannot add top-level %r" % f)
 
602
 
 
603
            fullpath = normpath(self.abspath(f))
 
604
 
 
605
            try:
 
606
                kind = file_kind(fullpath)
 
607
            except OSError, e:
 
608
                if e.errno == errno.ENOENT:
 
609
                    raise NoSuchFile(fullpath)
 
610
                # maybe something better?
 
611
                raise BzrError('cannot add: not a regular file, symlink or directory: %s' % quotefn(f))
 
612
 
 
613
            if not InventoryEntry.versionable_kind(kind):
 
614
                raise BzrError('cannot add: not a versionable file ('
 
615
                               'i.e. regular file, symlink or directory): %s' % quotefn(f))
 
616
 
619
617
            if file_id is None:
620
618
                inv.add_path(f, kind=kind)
621
619
            else:
622
620
                inv.add_path(f, kind=kind, file_id=file_id)
623
 
            self._inventory_is_modified = True
624
621
 
625
 
    @needs_tree_write_lock
626
 
    def _gather_kinds(self, files, kinds):
627
 
        """See MutableTree._gather_kinds."""
628
 
        for pos, f in enumerate(files):
629
 
            if kinds[pos] is None:
630
 
                fullpath = normpath(self.abspath(f))
631
 
                try:
632
 
                    kinds[pos] = file_kind(fullpath)
633
 
                except OSError, e:
634
 
                    if e.errno == errno.ENOENT:
635
 
                        raise errors.NoSuchFile(fullpath)
 
622
        self._write_inventory(inv)
636
623
 
637
624
    @needs_write_lock
638
 
    def add_parent_tree_id(self, revision_id, allow_leftmost_as_ghost=False):
639
 
        """Add revision_id as a parent.
640
 
 
641
 
        This is equivalent to retrieving the current list of parent ids
642
 
        and setting the list to its value plus revision_id.
643
 
 
644
 
        :param revision_id: The revision id to add to the parent list. It may
645
 
        be a ghost revision as long as its not the first parent to be added,
646
 
        or the allow_leftmost_as_ghost parameter is set True.
647
 
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
648
 
        """
649
 
        parents = self.get_parent_ids() + [revision_id]
650
 
        self.set_parent_ids(parents, allow_leftmost_as_ghost=len(parents) > 1
651
 
            or allow_leftmost_as_ghost)
652
 
 
653
 
    @needs_tree_write_lock
654
 
    def add_parent_tree(self, parent_tuple, allow_leftmost_as_ghost=False):
655
 
        """Add revision_id, tree tuple as a parent.
656
 
 
657
 
        This is equivalent to retrieving the current list of parent trees
658
 
        and setting the list to its value plus parent_tuple. See also
659
 
        add_parent_tree_id - if you only have a parent id available it will be
660
 
        simpler to use that api. If you have the parent already available, using
661
 
        this api is preferred.
662
 
 
663
 
        :param parent_tuple: The (revision id, tree) to add to the parent list.
664
 
            If the revision_id is a ghost, pass None for the tree.
665
 
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
666
 
        """
667
 
        parent_ids = self.get_parent_ids() + [parent_tuple[0]]
668
 
        if len(parent_ids) > 1:
669
 
            # the leftmost may have already been a ghost, preserve that if it
670
 
            # was.
671
 
            allow_leftmost_as_ghost = True
672
 
        self.set_parent_ids(parent_ids,
673
 
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
674
 
 
675
 
    @needs_tree_write_lock
676
625
    def add_pending_merge(self, *revision_ids):
677
626
        # TODO: Perhaps should check at this point that the
678
627
        # history of the revision is actually present?
679
 
        parents = self.get_parent_ids()
 
628
        p = self.pending_merges()
680
629
        updated = False
681
630
        for rev_id in revision_ids:
682
 
            if rev_id in parents:
 
631
            if rev_id in p:
683
632
                continue
684
 
            parents.append(rev_id)
 
633
            p.append(rev_id)
685
634
            updated = True
686
635
        if updated:
687
 
            self.set_parent_ids(parents, allow_leftmost_as_ghost=True)
688
 
 
689
 
    def path_content_summary(self, path, _lstat=os.lstat,
690
 
        _mapper=osutils.file_kind_from_stat_mode):
691
 
        """See Tree.path_content_summary."""
692
 
        abspath = self.abspath(path)
 
636
            self.set_pending_merges(p)
 
637
 
 
638
    @needs_read_lock
 
639
    def pending_merges(self):
 
640
        """Return a list of pending merges.
 
641
 
 
642
        These are revisions that have been merged into the working
 
643
        directory but not yet committed.
 
644
        """
693
645
        try:
694
 
            stat_result = _lstat(abspath)
 
646
            merges_file = self._control_files.get_utf8('pending-merges')
695
647
        except OSError, e:
696
 
            if getattr(e, 'errno', None) == errno.ENOENT:
697
 
                # no file.
698
 
                return ('missing', None, None, None)
699
 
            # propagate other errors
700
 
            raise
701
 
        kind = _mapper(stat_result.st_mode)
702
 
        if kind == 'file':
703
 
            size = stat_result.st_size
704
 
            # try for a stat cache lookup
705
 
            executable = self._is_executable_from_path_and_stat(path, stat_result)
706
 
            return (kind, size, executable, self._sha_from_stat(
707
 
                path, stat_result))
708
 
        elif kind == 'directory':
709
 
            # perhaps it looks like a plain directory, but it's really a
710
 
            # reference.
711
 
            if self._directory_is_tree_reference(path):
712
 
                kind = 'tree-reference'
713
 
            return kind, None, None, None
714
 
        elif kind == 'symlink':
715
 
            return ('symlink', None, None, os.readlink(abspath))
716
 
        else:
717
 
            return (kind, None, None, None)
718
 
 
719
 
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
720
 
        """Common ghost checking functionality from set_parent_*.
721
 
 
722
 
        This checks that the left hand-parent exists if there are any
723
 
        revisions present.
724
 
        """
725
 
        if len(revision_ids) > 0:
726
 
            leftmost_id = revision_ids[0]
727
 
            if (not allow_leftmost_as_ghost and not
728
 
                self.branch.repository.has_revision(leftmost_id)):
729
 
                raise errors.GhostRevisionUnusableHere(leftmost_id)
730
 
 
731
 
    def _set_merges_from_parent_ids(self, parent_ids):
732
 
        merges = parent_ids[1:]
733
 
        self._transport.put_bytes('pending-merges', '\n'.join(merges),
734
 
            mode=self._control_files._file_mode)
735
 
 
736
 
    def _filter_parent_ids_by_ancestry(self, revision_ids):
737
 
        """Check that all merged revisions are proper 'heads'.
738
 
 
739
 
        This will always return the first revision_id, and any merged revisions
740
 
        which are 
741
 
        """
742
 
        if len(revision_ids) == 0:
743
 
            return revision_ids
744
 
        graph = self.branch.repository.get_graph()
745
 
        heads = graph.heads(revision_ids)
746
 
        new_revision_ids = revision_ids[:1]
747
 
        for revision_id in revision_ids[1:]:
748
 
            if revision_id in heads and revision_id not in new_revision_ids:
749
 
                new_revision_ids.append(revision_id)
750
 
        if new_revision_ids != revision_ids:
751
 
            trace.mutter('requested to set revision_ids = %s,'
752
 
                         ' but filtered to %s', revision_ids, new_revision_ids)
753
 
        return new_revision_ids
754
 
 
755
 
    @needs_tree_write_lock
756
 
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
757
 
        """Set the parent ids to revision_ids.
758
 
        
759
 
        See also set_parent_trees. This api will try to retrieve the tree data
760
 
        for each element of revision_ids from the trees repository. If you have
761
 
        tree data already available, it is more efficient to use
762
 
        set_parent_trees rather than set_parent_ids. set_parent_ids is however
763
 
        an easier API to use.
764
 
 
765
 
        :param revision_ids: The revision_ids to set as the parent ids of this
766
 
            working tree. Any of these may be ghosts.
767
 
        """
768
 
        self._check_parents_for_ghosts(revision_ids,
769
 
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
770
 
        for revision_id in revision_ids:
771
 
            _mod_revision.check_not_reserved_id(revision_id)
772
 
 
773
 
        revision_ids = self._filter_parent_ids_by_ancestry(revision_ids)
774
 
 
775
 
        if len(revision_ids) > 0:
776
 
            self.set_last_revision(revision_ids[0])
777
 
        else:
778
 
            self.set_last_revision(_mod_revision.NULL_REVISION)
779
 
 
780
 
        self._set_merges_from_parent_ids(revision_ids)
781
 
 
782
 
    @needs_tree_write_lock
783
 
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
784
 
        """See MutableTree.set_parent_trees."""
785
 
        parent_ids = [rev for (rev, tree) in parents_list]
786
 
        for revision_id in parent_ids:
787
 
            _mod_revision.check_not_reserved_id(revision_id)
788
 
 
789
 
        self._check_parents_for_ghosts(parent_ids,
790
 
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
791
 
 
792
 
        parent_ids = self._filter_parent_ids_by_ancestry(parent_ids)
793
 
 
794
 
        if len(parent_ids) == 0:
795
 
            leftmost_parent_id = _mod_revision.NULL_REVISION
796
 
            leftmost_parent_tree = None
797
 
        else:
798
 
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
799
 
 
800
 
        if self._change_last_revision(leftmost_parent_id):
801
 
            if leftmost_parent_tree is None:
802
 
                # If we don't have a tree, fall back to reading the
803
 
                # parent tree from the repository.
804
 
                self._cache_basis_inventory(leftmost_parent_id)
805
 
            else:
806
 
                inv = leftmost_parent_tree.inventory
807
 
                xml = self._create_basis_xml_from_inventory(
808
 
                                        leftmost_parent_id, inv)
809
 
                self._write_basis_inventory(xml)
810
 
        self._set_merges_from_parent_ids(parent_ids)
811
 
 
812
 
    @needs_tree_write_lock
 
648
            if e.errno != errno.ENOENT:
 
649
                raise
 
650
            return []
 
651
        p = []
 
652
        for l in merges_file.readlines():
 
653
            p.append(l.rstrip('\n'))
 
654
        return p
 
655
 
 
656
    @needs_write_lock
813
657
    def set_pending_merges(self, rev_list):
814
 
        parents = self.get_parent_ids()
815
 
        leftmost = parents[:1]
816
 
        new_parents = leftmost + rev_list
817
 
        self.set_parent_ids(new_parents)
 
658
        self._control_files.put_utf8('pending-merges', '\n'.join(rev_list))
818
659
 
819
 
    @needs_tree_write_lock
 
660
    @needs_write_lock
820
661
    def set_merge_modified(self, modified_hashes):
821
662
        def iter_stanzas():
822
663
            for file_id, hash in modified_hashes.iteritems():
823
 
                yield Stanza(file_id=file_id.decode('utf8'), hash=hash)
 
664
                yield Stanza(file_id=file_id, hash=hash)
824
665
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
825
666
 
826
 
    def _sha_from_stat(self, path, stat_result):
827
 
        """Get a sha digest from the tree's stat cache.
828
 
 
829
 
        The default implementation assumes no stat cache is present.
830
 
 
831
 
        :param path: The path.
832
 
        :param stat_result: The stat result being looked up.
833
 
        """
834
 
        return None
835
 
 
 
667
    @needs_write_lock
836
668
    def _put_rio(self, filename, stanzas, header):
837
 
        self._must_be_locked()
838
669
        my_file = rio_file(stanzas, header)
839
 
        self._transport.put_file(filename, my_file,
840
 
            mode=self._control_files._file_mode)
841
 
 
842
 
    @needs_write_lock # because merge pulls data into the branch.
843
 
    def merge_from_branch(self, branch, to_revision=None, from_revision=None,
844
 
        merge_type=None):
845
 
        """Merge from a branch into this working tree.
846
 
 
847
 
        :param branch: The branch to merge from.
848
 
        :param to_revision: If non-None, the merge will merge to to_revision,
849
 
            but not beyond it. to_revision does not need to be in the history
850
 
            of the branch when it is supplied. If None, to_revision defaults to
851
 
            branch.last_revision().
852
 
        """
853
 
        from bzrlib.merge import Merger, Merge3Merger
854
 
        pb = bzrlib.ui.ui_factory.nested_progress_bar()
855
 
        try:
856
 
            merger = Merger(self.branch, this_tree=self, pb=pb)
857
 
            merger.pp = ProgressPhase("Merge phase", 5, pb)
858
 
            merger.pp.next_phase()
859
 
            # check that there are no
860
 
            # local alterations
861
 
            merger.check_basis(check_clean=True, require_commits=False)
862
 
            if to_revision is None:
863
 
                to_revision = _mod_revision.ensure_null(branch.last_revision())
864
 
            merger.other_rev_id = to_revision
865
 
            if _mod_revision.is_null(merger.other_rev_id):
866
 
                raise errors.NoCommits(branch)
867
 
            self.branch.fetch(branch, last_revision=merger.other_rev_id)
868
 
            merger.other_basis = merger.other_rev_id
869
 
            merger.other_tree = self.branch.repository.revision_tree(
870
 
                merger.other_rev_id)
871
 
            merger.other_branch = branch
872
 
            merger.pp.next_phase()
873
 
            if from_revision is None:
874
 
                merger.find_base()
875
 
            else:
876
 
                merger.set_base_revision(from_revision, branch)
877
 
            if merger.base_rev_id == merger.other_rev_id:
878
 
                raise errors.PointlessMerge
879
 
            merger.backup_files = False
880
 
            if merge_type is None:
881
 
                merger.merge_type = Merge3Merger
882
 
            else:
883
 
                merger.merge_type = merge_type
884
 
            merger.set_interesting_files(None)
885
 
            merger.show_base = False
886
 
            merger.reprocess = False
887
 
            conflicts = merger.do_merge()
888
 
            merger.set_pending()
889
 
        finally:
890
 
            pb.finished()
891
 
        return conflicts
 
670
        self._control_files.put(filename, my_file)
892
671
 
893
672
    @needs_read_lock
894
673
    def merge_modified(self):
895
 
        """Return a dictionary of files modified by a merge.
896
 
 
897
 
        The list is initialized by WorkingTree.set_merge_modified, which is 
898
 
        typically called after we make some automatic updates to the tree
899
 
        because of a merge.
900
 
 
901
 
        This returns a map of file_id->sha1, containing only files which are
902
 
        still in the working inventory and have that text hash.
903
 
        """
904
674
        try:
905
 
            hashfile = self._transport.get('merge-hashes')
906
 
        except errors.NoSuchFile:
 
675
            hashfile = self._control_files.get('merge-hashes')
 
676
        except NoSuchFile:
907
677
            return {}
 
678
        merge_hashes = {}
908
679
        try:
909
 
            merge_hashes = {}
910
 
            try:
911
 
                if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
912
 
                    raise errors.MergeModifiedFormatError()
913
 
            except StopIteration:
914
 
                raise errors.MergeModifiedFormatError()
915
 
            for s in RioReader(hashfile):
916
 
                # RioReader reads in Unicode, so convert file_ids back to utf8
917
 
                file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
918
 
                if file_id not in self.inventory:
919
 
                    continue
920
 
                text_hash = s.get("hash")
921
 
                if text_hash == self.get_file_sha1(file_id):
922
 
                    merge_hashes[file_id] = text_hash
923
 
            return merge_hashes
924
 
        finally:
925
 
            hashfile.close()
926
 
 
927
 
    @needs_write_lock
928
 
    def mkdir(self, path, file_id=None):
929
 
        """See MutableTree.mkdir()."""
930
 
        if file_id is None:
931
 
            file_id = generate_ids.gen_file_id(os.path.basename(path))
932
 
        os.mkdir(self.abspath(path))
933
 
        self.add(path, file_id, 'directory')
934
 
        return file_id
 
680
            if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
 
681
                raise MergeModifiedFormatError()
 
682
        except StopIteration:
 
683
            raise MergeModifiedFormatError()
 
684
        for s in RioReader(hashfile):
 
685
            file_id = s.get("file_id")
 
686
            if file_id not in self.inventory:
 
687
                continue
 
688
            hash = s.get("hash")
 
689
            if hash == self.get_file_sha1(file_id):
 
690
                merge_hashes[file_id] = hash
 
691
        return merge_hashes
935
692
 
936
693
    def get_symlink_target(self, file_id):
937
694
        return os.readlink(self.id2abspath(file_id))
938
695
 
939
 
    @needs_write_lock
940
 
    def subsume(self, other_tree):
941
 
        def add_children(inventory, entry):
942
 
            for child_entry in entry.children.values():
943
 
                inventory._byid[child_entry.file_id] = child_entry
944
 
                if child_entry.kind == 'directory':
945
 
                    add_children(inventory, child_entry)
946
 
        if other_tree.get_root_id() == self.get_root_id():
947
 
            raise errors.BadSubsumeSource(self, other_tree,
948
 
                                          'Trees have the same root')
949
 
        try:
950
 
            other_tree_path = self.relpath(other_tree.basedir)
951
 
        except errors.PathNotChild:
952
 
            raise errors.BadSubsumeSource(self, other_tree,
953
 
                'Tree is not contained by the other')
954
 
        new_root_parent = self.path2id(osutils.dirname(other_tree_path))
955
 
        if new_root_parent is None:
956
 
            raise errors.BadSubsumeSource(self, other_tree,
957
 
                'Parent directory is not versioned.')
958
 
        # We need to ensure that the result of a fetch will have a
959
 
        # versionedfile for the other_tree root, and only fetching into
960
 
        # RepositoryKnit2 guarantees that.
961
 
        if not self.branch.repository.supports_rich_root():
962
 
            raise errors.SubsumeTargetNeedsUpgrade(other_tree)
963
 
        other_tree.lock_tree_write()
964
 
        try:
965
 
            new_parents = other_tree.get_parent_ids()
966
 
            other_root = other_tree.inventory.root
967
 
            other_root.parent_id = new_root_parent
968
 
            other_root.name = osutils.basename(other_tree_path)
969
 
            self.inventory.add(other_root)
970
 
            add_children(self.inventory, other_root)
971
 
            self._write_inventory(self.inventory)
972
 
            # normally we don't want to fetch whole repositories, but i think
973
 
            # here we really do want to consolidate the whole thing.
974
 
            for parent_id in other_tree.get_parent_ids():
975
 
                self.branch.fetch(other_tree.branch, parent_id)
976
 
                self.add_parent_tree_id(parent_id)
977
 
        finally:
978
 
            other_tree.unlock()
979
 
        other_tree.bzrdir.retire_bzrdir()
980
 
 
981
 
    def _setup_directory_is_tree_reference(self):
982
 
        if self._branch.repository._format.supports_tree_reference:
983
 
            self._directory_is_tree_reference = \
984
 
                self._directory_may_be_tree_reference
985
 
        else:
986
 
            self._directory_is_tree_reference = \
987
 
                self._directory_is_never_tree_reference
988
 
 
989
 
    def _directory_is_never_tree_reference(self, relpath):
990
 
        return False
991
 
 
992
 
    def _directory_may_be_tree_reference(self, relpath):
993
 
        # as a special case, if a directory contains control files then 
994
 
        # it's a tree reference, except that the root of the tree is not
995
 
        return relpath and osutils.isdir(self.abspath(relpath) + u"/.bzr")
996
 
        # TODO: We could ask all the control formats whether they
997
 
        # recognize this directory, but at the moment there's no cheap api
998
 
        # to do that.  Since we probably can only nest bzr checkouts and
999
 
        # they always use this name it's ok for now.  -- mbp 20060306
1000
 
        #
1001
 
        # FIXME: There is an unhandled case here of a subdirectory
1002
 
        # containing .bzr but not a branch; that will probably blow up
1003
 
        # when you try to commit it.  It might happen if there is a
1004
 
        # checkout in a subdirectory.  This can be avoided by not adding
1005
 
        # it.  mbp 20070306
1006
 
 
1007
 
    @needs_tree_write_lock
1008
 
    def extract(self, file_id, format=None):
1009
 
        """Extract a subtree from this tree.
1010
 
        
1011
 
        A new branch will be created, relative to the path for this tree.
1012
 
        """
1013
 
        self.flush()
1014
 
        def mkdirs(path):
1015
 
            segments = osutils.splitpath(path)
1016
 
            transport = self.branch.bzrdir.root_transport
1017
 
            for name in segments:
1018
 
                transport = transport.clone(name)
1019
 
                transport.ensure_base()
1020
 
            return transport
1021
 
            
1022
 
        sub_path = self.id2path(file_id)
1023
 
        branch_transport = mkdirs(sub_path)
1024
 
        if format is None:
1025
 
            format = self.bzrdir.cloning_metadir()
1026
 
        branch_transport.ensure_base()
1027
 
        branch_bzrdir = format.initialize_on_transport(branch_transport)
1028
 
        try:
1029
 
            repo = branch_bzrdir.find_repository()
1030
 
        except errors.NoRepositoryPresent:
1031
 
            repo = branch_bzrdir.create_repository()
1032
 
        if not repo.supports_rich_root():
1033
 
            raise errors.RootNotRich()
1034
 
        new_branch = branch_bzrdir.create_branch()
1035
 
        new_branch.pull(self.branch)
1036
 
        for parent_id in self.get_parent_ids():
1037
 
            new_branch.fetch(self.branch, parent_id)
1038
 
        tree_transport = self.bzrdir.root_transport.clone(sub_path)
1039
 
        if tree_transport.base != branch_transport.base:
1040
 
            tree_bzrdir = format.initialize_on_transport(tree_transport)
1041
 
            branch.BranchReferenceFormat().initialize(tree_bzrdir, new_branch)
1042
 
        else:
1043
 
            tree_bzrdir = branch_bzrdir
1044
 
        wt = tree_bzrdir.create_workingtree(NULL_REVISION)
1045
 
        wt.set_parent_ids(self.get_parent_ids())
1046
 
        my_inv = self.inventory
1047
 
        child_inv = Inventory(root_id=None)
1048
 
        new_root = my_inv[file_id]
1049
 
        my_inv.remove_recursive_id(file_id)
1050
 
        new_root.parent_id = None
1051
 
        child_inv.add(new_root)
1052
 
        self._write_inventory(my_inv)
1053
 
        wt._write_inventory(child_inv)
1054
 
        return wt
1055
 
 
1056
 
    def _serialize(self, inventory, out_file):
1057
 
        xml5.serializer_v5.write_inventory(self._inventory, out_file,
1058
 
            working=True)
1059
 
 
1060
 
    def _deserialize(selt, in_file):
1061
 
        return xml5.serializer_v5.read_inventory(in_file)
1062
 
 
1063
 
    def flush(self):
1064
 
        """Write the in memory inventory to disk."""
1065
 
        # TODO: Maybe this should only write on dirty ?
1066
 
        if self._control_files._lock_mode != 'w':
1067
 
            raise errors.NotWriteLocked(self)
1068
 
        sio = StringIO()
1069
 
        self._serialize(self._inventory, sio)
1070
 
        sio.seek(0)
1071
 
        self._transport.put_file('inventory', sio,
1072
 
            mode=self._control_files._file_mode)
1073
 
        self._inventory_is_modified = False
1074
 
 
1075
 
    def _kind(self, relpath):
1076
 
        return osutils.file_kind(self.abspath(relpath))
1077
 
 
1078
 
    def list_files(self, include_root=False):
 
696
    def file_class(self, filename):
 
697
        if self.path2id(filename):
 
698
            return 'V'
 
699
        elif self.is_ignored(filename):
 
700
            return 'I'
 
701
        else:
 
702
            return '?'
 
703
 
 
704
    def list_files(self):
1079
705
        """Recursively list all files as (path, class, kind, id, entry).
1080
706
 
1081
707
        Lists, but does not descend into unversioned directories.
1085
711
 
1086
712
        Skips the control directory.
1087
713
        """
1088
 
        # list_files is an iterator, so @needs_read_lock doesn't work properly
1089
 
        # with it. So callers should be careful to always read_lock the tree.
1090
 
        if not self.is_locked():
1091
 
            raise errors.ObjectNotLocked(self)
1092
 
 
1093
 
        inv = self.inventory
1094
 
        if include_root is True:
1095
 
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
 
714
        inv = self._inventory
1096
715
        # Convert these into local objects to save lookup times
1097
 
        pathjoin = osutils.pathjoin
1098
 
        file_kind = self._kind
 
716
        pathjoin = bzrlib.osutils.pathjoin
 
717
        file_kind = bzrlib.osutils.file_kind
1099
718
 
1100
719
        # transport.base ends in a slash, we want the piece
1101
720
        # between the last two slashes
1139
758
                elif self.is_ignored(fp[1:]):
1140
759
                    c = 'I'
1141
760
                else:
1142
 
                    # we may not have found this file, because of a unicode issue
1143
 
                    f_norm, can_access = osutils.normalized_filename(f)
1144
 
                    if f == f_norm or not can_access:
1145
 
                        # No change, so treat this file normally
1146
 
                        c = '?'
1147
 
                    else:
1148
 
                        # this file can be accessed by a normalized path
1149
 
                        # check again if it is versioned
1150
 
                        # these lines are repeated here for performance
1151
 
                        f = f_norm
1152
 
                        fp = from_dir_relpath + '/' + f
1153
 
                        fap = from_dir_abspath + '/' + f
1154
 
                        f_ie = inv.get_child(from_dir_id, f)
1155
 
                        if f_ie:
1156
 
                            c = 'V'
1157
 
                        elif self.is_ignored(fp[1:]):
1158
 
                            c = 'I'
1159
 
                        else:
1160
 
                            c = '?'
 
761
                    c = '?'
1161
762
 
1162
763
                fk = file_kind(fap)
1163
764
 
 
765
                if f_ie:
 
766
                    if f_ie.kind != fk:
 
767
                        raise BzrCheckError("file %r entered as kind %r id %r, "
 
768
                                            "now of kind %r"
 
769
                                            % (fap, f_ie.kind, f_ie.file_id, fk))
 
770
 
1164
771
                # make a last minute entry
1165
772
                if f_ie:
1166
773
                    yield fp[1:], c, fk, f_ie.file_id, f_ie
1179
786
                new_children.sort()
1180
787
                new_children = collections.deque(new_children)
1181
788
                stack.append((f_ie.file_id, fp, fap, new_children))
1182
 
                # Break out of inner loop,
1183
 
                # so that we start outer loop with child
 
789
                # Break out of inner loop, so that we start outer loop with child
1184
790
                break
1185
791
            else:
1186
792
                # if we finished all children, pop it off the stack
1187
793
                stack.pop()
1188
794
 
1189
 
    @needs_tree_write_lock
1190
 
    def move(self, from_paths, to_dir=None, after=False, **kwargs):
 
795
 
 
796
    @needs_write_lock
 
797
    def move(self, from_paths, to_name):
1191
798
        """Rename files.
1192
799
 
1193
 
        to_dir must exist in the inventory.
 
800
        to_name must exist in the inventory.
1194
801
 
1195
 
        If to_dir exists and is a directory, the files are moved into
 
802
        If to_name exists and is a directory, the files are moved into
1196
803
        it, keeping their old names.  
1197
804
 
1198
 
        Note that to_dir is only the last component of the new name;
 
805
        Note that to_name is only the last component of the new name;
1199
806
        this doesn't change the directory.
1200
807
 
1201
 
        For each entry in from_paths the move mode will be determined
1202
 
        independently.
1203
 
 
1204
 
        The first mode moves the file in the filesystem and updates the
1205
 
        inventory. The second mode only updates the inventory without
1206
 
        touching the file on the filesystem. This is the new mode introduced
1207
 
        in version 0.15.
1208
 
 
1209
 
        move uses the second mode if 'after == True' and the target is not
1210
 
        versioned but present in the working tree.
1211
 
 
1212
 
        move uses the second mode if 'after == False' and the source is
1213
 
        versioned but no longer in the working tree, and the target is not
1214
 
        versioned but present in the working tree.
1215
 
 
1216
 
        move uses the first mode if 'after == False' and the source is
1217
 
        versioned and present in the working tree, and the target is not
1218
 
        versioned and not present in the working tree.
1219
 
 
1220
 
        Everything else results in an error.
1221
 
 
1222
808
        This returns a list of (from_path, to_path) pairs for each
1223
809
        entry that is moved.
1224
810
        """
1225
 
        rename_entries = []
1226
 
        rename_tuples = []
1227
 
 
1228
 
        # check for deprecated use of signature
1229
 
        if to_dir is None:
1230
 
            to_dir = kwargs.get('to_name', None)
1231
 
            if to_dir is None:
1232
 
                raise TypeError('You must supply a target directory')
1233
 
            else:
1234
 
                symbol_versioning.warn('The parameter to_name was deprecated'
1235
 
                                       ' in version 0.13. Use to_dir instead',
1236
 
                                       DeprecationWarning)
1237
 
 
1238
 
        # check destination directory
1239
 
        if isinstance(from_paths, basestring):
1240
 
            raise ValueError()
 
811
        result = []
 
812
        ## TODO: Option to move IDs only
 
813
        assert not isinstance(from_paths, basestring)
1241
814
        inv = self.inventory
1242
 
        to_abs = self.abspath(to_dir)
 
815
        to_abs = self.abspath(to_name)
1243
816
        if not isdir(to_abs):
1244
 
            raise errors.BzrMoveFailedError('',to_dir,
1245
 
                errors.NotADirectory(to_abs))
1246
 
        if not self.has_filename(to_dir):
1247
 
            raise errors.BzrMoveFailedError('',to_dir,
1248
 
                errors.NotInWorkingDirectory(to_dir))
1249
 
        to_dir_id = inv.path2id(to_dir)
1250
 
        if to_dir_id is None:
1251
 
            raise errors.BzrMoveFailedError('',to_dir,
1252
 
                errors.NotVersionedError(path=str(to_dir)))
1253
 
 
 
817
            raise BzrError("destination %r is not a directory" % to_abs)
 
818
        if not self.has_filename(to_name):
 
819
            raise BzrError("destination %r not in working directory" % to_abs)
 
820
        to_dir_id = inv.path2id(to_name)
 
821
        if to_dir_id == None and to_name != '':
 
822
            raise BzrError("destination %r is not a versioned directory" % to_name)
1254
823
        to_dir_ie = inv[to_dir_id]
1255
 
        if to_dir_ie.kind != 'directory':
1256
 
            raise errors.BzrMoveFailedError('',to_dir,
1257
 
                errors.NotADirectory(to_abs))
1258
 
 
1259
 
        # create rename entries and tuples
1260
 
        for from_rel in from_paths:
1261
 
            from_tail = splitpath(from_rel)[-1]
1262
 
            from_id = inv.path2id(from_rel)
1263
 
            if from_id is None:
1264
 
                raise errors.BzrMoveFailedError(from_rel,to_dir,
1265
 
                    errors.NotVersionedError(path=str(from_rel)))
1266
 
 
1267
 
            from_entry = inv[from_id]
1268
 
            from_parent_id = from_entry.parent_id
1269
 
            to_rel = pathjoin(to_dir, from_tail)
1270
 
            rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
1271
 
                                         from_id=from_id,
1272
 
                                         from_tail=from_tail,
1273
 
                                         from_parent_id=from_parent_id,
1274
 
                                         to_rel=to_rel, to_tail=from_tail,
1275
 
                                         to_parent_id=to_dir_id)
1276
 
            rename_entries.append(rename_entry)
1277
 
            rename_tuples.append((from_rel, to_rel))
1278
 
 
1279
 
        # determine which move mode to use. checks also for movability
1280
 
        rename_entries = self._determine_mv_mode(rename_entries, after)
1281
 
 
1282
 
        original_modified = self._inventory_is_modified
 
824
        if to_dir_ie.kind not in ('directory', 'root_directory'):
 
825
            raise BzrError("destination %r is not a directory" % to_abs)
 
826
 
 
827
        to_idpath = inv.get_idpath(to_dir_id)
 
828
 
 
829
        for f in from_paths:
 
830
            if not self.has_filename(f):
 
831
                raise BzrError("%r does not exist in working tree" % f)
 
832
            f_id = inv.path2id(f)
 
833
            if f_id == None:
 
834
                raise BzrError("%r is not versioned" % f)
 
835
            name_tail = splitpath(f)[-1]
 
836
            dest_path = pathjoin(to_name, name_tail)
 
837
            if self.has_filename(dest_path):
 
838
                raise BzrError("destination %r already exists" % dest_path)
 
839
            if f_id in to_idpath:
 
840
                raise BzrError("can't move %r to a subdirectory of itself" % f)
 
841
 
 
842
        # OK, so there's a race here, it's possible that someone will
 
843
        # create a file in this interval and then the rename might be
 
844
        # left half-done.  But we should have caught most problems.
 
845
        orig_inv = deepcopy(self.inventory)
1283
846
        try:
1284
 
            if len(from_paths):
1285
 
                self._inventory_is_modified = True
1286
 
            self._move(rename_entries)
 
847
            for f in from_paths:
 
848
                name_tail = splitpath(f)[-1]
 
849
                dest_path = pathjoin(to_name, name_tail)
 
850
                result.append((f, dest_path))
 
851
                inv.rename(inv.path2id(f), to_dir_id, name_tail)
 
852
                try:
 
853
                    rename(self.abspath(f), self.abspath(dest_path))
 
854
                except OSError, e:
 
855
                    raise BzrError("failed to rename %r to %r: %s" %
 
856
                                   (f, dest_path, e[1]),
 
857
                            ["rename rolled back"])
1287
858
        except:
1288
859
            # restore the inventory on error
1289
 
            self._inventory_is_modified = original_modified
 
860
            self._set_inventory(orig_inv)
1290
861
            raise
1291
862
        self._write_inventory(inv)
1292
 
        return rename_tuples
1293
 
 
1294
 
    def _determine_mv_mode(self, rename_entries, after=False):
1295
 
        """Determines for each from-to pair if both inventory and working tree
1296
 
        or only the inventory has to be changed.
1297
 
 
1298
 
        Also does basic plausability tests.
1299
 
        """
1300
 
        inv = self.inventory
1301
 
 
1302
 
        for rename_entry in rename_entries:
1303
 
            # store to local variables for easier reference
1304
 
            from_rel = rename_entry.from_rel
1305
 
            from_id = rename_entry.from_id
1306
 
            to_rel = rename_entry.to_rel
1307
 
            to_id = inv.path2id(to_rel)
1308
 
            only_change_inv = False
1309
 
 
1310
 
            # check the inventory for source and destination
1311
 
            if from_id is None:
1312
 
                raise errors.BzrMoveFailedError(from_rel,to_rel,
1313
 
                    errors.NotVersionedError(path=str(from_rel)))
1314
 
            if to_id is not None:
1315
 
                raise errors.BzrMoveFailedError(from_rel,to_rel,
1316
 
                    errors.AlreadyVersionedError(path=str(to_rel)))
1317
 
 
1318
 
            # try to determine the mode for rename (only change inv or change
1319
 
            # inv and file system)
1320
 
            if after:
1321
 
                if not self.has_filename(to_rel):
1322
 
                    raise errors.BzrMoveFailedError(from_id,to_rel,
1323
 
                        errors.NoSuchFile(path=str(to_rel),
1324
 
                        extra="New file has not been created yet"))
1325
 
                only_change_inv = True
1326
 
            elif not self.has_filename(from_rel) and self.has_filename(to_rel):
1327
 
                only_change_inv = True
1328
 
            elif self.has_filename(from_rel) and not self.has_filename(to_rel):
1329
 
                only_change_inv = False
1330
 
            elif (not self.case_sensitive
1331
 
                  and from_rel.lower() == to_rel.lower()
1332
 
                  and self.has_filename(from_rel)):
1333
 
                only_change_inv = False
1334
 
            else:
1335
 
                # something is wrong, so lets determine what exactly
1336
 
                if not self.has_filename(from_rel) and \
1337
 
                   not self.has_filename(to_rel):
1338
 
                    raise errors.BzrRenameFailedError(from_rel,to_rel,
1339
 
                        errors.PathsDoNotExist(paths=(str(from_rel),
1340
 
                        str(to_rel))))
1341
 
                else:
1342
 
                    raise errors.RenameFailedFilesExist(from_rel, to_rel)
1343
 
            rename_entry.only_change_inv = only_change_inv
1344
 
        return rename_entries
1345
 
 
1346
 
    def _move(self, rename_entries):
1347
 
        """Moves a list of files.
1348
 
 
1349
 
        Depending on the value of the flag 'only_change_inv', the
1350
 
        file will be moved on the file system or not.
1351
 
        """
1352
 
        inv = self.inventory
1353
 
        moved = []
1354
 
 
1355
 
        for entry in rename_entries:
1356
 
            try:
1357
 
                self._move_entry(entry)
1358
 
            except:
1359
 
                self._rollback_move(moved)
1360
 
                raise
1361
 
            moved.append(entry)
1362
 
 
1363
 
    def _rollback_move(self, moved):
1364
 
        """Try to rollback a previous move in case of an filesystem error."""
1365
 
        inv = self.inventory
1366
 
        for entry in moved:
1367
 
            try:
1368
 
                self._move_entry(_RenameEntry(entry.to_rel, entry.from_id,
1369
 
                    entry.to_tail, entry.to_parent_id, entry.from_rel,
1370
 
                    entry.from_tail, entry.from_parent_id,
1371
 
                    entry.only_change_inv))
1372
 
            except errors.BzrMoveFailedError, e:
1373
 
                raise errors.BzrMoveFailedError( '', '', "Rollback failed."
1374
 
                        " The working tree is in an inconsistent state."
1375
 
                        " Please consider doing a 'bzr revert'."
1376
 
                        " Error message is: %s" % e)
1377
 
 
1378
 
    def _move_entry(self, entry):
1379
 
        inv = self.inventory
1380
 
        from_rel_abs = self.abspath(entry.from_rel)
1381
 
        to_rel_abs = self.abspath(entry.to_rel)
1382
 
        if from_rel_abs == to_rel_abs:
1383
 
            raise errors.BzrMoveFailedError(entry.from_rel, entry.to_rel,
1384
 
                "Source and target are identical.")
1385
 
 
1386
 
        if not entry.only_change_inv:
1387
 
            try:
1388
 
                osutils.rename(from_rel_abs, to_rel_abs)
1389
 
            except OSError, e:
1390
 
                raise errors.BzrMoveFailedError(entry.from_rel,
1391
 
                    entry.to_rel, e[1])
1392
 
        inv.rename(entry.from_id, entry.to_parent_id, entry.to_tail)
1393
 
 
1394
 
    @needs_tree_write_lock
1395
 
    def rename_one(self, from_rel, to_rel, after=False):
 
863
        return result
 
864
 
 
865
    @needs_write_lock
 
866
    def rename_one(self, from_rel, to_rel):
1396
867
        """Rename one file.
1397
868
 
1398
869
        This can change the directory or the filename or both.
1399
 
 
1400
 
        rename_one has several 'modes' to work. First, it can rename a physical
1401
 
        file and change the file_id. That is the normal mode. Second, it can
1402
 
        only change the file_id without touching any physical file. This is
1403
 
        the new mode introduced in version 0.15.
1404
 
 
1405
 
        rename_one uses the second mode if 'after == True' and 'to_rel' is not
1406
 
        versioned but present in the working tree.
1407
 
 
1408
 
        rename_one uses the second mode if 'after == False' and 'from_rel' is
1409
 
        versioned but no longer in the working tree, and 'to_rel' is not
1410
 
        versioned but present in the working tree.
1411
 
 
1412
 
        rename_one uses the first mode if 'after == False' and 'from_rel' is
1413
 
        versioned and present in the working tree, and 'to_rel' is not
1414
 
        versioned and not present in the working tree.
1415
 
 
1416
 
        Everything else results in an error.
1417
870
        """
1418
871
        inv = self.inventory
1419
 
        rename_entries = []
1420
 
 
1421
 
        # create rename entries and tuples
1422
 
        from_tail = splitpath(from_rel)[-1]
1423
 
        from_id = inv.path2id(from_rel)
1424
 
        if from_id is None:
1425
 
            raise errors.BzrRenameFailedError(from_rel,to_rel,
1426
 
                errors.NotVersionedError(path=str(from_rel)))
1427
 
        from_entry = inv[from_id]
1428
 
        from_parent_id = from_entry.parent_id
 
872
        if not self.has_filename(from_rel):
 
873
            raise BzrError("can't rename: old working file %r does not exist" % from_rel)
 
874
        if self.has_filename(to_rel):
 
875
            raise BzrError("can't rename: new working file %r already exists" % to_rel)
 
876
 
 
877
        file_id = inv.path2id(from_rel)
 
878
        if file_id == None:
 
879
            raise BzrError("can't rename: old name %r is not versioned" % from_rel)
 
880
 
 
881
        entry = inv[file_id]
 
882
        from_parent = entry.parent_id
 
883
        from_name = entry.name
 
884
        
 
885
        if inv.path2id(to_rel):
 
886
            raise BzrError("can't rename: new name %r is already versioned" % to_rel)
 
887
 
1429
888
        to_dir, to_tail = os.path.split(to_rel)
1430
889
        to_dir_id = inv.path2id(to_dir)
1431
 
        rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
1432
 
                                     from_id=from_id,
1433
 
                                     from_tail=from_tail,
1434
 
                                     from_parent_id=from_parent_id,
1435
 
                                     to_rel=to_rel, to_tail=to_tail,
1436
 
                                     to_parent_id=to_dir_id)
1437
 
        rename_entries.append(rename_entry)
1438
 
 
1439
 
        # determine which move mode to use. checks also for movability
1440
 
        rename_entries = self._determine_mv_mode(rename_entries, after)
1441
 
 
1442
 
        # check if the target changed directory and if the target directory is
1443
 
        # versioned
1444
 
        if to_dir_id is None:
1445
 
            raise errors.BzrMoveFailedError(from_rel,to_rel,
1446
 
                errors.NotVersionedError(path=str(to_dir)))
1447
 
 
1448
 
        # all checks done. now we can continue with our actual work
1449
 
        mutter('rename_one:\n'
1450
 
               '  from_id   {%s}\n'
1451
 
               '  from_rel: %r\n'
1452
 
               '  to_rel:   %r\n'
1453
 
               '  to_dir    %r\n'
1454
 
               '  to_dir_id {%s}\n',
1455
 
               from_id, from_rel, to_rel, to_dir, to_dir_id)
1456
 
 
1457
 
        self._move(rename_entries)
 
890
        if to_dir_id == None and to_dir != '':
 
891
            raise BzrError("can't determine destination directory id for %r" % to_dir)
 
892
 
 
893
        mutter("rename_one:")
 
894
        mutter("  file_id    {%s}" % file_id)
 
895
        mutter("  from_rel   %r" % from_rel)
 
896
        mutter("  to_rel     %r" % to_rel)
 
897
        mutter("  to_dir     %r" % to_dir)
 
898
        mutter("  to_dir_id  {%s}" % to_dir_id)
 
899
 
 
900
        inv.rename(file_id, to_dir_id, to_tail)
 
901
 
 
902
        from_abs = self.abspath(from_rel)
 
903
        to_abs = self.abspath(to_rel)
 
904
        try:
 
905
            rename(from_abs, to_abs)
 
906
        except OSError, e:
 
907
            inv.rename(file_id, from_parent, from_name)
 
908
            raise BzrError("failed to rename %r to %r: %s"
 
909
                    % (from_abs, to_abs, e[1]),
 
910
                    ["rename rolled back"])
1458
911
        self._write_inventory(inv)
1459
912
 
1460
 
    class _RenameEntry(object):
1461
 
        def __init__(self, from_rel, from_id, from_tail, from_parent_id,
1462
 
                     to_rel, to_tail, to_parent_id, only_change_inv=False):
1463
 
            self.from_rel = from_rel
1464
 
            self.from_id = from_id
1465
 
            self.from_tail = from_tail
1466
 
            self.from_parent_id = from_parent_id
1467
 
            self.to_rel = to_rel
1468
 
            self.to_tail = to_tail
1469
 
            self.to_parent_id = to_parent_id
1470
 
            self.only_change_inv = only_change_inv
1471
 
 
1472
913
    @needs_read_lock
1473
914
    def unknowns(self):
1474
915
        """Return all unknown files.
1475
916
 
1476
917
        These are files in the working directory that are not versioned or
1477
918
        control files or ignored.
1478
 
        """
1479
 
        # force the extras method to be fully executed before returning, to 
1480
 
        # prevent race conditions with the lock
1481
 
        return iter(
1482
 
            [subp for subp in self.extras() if not self.is_ignored(subp)])
1483
 
 
1484
 
    @needs_tree_write_lock
1485
 
    def unversion(self, file_ids):
1486
 
        """Remove the file ids in file_ids from the current versioned set.
1487
 
 
1488
 
        When a file_id is unversioned, all of its children are automatically
1489
 
        unversioned.
1490
 
 
1491
 
        :param file_ids: The file ids to stop versioning.
1492
 
        :raises: NoSuchId if any fileid is not currently versioned.
1493
 
        """
1494
 
        for file_id in file_ids:
1495
 
            if self._inventory.has_id(file_id):
1496
 
                self._inventory.remove_recursive_id(file_id)
1497
 
            else:
1498
 
                raise errors.NoSuchId(self, file_id)
1499
 
        if len(file_ids):
1500
 
            # in the future this should just set a dirty bit to wait for the 
1501
 
            # final unlock. However, until all methods of workingtree start
1502
 
            # with the current in -memory inventory rather than triggering 
1503
 
            # a read, it is more complex - we need to teach read_inventory
1504
 
            # to know when to read, and when to not read first... and possibly
1505
 
            # to save first when the in memory one may be corrupted.
1506
 
            # so for now, we just only write it if it is indeed dirty.
1507
 
            # - RBC 20060907
1508
 
            self._write_inventory(self._inventory)
1509
 
    
 
919
        
 
920
        >>> from bzrlib.bzrdir import ScratchDir
 
921
        >>> d = ScratchDir(files=['foo', 'foo~'])
 
922
        >>> b = d.open_branch()
 
923
        >>> tree = d.open_workingtree()
 
924
        >>> map(str, tree.unknowns())
 
925
        ['foo']
 
926
        >>> tree.add('foo')
 
927
        >>> list(b.unknowns())
 
928
        []
 
929
        >>> tree.remove('foo')
 
930
        >>> list(b.unknowns())
 
931
        [u'foo']
 
932
        """
 
933
        for subp in self.extras():
 
934
            if not self.is_ignored(subp):
 
935
                yield subp
 
936
 
 
937
    @deprecated_method(zero_eight)
 
938
    def iter_conflicts(self):
 
939
        """List all files in the tree that have text or content conflicts.
 
940
        DEPRECATED.  Use conflicts instead."""
 
941
        return self._iter_conflicts()
 
942
 
1510
943
    def _iter_conflicts(self):
1511
944
        conflicted = set()
1512
945
        for info in self.list_files():
1519
952
                yield stem
1520
953
 
1521
954
    @needs_write_lock
1522
 
    def pull(self, source, overwrite=False, stop_revision=None,
1523
 
             change_reporter=None, possible_transports=None):
 
955
    def pull(self, source, overwrite=False, stop_revision=None):
1524
956
        top_pb = bzrlib.ui.ui_factory.nested_progress_bar()
1525
957
        source.lock_read()
1526
958
        try:
1527
959
            pp = ProgressPhase("Pull phase", 2, top_pb)
1528
960
            pp.next_phase()
1529
 
            old_revision_info = self.branch.last_revision_info()
 
961
            old_revision_history = self.branch.revision_history()
1530
962
            basis_tree = self.basis_tree()
1531
 
            count = self.branch.pull(source, overwrite, stop_revision,
1532
 
                                     possible_transports=possible_transports)
1533
 
            new_revision_info = self.branch.last_revision_info()
1534
 
            if new_revision_info != old_revision_info:
 
963
            count = self.branch.pull(source, overwrite, stop_revision)
 
964
            new_revision_history = self.branch.revision_history()
 
965
            if new_revision_history != old_revision_history:
1535
966
                pp.next_phase()
 
967
                if len(old_revision_history):
 
968
                    other_revision = old_revision_history[-1]
 
969
                else:
 
970
                    other_revision = None
1536
971
                repository = self.branch.repository
1537
972
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
1538
 
                basis_tree.lock_read()
1539
973
                try:
1540
 
                    new_basis_tree = self.branch.basis_tree()
1541
 
                    merge.merge_inner(
1542
 
                                self.branch,
1543
 
                                new_basis_tree,
1544
 
                                basis_tree,
1545
 
                                this_tree=self,
1546
 
                                pb=pb,
1547
 
                                change_reporter=change_reporter)
1548
 
                    if (basis_tree.inventory.root is None and
1549
 
                        new_basis_tree.inventory.root is not None):
1550
 
                        self.set_root_id(new_basis_tree.get_root_id())
 
974
                    merge_inner(self.branch,
 
975
                                self.branch.basis_tree(),
 
976
                                basis_tree, 
 
977
                                this_tree=self, 
 
978
                                pb=pb)
1551
979
                finally:
1552
980
                    pb.finished()
1553
 
                    basis_tree.unlock()
1554
 
                # TODO - dedup parents list with things merged by pull ?
1555
 
                # reuse the revisiontree we merged against to set the new
1556
 
                # tree data.
1557
 
                parent_trees = [(self.branch.last_revision(), new_basis_tree)]
1558
 
                # we have to pull the merge trees out again, because 
1559
 
                # merge_inner has set the ids. - this corner is not yet 
1560
 
                # layered well enough to prevent double handling.
1561
 
                # XXX TODO: Fix the double handling: telling the tree about
1562
 
                # the already known parent data is wasteful.
1563
 
                merges = self.get_parent_ids()[1:]
1564
 
                parent_trees.extend([
1565
 
                    (parent, repository.revision_tree(parent)) for
1566
 
                     parent in merges])
1567
 
                self.set_parent_trees(parent_trees)
 
981
                self.set_last_revision(self.branch.last_revision())
1568
982
            return count
1569
983
        finally:
1570
984
            source.unlock()
1571
985
            top_pb.finished()
1572
986
 
1573
 
    @needs_write_lock
1574
 
    def put_file_bytes_non_atomic(self, file_id, bytes):
1575
 
        """See MutableTree.put_file_bytes_non_atomic."""
1576
 
        stream = file(self.id2abspath(file_id), 'wb')
1577
 
        try:
1578
 
            stream.write(bytes)
1579
 
        finally:
1580
 
            stream.close()
1581
 
        # TODO: update the hashcache here ?
1582
 
 
1583
987
    def extras(self):
1584
 
        """Yield all unversioned files in this WorkingTree.
 
988
        """Yield all unknown files in this WorkingTree.
1585
989
 
1586
 
        If there are any unversioned directories then only the directory is
1587
 
        returned, not all its children.  But if there are unversioned files
 
990
        If there are any unknown directories then only the directory is
 
991
        returned, not all its children.  But if there are unknown files
1588
992
        under a versioned subdirectory, they are returned.
1589
993
 
1590
994
        Currently returned depth-first, sorted by name within directories.
1591
 
        This is the same order used by 'osutils.walkdirs'.
1592
995
        """
1593
996
        ## TODO: Work from given directory downwards
1594
997
        for path, dir_entry in self.inventory.directories():
1595
 
            # mutter("search for unknowns in %r", path)
 
998
            mutter("search for unknowns in %r", path)
1596
999
            dirabs = self.abspath(path)
1597
1000
            if not isdir(dirabs):
1598
1001
                # e.g. directory deleted
1600
1003
 
1601
1004
            fl = []
1602
1005
            for subf in os.listdir(dirabs):
1603
 
                if subf == '.bzr':
1604
 
                    continue
1605
 
                if subf not in dir_entry.children:
1606
 
                    try:
1607
 
                        (subf_norm,
1608
 
                         can_access) = osutils.normalized_filename(subf)
1609
 
                    except UnicodeDecodeError:
1610
 
                        path_os_enc = path.encode(osutils._fs_enc)
1611
 
                        relpath = path_os_enc + '/' + subf
1612
 
                        raise errors.BadFilenameEncoding(relpath,
1613
 
                                                         osutils._fs_enc)
1614
 
                    if subf_norm != subf and can_access:
1615
 
                        if subf_norm not in dir_entry.children:
1616
 
                            fl.append(subf_norm)
1617
 
                    else:
1618
 
                        fl.append(subf)
 
1006
                if (subf != '.bzr'
 
1007
                    and (subf not in dir_entry.children)):
 
1008
                    fl.append(subf)
1619
1009
            
1620
1010
            fl.sort()
1621
1011
            for subf in fl:
1622
1012
                subp = pathjoin(path, subf)
1623
1013
                yield subp
1624
1014
 
 
1015
    def _translate_ignore_rule(self, rule):
 
1016
        """Translate a single ignore rule to a regex.
 
1017
 
 
1018
        There are two types of ignore rules.  Those that do not contain a / are
 
1019
        matched against the tail of the filename (that is, they do not care
 
1020
        what directory the file is in.)  Rules which do contain a slash must
 
1021
        match the entire path.  As a special case, './' at the start of the
 
1022
        string counts as a slash in the string but is removed before matching
 
1023
        (e.g. ./foo.c, ./src/foo.c)
 
1024
 
 
1025
        :return: The translated regex.
 
1026
        """
 
1027
        if rule[:2] in ('./', '.\\'):
 
1028
            # rootdir rule
 
1029
            result = fnmatch.translate(rule[2:])
 
1030
        elif '/' in rule or '\\' in rule:
 
1031
            # path prefix 
 
1032
            result = fnmatch.translate(rule)
 
1033
        else:
 
1034
            # default rule style.
 
1035
            result = "(?:.*/)?(?!.*/)" + fnmatch.translate(rule)
 
1036
        assert result[-1] == '$', "fnmatch.translate did not add the expected $"
 
1037
        return "(" + result + ")"
 
1038
 
 
1039
    def _combine_ignore_rules(self, rules):
 
1040
        """Combine a list of ignore rules into a single regex object.
 
1041
 
 
1042
        Each individual rule is combined with | to form a big regex, which then
 
1043
        has $ added to it to form something like ()|()|()$. The group index for
 
1044
        each subregex's outermost group is placed in a dictionary mapping back 
 
1045
        to the rule. This allows quick identification of the matching rule that
 
1046
        triggered a match.
 
1047
        :return: a list of the compiled regex and the matching-group index 
 
1048
        dictionaries. We return a list because python complains if you try to 
 
1049
        combine more than 100 regexes.
 
1050
        """
 
1051
        result = []
 
1052
        groups = {}
 
1053
        next_group = 0
 
1054
        translated_rules = []
 
1055
        for rule in rules:
 
1056
            translated_rule = self._translate_ignore_rule(rule)
 
1057
            compiled_rule = re.compile(translated_rule)
 
1058
            groups[next_group] = rule
 
1059
            next_group += compiled_rule.groups
 
1060
            translated_rules.append(translated_rule)
 
1061
            if next_group == 99:
 
1062
                result.append((re.compile("|".join(translated_rules)), groups))
 
1063
                groups = {}
 
1064
                next_group = 0
 
1065
                translated_rules = []
 
1066
        if len(translated_rules):
 
1067
            result.append((re.compile("|".join(translated_rules)), groups))
 
1068
        return result
 
1069
 
1625
1070
    def ignored_files(self):
1626
1071
        """Yield list of PATH, IGNORE_PATTERN"""
1627
1072
        for subp in self.extras():
1628
1073
            pat = self.is_ignored(subp)
1629
 
            if pat is not None:
 
1074
            if pat != None:
1630
1075
                yield subp, pat
1631
1076
 
1632
1077
    def get_ignore_list(self):
1634
1079
 
1635
1080
        Cached in the Tree object after the first call.
1636
1081
        """
1637
 
        ignoreset = getattr(self, '_ignoreset', None)
1638
 
        if ignoreset is not None:
1639
 
            return ignoreset
 
1082
        if hasattr(self, '_ignorelist'):
 
1083
            return self._ignorelist
1640
1084
 
1641
 
        ignore_globs = set()
1642
 
        ignore_globs.update(ignores.get_runtime_ignores())
1643
 
        ignore_globs.update(ignores.get_user_ignores())
 
1085
        l = bzrlib.DEFAULT_IGNORE[:]
1644
1086
        if self.has_filename(bzrlib.IGNORE_FILENAME):
1645
1087
            f = self.get_file_byname(bzrlib.IGNORE_FILENAME)
1646
 
            try:
1647
 
                ignore_globs.update(ignores.parse_ignore_file(f))
1648
 
            finally:
1649
 
                f.close()
1650
 
        self._ignoreset = ignore_globs
1651
 
        return ignore_globs
1652
 
 
1653
 
    def _flush_ignore_list_cache(self):
1654
 
        """Resets the cached ignore list to force a cache rebuild."""
1655
 
        self._ignoreset = None
1656
 
        self._ignoreglobster = None
 
1088
            l.extend([line.rstrip("\n\r").decode('utf-8') 
 
1089
                      for line in f.readlines()])
 
1090
        self._ignorelist = l
 
1091
        self._ignore_regex = self._combine_ignore_rules(l)
 
1092
        return l
 
1093
 
 
1094
    def _get_ignore_rules_as_regex(self):
 
1095
        """Return a regex of the ignore rules and a mapping dict.
 
1096
 
 
1097
        :return: (ignore rules compiled regex, dictionary mapping rule group 
 
1098
        indices to original rule.)
 
1099
        """
 
1100
        if getattr(self, '_ignorelist', None) is None:
 
1101
            self.get_ignore_list()
 
1102
        return self._ignore_regex
1657
1103
 
1658
1104
    def is_ignored(self, filename):
1659
1105
        r"""Check whether the filename matches an ignore pattern.
1664
1110
        If the file is ignored, returns the pattern which caused it to
1665
1111
        be ignored, otherwise None.  So this can simply be used as a
1666
1112
        boolean if desired."""
1667
 
        if getattr(self, '_ignoreglobster', None) is None:
1668
 
            self._ignoreglobster = globbing.Globster(self.get_ignore_list())
1669
 
        return self._ignoreglobster.match(filename)
 
1113
 
 
1114
        # TODO: Use '**' to match directories, and other extended
 
1115
        # globbing stuff from cvs/rsync.
 
1116
 
 
1117
        # XXX: fnmatch is actually not quite what we want: it's only
 
1118
        # approximately the same as real Unix fnmatch, and doesn't
 
1119
        # treat dotfiles correctly and allows * to match /.
 
1120
        # Eventually it should be replaced with something more
 
1121
        # accurate.
 
1122
    
 
1123
        rules = self._get_ignore_rules_as_regex()
 
1124
        for regex, mapping in rules:
 
1125
            match = regex.match(filename)
 
1126
            if match is not None:
 
1127
                # one or more of the groups in mapping will have a non-None group 
 
1128
                # match.
 
1129
                groups = match.groups()
 
1130
                rules = [mapping[group] for group in 
 
1131
                    mapping if groups[group] is not None]
 
1132
                return rules[0]
 
1133
        return None
1670
1134
 
1671
1135
    def kind(self, file_id):
1672
1136
        return file_kind(self.id2abspath(file_id))
1673
1137
 
1674
 
    def stored_kind(self, file_id):
1675
 
        """See Tree.stored_kind"""
1676
 
        return self.inventory[file_id].kind
1677
 
 
1678
 
    def _comparison_data(self, entry, path):
1679
 
        abspath = self.abspath(path)
1680
 
        try:
1681
 
            stat_value = os.lstat(abspath)
1682
 
        except OSError, e:
1683
 
            if getattr(e, 'errno', None) == errno.ENOENT:
1684
 
                stat_value = None
1685
 
                kind = None
1686
 
                executable = False
1687
 
            else:
1688
 
                raise
1689
 
        else:
1690
 
            mode = stat_value.st_mode
1691
 
            kind = osutils.file_kind_from_stat_mode(mode)
1692
 
            if not supports_executable():
1693
 
                executable = entry is not None and entry.executable
1694
 
            else:
1695
 
                executable = bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
1696
 
        return kind, executable, stat_value
1697
 
 
1698
 
    def _file_size(self, entry, stat_value):
1699
 
        return stat_value.st_size
1700
 
 
 
1138
    @needs_read_lock
1701
1139
    def last_revision(self):
1702
 
        """Return the last revision of the branch for this tree.
1703
 
 
1704
 
        This format tree does not support a separate marker for last-revision
1705
 
        compared to the branch.
1706
 
 
1707
 
        See MutableTree.last_revision
 
1140
        """Return the last revision id of this working tree.
 
1141
 
 
1142
        In early branch formats this was == the branch last_revision,
 
1143
        but that cannot be relied upon - for working tree operations,
 
1144
        always use tree.last_revision().
1708
1145
        """
1709
 
        return self._last_revision()
1710
 
 
1711
 
    @needs_read_lock
1712
 
    def _last_revision(self):
1713
 
        """helper for get_parent_ids."""
1714
 
        return _mod_revision.ensure_null(self.branch.last_revision())
 
1146
        return self.branch.last_revision()
1715
1147
 
1716
1148
    def is_locked(self):
1717
1149
        return self._control_files.is_locked()
1718
1150
 
1719
 
    def _must_be_locked(self):
1720
 
        if not self.is_locked():
1721
 
            raise errors.ObjectNotLocked(self)
1722
 
 
1723
1151
    def lock_read(self):
1724
1152
        """See Branch.lock_read, and WorkingTree.unlock."""
1725
 
        if not self.is_locked():
1726
 
            self._reset_data()
1727
1153
        self.branch.lock_read()
1728
1154
        try:
1729
1155
            return self._control_files.lock_read()
1731
1157
            self.branch.unlock()
1732
1158
            raise
1733
1159
 
1734
 
    def lock_tree_write(self):
1735
 
        """See MutableTree.lock_tree_write, and WorkingTree.unlock."""
1736
 
        if not self.is_locked():
1737
 
            self._reset_data()
1738
 
        self.branch.lock_read()
1739
 
        try:
1740
 
            return self._control_files.lock_write()
1741
 
        except:
1742
 
            self.branch.unlock()
1743
 
            raise
1744
 
 
1745
1160
    def lock_write(self):
1746
 
        """See MutableTree.lock_write, and WorkingTree.unlock."""
1747
 
        if not self.is_locked():
1748
 
            self._reset_data()
 
1161
        """See Branch.lock_write, and WorkingTree.unlock."""
1749
1162
        self.branch.lock_write()
1750
1163
        try:
1751
1164
            return self._control_files.lock_write()
1757
1170
        return self._control_files.get_physical_lock_status()
1758
1171
 
1759
1172
    def _basis_inventory_name(self):
1760
 
        return 'basis-inventory-cache'
1761
 
 
1762
 
    def _reset_data(self):
1763
 
        """Reset transient data that cannot be revalidated."""
1764
 
        self._inventory_is_modified = False
1765
 
        result = self._deserialize(self._transport.get('inventory'))
1766
 
        self._set_inventory(result, dirty=False)
1767
 
 
1768
 
    @needs_tree_write_lock
 
1173
        return 'basis-inventory'
 
1174
 
 
1175
    @needs_write_lock
1769
1176
    def set_last_revision(self, new_revision):
1770
1177
        """Change the last revision in the working tree."""
1771
1178
        if self._change_last_revision(new_revision):
1777
1184
        This is used to allow WorkingTree3 instances to not affect branch
1778
1185
        when their last revision is set.
1779
1186
        """
1780
 
        if _mod_revision.is_null(new_revision):
 
1187
        if new_revision is None:
1781
1188
            self.branch.set_revision_history([])
1782
1189
            return False
 
1190
        # current format is locked in with the branch
 
1191
        revision_history = self.branch.revision_history()
1783
1192
        try:
1784
 
            self.branch.generate_revision_history(new_revision)
1785
 
        except errors.NoSuchRevision:
1786
 
            # not present in the repo - dont try to set it deeper than the tip
1787
 
            self.branch.set_revision_history([new_revision])
 
1193
            position = revision_history.index(new_revision)
 
1194
        except ValueError:
 
1195
            raise errors.NoSuchRevision(self.branch, new_revision)
 
1196
        self.branch.set_revision_history(revision_history[:position + 1])
1788
1197
        return True
1789
1198
 
1790
 
    def _write_basis_inventory(self, xml):
1791
 
        """Write the basis inventory XML to the basis-inventory file"""
1792
 
        path = self._basis_inventory_name()
1793
 
        sio = StringIO(xml)
1794
 
        self._transport.put_file(path, sio,
1795
 
            mode=self._control_files._file_mode)
1796
 
 
1797
 
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
1798
 
        """Create the text that will be saved in basis-inventory"""
1799
 
        inventory.revision_id = revision_id
1800
 
        return xml7.serializer_v7.write_inventory_to_string(inventory)
1801
 
 
1802
1199
    def _cache_basis_inventory(self, new_revision):
1803
1200
        """Cache new_revision as the basis inventory."""
1804
1201
        # TODO: this should allow the ready-to-use inventory to be passed in,
1816
1213
            # root node id can legitimately look like 'revision_id' but cannot
1817
1214
            # contain a '"'.
1818
1215
            xml = self.branch.repository.get_inventory_xml(new_revision)
1819
 
            firstline = xml.split('\n', 1)[0]
1820
 
            if (not 'revision_id="' in firstline or 
1821
 
                'format="7"' not in firstline):
 
1216
            if not 'revision_id="' in xml.split('\n', 1)[0]:
1822
1217
                inv = self.branch.repository.deserialise_inventory(
1823
1218
                    new_revision, xml)
1824
 
                xml = self._create_basis_xml_from_inventory(new_revision, inv)
1825
 
            self._write_basis_inventory(xml)
1826
 
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
 
1219
                inv.revision_id = new_revision
 
1220
                xml = bzrlib.xml5.serializer_v5.write_inventory_to_string(inv)
 
1221
            assert isinstance(xml, str), 'serialised xml must be bytestring.'
 
1222
            path = self._basis_inventory_name()
 
1223
            sio = StringIO(xml)
 
1224
            self._control_files.put(path, sio)
 
1225
        except WeaveRevisionNotPresent:
1827
1226
            pass
1828
1227
 
1829
1228
    def read_basis_inventory(self):
1830
1229
        """Read the cached basis inventory."""
1831
1230
        path = self._basis_inventory_name()
1832
 
        return self._transport.get_bytes(path)
 
1231
        return self._control_files.get(path).read()
1833
1232
        
1834
1233
    @needs_read_lock
1835
1234
    def read_working_inventory(self):
1836
 
        """Read the working inventory.
1837
 
        
1838
 
        :raises errors.InventoryModified: read_working_inventory will fail
1839
 
            when the current in memory inventory has been modified.
1840
 
        """
1841
 
        # conceptually this should be an implementation detail of the tree. 
1842
 
        # XXX: Deprecate this.
 
1235
        """Read the working inventory."""
1843
1236
        # ElementTree does its own conversion from UTF-8, so open in
1844
1237
        # binary.
1845
 
        if self._inventory_is_modified:
1846
 
            raise errors.InventoryModified(self)
1847
 
        result = self._deserialize(self._transport.get('inventory'))
1848
 
        self._set_inventory(result, dirty=False)
 
1238
        result = bzrlib.xml5.serializer_v5.read_inventory(
 
1239
            self._control_files.get('inventory'))
 
1240
        self._set_inventory(result)
1849
1241
        return result
1850
1242
 
1851
 
    @needs_tree_write_lock
1852
 
    def remove(self, files, verbose=False, to_file=None, keep_files=True,
1853
 
        force=False):
1854
 
        """Remove nominated files from the working inventory.
1855
 
 
1856
 
        :files: File paths relative to the basedir.
1857
 
        :keep_files: If true, the files will also be kept.
1858
 
        :force: Delete files and directories, even if they are changed and
1859
 
            even if the directories are not empty.
 
1243
    @needs_write_lock
 
1244
    def remove(self, files, verbose=False, to_file=None):
 
1245
        """Remove nominated files from the working inventory..
 
1246
 
 
1247
        This does not remove their text.  This does not run on XXX on what? RBC
 
1248
 
 
1249
        TODO: Refuse to remove modified files unless --force is given?
 
1250
 
 
1251
        TODO: Do something useful with directories.
 
1252
 
 
1253
        TODO: Should this remove the text or not?  Tough call; not
 
1254
        removing may be useful and the user can just use use rm, and
 
1255
        is the opposite of add.  Removing it is consistent with most
 
1256
        other tools.  Maybe an option.
1860
1257
        """
 
1258
        ## TODO: Normalize names
 
1259
        ## TODO: Remove nested loops; better scalability
1861
1260
        if isinstance(files, basestring):
1862
1261
            files = [files]
1863
1262
 
1864
 
        inv_delta = []
1865
 
 
1866
 
        new_files=set()
1867
 
        unknown_nested_files=set()
1868
 
 
1869
 
        def recurse_directory_to_add_files(directory):
1870
 
            # Recurse directory and add all files
1871
 
            # so we can check if they have changed.
1872
 
            for parent_info, file_infos in\
1873
 
                self.walkdirs(directory):
1874
 
                for relpath, basename, kind, lstat, fileid, kind in file_infos:
1875
 
                    # Is it versioned or ignored?
1876
 
                    if self.path2id(relpath) or self.is_ignored(relpath):
1877
 
                        # Add nested content for deletion.
1878
 
                        new_files.add(relpath)
1879
 
                    else:
1880
 
                        # Files which are not versioned and not ignored
1881
 
                        # should be treated as unknown.
1882
 
                        unknown_nested_files.add((relpath, None, kind))
1883
 
 
1884
 
        for filename in files:
1885
 
            # Get file name into canonical form.
1886
 
            abspath = self.abspath(filename)
1887
 
            filename = self.relpath(abspath)
1888
 
            if len(filename) > 0:
1889
 
                new_files.add(filename)
1890
 
                recurse_directory_to_add_files(filename)
1891
 
 
1892
 
        files = list(new_files)
1893
 
 
1894
 
        if len(files) == 0:
1895
 
            return # nothing to do
1896
 
 
1897
 
        # Sort needed to first handle directory content before the directory
1898
 
        files.sort(reverse=True)
1899
 
 
1900
 
        # Bail out if we are going to delete files we shouldn't
1901
 
        if not keep_files and not force:
1902
 
            has_changed_files = len(unknown_nested_files) > 0
1903
 
            if not has_changed_files:
1904
 
                for (file_id, path, content_change, versioned, parent_id, name,
1905
 
                     kind, executable) in self.iter_changes(self.basis_tree(),
1906
 
                         include_unchanged=True, require_versioned=False,
1907
 
                         want_unversioned=True, specific_files=files):
1908
 
                    if versioned == (False, False):
1909
 
                        # The record is unknown ...
1910
 
                        if not self.is_ignored(path[1]):
1911
 
                            # ... but not ignored
1912
 
                            has_changed_files = True
1913
 
                            break
1914
 
                    elif content_change and (kind[1] is not None):
1915
 
                        # Versioned and changed, but not deleted
1916
 
                        has_changed_files = True
1917
 
                        break
1918
 
 
1919
 
            if has_changed_files:
1920
 
                # Make delta show ALL applicable changes in error message.
1921
 
                tree_delta = self.changes_from(self.basis_tree(),
1922
 
                    require_versioned=False, want_unversioned=True,
1923
 
                    specific_files=files)
1924
 
                for unknown_file in unknown_nested_files:
1925
 
                    if unknown_file not in tree_delta.unversioned:
1926
 
                        tree_delta.unversioned.extend((unknown_file,))
1927
 
                raise errors.BzrRemoveChangedFilesError(tree_delta)
1928
 
 
1929
 
        # Build inv_delta and delete files where applicaple,
1930
 
        # do this before any modifications to inventory.
 
1263
        inv = self.inventory
 
1264
 
 
1265
        # do this before any modifications
1931
1266
        for f in files:
1932
 
            fid = self.path2id(f)
1933
 
            message = None
 
1267
            fid = inv.path2id(f)
1934
1268
            if not fid:
1935
 
                message = "%s is not versioned." % (f,)
1936
 
            else:
1937
 
                if verbose:
1938
 
                    # having removed it, it must be either ignored or unknown
1939
 
                    if self.is_ignored(f):
1940
 
                        new_status = 'I'
1941
 
                    else:
1942
 
                        new_status = '?'
1943
 
                    textui.show_status(new_status, self.kind(fid), f,
1944
 
                                       to_file=to_file)
1945
 
                # Unversion file
1946
 
                inv_delta.append((f, None, fid, None))
1947
 
                message = "removed %s" % (f,)
1948
 
 
1949
 
            if not keep_files:
1950
 
                abs_path = self.abspath(f)
1951
 
                if osutils.lexists(abs_path):
1952
 
                    if (osutils.isdir(abs_path) and
1953
 
                        len(os.listdir(abs_path)) > 0):
1954
 
                        if force:
1955
 
                            osutils.rmtree(abs_path)
1956
 
                        else:
1957
 
                            message = "%s is not an empty directory "\
1958
 
                                "and won't be deleted." % (f,)
1959
 
                    else:
1960
 
                        osutils.delete_any(abs_path)
1961
 
                        message = "deleted %s" % (f,)
1962
 
                elif message is not None:
1963
 
                    # Only care if we haven't done anything yet.
1964
 
                    message = "%s does not exist." % (f,)
1965
 
 
1966
 
            # Print only one message (if any) per file.
1967
 
            if message is not None:
1968
 
                note(message)
1969
 
        self.apply_inventory_delta(inv_delta)
1970
 
 
1971
 
    @needs_tree_write_lock
1972
 
    def revert(self, filenames=None, old_tree=None, backups=True,
1973
 
               pb=DummyProgress(), report_changes=False):
1974
 
        from bzrlib.conflicts import resolve
1975
 
        if filenames == []:
1976
 
            filenames = None
1977
 
            symbol_versioning.warn('Using [] to revert all files is deprecated'
1978
 
                ' as of bzr 0.91.  Please use None (the default) instead.',
1979
 
                DeprecationWarning, stacklevel=2)
 
1269
                # TODO: Perhaps make this just a warning, and continue?
 
1270
                # This tends to happen when 
 
1271
                raise NotVersionedError(path=f)
 
1272
            mutter("remove inventory entry %s {%s}", quotefn(f), fid)
 
1273
            if verbose:
 
1274
                # having remove it, it must be either ignored or unknown
 
1275
                if self.is_ignored(f):
 
1276
                    new_status = 'I'
 
1277
                else:
 
1278
                    new_status = '?'
 
1279
                show_status(new_status, inv[fid].kind, quotefn(f), to_file=to_file)
 
1280
            del inv[fid]
 
1281
 
 
1282
        self._write_inventory(inv)
 
1283
 
 
1284
    @needs_write_lock
 
1285
    def revert(self, filenames, old_tree=None, backups=True, 
 
1286
               pb=DummyProgress()):
 
1287
        from transform import revert
 
1288
        from conflicts import resolve
1980
1289
        if old_tree is None:
1981
 
            basis_tree = self.basis_tree()
1982
 
            basis_tree.lock_read()
1983
 
            old_tree = basis_tree
 
1290
            old_tree = self.basis_tree()
 
1291
        conflicts = revert(self, old_tree, filenames, backups, pb)
 
1292
        if not len(filenames):
 
1293
            self.set_pending_merges([])
 
1294
            resolve(self)
1984
1295
        else:
1985
 
            basis_tree = None
1986
 
        try:
1987
 
            conflicts = transform.revert(self, old_tree, filenames, backups, pb,
1988
 
                                         report_changes)
1989
 
            if filenames is None and len(self.get_parent_ids()) > 1:
1990
 
                parent_trees = []
1991
 
                last_revision = self.last_revision()
1992
 
                if last_revision != NULL_REVISION:
1993
 
                    if basis_tree is None:
1994
 
                        basis_tree = self.basis_tree()
1995
 
                        basis_tree.lock_read()
1996
 
                    parent_trees.append((last_revision, basis_tree))
1997
 
                self.set_parent_trees(parent_trees)
1998
 
                resolve(self)
1999
 
            else:
2000
 
                resolve(self, filenames, ignore_misses=True, recursive=True)
2001
 
        finally:
2002
 
            if basis_tree is not None:
2003
 
                basis_tree.unlock()
 
1296
            resolve(self, filenames, ignore_misses=True)
2004
1297
        return conflicts
2005
1298
 
2006
 
    def revision_tree(self, revision_id):
2007
 
        """See Tree.revision_tree.
2008
 
 
2009
 
        WorkingTree can supply revision_trees for the basis revision only
2010
 
        because there is only one cached inventory in the bzr directory.
2011
 
        """
2012
 
        if revision_id == self.last_revision():
2013
 
            try:
2014
 
                xml = self.read_basis_inventory()
2015
 
            except errors.NoSuchFile:
2016
 
                pass
2017
 
            else:
2018
 
                try:
2019
 
                    inv = xml7.serializer_v7.read_inventory_from_string(xml)
2020
 
                    # dont use the repository revision_tree api because we want
2021
 
                    # to supply the inventory.
2022
 
                    if inv.revision_id == revision_id:
2023
 
                        return revisiontree.RevisionTree(self.branch.repository,
2024
 
                            inv, revision_id)
2025
 
                except errors.BadInventoryFormat:
2026
 
                    pass
2027
 
        # raise if there was no inventory, or if we read the wrong inventory.
2028
 
        raise errors.NoSuchRevisionInTree(self, revision_id)
2029
 
 
2030
1299
    # XXX: This method should be deprecated in favour of taking in a proper
2031
1300
    # new Inventory object.
2032
 
    @needs_tree_write_lock
 
1301
    @needs_write_lock
2033
1302
    def set_inventory(self, new_inventory_list):
2034
1303
        from bzrlib.inventory import (Inventory,
2035
1304
                                      InventoryDirectory,
2049
1318
            elif kind == 'symlink':
2050
1319
                inv.add(InventoryLink(file_id, name, parent))
2051
1320
            else:
2052
 
                raise errors.BzrError("unknown kind %r" % kind)
 
1321
                raise BzrError("unknown kind %r" % kind)
2053
1322
        self._write_inventory(inv)
2054
1323
 
2055
 
    @needs_tree_write_lock
 
1324
    @needs_write_lock
2056
1325
    def set_root_id(self, file_id):
2057
1326
        """Set the root id for this tree."""
2058
 
        # for compatability 
2059
 
        if file_id is None:
2060
 
            raise ValueError(
2061
 
                'WorkingTree.set_root_id with fileid=None')
2062
 
        file_id = osutils.safe_file_id(file_id)
2063
 
        self._set_root_id(file_id)
2064
 
 
2065
 
    def _set_root_id(self, file_id):
2066
 
        """Set the root id for this tree, in a format specific manner.
2067
 
 
2068
 
        :param file_id: The file id to assign to the root. It must not be 
2069
 
            present in the current inventory or an error will occur. It must
2070
 
            not be None, but rather a valid file id.
2071
 
        """
2072
 
        inv = self._inventory
 
1327
        inv = self.read_working_inventory()
2073
1328
        orig_root_id = inv.root.file_id
2074
 
        # TODO: it might be nice to exit early if there was nothing
2075
 
        # to do, saving us from trigger a sync on unlock.
2076
 
        self._inventory_is_modified = True
2077
 
        # we preserve the root inventory entry object, but
2078
 
        # unlinkit from the byid index
2079
1329
        del inv._byid[inv.root.file_id]
2080
1330
        inv.root.file_id = file_id
2081
 
        # and link it into the index with the new changed id.
2082
1331
        inv._byid[inv.root.file_id] = inv.root
2083
 
        # and finally update all children to reference the new id.
2084
 
        # XXX: this should be safe to just look at the root.children
2085
 
        # list, not the WHOLE INVENTORY.
2086
1332
        for fid in inv:
2087
1333
            entry = inv[fid]
2088
1334
            if entry.parent_id == orig_root_id:
2089
1335
                entry.parent_id = inv.root.file_id
 
1336
        self._write_inventory(inv)
2090
1337
 
2091
1338
    def unlock(self):
2092
1339
        """See Branch.unlock.
2097
1344
        between multiple working trees, i.e. via shared storage, then we 
2098
1345
        would probably want to lock both the local tree, and the branch.
2099
1346
        """
2100
 
        raise NotImplementedError(self.unlock)
 
1347
        # FIXME: We want to write out the hashcache only when the last lock on
 
1348
        # this working copy is released.  Peeking at the lock count is a bit
 
1349
        # of a nasty hack; probably it's better to have a transaction object,
 
1350
        # which can do some finalization when it's either successfully or
 
1351
        # unsuccessfully completed.  (Denys's original patch did that.)
 
1352
        # RBC 20060206 hooking into transaction will couple lock and transaction
 
1353
        # wrongly. Hooking into unlock on the control files object is fine though.
 
1354
        
 
1355
        # TODO: split this per format so there is no ugly if block
 
1356
        if self._hashcache.needs_write and (
 
1357
            # dedicated lock files
 
1358
            self._control_files._lock_count==1 or 
 
1359
            # shared lock files
 
1360
            (self._control_files is self.branch.control_files and 
 
1361
             self._control_files._lock_count==3)):
 
1362
            self._hashcache.write()
 
1363
        # reverse order of locking.
 
1364
        try:
 
1365
            return self._control_files.unlock()
 
1366
        finally:
 
1367
            self.branch.unlock()
2101
1368
 
2102
 
    def update(self, change_reporter=None, possible_transports=None):
 
1369
    @needs_write_lock
 
1370
    def update(self):
2103
1371
        """Update a working tree along its branch.
2104
1372
 
2105
 
        This will update the branch if its bound too, which means we have
2106
 
        multiple trees involved:
2107
 
 
2108
 
        - The new basis tree of the master.
2109
 
        - The old basis tree of the branch.
2110
 
        - The old basis tree of the working tree.
2111
 
        - The current working tree state.
2112
 
 
2113
 
        Pathologically, all three may be different, and non-ancestors of each
2114
 
        other.  Conceptually we want to:
2115
 
 
2116
 
        - Preserve the wt.basis->wt.state changes
2117
 
        - Transform the wt.basis to the new master basis.
2118
 
        - Apply a merge of the old branch basis to get any 'local' changes from
2119
 
          it into the tree.
2120
 
        - Restore the wt.basis->wt.state changes.
 
1373
        This will update the branch if its bound too, which means we have multiple trees involved:
 
1374
        The new basis tree of the master.
 
1375
        The old basis tree of the branch.
 
1376
        The old basis tree of the working tree.
 
1377
        The current working tree state.
 
1378
        pathologically all three may be different, and non ancestors of each other.
 
1379
        Conceptually we want to:
 
1380
        Preserve the wt.basis->wt.state changes
 
1381
        Transform the wt.basis to the new master basis.
 
1382
        Apply a merge of the old branch basis to get any 'local' changes from it into the tree.
 
1383
        Restore the wt.basis->wt.state changes.
2121
1384
 
2122
1385
        There isn't a single operation at the moment to do that, so we:
2123
 
        - Merge current state -> basis tree of the master w.r.t. the old tree
2124
 
          basis.
2125
 
        - Do a 'normal' merge of the old branch basis if it is relevant.
2126
 
        """
2127
 
        if self.branch.get_bound_location() is not None:
2128
 
            self.lock_write()
2129
 
            update_branch = True
2130
 
        else:
2131
 
            self.lock_tree_write()
2132
 
            update_branch = False
2133
 
        try:
2134
 
            if update_branch:
2135
 
                old_tip = self.branch.update(possible_transports)
2136
 
            else:
2137
 
                old_tip = None
2138
 
            return self._update_tree(old_tip, change_reporter)
2139
 
        finally:
2140
 
            self.unlock()
2141
 
 
2142
 
    @needs_tree_write_lock
2143
 
    def _update_tree(self, old_tip=None, change_reporter=None):
2144
 
        """Update a tree to the master branch.
2145
 
 
2146
 
        :param old_tip: if supplied, the previous tip revision the branch,
2147
 
            before it was changed to the master branch's tip.
2148
 
        """
2149
 
        # here if old_tip is not None, it is the old tip of the branch before
2150
 
        # it was updated from the master branch. This should become a pending
2151
 
        # merge in the working tree to preserve the user existing work.  we
2152
 
        # cant set that until we update the working trees last revision to be
2153
 
        # one from the new branch, because it will just get absorbed by the
2154
 
        # parent de-duplication logic.
2155
 
        # 
2156
 
        # We MUST save it even if an error occurs, because otherwise the users
2157
 
        # local work is unreferenced and will appear to have been lost.
2158
 
        # 
2159
 
        result = 0
2160
 
        try:
2161
 
            last_rev = self.get_parent_ids()[0]
2162
 
        except IndexError:
2163
 
            last_rev = _mod_revision.NULL_REVISION
2164
 
        if last_rev != _mod_revision.ensure_null(self.branch.last_revision()):
2165
 
            # merge tree state up to new branch tip.
2166
 
            basis = self.basis_tree()
2167
 
            basis.lock_read()
2168
 
            try:
 
1386
        Merge current state -> basis tree of the master w.r.t. the old tree basis.
 
1387
        Do a 'normal' merge of the old branch basis if it is relevant.
 
1388
        """
 
1389
        old_tip = self.branch.update()
 
1390
        if old_tip is not None:
 
1391
            self.add_pending_merge(old_tip)
 
1392
        self.branch.lock_read()
 
1393
        try:
 
1394
            result = 0
 
1395
            if self.last_revision() != self.branch.last_revision():
 
1396
                # merge tree state up to new branch tip.
 
1397
                basis = self.basis_tree()
2169
1398
                to_tree = self.branch.basis_tree()
2170
 
                if basis.inventory.root is None:
2171
 
                    self.set_root_id(to_tree.get_root_id())
2172
 
                    self.flush()
2173
 
                result += merge.merge_inner(
2174
 
                                      self.branch,
 
1399
                result += merge_inner(self.branch,
2175
1400
                                      to_tree,
2176
1401
                                      basis,
2177
 
                                      this_tree=self,
2178
 
                                      change_reporter=change_reporter)
2179
 
            finally:
2180
 
                basis.unlock()
2181
 
            # TODO - dedup parents list with things merged by pull ?
2182
 
            # reuse the tree we've updated to to set the basis:
2183
 
            parent_trees = [(self.branch.last_revision(), to_tree)]
2184
 
            merges = self.get_parent_ids()[1:]
2185
 
            # Ideally we ask the tree for the trees here, that way the working
2186
 
            # tree can decide whether to give us teh entire tree or give us a
2187
 
            # lazy initialised tree. dirstate for instance will have the trees
2188
 
            # in ram already, whereas a last-revision + basis-inventory tree
2189
 
            # will not, but also does not need them when setting parents.
2190
 
            for parent in merges:
2191
 
                parent_trees.append(
2192
 
                    (parent, self.branch.repository.revision_tree(parent)))
2193
 
            if (old_tip is not None and not _mod_revision.is_null(old_tip)):
2194
 
                parent_trees.append(
2195
 
                    (old_tip, self.branch.repository.revision_tree(old_tip)))
2196
 
            self.set_parent_trees(parent_trees)
2197
 
            last_rev = parent_trees[0][0]
2198
 
        else:
2199
 
            # the working tree had the same last-revision as the master
2200
 
            # branch did. We may still have pivot local work from the local
2201
 
            # branch into old_tip:
2202
 
            if (old_tip is not None and not _mod_revision.is_null(old_tip)):
2203
 
                self.add_parent_tree_id(old_tip)
2204
 
        if (old_tip is not None and not _mod_revision.is_null(old_tip)
2205
 
            and old_tip != last_rev):
2206
 
            # our last revision was not the prior branch last revision
2207
 
            # and we have converted that last revision to a pending merge.
2208
 
            # base is somewhere between the branch tip now
2209
 
            # and the now pending merge
2210
 
 
2211
 
            # Since we just modified the working tree and inventory, flush out
2212
 
            # the current state, before we modify it again.
2213
 
            # TODO: jam 20070214 WorkingTree3 doesn't require this, dirstate
2214
 
            #       requires it only because TreeTransform directly munges the
2215
 
            #       inventory and calls tree._write_inventory(). Ultimately we
2216
 
            #       should be able to remove this extra flush.
2217
 
            self.flush()
2218
 
            graph = self.branch.repository.get_graph()
2219
 
            base_rev_id = graph.find_unique_lca(self.branch.last_revision(),
2220
 
                                                old_tip)
2221
 
            base_tree = self.branch.repository.revision_tree(base_rev_id)
2222
 
            other_tree = self.branch.repository.revision_tree(old_tip)
2223
 
            result += merge.merge_inner(
2224
 
                                  self.branch,
2225
 
                                  other_tree,
2226
 
                                  base_tree,
2227
 
                                  this_tree=self,
2228
 
                                  change_reporter=change_reporter)
2229
 
        return result
2230
 
 
2231
 
    def _write_hashcache_if_dirty(self):
2232
 
        """Write out the hashcache if it is dirty."""
2233
 
        if self._hashcache.needs_write:
2234
 
            try:
2235
 
                self._hashcache.write()
2236
 
            except OSError, e:
2237
 
                if e.errno not in (errno.EPERM, errno.EACCES):
2238
 
                    raise
2239
 
                # TODO: jam 20061219 Should this be a warning? A single line
2240
 
                #       warning might be sufficient to let the user know what
2241
 
                #       is going on.
2242
 
                mutter('Could not write hashcache for %s\nError: %s',
2243
 
                       self._hashcache.cache_file_name(), e)
2244
 
 
2245
 
    @needs_tree_write_lock
 
1402
                                      this_tree=self)
 
1403
                self.set_last_revision(self.branch.last_revision())
 
1404
            if old_tip and old_tip != self.last_revision():
 
1405
                # our last revision was not the prior branch last revision
 
1406
                # and we have converted that last revision to a pending merge.
 
1407
                # base is somewhere between the branch tip now
 
1408
                # and the now pending merge
 
1409
                from bzrlib.revision import common_ancestor
 
1410
                try:
 
1411
                    base_rev_id = common_ancestor(self.branch.last_revision(),
 
1412
                                                  old_tip,
 
1413
                                                  self.branch.repository)
 
1414
                except errors.NoCommonAncestor:
 
1415
                    base_rev_id = None
 
1416
                base_tree = self.branch.repository.revision_tree(base_rev_id)
 
1417
                other_tree = self.branch.repository.revision_tree(old_tip)
 
1418
                result += merge_inner(self.branch,
 
1419
                                      other_tree,
 
1420
                                      base_tree,
 
1421
                                      this_tree=self)
 
1422
            return result
 
1423
        finally:
 
1424
            self.branch.unlock()
 
1425
 
 
1426
    @needs_write_lock
2246
1427
    def _write_inventory(self, inv):
2247
1428
        """Write inventory as the current inventory."""
2248
 
        self._set_inventory(inv, dirty=True)
2249
 
        self.flush()
 
1429
        sio = StringIO()
 
1430
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
 
1431
        sio.seek(0)
 
1432
        self._control_files.put('inventory', sio)
 
1433
        self._set_inventory(inv)
 
1434
        mutter('wrote working inventory')
2250
1435
 
2251
1436
    def set_conflicts(self, arg):
2252
 
        raise errors.UnsupportedOperation(self.set_conflicts, self)
2253
 
 
2254
 
    def add_conflicts(self, arg):
2255
 
        raise errors.UnsupportedOperation(self.add_conflicts, self)
 
1437
        raise UnsupportedOperation(self.set_conflicts, self)
2256
1438
 
2257
1439
    @needs_read_lock
2258
1440
    def conflicts(self):
2259
 
        conflicts = _mod_conflicts.ConflictList()
 
1441
        conflicts = ConflictList()
2260
1442
        for conflicted in self._iter_conflicts():
2261
1443
            text = True
2262
1444
            try:
2275
1457
                    if text == False:
2276
1458
                        break
2277
1459
            ctype = {True: 'text conflict', False: 'contents conflict'}[text]
2278
 
            conflicts.append(_mod_conflicts.Conflict.factory(ctype,
2279
 
                             path=conflicted,
 
1460
            conflicts.append(Conflict.factory(ctype, path=conflicted,
2280
1461
                             file_id=self.path2id(conflicted)))
2281
1462
        return conflicts
2282
1463
 
2283
 
    def walkdirs(self, prefix=""):
2284
 
        """Walk the directories of this tree.
2285
 
 
2286
 
        returns a generator which yields items in the form:
2287
 
                ((curren_directory_path, fileid),
2288
 
                 [(file1_path, file1_name, file1_kind, (lstat), file1_id,
2289
 
                   file1_kind), ... ])
2290
 
 
2291
 
        This API returns a generator, which is only valid during the current
2292
 
        tree transaction - within a single lock_read or lock_write duration.
2293
 
 
2294
 
        If the tree is not locked, it may cause an error to be raised,
2295
 
        depending on the tree implementation.
2296
 
        """
2297
 
        disk_top = self.abspath(prefix)
2298
 
        if disk_top.endswith('/'):
2299
 
            disk_top = disk_top[:-1]
2300
 
        top_strip_len = len(disk_top) + 1
2301
 
        inventory_iterator = self._walkdirs(prefix)
2302
 
        disk_iterator = osutils.walkdirs(disk_top, prefix)
2303
 
        try:
2304
 
            current_disk = disk_iterator.next()
2305
 
            disk_finished = False
2306
 
        except OSError, e:
2307
 
            if not (e.errno == errno.ENOENT or
2308
 
                (sys.platform == 'win32' and e.errno == ERROR_PATH_NOT_FOUND)):
2309
 
                raise
2310
 
            current_disk = None
2311
 
            disk_finished = True
2312
 
        try:
2313
 
            current_inv = inventory_iterator.next()
2314
 
            inv_finished = False
2315
 
        except StopIteration:
2316
 
            current_inv = None
2317
 
            inv_finished = True
2318
 
        while not inv_finished or not disk_finished:
2319
 
            if current_disk:
2320
 
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
2321
 
                    cur_disk_dir_content) = current_disk
2322
 
            else:
2323
 
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
2324
 
                    cur_disk_dir_content) = ((None, None), None)
2325
 
            if not disk_finished:
2326
 
                # strip out .bzr dirs
2327
 
                if (cur_disk_dir_path_from_top[top_strip_len:] == '' and
2328
 
                    len(cur_disk_dir_content) > 0):
2329
 
                    # osutils.walkdirs can be made nicer -
2330
 
                    # yield the path-from-prefix rather than the pathjoined
2331
 
                    # value.
2332
 
                    bzrdir_loc = bisect_left(cur_disk_dir_content,
2333
 
                        ('.bzr', '.bzr'))
2334
 
                    if (bzrdir_loc < len(cur_disk_dir_content)
2335
 
                        and cur_disk_dir_content[bzrdir_loc][0] == '.bzr'):
2336
 
                        # we dont yield the contents of, or, .bzr itself.
2337
 
                        del cur_disk_dir_content[bzrdir_loc]
2338
 
            if inv_finished:
2339
 
                # everything is unknown
2340
 
                direction = 1
2341
 
            elif disk_finished:
2342
 
                # everything is missing
2343
 
                direction = -1
2344
 
            else:
2345
 
                direction = cmp(current_inv[0][0], cur_disk_dir_relpath)
2346
 
            if direction > 0:
2347
 
                # disk is before inventory - unknown
2348
 
                dirblock = [(relpath, basename, kind, stat, None, None) for
2349
 
                    relpath, basename, kind, stat, top_path in
2350
 
                    cur_disk_dir_content]
2351
 
                yield (cur_disk_dir_relpath, None), dirblock
2352
 
                try:
2353
 
                    current_disk = disk_iterator.next()
2354
 
                except StopIteration:
2355
 
                    disk_finished = True
2356
 
            elif direction < 0:
2357
 
                # inventory is before disk - missing.
2358
 
                dirblock = [(relpath, basename, 'unknown', None, fileid, kind)
2359
 
                    for relpath, basename, dkind, stat, fileid, kind in
2360
 
                    current_inv[1]]
2361
 
                yield (current_inv[0][0], current_inv[0][1]), dirblock
2362
 
                try:
2363
 
                    current_inv = inventory_iterator.next()
2364
 
                except StopIteration:
2365
 
                    inv_finished = True
2366
 
            else:
2367
 
                # versioned present directory
2368
 
                # merge the inventory and disk data together
2369
 
                dirblock = []
2370
 
                for relpath, subiterator in itertools.groupby(sorted(
2371
 
                    current_inv[1] + cur_disk_dir_content,
2372
 
                    key=operator.itemgetter(0)), operator.itemgetter(1)):
2373
 
                    path_elements = list(subiterator)
2374
 
                    if len(path_elements) == 2:
2375
 
                        inv_row, disk_row = path_elements
2376
 
                        # versioned, present file
2377
 
                        dirblock.append((inv_row[0],
2378
 
                            inv_row[1], disk_row[2],
2379
 
                            disk_row[3], inv_row[4],
2380
 
                            inv_row[5]))
2381
 
                    elif len(path_elements[0]) == 5:
2382
 
                        # unknown disk file
2383
 
                        dirblock.append((path_elements[0][0],
2384
 
                            path_elements[0][1], path_elements[0][2],
2385
 
                            path_elements[0][3], None, None))
2386
 
                    elif len(path_elements[0]) == 6:
2387
 
                        # versioned, absent file.
2388
 
                        dirblock.append((path_elements[0][0],
2389
 
                            path_elements[0][1], 'unknown', None,
2390
 
                            path_elements[0][4], path_elements[0][5]))
2391
 
                    else:
2392
 
                        raise NotImplementedError('unreachable code')
2393
 
                yield current_inv[0], dirblock
2394
 
                try:
2395
 
                    current_inv = inventory_iterator.next()
2396
 
                except StopIteration:
2397
 
                    inv_finished = True
2398
 
                try:
2399
 
                    current_disk = disk_iterator.next()
2400
 
                except StopIteration:
2401
 
                    disk_finished = True
2402
 
 
2403
 
    def _walkdirs(self, prefix=""):
2404
 
        """Walk the directories of this tree.
2405
 
 
2406
 
           :prefix: is used as the directrory to start with.
2407
 
           returns a generator which yields items in the form:
2408
 
                ((curren_directory_path, fileid),
2409
 
                 [(file1_path, file1_name, file1_kind, None, file1_id,
2410
 
                   file1_kind), ... ])
2411
 
        """
2412
 
        _directory = 'directory'
2413
 
        # get the root in the inventory
2414
 
        inv = self.inventory
2415
 
        top_id = inv.path2id(prefix)
2416
 
        if top_id is None:
2417
 
            pending = []
2418
 
        else:
2419
 
            pending = [(prefix, '', _directory, None, top_id, None)]
2420
 
        while pending:
2421
 
            dirblock = []
2422
 
            currentdir = pending.pop()
2423
 
            # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-id, 5-kind
2424
 
            top_id = currentdir[4]
2425
 
            if currentdir[0]:
2426
 
                relroot = currentdir[0] + '/'
2427
 
            else:
2428
 
                relroot = ""
2429
 
            # FIXME: stash the node in pending
2430
 
            entry = inv[top_id]
2431
 
            if entry.kind == 'directory':
2432
 
                for name, child in entry.sorted_children():
2433
 
                    dirblock.append((relroot + name, name, child.kind, None,
2434
 
                        child.file_id, child.kind
2435
 
                        ))
2436
 
            yield (currentdir[0], entry.file_id), dirblock
2437
 
            # push the user specified dirs from dirblock
2438
 
            for dir in reversed(dirblock):
2439
 
                if dir[2] == _directory:
2440
 
                    pending.append(dir)
2441
 
 
2442
 
    @needs_tree_write_lock
2443
 
    def auto_resolve(self):
2444
 
        """Automatically resolve text conflicts according to contents.
2445
 
 
2446
 
        Only text conflicts are auto_resolvable. Files with no conflict markers
2447
 
        are considered 'resolved', because bzr always puts conflict markers
2448
 
        into files that have text conflicts.  The corresponding .THIS .BASE and
2449
 
        .OTHER files are deleted, as per 'resolve'.
2450
 
        :return: a tuple of ConflictLists: (un_resolved, resolved).
2451
 
        """
2452
 
        un_resolved = _mod_conflicts.ConflictList()
2453
 
        resolved = _mod_conflicts.ConflictList()
2454
 
        conflict_re = re.compile('^(<{7}|={7}|>{7})')
2455
 
        for conflict in self.conflicts():
2456
 
            if (conflict.typestring != 'text conflict' or
2457
 
                self.kind(conflict.file_id) != 'file'):
2458
 
                un_resolved.append(conflict)
2459
 
                continue
2460
 
            my_file = open(self.id2abspath(conflict.file_id), 'rb')
2461
 
            try:
2462
 
                for line in my_file:
2463
 
                    if conflict_re.search(line):
2464
 
                        un_resolved.append(conflict)
2465
 
                        break
2466
 
                else:
2467
 
                    resolved.append(conflict)
2468
 
            finally:
2469
 
                my_file.close()
2470
 
        resolved.remove_files(self)
2471
 
        self.set_conflicts(un_resolved)
2472
 
        return un_resolved, resolved
2473
 
 
2474
 
    @needs_read_lock
2475
 
    def _check(self):
2476
 
        tree_basis = self.basis_tree()
2477
 
        tree_basis.lock_read()
2478
 
        try:
2479
 
            repo_basis = self.branch.repository.revision_tree(
2480
 
                self.last_revision())
2481
 
            if len(list(repo_basis.iter_changes(tree_basis))) > 0:
2482
 
                raise errors.BzrCheckError(
2483
 
                    "Mismatched basis inventory content.")
2484
 
            self._validate()
2485
 
        finally:
2486
 
            tree_basis.unlock()
2487
 
 
2488
 
    def _validate(self):
2489
 
        """Validate internal structures.
2490
 
 
2491
 
        This is meant mostly for the test suite. To give it a chance to detect
2492
 
        corruption after actions have occurred. The default implementation is a
2493
 
        just a no-op.
2494
 
 
2495
 
        :return: None. An exception should be raised if there is an error.
2496
 
        """
2497
 
        return
2498
 
 
2499
 
    @needs_read_lock
2500
 
    def _get_rules_searcher(self, default_searcher):
2501
 
        """See Tree._get_rules_searcher."""
2502
 
        if self._rules_searcher is None:
2503
 
            self._rules_searcher = super(WorkingTree,
2504
 
                self)._get_rules_searcher(default_searcher)
2505
 
        return self._rules_searcher
2506
 
 
2507
 
 
2508
 
class WorkingTree2(WorkingTree):
2509
 
    """This is the Format 2 working tree.
2510
 
 
2511
 
    This was the first weave based working tree. 
2512
 
     - uses os locks for locking.
2513
 
     - uses the branch last-revision.
2514
 
    """
2515
 
 
2516
 
    def __init__(self, *args, **kwargs):
2517
 
        super(WorkingTree2, self).__init__(*args, **kwargs)
2518
 
        # WorkingTree2 has more of a constraint that self._inventory must
2519
 
        # exist. Because this is an older format, we don't mind the overhead
2520
 
        # caused by the extra computation here.
2521
 
 
2522
 
        # Newer WorkingTree's should only have self._inventory set when they
2523
 
        # have a read lock.
2524
 
        if self._inventory is None:
2525
 
            self.read_working_inventory()
2526
 
 
2527
 
    def lock_tree_write(self):
2528
 
        """See WorkingTree.lock_tree_write().
2529
 
 
2530
 
        In Format2 WorkingTrees we have a single lock for the branch and tree
2531
 
        so lock_tree_write() degrades to lock_write().
2532
 
        """
2533
 
        self.branch.lock_write()
2534
 
        try:
2535
 
            return self._control_files.lock_write()
2536
 
        except:
2537
 
            self.branch.unlock()
2538
 
            raise
2539
 
 
2540
 
    def unlock(self):
2541
 
        # do non-implementation specific cleanup
2542
 
        self._cleanup()
2543
 
 
2544
 
        # we share control files:
2545
 
        if self._control_files._lock_count == 3:
2546
 
            # _inventory_is_modified is always False during a read lock.
2547
 
            if self._inventory_is_modified:
2548
 
                self.flush()
2549
 
            self._write_hashcache_if_dirty()
2550
 
                    
2551
 
        # reverse order of locking.
2552
 
        try:
2553
 
            return self._control_files.unlock()
2554
 
        finally:
2555
 
            self.branch.unlock()
2556
 
 
2557
1464
 
2558
1465
class WorkingTree3(WorkingTree):
2559
1466
    """This is the Format 3 working tree.
2566
1473
    """
2567
1474
 
2568
1475
    @needs_read_lock
2569
 
    def _last_revision(self):
2570
 
        """See Mutable.last_revision."""
 
1476
    def last_revision(self):
 
1477
        """See WorkingTree.last_revision."""
2571
1478
        try:
2572
 
            return self._transport.get_bytes('last-revision')
2573
 
        except errors.NoSuchFile:
2574
 
            return _mod_revision.NULL_REVISION
 
1479
            return self._control_files.get_utf8('last-revision').read()
 
1480
        except NoSuchFile:
 
1481
            return None
2575
1482
 
2576
1483
    def _change_last_revision(self, revision_id):
2577
1484
        """See WorkingTree._change_last_revision."""
2578
1485
        if revision_id is None or revision_id == NULL_REVISION:
2579
1486
            try:
2580
 
                self._transport.delete('last-revision')
 
1487
                self._control_files._transport.delete('last-revision')
2581
1488
            except errors.NoSuchFile:
2582
1489
                pass
2583
1490
            return False
2584
1491
        else:
2585
 
            self._transport.put_bytes('last-revision', revision_id,
2586
 
                mode=self._control_files._file_mode)
 
1492
            try:
 
1493
                self.branch.revision_history().index(revision_id)
 
1494
            except ValueError:
 
1495
                raise errors.NoSuchRevision(self.branch, revision_id)
 
1496
            self._control_files.put_utf8('last-revision', revision_id)
2587
1497
            return True
2588
1498
 
2589
 
    @needs_tree_write_lock
 
1499
    @needs_write_lock
2590
1500
    def set_conflicts(self, conflicts):
2591
1501
        self._put_rio('conflicts', conflicts.to_stanzas(), 
2592
1502
                      CONFLICT_HEADER_1)
2593
1503
 
2594
 
    @needs_tree_write_lock
2595
 
    def add_conflicts(self, new_conflicts):
2596
 
        conflict_set = set(self.conflicts())
2597
 
        conflict_set.update(set(list(new_conflicts)))
2598
 
        self.set_conflicts(_mod_conflicts.ConflictList(sorted(conflict_set,
2599
 
                                       key=_mod_conflicts.Conflict.sort_key)))
2600
 
 
2601
1504
    @needs_read_lock
2602
1505
    def conflicts(self):
2603
1506
        try:
2604
 
            confile = self._transport.get('conflicts')
2605
 
        except errors.NoSuchFile:
2606
 
            return _mod_conflicts.ConflictList()
2607
 
        try:
2608
 
            try:
2609
 
                if confile.next() != CONFLICT_HEADER_1 + '\n':
2610
 
                    raise errors.ConflictFormatError()
2611
 
            except StopIteration:
2612
 
                raise errors.ConflictFormatError()
2613
 
            return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
2614
 
        finally:
2615
 
            confile.close()
2616
 
 
2617
 
    def unlock(self):
2618
 
        # do non-implementation specific cleanup
2619
 
        self._cleanup()
2620
 
        if self._control_files._lock_count == 1:
2621
 
            # _inventory_is_modified is always False during a read lock.
2622
 
            if self._inventory_is_modified:
2623
 
                self.flush()
2624
 
            self._write_hashcache_if_dirty()
2625
 
        # reverse order of locking.
2626
 
        try:
2627
 
            return self._control_files.unlock()
2628
 
        finally:
2629
 
            self.branch.unlock()
 
1507
            confile = self._control_files.get('conflicts')
 
1508
        except NoSuchFile:
 
1509
            return ConflictList()
 
1510
        try:
 
1511
            if confile.next() != CONFLICT_HEADER_1 + '\n':
 
1512
                raise ConflictFormatError()
 
1513
        except StopIteration:
 
1514
            raise ConflictFormatError()
 
1515
        return ConflictList.from_stanzas(RioReader(confile))
2630
1516
 
2631
1517
 
2632
1518
def get_conflicted_stem(path):
2633
 
    for suffix in _mod_conflicts.CONFLICT_SUFFIXES:
 
1519
    for suffix in CONFLICT_SUFFIXES:
2634
1520
        if path.endswith(suffix):
2635
1521
            return path[:-len(suffix)]
2636
1522
 
 
1523
@deprecated_function(zero_eight)
 
1524
def is_control_file(filename):
 
1525
    """See WorkingTree.is_control_filename(filename)."""
 
1526
    ## FIXME: better check
 
1527
    filename = normpath(filename)
 
1528
    while filename != '':
 
1529
        head, tail = os.path.split(filename)
 
1530
        ## mutter('check %r for control file' % ((head, tail),))
 
1531
        if tail == '.bzr':
 
1532
            return True
 
1533
        if filename == head:
 
1534
            break
 
1535
        filename = head
 
1536
    return False
 
1537
 
2637
1538
 
2638
1539
class WorkingTreeFormat(object):
2639
1540
    """An encapsulation of the initialization and open routines for a format.
2659
1560
    _formats = {}
2660
1561
    """The known formats."""
2661
1562
 
2662
 
    requires_rich_root = False
2663
 
 
2664
 
    upgrade_recommended = False
2665
 
 
2666
1563
    @classmethod
2667
1564
    def find_format(klass, a_bzrdir):
2668
1565
        """Return the format for the working tree object in a_bzrdir."""
2670
1567
            transport = a_bzrdir.get_workingtree_transport(None)
2671
1568
            format_string = transport.get("format").read()
2672
1569
            return klass._formats[format_string]
2673
 
        except errors.NoSuchFile:
 
1570
        except NoSuchFile:
2674
1571
            raise errors.NoWorkingTree(base=transport.base)
2675
1572
        except KeyError:
2676
 
            raise errors.UnknownFormatError(format=format_string,
2677
 
                                            kind="working tree")
2678
 
 
2679
 
    def __eq__(self, other):
2680
 
        return self.__class__ is other.__class__
2681
 
 
2682
 
    def __ne__(self, other):
2683
 
        return not (self == other)
 
1573
            raise errors.UnknownFormatError(format_string)
2684
1574
 
2685
1575
    @classmethod
2686
1576
    def get_default_format(klass):
2714
1604
 
2715
1605
    @classmethod
2716
1606
    def unregister_format(klass, format):
 
1607
        assert klass._formats[format.get_format_string()] is format
2717
1608
        del klass._formats[format.get_format_string()]
2718
1609
 
2719
1610
 
 
1611
 
2720
1612
class WorkingTreeFormat2(WorkingTreeFormat):
2721
1613
    """The second working tree format. 
2722
1614
 
2723
1615
    This format modified the hash cache from the format 1 hash cache.
2724
1616
    """
2725
1617
 
2726
 
    upgrade_recommended = True
2727
 
 
2728
1618
    def get_format_description(self):
2729
1619
        """See WorkingTreeFormat.get_format_description()."""
2730
1620
        return "Working tree format 2"
2731
1621
 
2732
 
    def _stub_initialize_on_transport(self, transport, file_mode):
2733
 
        """Workaround: create control files for a remote working tree.
2734
 
 
 
1622
    def stub_initialize_remote(self, control_files):
 
1623
        """As a special workaround create critical control files for a remote working tree
 
1624
        
2735
1625
        This ensures that it can later be updated and dealt with locally,
2736
 
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with
 
1626
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with 
2737
1627
        no working tree.  (See bug #43064).
2738
1628
        """
2739
1629
        sio = StringIO()
2740
1630
        inv = Inventory()
2741
 
        xml5.serializer_v5.write_inventory(inv, sio, working=True)
 
1631
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
2742
1632
        sio.seek(0)
2743
 
        transport.put_file('inventory', sio, file_mode)
2744
 
        transport.put_bytes('pending-merges', '', file_mode)
2745
 
 
2746
 
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
2747
 
                   accelerator_tree=None, hardlink=False):
 
1633
        control_files.put('inventory', sio)
 
1634
 
 
1635
        control_files.put_utf8('pending-merges', '')
 
1636
        
 
1637
 
 
1638
    def initialize(self, a_bzrdir, revision_id=None):
2748
1639
        """See WorkingTreeFormat.initialize()."""
2749
1640
        if not isinstance(a_bzrdir.transport, LocalTransport):
2750
1641
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2751
 
        if from_branch is not None:
2752
 
            branch = from_branch
2753
 
        else:
2754
 
            branch = a_bzrdir.open_branch()
2755
 
        if revision_id is None:
2756
 
            revision_id = _mod_revision.ensure_null(branch.last_revision())
2757
 
        branch.lock_write()
2758
 
        try:
2759
 
            branch.generate_revision_history(revision_id)
2760
 
        finally:
2761
 
            branch.unlock()
2762
 
        inv = Inventory()
2763
 
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
 
1642
        branch = a_bzrdir.open_branch()
 
1643
        if revision_id is not None:
 
1644
            branch.lock_write()
 
1645
            try:
 
1646
                revision_history = branch.revision_history()
 
1647
                try:
 
1648
                    position = revision_history.index(revision_id)
 
1649
                except ValueError:
 
1650
                    raise errors.NoSuchRevision(branch, revision_id)
 
1651
                branch.set_revision_history(revision_history[:position + 1])
 
1652
            finally:
 
1653
                branch.unlock()
 
1654
        revision = branch.last_revision()
 
1655
        inv = Inventory() 
 
1656
        wt = WorkingTree(a_bzrdir.root_transport.local_abspath('.'),
2764
1657
                         branch,
2765
1658
                         inv,
2766
1659
                         _internal=True,
2767
1660
                         _format=self,
2768
1661
                         _bzrdir=a_bzrdir)
2769
 
        basis_tree = branch.repository.revision_tree(revision_id)
2770
 
        if basis_tree.inventory.root is not None:
2771
 
            wt.set_root_id(basis_tree.get_root_id())
2772
 
        # set the parent list and cache the basis tree.
2773
 
        if _mod_revision.is_null(revision_id):
2774
 
            parent_trees = []
2775
 
        else:
2776
 
            parent_trees = [(revision_id, basis_tree)]
2777
 
        wt.set_parent_trees(parent_trees)
2778
 
        transform.build_tree(basis_tree, wt)
 
1662
        wt._write_inventory(inv)
 
1663
        wt.set_root_id(inv.root.file_id)
 
1664
        wt.set_last_revision(revision)
 
1665
        wt.set_pending_merges([])
 
1666
        build_tree(wt.basis_tree(), wt)
2779
1667
        return wt
2780
1668
 
2781
1669
    def __init__(self):
2793
1681
            raise NotImplementedError
2794
1682
        if not isinstance(a_bzrdir.transport, LocalTransport):
2795
1683
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2796
 
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
 
1684
        return WorkingTree(a_bzrdir.root_transport.local_abspath('.'),
2797
1685
                           _internal=True,
2798
1686
                           _format=self,
2799
1687
                           _bzrdir=a_bzrdir)
2800
 
        return wt
 
1688
 
2801
1689
 
2802
1690
class WorkingTreeFormat3(WorkingTreeFormat):
2803
1691
    """The second working tree format updated to record a format marker.
2808
1696
          files, separate from the BzrDir format
2809
1697
        - modifies the hash cache format
2810
1698
        - is new in bzr 0.8
2811
 
        - uses a LockDir to guard access for writes.
 
1699
        - uses a LockDir to guard access to the repository
2812
1700
    """
2813
 
    
2814
 
    upgrade_recommended = True
2815
1701
 
2816
1702
    def get_format_string(self):
2817
1703
        """See WorkingTreeFormat.get_format_string()."""
2824
1710
    _lock_file_name = 'lock'
2825
1711
    _lock_class = LockDir
2826
1712
 
2827
 
    _tree_class = WorkingTree3
2828
 
 
2829
 
    def __get_matchingbzrdir(self):
2830
 
        return bzrdir.BzrDirMetaFormat1()
2831
 
 
2832
 
    _matchingbzrdir = property(__get_matchingbzrdir)
2833
 
 
2834
1713
    def _open_control_files(self, a_bzrdir):
2835
1714
        transport = a_bzrdir.get_workingtree_transport(None)
2836
1715
        return LockableFiles(transport, self._lock_file_name, 
2837
1716
                             self._lock_class)
2838
1717
 
2839
 
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
2840
 
                   accelerator_tree=None, hardlink=False):
 
1718
    def initialize(self, a_bzrdir, revision_id=None):
2841
1719
        """See WorkingTreeFormat.initialize().
2842
1720
        
2843
 
        :param revision_id: if supplied, create a working tree at a different
2844
 
            revision than the branch is at.
2845
 
        :param accelerator_tree: A tree which can be used for retrieving file
2846
 
            contents more quickly than the revision tree, i.e. a workingtree.
2847
 
            The revision tree will be used for cases where accelerator_tree's
2848
 
            content is different.
2849
 
        :param hardlink: If true, hard-link files from accelerator_tree,
2850
 
            where possible.
 
1721
        revision_id allows creating a working tree at a different
 
1722
        revision than the branch is at.
2851
1723
        """
2852
1724
        if not isinstance(a_bzrdir.transport, LocalTransport):
2853
1725
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2855
1727
        control_files = self._open_control_files(a_bzrdir)
2856
1728
        control_files.create_lock()
2857
1729
        control_files.lock_write()
2858
 
        transport.put_bytes('format', self.get_format_string(),
2859
 
            mode=control_files._file_mode)
2860
 
        if from_branch is not None:
2861
 
            branch = from_branch
2862
 
        else:
2863
 
            branch = a_bzrdir.open_branch()
 
1730
        control_files.put_utf8('format', self.get_format_string())
 
1731
        branch = a_bzrdir.open_branch()
2864
1732
        if revision_id is None:
2865
 
            revision_id = _mod_revision.ensure_null(branch.last_revision())
2866
 
        # WorkingTree3 can handle an inventory which has a unique root id.
2867
 
        # as of bzr 0.12. However, bzr 0.11 and earlier fail to handle
2868
 
        # those trees. And because there isn't a format bump inbetween, we
2869
 
        # are maintaining compatibility with older clients.
2870
 
        # inv = Inventory(root_id=gen_root_id())
2871
 
        inv = self._initial_inventory()
2872
 
        wt = self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
 
1733
            revision_id = branch.last_revision()
 
1734
        inv = Inventory() 
 
1735
        wt = WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
2873
1736
                         branch,
2874
1737
                         inv,
2875
1738
                         _internal=True,
2876
1739
                         _format=self,
2877
1740
                         _bzrdir=a_bzrdir,
2878
1741
                         _control_files=control_files)
2879
 
        wt.lock_tree_write()
 
1742
        wt.lock_write()
2880
1743
        try:
2881
 
            basis_tree = branch.repository.revision_tree(revision_id)
2882
 
            # only set an explicit root id if there is one to set.
2883
 
            if basis_tree.inventory.root is not None:
2884
 
                wt.set_root_id(basis_tree.get_root_id())
2885
 
            if revision_id == NULL_REVISION:
2886
 
                wt.set_parent_trees([])
2887
 
            else:
2888
 
                wt.set_parent_trees([(revision_id, basis_tree)])
2889
 
            transform.build_tree(basis_tree, wt)
 
1744
            wt._write_inventory(inv)
 
1745
            wt.set_root_id(inv.root.file_id)
 
1746
            wt.set_last_revision(revision_id)
 
1747
            wt.set_pending_merges([])
 
1748
            build_tree(wt.basis_tree(), wt)
2890
1749
        finally:
2891
 
            # Unlock in this order so that the unlock-triggers-flush in
2892
 
            # WorkingTree is given a chance to fire.
 
1750
            wt.unlock()
2893
1751
            control_files.unlock()
2894
 
            wt.unlock()
2895
1752
        return wt
2896
1753
 
2897
 
    def _initial_inventory(self):
2898
 
        return Inventory()
2899
 
 
2900
1754
    def __init__(self):
2901
1755
        super(WorkingTreeFormat3, self).__init__()
 
1756
        self._matchingbzrdir = bzrdir.BzrDirMetaFormat1()
2902
1757
 
2903
1758
    def open(self, a_bzrdir, _found=False):
2904
1759
        """Return the WorkingTree object for a_bzrdir
2911
1766
            raise NotImplementedError
2912
1767
        if not isinstance(a_bzrdir.transport, LocalTransport):
2913
1768
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2914
 
        wt = self._open(a_bzrdir, self._open_control_files(a_bzrdir))
2915
 
        return wt
2916
 
 
2917
 
    def _open(self, a_bzrdir, control_files):
2918
 
        """Open the tree itself.
2919
 
        
2920
 
        :param a_bzrdir: the dir for the tree.
2921
 
        :param control_files: the control files for the tree.
2922
 
        """
2923
 
        return self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
2924
 
                                _internal=True,
2925
 
                                _format=self,
2926
 
                                _bzrdir=a_bzrdir,
2927
 
                                _control_files=control_files)
 
1769
        control_files = self._open_control_files(a_bzrdir)
 
1770
        return WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
 
1771
                           _internal=True,
 
1772
                           _format=self,
 
1773
                           _bzrdir=a_bzrdir,
 
1774
                           _control_files=control_files)
2928
1775
 
2929
1776
    def __str__(self):
2930
1777
        return self.get_format_string()
2931
1778
 
2932
1779
 
2933
 
__default_format = WorkingTreeFormat4()
 
1780
# formats which have no format string are not discoverable
 
1781
# and not independently creatable, so are not registered.
 
1782
__default_format = WorkingTreeFormat3()
2934
1783
WorkingTreeFormat.register_format(__default_format)
2935
 
WorkingTreeFormat.register_format(WorkingTreeFormat3())
2936
1784
WorkingTreeFormat.set_default_format(__default_format)
2937
 
# formats which have no format string are not discoverable
2938
 
# and not independently creatable, so are not registered.
2939
1785
_legacy_formats = [WorkingTreeFormat2(),
2940
1786
                   ]
 
1787
 
 
1788
 
 
1789
class WorkingTreeTestProviderAdapter(object):
 
1790
    """A tool to generate a suite testing multiple workingtree formats at once.
 
1791
 
 
1792
    This is done by copying the test once for each transport and injecting
 
1793
    the transport_server, transport_readonly_server, and workingtree_format
 
1794
    classes into each copy. Each copy is also given a new id() to make it
 
1795
    easy to identify.
 
1796
    """
 
1797
 
 
1798
    def __init__(self, transport_server, transport_readonly_server, formats):
 
1799
        self._transport_server = transport_server
 
1800
        self._transport_readonly_server = transport_readonly_server
 
1801
        self._formats = formats
 
1802
    
 
1803
    def adapt(self, test):
 
1804
        from bzrlib.tests import TestSuite
 
1805
        result = TestSuite()
 
1806
        for workingtree_format, bzrdir_format in self._formats:
 
1807
            new_test = deepcopy(test)
 
1808
            new_test.transport_server = self._transport_server
 
1809
            new_test.transport_readonly_server = self._transport_readonly_server
 
1810
            new_test.bzrdir_format = bzrdir_format
 
1811
            new_test.workingtree_format = workingtree_format
 
1812
            def make_new_test_id():
 
1813
                new_id = "%s(%s)" % (new_test.id(), workingtree_format.__class__.__name__)
 
1814
                return lambda: new_id
 
1815
            new_test.id = make_new_test_id()
 
1816
            result.addTest(new_test)
 
1817
        return result