~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: Robert Collins
  • Date: 2006-05-18 12:42:12 UTC
  • mto: (1714.1.2 integration)
  • mto: This revision was merged to the branch mainline in revision 1716.
  • Revision ID: robertc@robertcollins.net-20060518124212-ac84beb57877e18c
Combine the ignore rules into a single regex rather than looping over them
to avoid N^2 behaviour in operations like status. (Jan Hudec, Robert
Collins).

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
 
#
 
1
# Copyright (C) 2005, 2006 Canonical Ltd
 
2
 
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
#
 
7
 
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
#
 
12
 
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
29
29
WorkingTree.open(dir).
30
30
"""
31
31
 
 
32
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
 
33
CONFLICT_HEADER_1 = "BZR conflict list format 1"
 
34
 
32
35
# TODO: Give the workingtree sole responsibility for the working inventory;
33
36
# remove the variable and references to it from the branch.  This may require
34
37
# updating the commit code so as to update the inventory within the working
36
39
# At the moment they may alias the inventory and have old copies of it in
37
40
# memory.  (Now done? -- mbp 20060309)
38
41
 
 
42
from copy import deepcopy
39
43
from cStringIO import StringIO
 
44
import errno
 
45
import fnmatch
40
46
import os
41
 
import sys
42
 
 
43
 
from bzrlib.lazy_import import lazy_import
44
 
lazy_import(globals(), """
45
 
from bisect import bisect_left
46
 
import collections
47
 
from copy import deepcopy
48
 
import errno
49
 
import itertools
50
 
import operator
 
47
import re
51
48
import stat
52
 
from time import time
53
 
import warnings
54
 
import re
55
 
 
56
 
import bzrlib
57
 
from bzrlib import (
58
 
    branch,
59
 
    bzrdir,
60
 
    conflicts as _mod_conflicts,
61
 
    dirstate,
62
 
    errors,
63
 
    generate_ids,
64
 
    globbing,
65
 
    hashcache,
66
 
    ignores,
67
 
    merge,
68
 
    osutils,
69
 
    revisiontree,
70
 
    repository,
71
 
    textui,
72
 
    trace,
73
 
    transform,
74
 
    ui,
75
 
    urlutils,
76
 
    xml5,
77
 
    xml6,
78
 
    xml7,
79
 
    )
80
 
import bzrlib.branch
81
 
from bzrlib.transport import get_transport
82
 
import bzrlib.ui
83
 
from bzrlib.workingtree_4 import WorkingTreeFormat4
84
 
""")
85
 
 
86
 
from bzrlib import symbol_versioning
 
49
 
 
50
 
 
51
from bzrlib.atomicfile import AtomicFile
 
52
from bzrlib.branch import (Branch,
 
53
                           quotefn)
 
54
from bzrlib.conflicts import Conflict, ConflictList, CONFLICT_SUFFIXES
 
55
import bzrlib.bzrdir as bzrdir
87
56
from bzrlib.decorators import needs_read_lock, needs_write_lock
88
 
from bzrlib.inventory import InventoryEntry, Inventory, ROOT_ID, TreeReference
 
57
import bzrlib.errors as errors
 
58
from bzrlib.errors import (BzrCheckError,
 
59
                           BzrError,
 
60
                           ConflictFormatError,
 
61
                           DivergedBranches,
 
62
                           WeaveRevisionNotPresent,
 
63
                           NotBranchError,
 
64
                           NoSuchFile,
 
65
                           NotVersionedError,
 
66
                           MergeModifiedFormatError,
 
67
                           UnsupportedOperation,
 
68
                           )
 
69
from bzrlib.inventory import InventoryEntry, Inventory
89
70
from bzrlib.lockable_files import LockableFiles, TransportLock
90
71
from bzrlib.lockdir import LockDir
91
 
import bzrlib.mutabletree
92
 
from bzrlib.mutabletree import needs_tree_write_lock
 
72
from bzrlib.merge import merge_inner, transform_tree
93
73
from bzrlib.osutils import (
94
 
    compact_date,
95
 
    file_kind,
96
 
    isdir,
97
 
    normpath,
98
 
    pathjoin,
99
 
    rand_chars,
100
 
    realpath,
101
 
    safe_unicode,
102
 
    splitpath,
103
 
    supports_executable,
104
 
    )
 
74
                            abspath,
 
75
                            appendpath,
 
76
                            compact_date,
 
77
                            file_kind,
 
78
                            isdir,
 
79
                            getcwd,
 
80
                            pathjoin,
 
81
                            pumpfile,
 
82
                            safe_unicode,
 
83
                            splitpath,
 
84
                            rand_bytes,
 
85
                            normpath,
 
86
                            realpath,
 
87
                            relpath,
 
88
                            rename,
 
89
                            supports_executable,
 
90
                            )
 
91
from bzrlib.progress import DummyProgress, ProgressPhase
 
92
from bzrlib.revision import NULL_REVISION
 
93
from bzrlib.rio import RioReader, rio_file, Stanza
 
94
from bzrlib.symbol_versioning import *
 
95
from bzrlib.textui import show_status
 
96
import bzrlib.tree
 
97
from bzrlib.transform import build_tree
105
98
from bzrlib.trace import mutter, note
 
99
from bzrlib.transport import get_transport
106
100
from bzrlib.transport.local import LocalTransport
107
 
from bzrlib.progress import DummyProgress, ProgressPhase
108
 
from bzrlib.revision import NULL_REVISION, CURRENT_REVISION
109
 
from bzrlib.rio import RioReader, rio_file, Stanza
110
 
from bzrlib.symbol_versioning import (deprecated_passed,
111
 
        deprecated_method,
112
 
        deprecated_function,
113
 
        DEPRECATED_PARAMETER,
114
 
        zero_eight,
115
 
        zero_eleven,
116
 
        zero_thirteen,
117
 
        )
118
 
 
119
 
 
120
 
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
121
 
CONFLICT_HEADER_1 = "BZR conflict list format 1"
122
 
 
123
 
ERROR_PATH_NOT_FOUND = 3    # WindowsError errno code, equivalent to ENOENT
124
 
 
125
 
 
126
 
@deprecated_function(zero_thirteen)
 
101
import bzrlib.ui
 
102
import bzrlib.xml5
 
103
 
 
104
 
127
105
def gen_file_id(name):
128
 
    """Return new file id for the basename 'name'.
129
 
 
130
 
    Use bzrlib.generate_ids.gen_file_id() instead
131
 
    """
132
 
    return generate_ids.gen_file_id(name)
133
 
 
134
 
 
135
 
@deprecated_function(zero_thirteen)
 
106
    """Return new file id.
 
107
 
 
108
    This should probably generate proper UUIDs, but for the moment we
 
109
    cope with just randomness because running uuidgen every time is
 
110
    slow."""
 
111
    from binascii import hexlify
 
112
    from time import time
 
113
 
 
114
    # get last component
 
115
    idx = name.rfind('/')
 
116
    if idx != -1:
 
117
        name = name[idx+1 : ]
 
118
    idx = name.rfind('\\')
 
119
    if idx != -1:
 
120
        name = name[idx+1 : ]
 
121
 
 
122
    # make it not a hidden file
 
123
    name = name.lstrip('.')
 
124
 
 
125
    # remove any wierd characters; we don't escape them but rather
 
126
    # just pull them out
 
127
    name = re.sub(r'[^\w.]', '', name)
 
128
 
 
129
    s = hexlify(rand_bytes(8))
 
130
    return '-'.join((name, compact_date(time()), s))
 
131
 
 
132
 
136
133
def gen_root_id():
137
 
    """Return a new tree-root file id.
138
 
 
139
 
    This has been deprecated in favor of bzrlib.generate_ids.gen_root_id()
140
 
    """
141
 
    return generate_ids.gen_root_id()
 
134
    """Return a new tree-root file id."""
 
135
    return gen_file_id('TREE_ROOT')
142
136
 
143
137
 
144
138
class TreeEntry(object):
145
 
    """An entry that implements the minimum interface used by commands.
 
139
    """An entry that implements the minium interface used by commands.
146
140
 
147
141
    This needs further inspection, it may be better to have 
148
142
    InventoryEntries without ids - though that seems wrong. For now,
196
190
        return ''
197
191
 
198
192
 
199
 
class WorkingTree(bzrlib.mutabletree.MutableTree):
 
193
class WorkingTree(bzrlib.tree.Tree):
200
194
    """Working copy tree.
201
195
 
202
196
    The inventory is held in the `Branch` working-inventory, and the
213
207
                 _internal=False,
214
208
                 _format=None,
215
209
                 _bzrdir=None):
216
 
        """Construct a WorkingTree instance. This is not a public API.
 
210
        """Construct a WorkingTree for basedir.
217
211
 
218
 
        :param branch: A branch to override probing for the branch.
 
212
        If the branch is not supplied, it is opened automatically.
 
213
        If the branch is supplied, it must be the branch for this basedir.
 
214
        (branch.base is not cross checked, because for remote branches that
 
215
        would be meaningless).
219
216
        """
220
217
        self._format = _format
221
218
        self.bzrdir = _bzrdir
222
219
        if not _internal:
223
 
            raise errors.BzrError("Please use bzrdir.open_workingtree or "
224
 
                "WorkingTree.open() to obtain a WorkingTree.")
 
220
            # not created via open etc.
 
221
            warn("WorkingTree() is deprecated as of bzr version 0.8. "
 
222
                 "Please use bzrdir.open_workingtree or WorkingTree.open().",
 
223
                 DeprecationWarning,
 
224
                 stacklevel=2)
 
225
            wt = WorkingTree.open(basedir)
 
226
            self._branch = wt.branch
 
227
            self.basedir = wt.basedir
 
228
            self._control_files = wt._control_files
 
229
            self._hashcache = wt._hashcache
 
230
            self._set_inventory(wt._inventory)
 
231
            self._format = wt._format
 
232
            self.bzrdir = wt.bzrdir
 
233
        from bzrlib.hashcache import HashCache
 
234
        from bzrlib.trace import note, mutter
225
235
        assert isinstance(basedir, basestring), \
226
236
            "base directory %r is not a string" % basedir
227
237
        basedir = safe_unicode(basedir)
228
238
        mutter("opening working tree %r", basedir)
229
239
        if deprecated_passed(branch):
 
240
            if not _internal:
 
241
                warn("WorkingTree(..., branch=XXX) is deprecated as of bzr 0.8."
 
242
                     " Please use bzrdir.open_workingtree() or"
 
243
                     " WorkingTree.open().",
 
244
                     DeprecationWarning,
 
245
                     stacklevel=2
 
246
                     )
230
247
            self._branch = branch
231
248
        else:
232
249
            self._branch = self.bzrdir.open_branch()
 
250
        assert isinstance(self.branch, Branch), \
 
251
            "branch %r is not a Branch" % self.branch
233
252
        self.basedir = realpath(basedir)
234
253
        # if branch is at our basedir and is a format 6 or less
235
254
        if isinstance(self._format, WorkingTreeFormat2):
236
255
            # share control object
237
256
            self._control_files = self.branch.control_files
238
257
        else:
239
 
            # assume all other formats have their own control files.
 
258
            # only ready for format 3
 
259
            assert isinstance(self._format, WorkingTreeFormat3)
240
260
            assert isinstance(_control_files, LockableFiles), \
241
261
                    "_control_files must be a LockableFiles, not %r" \
242
262
                    % _control_files
247
267
        # if needed, or, when the cache sees a change, append it to the hash
248
268
        # cache file, and have the parser take the most recent entry for a
249
269
        # given path only.
250
 
        wt_trans = self.bzrdir.get_workingtree_transport(None)
251
 
        cache_filename = wt_trans.local_abspath('stat-cache')
252
 
        self._hashcache = hashcache.HashCache(basedir, cache_filename,
253
 
                                              self._control_files._file_mode)
254
 
        hc = self._hashcache
 
270
        cache_filename = self.bzrdir.get_workingtree_transport(None).abspath('stat-cache')
 
271
        hc = self._hashcache = HashCache(basedir, cache_filename, self._control_files._file_mode)
255
272
        hc.read()
256
273
        # is this scan needed ? it makes things kinda slow.
257
 
        #hc.scan()
 
274
        hc.scan()
258
275
 
259
276
        if hc.needs_write:
260
277
            mutter("write hc")
261
278
            hc.write()
262
279
 
263
280
        if _inventory is None:
264
 
            # This will be acquired on lock_read() or lock_write()
265
 
            self._inventory_is_modified = False
266
 
            self._inventory = None
 
281
            self._set_inventory(self.read_working_inventory())
267
282
        else:
268
 
            # the caller of __init__ has provided an inventory,
269
 
            # we assume they know what they are doing - as its only
270
 
            # the Format factory and creation methods that are
271
 
            # permitted to do this.
272
 
            self._set_inventory(_inventory, dirty=False)
 
283
            self._set_inventory(_inventory)
273
284
 
274
285
    branch = property(
275
286
        fget=lambda self: self._branch,
290
301
        self._control_files.break_lock()
291
302
        self.branch.break_lock()
292
303
 
293
 
    def requires_rich_root(self):
294
 
        return self._format.requires_rich_root
295
 
 
296
 
    def supports_tree_reference(self):
297
 
        return False
298
 
 
299
 
    def _set_inventory(self, inv, dirty):
300
 
        """Set the internal cached inventory.
301
 
 
302
 
        :param inv: The inventory to set.
303
 
        :param dirty: A boolean indicating whether the inventory is the same
304
 
            logical inventory as whats on disk. If True the inventory is not
305
 
            the same and should be written to disk or data will be lost, if
306
 
            False then the inventory is the same as that on disk and any
307
 
            serialisation would be unneeded overhead.
308
 
        """
309
 
        assert inv.root is not None
 
304
    def _set_inventory(self, inv):
310
305
        self._inventory = inv
311
 
        self._inventory_is_modified = dirty
 
306
        self.path2id = self._inventory.path2id
 
307
 
 
308
    def is_control_filename(self, filename):
 
309
        """True if filename is the name of a control file in this tree.
 
310
        
 
311
        This is true IF and ONLY IF the filename is part of the meta data
 
312
        that bzr controls in this tree. I.E. a random .bzr directory placed
 
313
        on disk will not be a control file for this tree.
 
314
        """
 
315
        try:
 
316
            self.bzrdir.transport.relpath(self.abspath(filename))
 
317
            return True
 
318
        except errors.PathNotChild:
 
319
            return False
312
320
 
313
321
    @staticmethod
314
322
    def open(path=None, _unsupported=False):
330
338
        run into /.  If there isn't one, raises NotBranchError.
331
339
        TODO: give this a new exception.
332
340
        If there is one, it is returned, along with the unused portion of path.
333
 
 
334
 
        :return: The WorkingTree that contains 'path', and the rest of path
335
341
        """
336
342
        if path is None:
337
 
            path = osutils.getcwd()
 
343
            path = os.getcwdu()
338
344
        control, relpath = bzrdir.BzrDir.open_containing(path)
339
 
 
340
345
        return control.open_workingtree(), relpath
341
346
 
342
347
    @staticmethod
347
352
        """
348
353
        return WorkingTree.open(path, _unsupported=True)
349
354
 
350
 
    # should be deprecated - this is slow and in any case treating them as a
351
 
    # container is (we now know) bad style -- mbp 20070302
352
 
    ## @deprecated_method(zero_fifteen)
353
355
    def __iter__(self):
354
356
        """Iterate through file_ids for this tree.
355
357
 
358
360
        """
359
361
        inv = self._inventory
360
362
        for path, ie in inv.iter_entries():
361
 
            if osutils.lexists(self.abspath(path)):
 
363
            if bzrlib.osutils.lexists(self.abspath(path)):
362
364
                yield ie.file_id
363
365
 
364
366
    def __repr__(self):
369
371
        return pathjoin(self.basedir, filename)
370
372
    
371
373
    def basis_tree(self):
372
 
        """Return RevisionTree for the current last revision.
373
 
        
374
 
        If the left most parent is a ghost then the returned tree will be an
375
 
        empty tree - one obtained by calling repository.revision_tree(None).
376
 
        """
377
 
        try:
378
 
            revision_id = self.get_parent_ids()[0]
379
 
        except IndexError:
380
 
            # no parents, return an empty revision tree.
381
 
            # in the future this should return the tree for
382
 
            # 'empty:' - the implicit root empty tree.
383
 
            return self.branch.repository.revision_tree(None)
384
 
        try:
385
 
            return self.revision_tree(revision_id)
386
 
        except errors.NoSuchRevision:
387
 
            pass
388
 
        # No cached copy available, retrieve from the repository.
389
 
        # FIXME? RBC 20060403 should we cache the inventory locally
390
 
        # at this point ?
391
 
        try:
392
 
            return self.branch.repository.revision_tree(revision_id)
393
 
        except errors.RevisionNotPresent:
394
 
            # the basis tree *may* be a ghost or a low level error may have
395
 
            # occured. If the revision is present, its a problem, if its not
396
 
            # its a ghost.
397
 
            if self.branch.repository.has_revision(revision_id):
398
 
                raise
399
 
            # the basis tree is a ghost so return an empty tree.
400
 
            return self.branch.repository.revision_tree(None)
 
374
        """Return RevisionTree for the current last revision."""
 
375
        revision_id = self.last_revision()
 
376
        if revision_id is not None:
 
377
            try:
 
378
                xml = self.read_basis_inventory()
 
379
                inv = bzrlib.xml5.serializer_v5.read_inventory_from_string(xml)
 
380
            except NoSuchFile:
 
381
                inv = None
 
382
            if inv is not None and inv.revision_id == revision_id:
 
383
                return bzrlib.tree.RevisionTree(self.branch.repository, inv,
 
384
                                                revision_id)
 
385
        # FIXME? RBC 20060403 should we cache the inventory here ?
 
386
        return self.branch.repository.revision_tree(revision_id)
401
387
 
402
388
    @staticmethod
403
389
    @deprecated_method(zero_eight)
416
402
        XXX: When BzrDir is present, these should be created through that 
417
403
        interface instead.
418
404
        """
419
 
        warnings.warn('delete WorkingTree.create', stacklevel=3)
 
405
        warn('delete WorkingTree.create', stacklevel=3)
420
406
        transport = get_transport(directory)
421
407
        if branch.bzrdir.root_transport.base == transport.base:
422
408
            # same dir 
437
423
        """
438
424
        return bzrdir.BzrDir.create_standalone_workingtree(directory)
439
425
 
440
 
    def relpath(self, path):
441
 
        """Return the local path portion from a given path.
442
 
        
443
 
        The path may be absolute or relative. If its a relative path it is 
444
 
        interpreted relative to the python current working directory.
445
 
        """
446
 
        return osutils.relpath(self.basedir, path)
 
426
    def relpath(self, abs):
 
427
        """Return the local path portion from a given absolute path."""
 
428
        return relpath(self.basedir, abs)
447
429
 
448
430
    def has_filename(self, filename):
449
 
        return osutils.lexists(self.abspath(filename))
 
431
        return bzrlib.osutils.lexists(self.abspath(filename))
450
432
 
451
433
    def get_file(self, file_id):
452
 
        file_id = osutils.safe_file_id(file_id)
453
434
        return self.get_file_byname(self.id2path(file_id))
454
435
 
455
 
    def get_file_text(self, file_id):
456
 
        file_id = osutils.safe_file_id(file_id)
457
 
        return self.get_file(file_id).read()
458
 
 
459
436
    def get_file_byname(self, filename):
460
437
        return file(self.abspath(filename), 'rb')
461
438
 
462
 
    @needs_read_lock
463
 
    def annotate_iter(self, file_id):
464
 
        """See Tree.annotate_iter
465
 
 
466
 
        This implementation will use the basis tree implementation if possible.
467
 
        Lines not in the basis are attributed to CURRENT_REVISION
468
 
 
469
 
        If there are pending merges, lines added by those merges will be
470
 
        incorrectly attributed to CURRENT_REVISION (but after committing, the
471
 
        attribution will be correct).
472
 
        """
473
 
        file_id = osutils.safe_file_id(file_id)
474
 
        basis = self.basis_tree()
475
 
        basis.lock_read()
476
 
        try:
477
 
            changes = self._iter_changes(basis, True, [self.id2path(file_id)],
478
 
                require_versioned=True).next()
479
 
            changed_content, kind = changes[2], changes[6]
480
 
            if not changed_content:
481
 
                return basis.annotate_iter(file_id)
482
 
            if kind[1] is None:
483
 
                return None
484
 
            import annotate
485
 
            if kind[0] != 'file':
486
 
                old_lines = []
487
 
            else:
488
 
                old_lines = list(basis.annotate_iter(file_id))
489
 
            old = [old_lines]
490
 
            for tree in self.branch.repository.revision_trees(
491
 
                self.get_parent_ids()[1:]):
492
 
                if file_id not in tree:
493
 
                    continue
494
 
                old.append(list(tree.annotate_iter(file_id)))
495
 
            return annotate.reannotate(old, self.get_file(file_id).readlines(),
496
 
                                       CURRENT_REVISION)
497
 
        finally:
498
 
            basis.unlock()
499
 
 
500
 
    def get_parent_ids(self):
501
 
        """See Tree.get_parent_ids.
502
 
        
503
 
        This implementation reads the pending merges list and last_revision
504
 
        value and uses that to decide what the parents list should be.
505
 
        """
506
 
        last_rev = self._last_revision()
507
 
        if last_rev is None:
508
 
            parents = []
509
 
        else:
510
 
            parents = [last_rev]
511
 
        try:
512
 
            merges_file = self._control_files.get('pending-merges')
513
 
        except errors.NoSuchFile:
514
 
            pass
515
 
        else:
516
 
            for l in merges_file.readlines():
517
 
                revision_id = osutils.safe_revision_id(l.rstrip('\n'))
518
 
                parents.append(revision_id)
519
 
        return parents
520
 
 
521
 
    @needs_read_lock
522
439
    def get_root_id(self):
523
440
        """Return the id of this trees root"""
524
 
        return self._inventory.root.file_id
 
441
        inv = self.read_working_inventory()
 
442
        return inv.root.file_id
525
443
        
526
444
    def _get_store_filename(self, file_id):
527
445
        ## XXX: badly named; this is not in the store at all
528
 
        file_id = osutils.safe_file_id(file_id)
529
446
        return self.abspath(self.id2path(file_id))
530
447
 
531
448
    @needs_read_lock
532
 
    def clone(self, to_bzrdir, revision_id=None):
 
449
    def clone(self, to_bzrdir, revision_id=None, basis=None):
533
450
        """Duplicate this working tree into to_bzr, including all state.
534
451
        
535
452
        Specifically modified files are kept as modified, but
541
458
            If not None, the cloned tree will have its last revision set to 
542
459
            revision, and and difference between the source trees last revision
543
460
            and this one merged in.
 
461
 
 
462
        basis
 
463
            If not None, a closer copy of a tree which may have some files in
 
464
            common, and which file content should be preferentially copied from.
544
465
        """
545
466
        # assumes the target bzr dir format is compatible.
546
467
        result = self._format.initialize(to_bzrdir)
550
471
    @needs_read_lock
551
472
    def copy_content_into(self, tree, revision_id=None):
552
473
        """Copy the current content and user files of this tree into tree."""
553
 
        tree.set_root_id(self.get_root_id())
554
474
        if revision_id is None:
555
 
            merge.transform_tree(tree, self)
 
475
            transform_tree(tree, self)
556
476
        else:
557
 
            # TODO now merge from tree.last_revision to revision (to preserve
558
 
            # user local changes)
559
 
            merge.transform_tree(tree, self)
560
 
            tree.set_parent_ids([revision_id])
 
477
            # TODO now merge from tree.last_revision to revision
 
478
            transform_tree(tree, self)
 
479
            tree.set_last_revision(revision_id)
 
480
 
 
481
    @needs_write_lock
 
482
    def commit(self, message=None, revprops=None, *args, **kwargs):
 
483
        # avoid circular imports
 
484
        from bzrlib.commit import Commit
 
485
        if revprops is None:
 
486
            revprops = {}
 
487
        if not 'branch-nick' in revprops:
 
488
            revprops['branch-nick'] = self.branch.nick
 
489
        # args for wt.commit start at message from the Commit.commit method,
 
490
        # but with branch a kwarg now, passing in args as is results in the
 
491
        #message being used for the branch
 
492
        args = (DEPRECATED_PARAMETER, message, ) + args
 
493
        Commit().commit(working_tree=self, revprops=revprops, *args, **kwargs)
 
494
        self._set_inventory(self.read_working_inventory())
561
495
 
562
496
    def id2abspath(self, file_id):
563
 
        file_id = osutils.safe_file_id(file_id)
564
497
        return self.abspath(self.id2path(file_id))
565
498
 
566
499
    def has_id(self, file_id):
567
500
        # files that have been deleted are excluded
568
 
        file_id = osutils.safe_file_id(file_id)
569
 
        inv = self.inventory
 
501
        inv = self._inventory
570
502
        if not inv.has_id(file_id):
571
503
            return False
572
504
        path = inv.id2path(file_id)
573
 
        return osutils.lexists(self.abspath(path))
 
505
        return bzrlib.osutils.lexists(self.abspath(path))
574
506
 
575
507
    def has_or_had_id(self, file_id):
576
 
        file_id = osutils.safe_file_id(file_id)
577
508
        if file_id == self.inventory.root.file_id:
578
509
            return True
579
510
        return self.inventory.has_id(file_id)
581
512
    __contains__ = has_id
582
513
 
583
514
    def get_file_size(self, file_id):
584
 
        file_id = osutils.safe_file_id(file_id)
585
515
        return os.path.getsize(self.id2abspath(file_id))
586
516
 
587
517
    @needs_read_lock
588
 
    def get_file_sha1(self, file_id, path=None, stat_value=None):
589
 
        file_id = osutils.safe_file_id(file_id)
590
 
        if not path:
 
518
    def get_file_sha1(self, file_id):
 
519
        path = self._inventory.id2path(file_id)
 
520
        return self._hashcache.get_sha1(path)
 
521
 
 
522
    def is_executable(self, file_id):
 
523
        if not supports_executable():
 
524
            return self._inventory[file_id].executable
 
525
        else:
591
526
            path = self._inventory.id2path(file_id)
592
 
        return self._hashcache.get_sha1(path, stat_value)
593
 
 
594
 
    def get_file_mtime(self, file_id, path=None):
595
 
        file_id = osutils.safe_file_id(file_id)
596
 
        if not path:
597
 
            path = self.inventory.id2path(file_id)
598
 
        return os.lstat(self.abspath(path)).st_mtime
599
 
 
600
 
    if not supports_executable():
601
 
        def is_executable(self, file_id, path=None):
602
 
            file_id = osutils.safe_file_id(file_id)
603
 
            return self._inventory[file_id].executable
604
 
    else:
605
 
        def is_executable(self, file_id, path=None):
606
 
            if not path:
607
 
                file_id = osutils.safe_file_id(file_id)
608
 
                path = self.id2path(file_id)
609
527
            mode = os.lstat(self.abspath(path)).st_mode
610
 
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
611
 
 
612
 
    @needs_tree_write_lock
613
 
    def _add(self, files, ids, kinds):
614
 
        """See MutableTree._add."""
 
528
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC&mode)
 
529
 
 
530
    @needs_write_lock
 
531
    def add(self, files, ids=None):
 
532
        """Make files versioned.
 
533
 
 
534
        Note that the command line normally calls smart_add instead,
 
535
        which can automatically recurse.
 
536
 
 
537
        This adds the files to the inventory, so that they will be
 
538
        recorded by the next commit.
 
539
 
 
540
        files
 
541
            List of paths to add, relative to the base of the tree.
 
542
 
 
543
        ids
 
544
            If set, use these instead of automatically generated ids.
 
545
            Must be the same length as the list of files, but may
 
546
            contain None for ids that are to be autogenerated.
 
547
 
 
548
        TODO: Perhaps have an option to add the ids even if the files do
 
549
              not (yet) exist.
 
550
 
 
551
        TODO: Perhaps callback with the ids and paths as they're added.
 
552
        """
615
553
        # TODO: Re-adding a file that is removed in the working copy
616
554
        # should probably put it back with the previous ID.
617
 
        # the read and write working inventory should not occur in this 
618
 
        # function - they should be part of lock_write and unlock.
 
555
        if isinstance(files, basestring):
 
556
            assert(ids is None or isinstance(ids, basestring))
 
557
            files = [files]
 
558
            if ids is not None:
 
559
                ids = [ids]
 
560
 
 
561
        if ids is None:
 
562
            ids = [None] * len(files)
 
563
        else:
 
564
            assert(len(ids) == len(files))
 
565
 
619
566
        inv = self.read_working_inventory()
620
 
        for f, file_id, kind in zip(files, ids, kinds):
621
 
            assert kind is not None
 
567
        for f,file_id in zip(files, ids):
 
568
            if self.is_control_filename(f):
 
569
                raise BzrError("cannot add control file %s" % quotefn(f))
 
570
 
 
571
            fp = splitpath(f)
 
572
 
 
573
            if len(fp) == 0:
 
574
                raise BzrError("cannot add top-level %r" % f)
 
575
 
 
576
            fullpath = normpath(self.abspath(f))
 
577
 
 
578
            try:
 
579
                kind = file_kind(fullpath)
 
580
            except OSError, e:
 
581
                if e.errno == errno.ENOENT:
 
582
                    raise NoSuchFile(fullpath)
 
583
                # maybe something better?
 
584
                raise BzrError('cannot add: not a regular file, symlink or directory: %s' % quotefn(f))
 
585
 
 
586
            if not InventoryEntry.versionable_kind(kind):
 
587
                raise BzrError('cannot add: not a versionable file ('
 
588
                               'i.e. regular file, symlink or directory): %s' % quotefn(f))
 
589
 
622
590
            if file_id is None:
623
 
                inv.add_path(f, kind=kind)
624
 
            else:
625
 
                file_id = osutils.safe_file_id(file_id)
626
 
                inv.add_path(f, kind=kind, file_id=file_id)
 
591
                file_id = gen_file_id(f)
 
592
            inv.add_path(f, kind=kind, file_id=file_id)
 
593
 
 
594
            mutter("add file %s file_id:{%s} kind=%r" % (f, file_id, kind))
627
595
        self._write_inventory(inv)
628
596
 
629
 
    @needs_tree_write_lock
630
 
    def _gather_kinds(self, files, kinds):
631
 
        """See MutableTree._gather_kinds."""
632
 
        for pos, f in enumerate(files):
633
 
            if kinds[pos] is None:
634
 
                fullpath = normpath(self.abspath(f))
635
 
                try:
636
 
                    kinds[pos] = file_kind(fullpath)
637
 
                except OSError, e:
638
 
                    if e.errno == errno.ENOENT:
639
 
                        raise errors.NoSuchFile(fullpath)
640
 
 
641
597
    @needs_write_lock
642
 
    def add_parent_tree_id(self, revision_id, allow_leftmost_as_ghost=False):
643
 
        """Add revision_id as a parent.
644
 
 
645
 
        This is equivalent to retrieving the current list of parent ids
646
 
        and setting the list to its value plus revision_id.
647
 
 
648
 
        :param revision_id: The revision id to add to the parent list. It may
649
 
        be a ghost revision as long as its not the first parent to be added,
650
 
        or the allow_leftmost_as_ghost parameter is set True.
651
 
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
652
 
        """
653
 
        parents = self.get_parent_ids() + [revision_id]
654
 
        self.set_parent_ids(parents, allow_leftmost_as_ghost=len(parents) > 1
655
 
            or allow_leftmost_as_ghost)
656
 
 
657
 
    @needs_tree_write_lock
658
 
    def add_parent_tree(self, parent_tuple, allow_leftmost_as_ghost=False):
659
 
        """Add revision_id, tree tuple as a parent.
660
 
 
661
 
        This is equivalent to retrieving the current list of parent trees
662
 
        and setting the list to its value plus parent_tuple. See also
663
 
        add_parent_tree_id - if you only have a parent id available it will be
664
 
        simpler to use that api. If you have the parent already available, using
665
 
        this api is preferred.
666
 
 
667
 
        :param parent_tuple: The (revision id, tree) to add to the parent list.
668
 
            If the revision_id is a ghost, pass None for the tree.
669
 
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
670
 
        """
671
 
        parent_ids = self.get_parent_ids() + [parent_tuple[0]]
672
 
        if len(parent_ids) > 1:
673
 
            # the leftmost may have already been a ghost, preserve that if it
674
 
            # was.
675
 
            allow_leftmost_as_ghost = True
676
 
        self.set_parent_ids(parent_ids,
677
 
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
678
 
 
679
 
    @needs_tree_write_lock
680
598
    def add_pending_merge(self, *revision_ids):
681
599
        # TODO: Perhaps should check at this point that the
682
600
        # history of the revision is actually present?
683
 
        parents = self.get_parent_ids()
 
601
        p = self.pending_merges()
684
602
        updated = False
685
603
        for rev_id in revision_ids:
686
 
            if rev_id in parents:
 
604
            if rev_id in p:
687
605
                continue
688
 
            parents.append(rev_id)
 
606
            p.append(rev_id)
689
607
            updated = True
690
608
        if updated:
691
 
            self.set_parent_ids(parents, allow_leftmost_as_ghost=True)
 
609
            self.set_pending_merges(p)
692
610
 
693
 
    @deprecated_method(zero_eleven)
694
611
    @needs_read_lock
695
612
    def pending_merges(self):
696
613
        """Return a list of pending merges.
697
614
 
698
615
        These are revisions that have been merged into the working
699
616
        directory but not yet committed.
700
 
 
701
 
        As of 0.11 this is deprecated. Please see WorkingTree.get_parent_ids()
702
 
        instead - which is available on all tree objects.
703
 
        """
704
 
        return self.get_parent_ids()[1:]
705
 
 
706
 
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
707
 
        """Common ghost checking functionality from set_parent_*.
708
 
 
709
 
        This checks that the left hand-parent exists if there are any
710
 
        revisions present.
711
 
        """
712
 
        if len(revision_ids) > 0:
713
 
            leftmost_id = revision_ids[0]
714
 
            if (not allow_leftmost_as_ghost and not
715
 
                self.branch.repository.has_revision(leftmost_id)):
716
 
                raise errors.GhostRevisionUnusableHere(leftmost_id)
717
 
 
718
 
    def _set_merges_from_parent_ids(self, parent_ids):
719
 
        merges = parent_ids[1:]
720
 
        self._control_files.put_bytes('pending-merges', '\n'.join(merges))
721
 
 
722
 
    @needs_tree_write_lock
723
 
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
724
 
        """Set the parent ids to revision_ids.
725
 
        
726
 
        See also set_parent_trees. This api will try to retrieve the tree data
727
 
        for each element of revision_ids from the trees repository. If you have
728
 
        tree data already available, it is more efficient to use
729
 
        set_parent_trees rather than set_parent_ids. set_parent_ids is however
730
 
        an easier API to use.
731
 
 
732
 
        :param revision_ids: The revision_ids to set as the parent ids of this
733
 
            working tree. Any of these may be ghosts.
734
 
        """
735
 
        revision_ids = [osutils.safe_revision_id(r) for r in revision_ids]
736
 
        self._check_parents_for_ghosts(revision_ids,
737
 
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
738
 
 
739
 
        if len(revision_ids) > 0:
740
 
            self.set_last_revision(revision_ids[0])
741
 
        else:
742
 
            self.set_last_revision(None)
743
 
 
744
 
        self._set_merges_from_parent_ids(revision_ids)
745
 
 
746
 
    @needs_tree_write_lock
747
 
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
748
 
        """See MutableTree.set_parent_trees."""
749
 
        parent_ids = [osutils.safe_revision_id(rev) for (rev, tree) in parents_list]
750
 
 
751
 
        self._check_parents_for_ghosts(parent_ids,
752
 
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
753
 
 
754
 
        if len(parent_ids) == 0:
755
 
            leftmost_parent_id = None
756
 
            leftmost_parent_tree = None
757
 
        else:
758
 
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
759
 
 
760
 
        if self._change_last_revision(leftmost_parent_id):
761
 
            if leftmost_parent_tree is None:
762
 
                # If we don't have a tree, fall back to reading the
763
 
                # parent tree from the repository.
764
 
                self._cache_basis_inventory(leftmost_parent_id)
765
 
            else:
766
 
                inv = leftmost_parent_tree.inventory
767
 
                xml = self._create_basis_xml_from_inventory(
768
 
                                        leftmost_parent_id, inv)
769
 
                self._write_basis_inventory(xml)
770
 
        self._set_merges_from_parent_ids(parent_ids)
771
 
 
772
 
    @needs_tree_write_lock
 
617
        """
 
618
        try:
 
619
            merges_file = self._control_files.get_utf8('pending-merges')
 
620
        except OSError, e:
 
621
            if e.errno != errno.ENOENT:
 
622
                raise
 
623
            return []
 
624
        p = []
 
625
        for l in merges_file.readlines():
 
626
            p.append(l.rstrip('\n'))
 
627
        return p
 
628
 
 
629
    @needs_write_lock
773
630
    def set_pending_merges(self, rev_list):
774
 
        parents = self.get_parent_ids()
775
 
        leftmost = parents[:1]
776
 
        new_parents = leftmost + rev_list
777
 
        self.set_parent_ids(new_parents)
 
631
        self._control_files.put_utf8('pending-merges', '\n'.join(rev_list))
778
632
 
779
 
    @needs_tree_write_lock
 
633
    @needs_write_lock
780
634
    def set_merge_modified(self, modified_hashes):
781
635
        def iter_stanzas():
782
636
            for file_id, hash in modified_hashes.iteritems():
783
 
                yield Stanza(file_id=file_id.decode('utf8'), hash=hash)
 
637
                yield Stanza(file_id=file_id, hash=hash)
784
638
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
785
639
 
 
640
    @needs_write_lock
786
641
    def _put_rio(self, filename, stanzas, header):
787
 
        self._must_be_locked()
788
642
        my_file = rio_file(stanzas, header)
789
643
        self._control_files.put(filename, my_file)
790
644
 
791
 
    @needs_write_lock # because merge pulls data into the branch.
792
 
    def merge_from_branch(self, branch, to_revision=None):
793
 
        """Merge from a branch into this working tree.
794
 
 
795
 
        :param branch: The branch to merge from.
796
 
        :param to_revision: If non-None, the merge will merge to to_revision,
797
 
            but not beyond it. to_revision does not need to be in the history
798
 
            of the branch when it is supplied. If None, to_revision defaults to
799
 
            branch.last_revision().
800
 
        """
801
 
        from bzrlib.merge import Merger, Merge3Merger
802
 
        pb = bzrlib.ui.ui_factory.nested_progress_bar()
803
 
        try:
804
 
            merger = Merger(self.branch, this_tree=self, pb=pb)
805
 
            merger.pp = ProgressPhase("Merge phase", 5, pb)
806
 
            merger.pp.next_phase()
807
 
            # check that there are no
808
 
            # local alterations
809
 
            merger.check_basis(check_clean=True, require_commits=False)
810
 
            if to_revision is None:
811
 
                to_revision = branch.last_revision()
812
 
            else:
813
 
                to_revision = osutils.safe_revision_id(to_revision)
814
 
            merger.other_rev_id = to_revision
815
 
            if merger.other_rev_id is None:
816
 
                raise error.NoCommits(branch)
817
 
            self.branch.fetch(branch, last_revision=merger.other_rev_id)
818
 
            merger.other_basis = merger.other_rev_id
819
 
            merger.other_tree = self.branch.repository.revision_tree(
820
 
                merger.other_rev_id)
821
 
            merger.other_branch = branch
822
 
            merger.pp.next_phase()
823
 
            merger.find_base()
824
 
            if merger.base_rev_id == merger.other_rev_id:
825
 
                raise errors.PointlessMerge
826
 
            merger.backup_files = False
827
 
            merger.merge_type = Merge3Merger
828
 
            merger.set_interesting_files(None)
829
 
            merger.show_base = False
830
 
            merger.reprocess = False
831
 
            conflicts = merger.do_merge()
832
 
            merger.set_pending()
833
 
        finally:
834
 
            pb.finished()
835
 
        return conflicts
836
 
 
837
645
    @needs_read_lock
838
646
    def merge_modified(self):
839
 
        """Return a dictionary of files modified by a merge.
840
 
 
841
 
        The list is initialized by WorkingTree.set_merge_modified, which is 
842
 
        typically called after we make some automatic updates to the tree
843
 
        because of a merge.
844
 
 
845
 
        This returns a map of file_id->sha1, containing only files which are
846
 
        still in the working inventory and have that text hash.
847
 
        """
848
647
        try:
849
648
            hashfile = self._control_files.get('merge-hashes')
850
 
        except errors.NoSuchFile:
 
649
        except NoSuchFile:
851
650
            return {}
852
651
        merge_hashes = {}
853
652
        try:
854
653
            if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
855
 
                raise errors.MergeModifiedFormatError()
 
654
                raise MergeModifiedFormatError()
856
655
        except StopIteration:
857
 
            raise errors.MergeModifiedFormatError()
 
656
            raise MergeModifiedFormatError()
858
657
        for s in RioReader(hashfile):
859
 
            # RioReader reads in Unicode, so convert file_ids back to utf8
860
 
            file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
 
658
            file_id = s.get("file_id")
861
659
            if file_id not in self.inventory:
862
660
                continue
863
 
            text_hash = s.get("hash")
864
 
            if text_hash == self.get_file_sha1(file_id):
865
 
                merge_hashes[file_id] = text_hash
 
661
            hash = s.get("hash")
 
662
            if hash == self.get_file_sha1(file_id):
 
663
                merge_hashes[file_id] = hash
866
664
        return merge_hashes
867
665
 
868
 
    @needs_write_lock
869
 
    def mkdir(self, path, file_id=None):
870
 
        """See MutableTree.mkdir()."""
871
 
        if file_id is None:
872
 
            file_id = generate_ids.gen_file_id(os.path.basename(path))
873
 
        os.mkdir(self.abspath(path))
874
 
        self.add(path, file_id, 'directory')
875
 
        return file_id
876
 
 
877
666
    def get_symlink_target(self, file_id):
878
 
        file_id = osutils.safe_file_id(file_id)
879
667
        return os.readlink(self.id2abspath(file_id))
880
668
 
881
 
    @needs_write_lock
882
 
    def subsume(self, other_tree):
883
 
        def add_children(inventory, entry):
884
 
            for child_entry in entry.children.values():
885
 
                inventory._byid[child_entry.file_id] = child_entry
886
 
                if child_entry.kind == 'directory':
887
 
                    add_children(inventory, child_entry)
888
 
        if other_tree.get_root_id() == self.get_root_id():
889
 
            raise errors.BadSubsumeSource(self, other_tree,
890
 
                                          'Trees have the same root')
891
 
        try:
892
 
            other_tree_path = self.relpath(other_tree.basedir)
893
 
        except errors.PathNotChild:
894
 
            raise errors.BadSubsumeSource(self, other_tree,
895
 
                'Tree is not contained by the other')
896
 
        new_root_parent = self.path2id(osutils.dirname(other_tree_path))
897
 
        if new_root_parent is None:
898
 
            raise errors.BadSubsumeSource(self, other_tree,
899
 
                'Parent directory is not versioned.')
900
 
        # We need to ensure that the result of a fetch will have a
901
 
        # versionedfile for the other_tree root, and only fetching into
902
 
        # RepositoryKnit2 guarantees that.
903
 
        if not self.branch.repository.supports_rich_root():
904
 
            raise errors.SubsumeTargetNeedsUpgrade(other_tree)
905
 
        other_tree.lock_tree_write()
906
 
        try:
907
 
            new_parents = other_tree.get_parent_ids()
908
 
            other_root = other_tree.inventory.root
909
 
            other_root.parent_id = new_root_parent
910
 
            other_root.name = osutils.basename(other_tree_path)
911
 
            self.inventory.add(other_root)
912
 
            add_children(self.inventory, other_root)
913
 
            self._write_inventory(self.inventory)
914
 
            # normally we don't want to fetch whole repositories, but i think
915
 
            # here we really do want to consolidate the whole thing.
916
 
            for parent_id in other_tree.get_parent_ids():
917
 
                self.branch.fetch(other_tree.branch, parent_id)
918
 
                self.add_parent_tree_id(parent_id)
919
 
        finally:
920
 
            other_tree.unlock()
921
 
        other_tree.bzrdir.retire_bzrdir()
922
 
 
923
 
    @needs_tree_write_lock
924
 
    def extract(self, file_id, format=None):
925
 
        """Extract a subtree from this tree.
926
 
        
927
 
        A new branch will be created, relative to the path for this tree.
928
 
        """
929
 
        self.flush()
930
 
        def mkdirs(path):
931
 
            segments = osutils.splitpath(path)
932
 
            transport = self.branch.bzrdir.root_transport
933
 
            for name in segments:
934
 
                transport = transport.clone(name)
935
 
                try:
936
 
                    transport.mkdir('.')
937
 
                except errors.FileExists:
938
 
                    pass
939
 
            return transport
940
 
            
941
 
        sub_path = self.id2path(file_id)
942
 
        branch_transport = mkdirs(sub_path)
943
 
        if format is None:
944
 
            format = bzrdir.format_registry.make_bzrdir('dirstate-with-subtree')
945
 
        try:
946
 
            branch_transport.mkdir('.')
947
 
        except errors.FileExists:
948
 
            pass
949
 
        branch_bzrdir = format.initialize_on_transport(branch_transport)
950
 
        try:
951
 
            repo = branch_bzrdir.find_repository()
952
 
        except errors.NoRepositoryPresent:
953
 
            repo = branch_bzrdir.create_repository()
954
 
            assert repo.supports_rich_root()
955
 
        else:
956
 
            if not repo.supports_rich_root():
957
 
                raise errors.RootNotRich()
958
 
        new_branch = branch_bzrdir.create_branch()
959
 
        new_branch.pull(self.branch)
960
 
        for parent_id in self.get_parent_ids():
961
 
            new_branch.fetch(self.branch, parent_id)
962
 
        tree_transport = self.bzrdir.root_transport.clone(sub_path)
963
 
        if tree_transport.base != branch_transport.base:
964
 
            tree_bzrdir = format.initialize_on_transport(tree_transport)
965
 
            branch.BranchReferenceFormat().initialize(tree_bzrdir, new_branch)
966
 
        else:
967
 
            tree_bzrdir = branch_bzrdir
968
 
        wt = tree_bzrdir.create_workingtree(NULL_REVISION)
969
 
        wt.set_parent_ids(self.get_parent_ids())
970
 
        my_inv = self.inventory
971
 
        child_inv = Inventory(root_id=None)
972
 
        new_root = my_inv[file_id]
973
 
        my_inv.remove_recursive_id(file_id)
974
 
        new_root.parent_id = None
975
 
        child_inv.add(new_root)
976
 
        self._write_inventory(my_inv)
977
 
        wt._write_inventory(child_inv)
978
 
        return wt
979
 
 
980
 
    def _serialize(self, inventory, out_file):
981
 
        xml5.serializer_v5.write_inventory(self._inventory, out_file)
982
 
 
983
 
    def _deserialize(selt, in_file):
984
 
        return xml5.serializer_v5.read_inventory(in_file)
985
 
 
986
 
    def flush(self):
987
 
        """Write the in memory inventory to disk."""
988
 
        # TODO: Maybe this should only write on dirty ?
989
 
        if self._control_files._lock_mode != 'w':
990
 
            raise errors.NotWriteLocked(self)
991
 
        sio = StringIO()
992
 
        self._serialize(self._inventory, sio)
993
 
        sio.seek(0)
994
 
        self._control_files.put('inventory', sio)
995
 
        self._inventory_is_modified = False
996
 
 
997
 
    def _kind(self, relpath):
998
 
        return osutils.file_kind(self.abspath(relpath))
999
 
 
1000
 
    def list_files(self, include_root=False):
1001
 
        """Recursively list all files as (path, class, kind, id, entry).
 
669
    def file_class(self, filename):
 
670
        if self.path2id(filename):
 
671
            return 'V'
 
672
        elif self.is_ignored(filename):
 
673
            return 'I'
 
674
        else:
 
675
            return '?'
 
676
 
 
677
    def list_files(self):
 
678
        """Recursively list all files as (path, class, kind, id).
1002
679
 
1003
680
        Lists, but does not descend into unversioned directories.
1004
681
 
1007
684
 
1008
685
        Skips the control directory.
1009
686
        """
1010
 
        # list_files is an iterator, so @needs_read_lock doesn't work properly
1011
 
        # with it. So callers should be careful to always read_lock the tree.
1012
 
        if not self.is_locked():
1013
 
            raise errors.ObjectNotLocked(self)
1014
 
 
1015
 
        inv = self.inventory
1016
 
        if include_root is True:
1017
 
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
1018
 
        # Convert these into local objects to save lookup times
1019
 
        pathjoin = osutils.pathjoin
1020
 
        file_kind = self._kind
1021
 
 
1022
 
        # transport.base ends in a slash, we want the piece
1023
 
        # between the last two slashes
1024
 
        transport_base_dir = self.bzrdir.transport.base.rsplit('/', 2)[1]
1025
 
 
1026
 
        fk_entries = {'directory':TreeDirectory, 'file':TreeFile, 'symlink':TreeLink}
1027
 
 
1028
 
        # directory file_id, relative path, absolute path, reverse sorted children
1029
 
        children = os.listdir(self.basedir)
1030
 
        children.sort()
1031
 
        # jam 20060527 The kernel sized tree seems equivalent whether we 
1032
 
        # use a deque and popleft to keep them sorted, or if we use a plain
1033
 
        # list and just reverse() them.
1034
 
        children = collections.deque(children)
1035
 
        stack = [(inv.root.file_id, u'', self.basedir, children)]
1036
 
        while stack:
1037
 
            from_dir_id, from_dir_relpath, from_dir_abspath, children = stack[-1]
1038
 
 
1039
 
            while children:
1040
 
                f = children.popleft()
 
687
        inv = self._inventory
 
688
 
 
689
        def descend(from_dir_relpath, from_dir_id, dp):
 
690
            ls = os.listdir(dp)
 
691
            ls.sort()
 
692
            for f in ls:
1041
693
                ## TODO: If we find a subdirectory with its own .bzr
1042
694
                ## directory, then that is a separate tree and we
1043
695
                ## should exclude it.
1044
696
 
1045
697
                # the bzrdir for this tree
1046
 
                if transport_base_dir == f:
 
698
                if self.bzrdir.transport.base.endswith(f + '/'):
1047
699
                    continue
1048
700
 
1049
 
                # we know that from_dir_relpath and from_dir_abspath never end in a slash
1050
 
                # and 'f' doesn't begin with one, we can do a string op, rather
1051
 
                # than the checks of pathjoin(), all relative paths will have an extra slash
1052
 
                # at the beginning
1053
 
                fp = from_dir_relpath + '/' + f
 
701
                # path within tree
 
702
                fp = appendpath(from_dir_relpath, f)
1054
703
 
1055
704
                # absolute path
1056
 
                fap = from_dir_abspath + '/' + f
 
705
                fap = appendpath(dp, f)
1057
706
                
1058
707
                f_ie = inv.get_child(from_dir_id, f)
1059
708
                if f_ie:
1060
709
                    c = 'V'
1061
 
                elif self.is_ignored(fp[1:]):
 
710
                elif self.is_ignored(fp):
1062
711
                    c = 'I'
1063
712
                else:
1064
 
                    # we may not have found this file, because of a unicode issue
1065
 
                    f_norm, can_access = osutils.normalized_filename(f)
1066
 
                    if f == f_norm or not can_access:
1067
 
                        # No change, so treat this file normally
1068
 
                        c = '?'
1069
 
                    else:
1070
 
                        # this file can be accessed by a normalized path
1071
 
                        # check again if it is versioned
1072
 
                        # these lines are repeated here for performance
1073
 
                        f = f_norm
1074
 
                        fp = from_dir_relpath + '/' + f
1075
 
                        fap = from_dir_abspath + '/' + f
1076
 
                        f_ie = inv.get_child(from_dir_id, f)
1077
 
                        if f_ie:
1078
 
                            c = 'V'
1079
 
                        elif self.is_ignored(fp[1:]):
1080
 
                            c = 'I'
1081
 
                        else:
1082
 
                            c = '?'
 
713
                    c = '?'
1083
714
 
1084
715
                fk = file_kind(fap)
1085
716
 
 
717
                if f_ie:
 
718
                    if f_ie.kind != fk:
 
719
                        raise BzrCheckError("file %r entered as kind %r id %r, "
 
720
                                            "now of kind %r"
 
721
                                            % (fap, f_ie.kind, f_ie.file_id, fk))
 
722
 
1086
723
                # make a last minute entry
1087
724
                if f_ie:
1088
 
                    yield fp[1:], c, fk, f_ie.file_id, f_ie
 
725
                    entry = f_ie
1089
726
                else:
1090
 
                    try:
1091
 
                        yield fp[1:], c, fk, None, fk_entries[fk]()
1092
 
                    except KeyError:
1093
 
                        yield fp[1:], c, fk, None, TreeEntry()
1094
 
                    continue
 
727
                    if fk == 'directory':
 
728
                        entry = TreeDirectory()
 
729
                    elif fk == 'file':
 
730
                        entry = TreeFile()
 
731
                    elif fk == 'symlink':
 
732
                        entry = TreeLink()
 
733
                    else:
 
734
                        entry = TreeEntry()
1095
735
                
 
736
                yield fp, c, fk, (f_ie and f_ie.file_id), entry
 
737
 
1096
738
                if fk != 'directory':
1097
739
                    continue
1098
740
 
1099
 
                # But do this child first
1100
 
                new_children = os.listdir(fap)
1101
 
                new_children.sort()
1102
 
                new_children = collections.deque(new_children)
1103
 
                stack.append((f_ie.file_id, fp, fap, new_children))
1104
 
                # Break out of inner loop,
1105
 
                # so that we start outer loop with child
1106
 
                break
1107
 
            else:
1108
 
                # if we finished all children, pop it off the stack
1109
 
                stack.pop()
1110
 
 
1111
 
    @needs_tree_write_lock
1112
 
    def move(self, from_paths, to_dir=None, after=False, **kwargs):
 
741
                if c != 'V':
 
742
                    # don't descend unversioned directories
 
743
                    continue
 
744
                
 
745
                for ff in descend(fp, f_ie.file_id, fap):
 
746
                    yield ff
 
747
 
 
748
        for f in descend(u'', inv.root.file_id, self.basedir):
 
749
            yield f
 
750
 
 
751
    @needs_write_lock
 
752
    def move(self, from_paths, to_name):
1113
753
        """Rename files.
1114
754
 
1115
 
        to_dir must exist in the inventory.
 
755
        to_name must exist in the inventory.
1116
756
 
1117
 
        If to_dir exists and is a directory, the files are moved into
 
757
        If to_name exists and is a directory, the files are moved into
1118
758
        it, keeping their old names.  
1119
759
 
1120
 
        Note that to_dir is only the last component of the new name;
 
760
        Note that to_name is only the last component of the new name;
1121
761
        this doesn't change the directory.
1122
762
 
1123
 
        For each entry in from_paths the move mode will be determined
1124
 
        independently.
1125
 
 
1126
 
        The first mode moves the file in the filesystem and updates the
1127
 
        inventory. The second mode only updates the inventory without
1128
 
        touching the file on the filesystem. This is the new mode introduced
1129
 
        in version 0.15.
1130
 
 
1131
 
        move uses the second mode if 'after == True' and the target is not
1132
 
        versioned but present in the working tree.
1133
 
 
1134
 
        move uses the second mode if 'after == False' and the source is
1135
 
        versioned but no longer in the working tree, and the target is not
1136
 
        versioned but present in the working tree.
1137
 
 
1138
 
        move uses the first mode if 'after == False' and the source is
1139
 
        versioned and present in the working tree, and the target is not
1140
 
        versioned and not present in the working tree.
1141
 
 
1142
 
        Everything else results in an error.
1143
 
 
1144
763
        This returns a list of (from_path, to_path) pairs for each
1145
764
        entry that is moved.
1146
765
        """
1147
 
        rename_entries = []
1148
 
        rename_tuples = []
1149
 
 
1150
 
        # check for deprecated use of signature
1151
 
        if to_dir is None:
1152
 
            to_dir = kwargs.get('to_name', None)
1153
 
            if to_dir is None:
1154
 
                raise TypeError('You must supply a target directory')
1155
 
            else:
1156
 
                symbol_versioning.warn('The parameter to_name was deprecated'
1157
 
                                       ' in version 0.13. Use to_dir instead',
1158
 
                                       DeprecationWarning)
1159
 
 
1160
 
        # check destination directory
 
766
        result = []
 
767
        ## TODO: Option to move IDs only
1161
768
        assert not isinstance(from_paths, basestring)
1162
769
        inv = self.inventory
1163
 
        to_abs = self.abspath(to_dir)
 
770
        to_abs = self.abspath(to_name)
1164
771
        if not isdir(to_abs):
1165
 
            raise errors.BzrMoveFailedError('',to_dir,
1166
 
                errors.NotADirectory(to_abs))
1167
 
        if not self.has_filename(to_dir):
1168
 
            raise errors.BzrMoveFailedError('',to_dir,
1169
 
                errors.NotInWorkingDirectory(to_dir))
1170
 
        to_dir_id = inv.path2id(to_dir)
1171
 
        if to_dir_id is None:
1172
 
            raise errors.BzrMoveFailedError('',to_dir,
1173
 
                errors.NotVersionedError(path=str(to_dir)))
1174
 
 
 
772
            raise BzrError("destination %r is not a directory" % to_abs)
 
773
        if not self.has_filename(to_name):
 
774
            raise BzrError("destination %r not in working directory" % to_abs)
 
775
        to_dir_id = inv.path2id(to_name)
 
776
        if to_dir_id == None and to_name != '':
 
777
            raise BzrError("destination %r is not a versioned directory" % to_name)
1175
778
        to_dir_ie = inv[to_dir_id]
1176
 
        if to_dir_ie.kind != 'directory':
1177
 
            raise errors.BzrMoveFailedError('',to_dir,
1178
 
                errors.NotADirectory(to_abs))
1179
 
 
1180
 
        # create rename entries and tuples
1181
 
        for from_rel in from_paths:
1182
 
            from_tail = splitpath(from_rel)[-1]
1183
 
            from_id = inv.path2id(from_rel)
1184
 
            if from_id is None:
1185
 
                raise errors.BzrMoveFailedError(from_rel,to_dir,
1186
 
                    errors.NotVersionedError(path=str(from_rel)))
1187
 
 
1188
 
            from_entry = inv[from_id]
1189
 
            from_parent_id = from_entry.parent_id
1190
 
            to_rel = pathjoin(to_dir, from_tail)
1191
 
            rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
1192
 
                                         from_id=from_id,
1193
 
                                         from_tail=from_tail,
1194
 
                                         from_parent_id=from_parent_id,
1195
 
                                         to_rel=to_rel, to_tail=from_tail,
1196
 
                                         to_parent_id=to_dir_id)
1197
 
            rename_entries.append(rename_entry)
1198
 
            rename_tuples.append((from_rel, to_rel))
1199
 
 
1200
 
        # determine which move mode to use. checks also for movability
1201
 
        rename_entries = self._determine_mv_mode(rename_entries, after)
1202
 
 
1203
 
        original_modified = self._inventory_is_modified
 
779
        if to_dir_ie.kind not in ('directory', 'root_directory'):
 
780
            raise BzrError("destination %r is not a directory" % to_abs)
 
781
 
 
782
        to_idpath = inv.get_idpath(to_dir_id)
 
783
 
 
784
        for f in from_paths:
 
785
            if not self.has_filename(f):
 
786
                raise BzrError("%r does not exist in working tree" % f)
 
787
            f_id = inv.path2id(f)
 
788
            if f_id == None:
 
789
                raise BzrError("%r is not versioned" % f)
 
790
            name_tail = splitpath(f)[-1]
 
791
            dest_path = appendpath(to_name, name_tail)
 
792
            if self.has_filename(dest_path):
 
793
                raise BzrError("destination %r already exists" % dest_path)
 
794
            if f_id in to_idpath:
 
795
                raise BzrError("can't move %r to a subdirectory of itself" % f)
 
796
 
 
797
        # OK, so there's a race here, it's possible that someone will
 
798
        # create a file in this interval and then the rename might be
 
799
        # left half-done.  But we should have caught most problems.
 
800
        orig_inv = deepcopy(self.inventory)
1204
801
        try:
1205
 
            if len(from_paths):
1206
 
                self._inventory_is_modified = True
1207
 
            self._move(rename_entries)
 
802
            for f in from_paths:
 
803
                name_tail = splitpath(f)[-1]
 
804
                dest_path = appendpath(to_name, name_tail)
 
805
                result.append((f, dest_path))
 
806
                inv.rename(inv.path2id(f), to_dir_id, name_tail)
 
807
                try:
 
808
                    rename(self.abspath(f), self.abspath(dest_path))
 
809
                except OSError, e:
 
810
                    raise BzrError("failed to rename %r to %r: %s" %
 
811
                                   (f, dest_path, e[1]),
 
812
                            ["rename rolled back"])
1208
813
        except:
1209
814
            # restore the inventory on error
1210
 
            self._inventory_is_modified = original_modified
 
815
            self._set_inventory(orig_inv)
1211
816
            raise
1212
817
        self._write_inventory(inv)
1213
 
        return rename_tuples
1214
 
 
1215
 
    def _determine_mv_mode(self, rename_entries, after=False):
1216
 
        """Determines for each from-to pair if both inventory and working tree
1217
 
        or only the inventory has to be changed.
1218
 
 
1219
 
        Also does basic plausability tests.
1220
 
        """
1221
 
        inv = self.inventory
1222
 
 
1223
 
        for rename_entry in rename_entries:
1224
 
            # store to local variables for easier reference
1225
 
            from_rel = rename_entry.from_rel
1226
 
            from_id = rename_entry.from_id
1227
 
            to_rel = rename_entry.to_rel
1228
 
            to_id = inv.path2id(to_rel)
1229
 
            only_change_inv = False
1230
 
 
1231
 
            # check the inventory for source and destination
1232
 
            if from_id is None:
1233
 
                raise errors.BzrMoveFailedError(from_rel,to_rel,
1234
 
                    errors.NotVersionedError(path=str(from_rel)))
1235
 
            if to_id is not None:
1236
 
                raise errors.BzrMoveFailedError(from_rel,to_rel,
1237
 
                    errors.AlreadyVersionedError(path=str(to_rel)))
1238
 
 
1239
 
            # try to determine the mode for rename (only change inv or change
1240
 
            # inv and file system)
1241
 
            if after:
1242
 
                if not self.has_filename(to_rel):
1243
 
                    raise errors.BzrMoveFailedError(from_id,to_rel,
1244
 
                        errors.NoSuchFile(path=str(to_rel),
1245
 
                        extra="New file has not been created yet"))
1246
 
                only_change_inv = True
1247
 
            elif not self.has_filename(from_rel) and self.has_filename(to_rel):
1248
 
                only_change_inv = True
1249
 
            elif self.has_filename(from_rel) and not self.has_filename(to_rel):
1250
 
                only_change_inv = False
1251
 
            else:
1252
 
                # something is wrong, so lets determine what exactly
1253
 
                if not self.has_filename(from_rel) and \
1254
 
                   not self.has_filename(to_rel):
1255
 
                    raise errors.BzrRenameFailedError(from_rel,to_rel,
1256
 
                        errors.PathsDoNotExist(paths=(str(from_rel),
1257
 
                        str(to_rel))))
1258
 
                else:
1259
 
                    raise errors.RenameFailedFilesExist(from_rel, to_rel,
1260
 
                        extra="(Use --after to update the Bazaar id)")
1261
 
            rename_entry.only_change_inv = only_change_inv
1262
 
        return rename_entries
1263
 
 
1264
 
    def _move(self, rename_entries):
1265
 
        """Moves a list of files.
1266
 
 
1267
 
        Depending on the value of the flag 'only_change_inv', the
1268
 
        file will be moved on the file system or not.
1269
 
        """
1270
 
        inv = self.inventory
1271
 
        moved = []
1272
 
 
1273
 
        for entry in rename_entries:
1274
 
            try:
1275
 
                self._move_entry(entry)
1276
 
            except:
1277
 
                self._rollback_move(moved)
1278
 
                raise
1279
 
            moved.append(entry)
1280
 
 
1281
 
    def _rollback_move(self, moved):
1282
 
        """Try to rollback a previous move in case of an filesystem error."""
1283
 
        inv = self.inventory
1284
 
        for entry in moved:
1285
 
            try:
1286
 
                self._move_entry(_RenameEntry(entry.to_rel, entry.from_id,
1287
 
                    entry.to_tail, entry.to_parent_id, entry.from_rel,
1288
 
                    entry.from_tail, entry.from_parent_id,
1289
 
                    entry.only_change_inv))
1290
 
            except errors.BzrMoveFailedError, e:
1291
 
                raise errors.BzrMoveFailedError( '', '', "Rollback failed."
1292
 
                        " The working tree is in an inconsistent state."
1293
 
                        " Please consider doing a 'bzr revert'."
1294
 
                        " Error message is: %s" % e)
1295
 
 
1296
 
    def _move_entry(self, entry):
1297
 
        inv = self.inventory
1298
 
        from_rel_abs = self.abspath(entry.from_rel)
1299
 
        to_rel_abs = self.abspath(entry.to_rel)
1300
 
        if from_rel_abs == to_rel_abs:
1301
 
            raise errors.BzrMoveFailedError(entry.from_rel, entry.to_rel,
1302
 
                "Source and target are identical.")
1303
 
 
1304
 
        if not entry.only_change_inv:
1305
 
            try:
1306
 
                osutils.rename(from_rel_abs, to_rel_abs)
1307
 
            except OSError, e:
1308
 
                raise errors.BzrMoveFailedError(entry.from_rel,
1309
 
                    entry.to_rel, e[1])
1310
 
        inv.rename(entry.from_id, entry.to_parent_id, entry.to_tail)
1311
 
 
1312
 
    @needs_tree_write_lock
1313
 
    def rename_one(self, from_rel, to_rel, after=False):
 
818
        return result
 
819
 
 
820
    @needs_write_lock
 
821
    def rename_one(self, from_rel, to_rel):
1314
822
        """Rename one file.
1315
823
 
1316
824
        This can change the directory or the filename or both.
1317
 
 
1318
 
        rename_one has several 'modes' to work. First, it can rename a physical
1319
 
        file and change the file_id. That is the normal mode. Second, it can
1320
 
        only change the file_id without touching any physical file. This is
1321
 
        the new mode introduced in version 0.15.
1322
 
 
1323
 
        rename_one uses the second mode if 'after == True' and 'to_rel' is not
1324
 
        versioned but present in the working tree.
1325
 
 
1326
 
        rename_one uses the second mode if 'after == False' and 'from_rel' is
1327
 
        versioned but no longer in the working tree, and 'to_rel' is not
1328
 
        versioned but present in the working tree.
1329
 
 
1330
 
        rename_one uses the first mode if 'after == False' and 'from_rel' is
1331
 
        versioned and present in the working tree, and 'to_rel' is not
1332
 
        versioned and not present in the working tree.
1333
 
 
1334
 
        Everything else results in an error.
1335
825
        """
1336
826
        inv = self.inventory
1337
 
        rename_entries = []
1338
 
 
1339
 
        # create rename entries and tuples
1340
 
        from_tail = splitpath(from_rel)[-1]
1341
 
        from_id = inv.path2id(from_rel)
1342
 
        if from_id is None:
1343
 
            raise errors.BzrRenameFailedError(from_rel,to_rel,
1344
 
                errors.NotVersionedError(path=str(from_rel)))
1345
 
        from_entry = inv[from_id]
1346
 
        from_parent_id = from_entry.parent_id
 
827
        if not self.has_filename(from_rel):
 
828
            raise BzrError("can't rename: old working file %r does not exist" % from_rel)
 
829
        if self.has_filename(to_rel):
 
830
            raise BzrError("can't rename: new working file %r already exists" % to_rel)
 
831
 
 
832
        file_id = inv.path2id(from_rel)
 
833
        if file_id == None:
 
834
            raise BzrError("can't rename: old name %r is not versioned" % from_rel)
 
835
 
 
836
        entry = inv[file_id]
 
837
        from_parent = entry.parent_id
 
838
        from_name = entry.name
 
839
        
 
840
        if inv.path2id(to_rel):
 
841
            raise BzrError("can't rename: new name %r is already versioned" % to_rel)
 
842
 
1347
843
        to_dir, to_tail = os.path.split(to_rel)
1348
844
        to_dir_id = inv.path2id(to_dir)
1349
 
        rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
1350
 
                                     from_id=from_id,
1351
 
                                     from_tail=from_tail,
1352
 
                                     from_parent_id=from_parent_id,
1353
 
                                     to_rel=to_rel, to_tail=to_tail,
1354
 
                                     to_parent_id=to_dir_id)
1355
 
        rename_entries.append(rename_entry)
1356
 
 
1357
 
        # determine which move mode to use. checks also for movability
1358
 
        rename_entries = self._determine_mv_mode(rename_entries, after)
1359
 
 
1360
 
        # check if the target changed directory and if the target directory is
1361
 
        # versioned
1362
 
        if to_dir_id is None:
1363
 
            raise errors.BzrMoveFailedError(from_rel,to_rel,
1364
 
                errors.NotVersionedError(path=str(to_dir)))
1365
 
 
1366
 
        # all checks done. now we can continue with our actual work
1367
 
        mutter('rename_one:\n'
1368
 
               '  from_id   {%s}\n'
1369
 
               '  from_rel: %r\n'
1370
 
               '  to_rel:   %r\n'
1371
 
               '  to_dir    %r\n'
1372
 
               '  to_dir_id {%s}\n',
1373
 
               from_id, from_rel, to_rel, to_dir, to_dir_id)
1374
 
 
1375
 
        self._move(rename_entries)
 
845
        if to_dir_id == None and to_dir != '':
 
846
            raise BzrError("can't determine destination directory id for %r" % to_dir)
 
847
 
 
848
        mutter("rename_one:")
 
849
        mutter("  file_id    {%s}" % file_id)
 
850
        mutter("  from_rel   %r" % from_rel)
 
851
        mutter("  to_rel     %r" % to_rel)
 
852
        mutter("  to_dir     %r" % to_dir)
 
853
        mutter("  to_dir_id  {%s}" % to_dir_id)
 
854
 
 
855
        inv.rename(file_id, to_dir_id, to_tail)
 
856
 
 
857
        from_abs = self.abspath(from_rel)
 
858
        to_abs = self.abspath(to_rel)
 
859
        try:
 
860
            rename(from_abs, to_abs)
 
861
        except OSError, e:
 
862
            inv.rename(file_id, from_parent, from_name)
 
863
            raise BzrError("failed to rename %r to %r: %s"
 
864
                    % (from_abs, to_abs, e[1]),
 
865
                    ["rename rolled back"])
1376
866
        self._write_inventory(inv)
1377
867
 
1378
 
    class _RenameEntry(object):
1379
 
        def __init__(self, from_rel, from_id, from_tail, from_parent_id,
1380
 
                     to_rel, to_tail, to_parent_id, only_change_inv=False):
1381
 
            self.from_rel = from_rel
1382
 
            self.from_id = from_id
1383
 
            self.from_tail = from_tail
1384
 
            self.from_parent_id = from_parent_id
1385
 
            self.to_rel = to_rel
1386
 
            self.to_tail = to_tail
1387
 
            self.to_parent_id = to_parent_id
1388
 
            self.only_change_inv = only_change_inv
1389
 
 
1390
868
    @needs_read_lock
1391
869
    def unknowns(self):
1392
870
        """Return all unknown files.
1393
871
 
1394
872
        These are files in the working directory that are not versioned or
1395
873
        control files or ignored.
1396
 
        """
1397
 
        # force the extras method to be fully executed before returning, to 
1398
 
        # prevent race conditions with the lock
1399
 
        return iter(
1400
 
            [subp for subp in self.extras() if not self.is_ignored(subp)])
1401
 
 
1402
 
    @needs_tree_write_lock
1403
 
    def unversion(self, file_ids):
1404
 
        """Remove the file ids in file_ids from the current versioned set.
1405
 
 
1406
 
        When a file_id is unversioned, all of its children are automatically
1407
 
        unversioned.
1408
 
 
1409
 
        :param file_ids: The file ids to stop versioning.
1410
 
        :raises: NoSuchId if any fileid is not currently versioned.
1411
 
        """
1412
 
        for file_id in file_ids:
1413
 
            file_id = osutils.safe_file_id(file_id)
1414
 
            if self._inventory.has_id(file_id):
1415
 
                self._inventory.remove_recursive_id(file_id)
1416
 
            else:
1417
 
                raise errors.NoSuchId(self, file_id)
1418
 
        if len(file_ids):
1419
 
            # in the future this should just set a dirty bit to wait for the 
1420
 
            # final unlock. However, until all methods of workingtree start
1421
 
            # with the current in -memory inventory rather than triggering 
1422
 
            # a read, it is more complex - we need to teach read_inventory
1423
 
            # to know when to read, and when to not read first... and possibly
1424
 
            # to save first when the in memory one may be corrupted.
1425
 
            # so for now, we just only write it if it is indeed dirty.
1426
 
            # - RBC 20060907
1427
 
            self._write_inventory(self._inventory)
1428
 
    
 
874
        
 
875
        >>> from bzrlib.bzrdir import ScratchDir
 
876
        >>> d = ScratchDir(files=['foo', 'foo~'])
 
877
        >>> b = d.open_branch()
 
878
        >>> tree = d.open_workingtree()
 
879
        >>> map(str, tree.unknowns())
 
880
        ['foo']
 
881
        >>> tree.add('foo')
 
882
        >>> list(b.unknowns())
 
883
        []
 
884
        >>> tree.remove('foo')
 
885
        >>> list(b.unknowns())
 
886
        [u'foo']
 
887
        """
 
888
        for subp in self.extras():
 
889
            if not self.is_ignored(subp):
 
890
                yield subp
 
891
 
1429
892
    @deprecated_method(zero_eight)
1430
893
    def iter_conflicts(self):
1431
894
        """List all files in the tree that have text or content conflicts.
1434
897
 
1435
898
    def _iter_conflicts(self):
1436
899
        conflicted = set()
1437
 
        for info in self.list_files():
1438
 
            path = info[0]
 
900
        for path in (s[0] for s in self.list_files()):
1439
901
            stem = get_conflicted_stem(path)
1440
902
            if stem is None:
1441
903
                continue
1444
906
                yield stem
1445
907
 
1446
908
    @needs_write_lock
1447
 
    def pull(self, source, overwrite=False, stop_revision=None,
1448
 
             change_reporter=None):
 
909
    def pull(self, source, overwrite=False, stop_revision=None):
1449
910
        top_pb = bzrlib.ui.ui_factory.nested_progress_bar()
1450
911
        source.lock_read()
1451
912
        try:
1452
913
            pp = ProgressPhase("Pull phase", 2, top_pb)
1453
914
            pp.next_phase()
1454
 
            old_revision_info = self.branch.last_revision_info()
 
915
            old_revision_history = self.branch.revision_history()
1455
916
            basis_tree = self.basis_tree()
1456
917
            count = self.branch.pull(source, overwrite, stop_revision)
1457
 
            new_revision_info = self.branch.last_revision_info()
1458
 
            if new_revision_info != old_revision_info:
 
918
            new_revision_history = self.branch.revision_history()
 
919
            if new_revision_history != old_revision_history:
1459
920
                pp.next_phase()
 
921
                if len(old_revision_history):
 
922
                    other_revision = old_revision_history[-1]
 
923
                else:
 
924
                    other_revision = None
1460
925
                repository = self.branch.repository
1461
926
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
1462
 
                basis_tree.lock_read()
1463
927
                try:
1464
 
                    new_basis_tree = self.branch.basis_tree()
1465
 
                    merge.merge_inner(
1466
 
                                self.branch,
1467
 
                                new_basis_tree,
1468
 
                                basis_tree,
1469
 
                                this_tree=self,
1470
 
                                pb=pb,
1471
 
                                change_reporter=change_reporter)
1472
 
                    if (basis_tree.inventory.root is None and
1473
 
                        new_basis_tree.inventory.root is not None):
1474
 
                        self.set_root_id(new_basis_tree.inventory.root.file_id)
 
928
                    merge_inner(self.branch,
 
929
                                self.branch.basis_tree(),
 
930
                                basis_tree, 
 
931
                                this_tree=self, 
 
932
                                pb=pb)
1475
933
                finally:
1476
934
                    pb.finished()
1477
 
                    basis_tree.unlock()
1478
 
                # TODO - dedup parents list with things merged by pull ?
1479
 
                # reuse the revisiontree we merged against to set the new
1480
 
                # tree data.
1481
 
                parent_trees = [(self.branch.last_revision(), new_basis_tree)]
1482
 
                # we have to pull the merge trees out again, because 
1483
 
                # merge_inner has set the ids. - this corner is not yet 
1484
 
                # layered well enough to prevent double handling.
1485
 
                # XXX TODO: Fix the double handling: telling the tree about
1486
 
                # the already known parent data is wasteful.
1487
 
                merges = self.get_parent_ids()[1:]
1488
 
                parent_trees.extend([
1489
 
                    (parent, repository.revision_tree(parent)) for
1490
 
                     parent in merges])
1491
 
                self.set_parent_trees(parent_trees)
 
935
                self.set_last_revision(self.branch.last_revision())
1492
936
            return count
1493
937
        finally:
1494
938
            source.unlock()
1495
939
            top_pb.finished()
1496
940
 
1497
 
    @needs_write_lock
1498
 
    def put_file_bytes_non_atomic(self, file_id, bytes):
1499
 
        """See MutableTree.put_file_bytes_non_atomic."""
1500
 
        file_id = osutils.safe_file_id(file_id)
1501
 
        stream = file(self.id2abspath(file_id), 'wb')
1502
 
        try:
1503
 
            stream.write(bytes)
1504
 
        finally:
1505
 
            stream.close()
1506
 
        # TODO: update the hashcache here ?
1507
 
 
1508
941
    def extras(self):
1509
 
        """Yield all unversioned files in this WorkingTree.
 
942
        """Yield all unknown files in this WorkingTree.
1510
943
 
1511
 
        If there are any unversioned directories then only the directory is
1512
 
        returned, not all its children.  But if there are unversioned files
 
944
        If there are any unknown directories then only the directory is
 
945
        returned, not all its children.  But if there are unknown files
1513
946
        under a versioned subdirectory, they are returned.
1514
947
 
1515
948
        Currently returned depth-first, sorted by name within directories.
1516
 
        This is the same order used by 'osutils.walkdirs'.
1517
949
        """
1518
950
        ## TODO: Work from given directory downwards
1519
951
        for path, dir_entry in self.inventory.directories():
1520
 
            # mutter("search for unknowns in %r", path)
 
952
            mutter("search for unknowns in %r", path)
1521
953
            dirabs = self.abspath(path)
1522
954
            if not isdir(dirabs):
1523
955
                # e.g. directory deleted
1525
957
 
1526
958
            fl = []
1527
959
            for subf in os.listdir(dirabs):
1528
 
                if subf == '.bzr':
1529
 
                    continue
1530
 
                if subf not in dir_entry.children:
1531
 
                    subf_norm, can_access = osutils.normalized_filename(subf)
1532
 
                    if subf_norm != subf and can_access:
1533
 
                        if subf_norm not in dir_entry.children:
1534
 
                            fl.append(subf_norm)
1535
 
                    else:
1536
 
                        fl.append(subf)
 
960
                if (subf != '.bzr'
 
961
                    and (subf not in dir_entry.children)):
 
962
                    fl.append(subf)
1537
963
            
1538
964
            fl.sort()
1539
965
            for subf in fl:
1540
 
                subp = pathjoin(path, subf)
 
966
                subp = appendpath(path, subf)
1541
967
                yield subp
1542
968
 
 
969
    def _translate_ignore_rule(self, rule):
 
970
        """Translate a single ignore rule to a regex.
 
971
 
 
972
        There are three sorts of ignore rules:
 
973
        root only - regex is the rule itself without the leading './'. These
 
974
        are identified by a leading './'.
 
975
        full path - regex is the rule itself and is identified by the 
 
976
        presenve of a '/' in the path.
 
977
        basename only rule - regex is a rule that ignores everything up
 
978
        to the last / in the string before applying the supplied rule.
 
979
        These are the default case.
 
980
 
 
981
        :return: The translated regex.
 
982
        """
 
983
        if rule[:2] in ('./', '.\\'):
 
984
            # rootdir rule
 
985
            result = fnmatch.translate(rule[2:])
 
986
        elif '/' in rule or '\\' in rule:
 
987
            # path prefix 
 
988
            result = fnmatch.translate(rule)
 
989
        else:
 
990
            # default rule style.
 
991
            result = "(?:.*/)?(?!.*/)" + fnmatch.translate(rule)
 
992
        assert result[-1] == '$', "fnmatch.translate did not add the expected $"
 
993
        return "(" + result + ")"
 
994
 
 
995
    def _combine_ignore_rules(self, rules):
 
996
        """Combine a list of ignore rules into a single regex object.
 
997
 
 
998
        Each individual rule is combined with | to form a big regex, which then
 
999
        has $ added to it to form something like ()|()|()$. The group index for
 
1000
        each subregex's outermost group is placed in a dictionary mapping back 
 
1001
        to the rule. This allows quick identification of the matching rule that
 
1002
        triggered a match.
 
1003
        :return: the compiled regex and the matching-group index dictionary.
 
1004
        """
 
1005
        groups = {}
 
1006
        next_group = 0
 
1007
        translated_rules = []
 
1008
        for rule in rules:
 
1009
            translated_rule = self._translate_ignore_rule(rule)
 
1010
            compiled_rule = re.compile(translated_rule)
 
1011
            groups[next_group] = rule
 
1012
            next_group += compiled_rule.groups
 
1013
            translated_rules.append(translated_rule)
 
1014
        return re.compile("|".join(translated_rules)), groups
 
1015
 
1543
1016
    def ignored_files(self):
1544
1017
        """Yield list of PATH, IGNORE_PATTERN"""
1545
1018
        for subp in self.extras():
1546
1019
            pat = self.is_ignored(subp)
1547
 
            if pat is not None:
 
1020
            if pat != None:
1548
1021
                yield subp, pat
1549
1022
 
1550
1023
    def get_ignore_list(self):
1552
1025
 
1553
1026
        Cached in the Tree object after the first call.
1554
1027
        """
1555
 
        ignoreset = getattr(self, '_ignoreset', None)
1556
 
        if ignoreset is not None:
1557
 
            return ignoreset
 
1028
        if hasattr(self, '_ignorelist'):
 
1029
            return self._ignorelist
1558
1030
 
1559
 
        ignore_globs = set(bzrlib.DEFAULT_IGNORE)
1560
 
        ignore_globs.update(ignores.get_runtime_ignores())
1561
 
        ignore_globs.update(ignores.get_user_ignores())
 
1031
        l = bzrlib.DEFAULT_IGNORE[:]
1562
1032
        if self.has_filename(bzrlib.IGNORE_FILENAME):
1563
1033
            f = self.get_file_byname(bzrlib.IGNORE_FILENAME)
1564
 
            try:
1565
 
                ignore_globs.update(ignores.parse_ignore_file(f))
1566
 
            finally:
1567
 
                f.close()
1568
 
        self._ignoreset = ignore_globs
1569
 
        return ignore_globs
1570
 
 
1571
 
    def _flush_ignore_list_cache(self):
1572
 
        """Resets the cached ignore list to force a cache rebuild."""
1573
 
        self._ignoreset = None
1574
 
        self._ignoreglobster = None
 
1034
            l.extend([line.rstrip("\n\r") for line in f.readlines()])
 
1035
        self._ignorelist = l
 
1036
        self._ignore_regex = self._combine_ignore_rules(l)
 
1037
        return l
 
1038
 
 
1039
    def _get_ignore_rules_as_regex(self):
 
1040
        """Return a regex of the ignore rules and a mapping dict.
 
1041
 
 
1042
        :return: (ignore rules compiled regex, dictionary mapping rule group 
 
1043
        indices to original rule.)
 
1044
        """
 
1045
        if getattr(self, '_ignorelist', None) is None:
 
1046
            self.get_ignore_list()
 
1047
        return self._ignore_regex
1575
1048
 
1576
1049
    def is_ignored(self, filename):
1577
1050
        r"""Check whether the filename matches an ignore pattern.
1582
1055
        If the file is ignored, returns the pattern which caused it to
1583
1056
        be ignored, otherwise None.  So this can simply be used as a
1584
1057
        boolean if desired."""
1585
 
        if getattr(self, '_ignoreglobster', None) is None:
1586
 
            self._ignoreglobster = globbing.Globster(self.get_ignore_list())
1587
 
        return self._ignoreglobster.match(filename)
 
1058
 
 
1059
        # TODO: Use '**' to match directories, and other extended
 
1060
        # globbing stuff from cvs/rsync.
 
1061
 
 
1062
        # XXX: fnmatch is actually not quite what we want: it's only
 
1063
        # approximately the same as real Unix fnmatch, and doesn't
 
1064
        # treat dotfiles correctly and allows * to match /.
 
1065
        # Eventually it should be replaced with something more
 
1066
        # accurate.
 
1067
 
 
1068
        regex, mapping = self._get_ignore_rules_as_regex()
 
1069
        match = regex.match(filename)
 
1070
        if match is not None:
 
1071
            # one or more of the groups in mapping will have a non-None group 
 
1072
            # match.
 
1073
            groups = match.groups()
 
1074
            rules = [mapping[group] for group in 
 
1075
                mapping if groups[group] is not None]
 
1076
            return rules[0]
 
1077
        return None
 
1078
        
 
1079
        basename = splitpath(filename)[-1]
 
1080
        for pat in self.get_ignore_list():
 
1081
            if '/' in pat or '\\' in pat:
 
1082
                
 
1083
                # as a special case, you can put ./ at the start of a
 
1084
                # pattern; this is good to match in the top-level
 
1085
                # only;
 
1086
                if pat[:2] in ('./', '.\\'):
 
1087
                    newpat = pat[2:]
 
1088
                else:
 
1089
                    newpat = pat
 
1090
                if fnmatch.fnmatchcase(filename, newpat):
 
1091
                    return pat
 
1092
            else:
 
1093
                if fnmatch.fnmatchcase(basename, pat):
 
1094
                    return pat
 
1095
        return None
1588
1096
 
1589
1097
    def kind(self, file_id):
1590
1098
        return file_kind(self.id2abspath(file_id))
1591
1099
 
1592
 
    def _comparison_data(self, entry, path):
1593
 
        abspath = self.abspath(path)
1594
 
        try:
1595
 
            stat_value = os.lstat(abspath)
1596
 
        except OSError, e:
1597
 
            if getattr(e, 'errno', None) == errno.ENOENT:
1598
 
                stat_value = None
1599
 
                kind = None
1600
 
                executable = False
1601
 
            else:
1602
 
                raise
1603
 
        else:
1604
 
            mode = stat_value.st_mode
1605
 
            kind = osutils.file_kind_from_stat_mode(mode)
1606
 
            if not supports_executable():
1607
 
                executable = entry is not None and entry.executable
1608
 
            else:
1609
 
                executable = bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
1610
 
        return kind, executable, stat_value
1611
 
 
1612
 
    def _file_size(self, entry, stat_value):
1613
 
        return stat_value.st_size
1614
 
 
 
1100
    @needs_read_lock
1615
1101
    def last_revision(self):
1616
 
        """Return the last revision of the branch for this tree.
1617
 
 
1618
 
        This format tree does not support a separate marker for last-revision
1619
 
        compared to the branch.
1620
 
 
1621
 
        See MutableTree.last_revision
 
1102
        """Return the last revision id of this working tree.
 
1103
 
 
1104
        In early branch formats this was == the branch last_revision,
 
1105
        but that cannot be relied upon - for working tree operations,
 
1106
        always use tree.last_revision().
1622
1107
        """
1623
 
        return self._last_revision()
1624
 
 
1625
 
    @needs_read_lock
1626
 
    def _last_revision(self):
1627
 
        """helper for get_parent_ids."""
1628
1108
        return self.branch.last_revision()
1629
1109
 
1630
1110
    def is_locked(self):
1631
1111
        return self._control_files.is_locked()
1632
1112
 
1633
 
    def _must_be_locked(self):
1634
 
        if not self.is_locked():
1635
 
            raise errors.ObjectNotLocked(self)
1636
 
 
1637
1113
    def lock_read(self):
1638
1114
        """See Branch.lock_read, and WorkingTree.unlock."""
1639
 
        if not self.is_locked():
1640
 
            self._reset_data()
1641
1115
        self.branch.lock_read()
1642
1116
        try:
1643
1117
            return self._control_files.lock_read()
1645
1119
            self.branch.unlock()
1646
1120
            raise
1647
1121
 
1648
 
    def lock_tree_write(self):
1649
 
        """See MutableTree.lock_tree_write, and WorkingTree.unlock."""
1650
 
        if not self.is_locked():
1651
 
            self._reset_data()
1652
 
        self.branch.lock_read()
1653
 
        try:
1654
 
            return self._control_files.lock_write()
1655
 
        except:
1656
 
            self.branch.unlock()
1657
 
            raise
1658
 
 
1659
1122
    def lock_write(self):
1660
 
        """See MutableTree.lock_write, and WorkingTree.unlock."""
1661
 
        if not self.is_locked():
1662
 
            self._reset_data()
 
1123
        """See Branch.lock_write, and WorkingTree.unlock."""
1663
1124
        self.branch.lock_write()
1664
1125
        try:
1665
1126
            return self._control_files.lock_write()
1671
1132
        return self._control_files.get_physical_lock_status()
1672
1133
 
1673
1134
    def _basis_inventory_name(self):
1674
 
        return 'basis-inventory-cache'
1675
 
 
1676
 
    def _reset_data(self):
1677
 
        """Reset transient data that cannot be revalidated."""
1678
 
        self._inventory_is_modified = False
1679
 
        result = self._deserialize(self._control_files.get('inventory'))
1680
 
        self._set_inventory(result, dirty=False)
1681
 
 
1682
 
    @needs_tree_write_lock
 
1135
        return 'basis-inventory'
 
1136
 
 
1137
    @needs_write_lock
1683
1138
    def set_last_revision(self, new_revision):
1684
1139
        """Change the last revision in the working tree."""
1685
 
        new_revision = osutils.safe_revision_id(new_revision)
1686
1140
        if self._change_last_revision(new_revision):
1687
1141
            self._cache_basis_inventory(new_revision)
1688
1142
 
1695
1149
        if new_revision is None:
1696
1150
            self.branch.set_revision_history([])
1697
1151
            return False
 
1152
        # current format is locked in with the branch
 
1153
        revision_history = self.branch.revision_history()
1698
1154
        try:
1699
 
            self.branch.generate_revision_history(new_revision)
1700
 
        except errors.NoSuchRevision:
1701
 
            # not present in the repo - dont try to set it deeper than the tip
1702
 
            self.branch.set_revision_history([new_revision])
 
1155
            position = revision_history.index(new_revision)
 
1156
        except ValueError:
 
1157
            raise errors.NoSuchRevision(self.branch, new_revision)
 
1158
        self.branch.set_revision_history(revision_history[:position + 1])
1703
1159
        return True
1704
1160
 
1705
 
    def _write_basis_inventory(self, xml):
1706
 
        """Write the basis inventory XML to the basis-inventory file"""
1707
 
        assert isinstance(xml, str), 'serialised xml must be bytestring.'
1708
 
        path = self._basis_inventory_name()
1709
 
        sio = StringIO(xml)
1710
 
        self._control_files.put(path, sio)
1711
 
 
1712
 
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
1713
 
        """Create the text that will be saved in basis-inventory"""
1714
 
        # TODO: jam 20070209 This should be redundant, as the revision_id
1715
 
        #       as all callers should have already converted the revision_id to
1716
 
        #       utf8
1717
 
        inventory.revision_id = osutils.safe_revision_id(revision_id)
1718
 
        return xml7.serializer_v7.write_inventory_to_string(inventory)
1719
 
 
1720
1161
    def _cache_basis_inventory(self, new_revision):
1721
1162
        """Cache new_revision as the basis inventory."""
1722
 
        # TODO: this should allow the ready-to-use inventory to be passed in,
1723
 
        # as commit already has that ready-to-use [while the format is the
1724
 
        # same, that is].
1725
1163
        try:
1726
1164
            # this double handles the inventory - unpack and repack - 
1727
1165
            # but is easier to understand. We can/should put a conditional
1728
1166
            # in here based on whether the inventory is in the latest format
1729
1167
            # - perhaps we should repack all inventories on a repository
1730
1168
            # upgrade ?
1731
 
            # the fast path is to copy the raw xml from the repository. If the
1732
 
            # xml contains 'revision_id="', then we assume the right 
1733
 
            # revision_id is set. We must check for this full string, because a
1734
 
            # root node id can legitimately look like 'revision_id' but cannot
1735
 
            # contain a '"'.
1736
 
            xml = self.branch.repository.get_inventory_xml(new_revision)
1737
 
            firstline = xml.split('\n', 1)[0]
1738
 
            if (not 'revision_id="' in firstline or 
1739
 
                'format="7"' not in firstline):
1740
 
                inv = self.branch.repository.deserialise_inventory(
1741
 
                    new_revision, xml)
1742
 
                xml = self._create_basis_xml_from_inventory(new_revision, inv)
1743
 
            self._write_basis_inventory(xml)
1744
 
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
 
1169
            inv = self.branch.repository.get_inventory(new_revision)
 
1170
            inv.revision_id = new_revision
 
1171
            xml = bzrlib.xml5.serializer_v5.write_inventory_to_string(inv)
 
1172
 
 
1173
            path = self._basis_inventory_name()
 
1174
            self._control_files.put_utf8(path, xml)
 
1175
        except WeaveRevisionNotPresent:
1745
1176
            pass
1746
1177
 
1747
1178
    def read_basis_inventory(self):
1748
1179
        """Read the cached basis inventory."""
1749
1180
        path = self._basis_inventory_name()
1750
 
        return self._control_files.get(path).read()
 
1181
        return self._control_files.get_utf8(path).read()
1751
1182
        
1752
1183
    @needs_read_lock
1753
1184
    def read_working_inventory(self):
1754
 
        """Read the working inventory.
1755
 
        
1756
 
        :raises errors.InventoryModified: read_working_inventory will fail
1757
 
            when the current in memory inventory has been modified.
1758
 
        """
1759
 
        # conceptually this should be an implementation detail of the tree. 
1760
 
        # XXX: Deprecate this.
 
1185
        """Read the working inventory."""
1761
1186
        # ElementTree does its own conversion from UTF-8, so open in
1762
1187
        # binary.
1763
 
        if self._inventory_is_modified:
1764
 
            raise errors.InventoryModified(self)
1765
 
        result = self._deserialize(self._control_files.get('inventory'))
1766
 
        self._set_inventory(result, dirty=False)
 
1188
        result = bzrlib.xml5.serializer_v5.read_inventory(
 
1189
            self._control_files.get('inventory'))
 
1190
        self._set_inventory(result)
1767
1191
        return result
1768
1192
 
1769
 
    @needs_tree_write_lock
1770
 
    def remove(self, files, verbose=False, to_file=None):
 
1193
    @needs_write_lock
 
1194
    def remove(self, files, verbose=False):
1771
1195
        """Remove nominated files from the working inventory..
1772
1196
 
1773
1197
        This does not remove their text.  This does not run on XXX on what? RBC
1792
1216
        for f in files:
1793
1217
            fid = inv.path2id(f)
1794
1218
            if not fid:
1795
 
                note("%s is not versioned."%f)
1796
 
            else:
1797
 
                if verbose:
1798
 
                    # having remove it, it must be either ignored or unknown
1799
 
                    if self.is_ignored(f):
1800
 
                        new_status = 'I'
1801
 
                    else:
1802
 
                        new_status = '?'
1803
 
                    textui.show_status(new_status, inv[fid].kind, f,
1804
 
                                       to_file=to_file)
1805
 
                del inv[fid]
 
1219
                # TODO: Perhaps make this just a warning, and continue?
 
1220
                # This tends to happen when 
 
1221
                raise NotVersionedError(path=f)
 
1222
            mutter("remove inventory entry %s {%s}", quotefn(f), fid)
 
1223
            if verbose:
 
1224
                # having remove it, it must be either ignored or unknown
 
1225
                if self.is_ignored(f):
 
1226
                    new_status = 'I'
 
1227
                else:
 
1228
                    new_status = '?'
 
1229
                show_status(new_status, inv[fid].kind, quotefn(f))
 
1230
            del inv[fid]
1806
1231
 
1807
1232
        self._write_inventory(inv)
1808
1233
 
1809
 
    @needs_tree_write_lock
 
1234
    @needs_write_lock
1810
1235
    def revert(self, filenames, old_tree=None, backups=True, 
1811
 
               pb=DummyProgress(), report_changes=False):
1812
 
        from bzrlib.conflicts import resolve
 
1236
               pb=DummyProgress()):
 
1237
        from transform import revert
 
1238
        from conflicts import resolve
1813
1239
        if old_tree is None:
1814
1240
            old_tree = self.basis_tree()
1815
 
        conflicts = transform.revert(self, old_tree, filenames, backups, pb,
1816
 
                                     report_changes)
 
1241
        conflicts = revert(self, old_tree, filenames, backups, pb)
1817
1242
        if not len(filenames):
1818
 
            self.set_parent_ids(self.get_parent_ids()[:1])
 
1243
            self.set_pending_merges([])
1819
1244
            resolve(self)
1820
1245
        else:
1821
1246
            resolve(self, filenames, ignore_misses=True)
1822
1247
        return conflicts
1823
1248
 
1824
 
    def revision_tree(self, revision_id):
1825
 
        """See Tree.revision_tree.
1826
 
 
1827
 
        WorkingTree can supply revision_trees for the basis revision only
1828
 
        because there is only one cached inventory in the bzr directory.
1829
 
        """
1830
 
        if revision_id == self.last_revision():
1831
 
            try:
1832
 
                xml = self.read_basis_inventory()
1833
 
            except errors.NoSuchFile:
1834
 
                pass
1835
 
            else:
1836
 
                try:
1837
 
                    inv = xml7.serializer_v7.read_inventory_from_string(xml)
1838
 
                    # dont use the repository revision_tree api because we want
1839
 
                    # to supply the inventory.
1840
 
                    if inv.revision_id == revision_id:
1841
 
                        return revisiontree.RevisionTree(self.branch.repository,
1842
 
                            inv, revision_id)
1843
 
                except errors.BadInventoryFormat:
1844
 
                    pass
1845
 
        # raise if there was no inventory, or if we read the wrong inventory.
1846
 
        raise errors.NoSuchRevisionInTree(self, revision_id)
1847
 
 
1848
1249
    # XXX: This method should be deprecated in favour of taking in a proper
1849
1250
    # new Inventory object.
1850
 
    @needs_tree_write_lock
 
1251
    @needs_write_lock
1851
1252
    def set_inventory(self, new_inventory_list):
1852
1253
        from bzrlib.inventory import (Inventory,
1853
1254
                                      InventoryDirectory,
1867
1268
            elif kind == 'symlink':
1868
1269
                inv.add(InventoryLink(file_id, name, parent))
1869
1270
            else:
1870
 
                raise errors.BzrError("unknown kind %r" % kind)
 
1271
                raise BzrError("unknown kind %r" % kind)
1871
1272
        self._write_inventory(inv)
1872
1273
 
1873
 
    @needs_tree_write_lock
 
1274
    @needs_write_lock
1874
1275
    def set_root_id(self, file_id):
1875
1276
        """Set the root id for this tree."""
1876
 
        # for compatability 
1877
 
        if file_id is None:
1878
 
            symbol_versioning.warn(symbol_versioning.zero_twelve
1879
 
                % 'WorkingTree.set_root_id with fileid=None',
1880
 
                DeprecationWarning,
1881
 
                stacklevel=3)
1882
 
            file_id = ROOT_ID
1883
 
        else:
1884
 
            file_id = osutils.safe_file_id(file_id)
1885
 
        self._set_root_id(file_id)
1886
 
 
1887
 
    def _set_root_id(self, file_id):
1888
 
        """Set the root id for this tree, in a format specific manner.
1889
 
 
1890
 
        :param file_id: The file id to assign to the root. It must not be 
1891
 
            present in the current inventory or an error will occur. It must
1892
 
            not be None, but rather a valid file id.
1893
 
        """
1894
 
        inv = self._inventory
 
1277
        inv = self.read_working_inventory()
1895
1278
        orig_root_id = inv.root.file_id
1896
 
        # TODO: it might be nice to exit early if there was nothing
1897
 
        # to do, saving us from trigger a sync on unlock.
1898
 
        self._inventory_is_modified = True
1899
 
        # we preserve the root inventory entry object, but
1900
 
        # unlinkit from the byid index
1901
1279
        del inv._byid[inv.root.file_id]
1902
1280
        inv.root.file_id = file_id
1903
 
        # and link it into the index with the new changed id.
1904
1281
        inv._byid[inv.root.file_id] = inv.root
1905
 
        # and finally update all children to reference the new id.
1906
 
        # XXX: this should be safe to just look at the root.children
1907
 
        # list, not the WHOLE INVENTORY.
1908
1282
        for fid in inv:
1909
1283
            entry = inv[fid]
1910
1284
            if entry.parent_id == orig_root_id:
1911
1285
                entry.parent_id = inv.root.file_id
 
1286
        self._write_inventory(inv)
1912
1287
 
1913
1288
    def unlock(self):
1914
1289
        """See Branch.unlock.
1919
1294
        between multiple working trees, i.e. via shared storage, then we 
1920
1295
        would probably want to lock both the local tree, and the branch.
1921
1296
        """
1922
 
        raise NotImplementedError(self.unlock)
 
1297
        # FIXME: We want to write out the hashcache only when the last lock on
 
1298
        # this working copy is released.  Peeking at the lock count is a bit
 
1299
        # of a nasty hack; probably it's better to have a transaction object,
 
1300
        # which can do some finalization when it's either successfully or
 
1301
        # unsuccessfully completed.  (Denys's original patch did that.)
 
1302
        # RBC 20060206 hookinhg into transaction will couple lock and transaction
 
1303
        # wrongly. Hookinh into unllock on the control files object is fine though.
 
1304
        
 
1305
        # TODO: split this per format so there is no ugly if block
 
1306
        if self._hashcache.needs_write and (
 
1307
            # dedicated lock files
 
1308
            self._control_files._lock_count==1 or 
 
1309
            # shared lock files
 
1310
            (self._control_files is self.branch.control_files and 
 
1311
             self._control_files._lock_count==3)):
 
1312
            self._hashcache.write()
 
1313
        # reverse order of locking.
 
1314
        try:
 
1315
            return self._control_files.unlock()
 
1316
        finally:
 
1317
            self.branch.unlock()
1923
1318
 
 
1319
    @needs_write_lock
1924
1320
    def update(self):
1925
1321
        """Update a working tree along its branch.
1926
1322
 
1927
 
        This will update the branch if its bound too, which means we have
1928
 
        multiple trees involved:
1929
 
 
1930
 
        - The new basis tree of the master.
1931
 
        - The old basis tree of the branch.
1932
 
        - The old basis tree of the working tree.
1933
 
        - The current working tree state.
1934
 
 
1935
 
        Pathologically, all three may be different, and non-ancestors of each
1936
 
        other.  Conceptually we want to:
1937
 
 
1938
 
        - Preserve the wt.basis->wt.state changes
1939
 
        - Transform the wt.basis to the new master basis.
1940
 
        - Apply a merge of the old branch basis to get any 'local' changes from
1941
 
          it into the tree.
1942
 
        - Restore the wt.basis->wt.state changes.
 
1323
        This will update the branch if its bound too, which means we have multiple trees involved:
 
1324
        The new basis tree of the master.
 
1325
        The old basis tree of the branch.
 
1326
        The old basis tree of the working tree.
 
1327
        The current working tree state.
 
1328
        pathologically all three may be different, and non ancestors of each other.
 
1329
        Conceptually we want to:
 
1330
        Preserve the wt.basis->wt.state changes
 
1331
        Transform the wt.basis to the new master basis.
 
1332
        Apply a merge of the old branch basis to get any 'local' changes from it into the tree.
 
1333
        Restore the wt.basis->wt.state changes.
1943
1334
 
1944
1335
        There isn't a single operation at the moment to do that, so we:
1945
 
        - Merge current state -> basis tree of the master w.r.t. the old tree
1946
 
          basis.
1947
 
        - Do a 'normal' merge of the old branch basis if it is relevant.
1948
 
        """
1949
 
        if self.branch.get_master_branch() is not None:
1950
 
            self.lock_write()
1951
 
            update_branch = True
1952
 
        else:
1953
 
            self.lock_tree_write()
1954
 
            update_branch = False
1955
 
        try:
1956
 
            if update_branch:
1957
 
                old_tip = self.branch.update()
1958
 
            else:
1959
 
                old_tip = None
1960
 
            return self._update_tree(old_tip)
1961
 
        finally:
1962
 
            self.unlock()
1963
 
 
1964
 
    @needs_tree_write_lock
1965
 
    def _update_tree(self, old_tip=None):
1966
 
        """Update a tree to the master branch.
1967
 
 
1968
 
        :param old_tip: if supplied, the previous tip revision the branch,
1969
 
            before it was changed to the master branch's tip.
1970
 
        """
1971
 
        # here if old_tip is not None, it is the old tip of the branch before
1972
 
        # it was updated from the master branch. This should become a pending
1973
 
        # merge in the working tree to preserve the user existing work.  we
1974
 
        # cant set that until we update the working trees last revision to be
1975
 
        # one from the new branch, because it will just get absorbed by the
1976
 
        # parent de-duplication logic.
1977
 
        # 
1978
 
        # We MUST save it even if an error occurs, because otherwise the users
1979
 
        # local work is unreferenced and will appear to have been lost.
1980
 
        # 
1981
 
        result = 0
1982
 
        try:
1983
 
            last_rev = self.get_parent_ids()[0]
1984
 
        except IndexError:
1985
 
            last_rev = None
1986
 
        if last_rev != self.branch.last_revision():
1987
 
            # merge tree state up to new branch tip.
1988
 
            basis = self.basis_tree()
1989
 
            basis.lock_read()
1990
 
            try:
 
1336
        Merge current state -> basis tree of the master w.r.t. the old tree basis.
 
1337
        Do a 'normal' merge of the old branch basis if it is relevant.
 
1338
        """
 
1339
        old_tip = self.branch.update()
 
1340
        if old_tip is not None:
 
1341
            self.add_pending_merge(old_tip)
 
1342
        self.branch.lock_read()
 
1343
        try:
 
1344
            result = 0
 
1345
            if self.last_revision() != self.branch.last_revision():
 
1346
                # merge tree state up to new branch tip.
 
1347
                basis = self.basis_tree()
1991
1348
                to_tree = self.branch.basis_tree()
1992
 
                if basis.inventory.root is None:
1993
 
                    self.set_root_id(to_tree.inventory.root.file_id)
1994
 
                    self.flush()
1995
 
                result += merge.merge_inner(
1996
 
                                      self.branch,
 
1349
                result += merge_inner(self.branch,
1997
1350
                                      to_tree,
1998
1351
                                      basis,
1999
1352
                                      this_tree=self)
2000
 
            finally:
2001
 
                basis.unlock()
2002
 
            # TODO - dedup parents list with things merged by pull ?
2003
 
            # reuse the tree we've updated to to set the basis:
2004
 
            parent_trees = [(self.branch.last_revision(), to_tree)]
2005
 
            merges = self.get_parent_ids()[1:]
2006
 
            # Ideally we ask the tree for the trees here, that way the working
2007
 
            # tree can decide whether to give us teh entire tree or give us a
2008
 
            # lazy initialised tree. dirstate for instance will have the trees
2009
 
            # in ram already, whereas a last-revision + basis-inventory tree
2010
 
            # will not, but also does not need them when setting parents.
2011
 
            for parent in merges:
2012
 
                parent_trees.append(
2013
 
                    (parent, self.branch.repository.revision_tree(parent)))
2014
 
            if old_tip is not None:
2015
 
                parent_trees.append(
2016
 
                    (old_tip, self.branch.repository.revision_tree(old_tip)))
2017
 
            self.set_parent_trees(parent_trees)
2018
 
            last_rev = parent_trees[0][0]
2019
 
        else:
2020
 
            # the working tree had the same last-revision as the master
2021
 
            # branch did. We may still have pivot local work from the local
2022
 
            # branch into old_tip:
2023
 
            if old_tip is not None:
2024
 
                self.add_parent_tree_id(old_tip)
2025
 
        if old_tip and old_tip != last_rev:
2026
 
            # our last revision was not the prior branch last revision
2027
 
            # and we have converted that last revision to a pending merge.
2028
 
            # base is somewhere between the branch tip now
2029
 
            # and the now pending merge
2030
 
 
2031
 
            # Since we just modified the working tree and inventory, flush out
2032
 
            # the current state, before we modify it again.
2033
 
            # TODO: jam 20070214 WorkingTree3 doesn't require this, dirstate
2034
 
            #       requires it only because TreeTransform directly munges the
2035
 
            #       inventory and calls tree._write_inventory(). Ultimately we
2036
 
            #       should be able to remove this extra flush.
2037
 
            self.flush()
2038
 
            from bzrlib.revision import common_ancestor
2039
 
            try:
2040
 
                base_rev_id = common_ancestor(self.branch.last_revision(),
2041
 
                                              old_tip,
2042
 
                                              self.branch.repository)
2043
 
            except errors.NoCommonAncestor:
2044
 
                base_rev_id = None
2045
 
            base_tree = self.branch.repository.revision_tree(base_rev_id)
2046
 
            other_tree = self.branch.repository.revision_tree(old_tip)
2047
 
            result += merge.merge_inner(
2048
 
                                  self.branch,
2049
 
                                  other_tree,
2050
 
                                  base_tree,
2051
 
                                  this_tree=self)
2052
 
        return result
2053
 
 
2054
 
    def _write_hashcache_if_dirty(self):
2055
 
        """Write out the hashcache if it is dirty."""
2056
 
        if self._hashcache.needs_write:
2057
 
            try:
2058
 
                self._hashcache.write()
2059
 
            except OSError, e:
2060
 
                if e.errno not in (errno.EPERM, errno.EACCES):
2061
 
                    raise
2062
 
                # TODO: jam 20061219 Should this be a warning? A single line
2063
 
                #       warning might be sufficient to let the user know what
2064
 
                #       is going on.
2065
 
                mutter('Could not write hashcache for %s\nError: %s',
2066
 
                       self._hashcache.cache_file_name(), e)
2067
 
 
2068
 
    @needs_tree_write_lock
 
1353
                self.set_last_revision(self.branch.last_revision())
 
1354
            if old_tip and old_tip != self.last_revision():
 
1355
                # our last revision was not the prior branch last reivison
 
1356
                # and we have converted that last revision to a pending merge.
 
1357
                # base is somewhere between the branch tip now
 
1358
                # and the now pending merge
 
1359
                from bzrlib.revision import common_ancestor
 
1360
                try:
 
1361
                    base_rev_id = common_ancestor(self.branch.last_revision(),
 
1362
                                                  old_tip,
 
1363
                                                  self.branch.repository)
 
1364
                except errors.NoCommonAncestor:
 
1365
                    base_rev_id = None
 
1366
                base_tree = self.branch.repository.revision_tree(base_rev_id)
 
1367
                other_tree = self.branch.repository.revision_tree(old_tip)
 
1368
                result += merge_inner(self.branch,
 
1369
                                      other_tree,
 
1370
                                      base_tree,
 
1371
                                      this_tree=self)
 
1372
            return result
 
1373
        finally:
 
1374
            self.branch.unlock()
 
1375
 
 
1376
    @needs_write_lock
2069
1377
    def _write_inventory(self, inv):
2070
1378
        """Write inventory as the current inventory."""
2071
 
        self._set_inventory(inv, dirty=True)
2072
 
        self.flush()
 
1379
        sio = StringIO()
 
1380
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
 
1381
        sio.seek(0)
 
1382
        self._control_files.put('inventory', sio)
 
1383
        self._set_inventory(inv)
 
1384
        mutter('wrote working inventory')
2073
1385
 
2074
1386
    def set_conflicts(self, arg):
2075
 
        raise errors.UnsupportedOperation(self.set_conflicts, self)
2076
 
 
2077
 
    def add_conflicts(self, arg):
2078
 
        raise errors.UnsupportedOperation(self.add_conflicts, self)
 
1387
        raise UnsupportedOperation(self.set_conflicts, self)
2079
1388
 
2080
1389
    @needs_read_lock
2081
1390
    def conflicts(self):
2082
 
        conflicts = _mod_conflicts.ConflictList()
 
1391
        conflicts = ConflictList()
2083
1392
        for conflicted in self._iter_conflicts():
2084
1393
            text = True
2085
1394
            try:
2086
1395
                if file_kind(self.abspath(conflicted)) != "file":
2087
1396
                    text = False
2088
 
            except errors.NoSuchFile:
2089
 
                text = False
 
1397
            except OSError, e:
 
1398
                if e.errno == errno.ENOENT:
 
1399
                    text = False
 
1400
                else:
 
1401
                    raise
2090
1402
            if text is True:
2091
1403
                for suffix in ('.THIS', '.OTHER'):
2092
1404
                    try:
2093
1405
                        kind = file_kind(self.abspath(conflicted+suffix))
2094
 
                        if kind != "file":
 
1406
                    except OSError, e:
 
1407
                        if e.errno == errno.ENOENT:
2095
1408
                            text = False
2096
 
                    except errors.NoSuchFile:
 
1409
                            break
 
1410
                        else:
 
1411
                            raise
 
1412
                    if kind != "file":
2097
1413
                        text = False
2098
 
                    if text == False:
2099
1414
                        break
2100
1415
            ctype = {True: 'text conflict', False: 'contents conflict'}[text]
2101
 
            conflicts.append(_mod_conflicts.Conflict.factory(ctype,
2102
 
                             path=conflicted,
 
1416
            conflicts.append(Conflict.factory(ctype, path=conflicted,
2103
1417
                             file_id=self.path2id(conflicted)))
2104
1418
        return conflicts
2105
1419
 
2106
 
    def walkdirs(self, prefix=""):
2107
 
        """Walk the directories of this tree.
2108
 
 
2109
 
        This API returns a generator, which is only valid during the current
2110
 
        tree transaction - within a single lock_read or lock_write duration.
2111
 
 
2112
 
        If the tree is not locked, it may cause an error to be raised, depending
2113
 
        on the tree implementation.
2114
 
        """
2115
 
        disk_top = self.abspath(prefix)
2116
 
        if disk_top.endswith('/'):
2117
 
            disk_top = disk_top[:-1]
2118
 
        top_strip_len = len(disk_top) + 1
2119
 
        inventory_iterator = self._walkdirs(prefix)
2120
 
        disk_iterator = osutils.walkdirs(disk_top, prefix)
2121
 
        try:
2122
 
            current_disk = disk_iterator.next()
2123
 
            disk_finished = False
2124
 
        except OSError, e:
2125
 
            if not (e.errno == errno.ENOENT or
2126
 
                (sys.platform == 'win32' and e.errno == ERROR_PATH_NOT_FOUND)):
2127
 
                raise
2128
 
            current_disk = None
2129
 
            disk_finished = True
2130
 
        try:
2131
 
            current_inv = inventory_iterator.next()
2132
 
            inv_finished = False
2133
 
        except StopIteration:
2134
 
            current_inv = None
2135
 
            inv_finished = True
2136
 
        while not inv_finished or not disk_finished:
2137
 
            if not disk_finished:
2138
 
                # strip out .bzr dirs
2139
 
                if current_disk[0][1][top_strip_len:] == '':
2140
 
                    # osutils.walkdirs can be made nicer - 
2141
 
                    # yield the path-from-prefix rather than the pathjoined
2142
 
                    # value.
2143
 
                    bzrdir_loc = bisect_left(current_disk[1], ('.bzr', '.bzr'))
2144
 
                    if current_disk[1][bzrdir_loc][0] == '.bzr':
2145
 
                        # we dont yield the contents of, or, .bzr itself.
2146
 
                        del current_disk[1][bzrdir_loc]
2147
 
            if inv_finished:
2148
 
                # everything is unknown
2149
 
                direction = 1
2150
 
            elif disk_finished:
2151
 
                # everything is missing
2152
 
                direction = -1
2153
 
            else:
2154
 
                direction = cmp(current_inv[0][0], current_disk[0][0])
2155
 
            if direction > 0:
2156
 
                # disk is before inventory - unknown
2157
 
                dirblock = [(relpath, basename, kind, stat, None, None) for
2158
 
                    relpath, basename, kind, stat, top_path in current_disk[1]]
2159
 
                yield (current_disk[0][0], None), dirblock
2160
 
                try:
2161
 
                    current_disk = disk_iterator.next()
2162
 
                except StopIteration:
2163
 
                    disk_finished = True
2164
 
            elif direction < 0:
2165
 
                # inventory is before disk - missing.
2166
 
                dirblock = [(relpath, basename, 'unknown', None, fileid, kind)
2167
 
                    for relpath, basename, dkind, stat, fileid, kind in 
2168
 
                    current_inv[1]]
2169
 
                yield (current_inv[0][0], current_inv[0][1]), dirblock
2170
 
                try:
2171
 
                    current_inv = inventory_iterator.next()
2172
 
                except StopIteration:
2173
 
                    inv_finished = True
2174
 
            else:
2175
 
                # versioned present directory
2176
 
                # merge the inventory and disk data together
2177
 
                dirblock = []
2178
 
                for relpath, subiterator in itertools.groupby(sorted(
2179
 
                    current_inv[1] + current_disk[1], key=operator.itemgetter(0)), operator.itemgetter(1)):
2180
 
                    path_elements = list(subiterator)
2181
 
                    if len(path_elements) == 2:
2182
 
                        inv_row, disk_row = path_elements
2183
 
                        # versioned, present file
2184
 
                        dirblock.append((inv_row[0],
2185
 
                            inv_row[1], disk_row[2],
2186
 
                            disk_row[3], inv_row[4],
2187
 
                            inv_row[5]))
2188
 
                    elif len(path_elements[0]) == 5:
2189
 
                        # unknown disk file
2190
 
                        dirblock.append((path_elements[0][0],
2191
 
                            path_elements[0][1], path_elements[0][2],
2192
 
                            path_elements[0][3], None, None))
2193
 
                    elif len(path_elements[0]) == 6:
2194
 
                        # versioned, absent file.
2195
 
                        dirblock.append((path_elements[0][0],
2196
 
                            path_elements[0][1], 'unknown', None,
2197
 
                            path_elements[0][4], path_elements[0][5]))
2198
 
                    else:
2199
 
                        raise NotImplementedError('unreachable code')
2200
 
                yield current_inv[0], dirblock
2201
 
                try:
2202
 
                    current_inv = inventory_iterator.next()
2203
 
                except StopIteration:
2204
 
                    inv_finished = True
2205
 
                try:
2206
 
                    current_disk = disk_iterator.next()
2207
 
                except StopIteration:
2208
 
                    disk_finished = True
2209
 
 
2210
 
    def _walkdirs(self, prefix=""):
2211
 
        _directory = 'directory'
2212
 
        # get the root in the inventory
2213
 
        inv = self.inventory
2214
 
        top_id = inv.path2id(prefix)
2215
 
        if top_id is None:
2216
 
            pending = []
2217
 
        else:
2218
 
            pending = [(prefix, '', _directory, None, top_id, None)]
2219
 
        while pending:
2220
 
            dirblock = []
2221
 
            currentdir = pending.pop()
2222
 
            # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-id, 5-kind
2223
 
            top_id = currentdir[4]
2224
 
            if currentdir[0]:
2225
 
                relroot = currentdir[0] + '/'
2226
 
            else:
2227
 
                relroot = ""
2228
 
            # FIXME: stash the node in pending
2229
 
            entry = inv[top_id]
2230
 
            for name, child in entry.sorted_children():
2231
 
                dirblock.append((relroot + name, name, child.kind, None,
2232
 
                    child.file_id, child.kind
2233
 
                    ))
2234
 
            yield (currentdir[0], entry.file_id), dirblock
2235
 
            # push the user specified dirs from dirblock
2236
 
            for dir in reversed(dirblock):
2237
 
                if dir[2] == _directory:
2238
 
                    pending.append(dir)
2239
 
 
2240
 
    @needs_tree_write_lock
2241
 
    def auto_resolve(self):
2242
 
        """Automatically resolve text conflicts according to contents.
2243
 
 
2244
 
        Only text conflicts are auto_resolvable. Files with no conflict markers
2245
 
        are considered 'resolved', because bzr always puts conflict markers
2246
 
        into files that have text conflicts.  The corresponding .THIS .BASE and
2247
 
        .OTHER files are deleted, as per 'resolve'.
2248
 
        :return: a tuple of ConflictLists: (un_resolved, resolved).
2249
 
        """
2250
 
        un_resolved = _mod_conflicts.ConflictList()
2251
 
        resolved = _mod_conflicts.ConflictList()
2252
 
        conflict_re = re.compile('^(<{7}|={7}|>{7})')
2253
 
        for conflict in self.conflicts():
2254
 
            if (conflict.typestring != 'text conflict' or
2255
 
                self.kind(conflict.file_id) != 'file'):
2256
 
                un_resolved.append(conflict)
2257
 
                continue
2258
 
            my_file = open(self.id2abspath(conflict.file_id), 'rb')
2259
 
            try:
2260
 
                for line in my_file:
2261
 
                    if conflict_re.search(line):
2262
 
                        un_resolved.append(conflict)
2263
 
                        break
2264
 
                else:
2265
 
                    resolved.append(conflict)
2266
 
            finally:
2267
 
                my_file.close()
2268
 
        resolved.remove_files(self)
2269
 
        self.set_conflicts(un_resolved)
2270
 
        return un_resolved, resolved
2271
 
 
2272
 
    def _validate(self):
2273
 
        """Validate internal structures.
2274
 
 
2275
 
        This is meant mostly for the test suite. To give it a chance to detect
2276
 
        corruption after actions have occurred. The default implementation is a
2277
 
        just a no-op.
2278
 
 
2279
 
        :return: None. An exception should be raised if there is an error.
2280
 
        """
2281
 
        return
2282
 
 
2283
 
 
2284
 
class WorkingTree2(WorkingTree):
2285
 
    """This is the Format 2 working tree.
2286
 
 
2287
 
    This was the first weave based working tree. 
2288
 
     - uses os locks for locking.
2289
 
     - uses the branch last-revision.
2290
 
    """
2291
 
 
2292
 
    def __init__(self, *args, **kwargs):
2293
 
        super(WorkingTree2, self).__init__(*args, **kwargs)
2294
 
        # WorkingTree2 has more of a constraint that self._inventory must
2295
 
        # exist. Because this is an older format, we don't mind the overhead
2296
 
        # caused by the extra computation here.
2297
 
 
2298
 
        # Newer WorkingTree's should only have self._inventory set when they
2299
 
        # have a read lock.
2300
 
        if self._inventory is None:
2301
 
            self.read_working_inventory()
2302
 
 
2303
 
    def lock_tree_write(self):
2304
 
        """See WorkingTree.lock_tree_write().
2305
 
 
2306
 
        In Format2 WorkingTrees we have a single lock for the branch and tree
2307
 
        so lock_tree_write() degrades to lock_write().
2308
 
        """
2309
 
        self.branch.lock_write()
2310
 
        try:
2311
 
            return self._control_files.lock_write()
2312
 
        except:
2313
 
            self.branch.unlock()
2314
 
            raise
2315
 
 
2316
 
    def unlock(self):
2317
 
        # we share control files:
2318
 
        if self._control_files._lock_count == 3:
2319
 
            # _inventory_is_modified is always False during a read lock.
2320
 
            if self._inventory_is_modified:
2321
 
                self.flush()
2322
 
            self._write_hashcache_if_dirty()
2323
 
                    
2324
 
        # reverse order of locking.
2325
 
        try:
2326
 
            return self._control_files.unlock()
2327
 
        finally:
2328
 
            self.branch.unlock()
2329
 
 
2330
1420
 
2331
1421
class WorkingTree3(WorkingTree):
2332
1422
    """This is the Format 3 working tree.
2339
1429
    """
2340
1430
 
2341
1431
    @needs_read_lock
2342
 
    def _last_revision(self):
2343
 
        """See Mutable.last_revision."""
 
1432
    def last_revision(self):
 
1433
        """See WorkingTree.last_revision."""
2344
1434
        try:
2345
 
            return osutils.safe_revision_id(
2346
 
                        self._control_files.get('last-revision').read())
2347
 
        except errors.NoSuchFile:
 
1435
            return self._control_files.get_utf8('last-revision').read()
 
1436
        except NoSuchFile:
2348
1437
            return None
2349
1438
 
2350
1439
    def _change_last_revision(self, revision_id):
2356
1445
                pass
2357
1446
            return False
2358
1447
        else:
2359
 
            self._control_files.put_bytes('last-revision', revision_id)
 
1448
            try:
 
1449
                self.branch.revision_history().index(revision_id)
 
1450
            except ValueError:
 
1451
                raise errors.NoSuchRevision(self.branch, revision_id)
 
1452
            self._control_files.put_utf8('last-revision', revision_id)
2360
1453
            return True
2361
1454
 
2362
 
    @needs_tree_write_lock
 
1455
    @needs_write_lock
2363
1456
    def set_conflicts(self, conflicts):
2364
1457
        self._put_rio('conflicts', conflicts.to_stanzas(), 
2365
1458
                      CONFLICT_HEADER_1)
2366
1459
 
2367
 
    @needs_tree_write_lock
2368
 
    def add_conflicts(self, new_conflicts):
2369
 
        conflict_set = set(self.conflicts())
2370
 
        conflict_set.update(set(list(new_conflicts)))
2371
 
        self.set_conflicts(_mod_conflicts.ConflictList(sorted(conflict_set,
2372
 
                                       key=_mod_conflicts.Conflict.sort_key)))
2373
 
 
2374
1460
    @needs_read_lock
2375
1461
    def conflicts(self):
2376
1462
        try:
2377
1463
            confile = self._control_files.get('conflicts')
2378
 
        except errors.NoSuchFile:
2379
 
            return _mod_conflicts.ConflictList()
 
1464
        except NoSuchFile:
 
1465
            return ConflictList()
2380
1466
        try:
2381
1467
            if confile.next() != CONFLICT_HEADER_1 + '\n':
2382
 
                raise errors.ConflictFormatError()
 
1468
                raise ConflictFormatError()
2383
1469
        except StopIteration:
2384
 
            raise errors.ConflictFormatError()
2385
 
        return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
2386
 
 
2387
 
    def unlock(self):
2388
 
        if self._control_files._lock_count == 1:
2389
 
            # _inventory_is_modified is always False during a read lock.
2390
 
            if self._inventory_is_modified:
2391
 
                self.flush()
2392
 
            self._write_hashcache_if_dirty()
2393
 
        # reverse order of locking.
2394
 
        try:
2395
 
            return self._control_files.unlock()
2396
 
        finally:
2397
 
            self.branch.unlock()
 
1470
            raise ConflictFormatError()
 
1471
        return ConflictList.from_stanzas(RioReader(confile))
2398
1472
 
2399
1473
 
2400
1474
def get_conflicted_stem(path):
2401
 
    for suffix in _mod_conflicts.CONFLICT_SUFFIXES:
 
1475
    for suffix in CONFLICT_SUFFIXES:
2402
1476
        if path.endswith(suffix):
2403
1477
            return path[:-len(suffix)]
2404
1478
 
2405
 
 
2406
1479
@deprecated_function(zero_eight)
2407
1480
def is_control_file(filename):
2408
1481
    """See WorkingTree.is_control_filename(filename)."""
2443
1516
    _formats = {}
2444
1517
    """The known formats."""
2445
1518
 
2446
 
    requires_rich_root = False
2447
 
 
2448
 
    upgrade_recommended = False
2449
 
 
2450
1519
    @classmethod
2451
1520
    def find_format(klass, a_bzrdir):
2452
1521
        """Return the format for the working tree object in a_bzrdir."""
2454
1523
            transport = a_bzrdir.get_workingtree_transport(None)
2455
1524
            format_string = transport.get("format").read()
2456
1525
            return klass._formats[format_string]
2457
 
        except errors.NoSuchFile:
 
1526
        except NoSuchFile:
2458
1527
            raise errors.NoWorkingTree(base=transport.base)
2459
1528
        except KeyError:
2460
 
            raise errors.UnknownFormatError(format=format_string)
2461
 
 
2462
 
    def __eq__(self, other):
2463
 
        return self.__class__ is other.__class__
2464
 
 
2465
 
    def __ne__(self, other):
2466
 
        return not (self == other)
 
1529
            raise errors.UnknownFormatError(format_string)
2467
1530
 
2468
1531
    @classmethod
2469
1532
    def get_default_format(klass):
2501
1564
        del klass._formats[format.get_format_string()]
2502
1565
 
2503
1566
 
 
1567
 
2504
1568
class WorkingTreeFormat2(WorkingTreeFormat):
2505
1569
    """The second working tree format. 
2506
1570
 
2507
1571
    This format modified the hash cache from the format 1 hash cache.
2508
1572
    """
2509
1573
 
2510
 
    upgrade_recommended = True
2511
 
 
2512
1574
    def get_format_description(self):
2513
1575
        """See WorkingTreeFormat.get_format_description()."""
2514
1576
        return "Working tree format 2"
2522
1584
        """
2523
1585
        sio = StringIO()
2524
1586
        inv = Inventory()
2525
 
        xml5.serializer_v5.write_inventory(inv, sio)
 
1587
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
2526
1588
        sio.seek(0)
2527
1589
        control_files.put('inventory', sio)
2528
1590
 
2529
 
        control_files.put_bytes('pending-merges', '')
 
1591
        control_files.put_utf8('pending-merges', '')
2530
1592
        
2531
1593
 
2532
1594
    def initialize(self, a_bzrdir, revision_id=None):
2535
1597
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2536
1598
        branch = a_bzrdir.open_branch()
2537
1599
        if revision_id is not None:
2538
 
            revision_id = osutils.safe_revision_id(revision_id)
2539
1600
            branch.lock_write()
2540
1601
            try:
2541
1602
                revision_history = branch.revision_history()
2547
1608
            finally:
2548
1609
                branch.unlock()
2549
1610
        revision = branch.last_revision()
2550
 
        inv = Inventory()
2551
 
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
 
1611
        inv = Inventory() 
 
1612
        wt = WorkingTree(a_bzrdir.root_transport.base,
2552
1613
                         branch,
2553
1614
                         inv,
2554
1615
                         _internal=True,
2555
1616
                         _format=self,
2556
1617
                         _bzrdir=a_bzrdir)
2557
 
        basis_tree = branch.repository.revision_tree(revision)
2558
 
        if basis_tree.inventory.root is not None:
2559
 
            wt.set_root_id(basis_tree.inventory.root.file_id)
2560
 
        # set the parent list and cache the basis tree.
2561
 
        wt.set_parent_trees([(revision, basis_tree)])
2562
 
        transform.build_tree(basis_tree, wt)
 
1618
        wt._write_inventory(inv)
 
1619
        wt.set_root_id(inv.root.file_id)
 
1620
        wt.set_last_revision(revision)
 
1621
        wt.set_pending_merges([])
 
1622
        build_tree(wt.basis_tree(), wt)
2563
1623
        return wt
2564
1624
 
2565
1625
    def __init__(self):
2577
1637
            raise NotImplementedError
2578
1638
        if not isinstance(a_bzrdir.transport, LocalTransport):
2579
1639
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2580
 
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
 
1640
        return WorkingTree(a_bzrdir.root_transport.base,
2581
1641
                           _internal=True,
2582
1642
                           _format=self,
2583
1643
                           _bzrdir=a_bzrdir)
2584
 
        return wt
 
1644
 
2585
1645
 
2586
1646
class WorkingTreeFormat3(WorkingTreeFormat):
2587
1647
    """The second working tree format updated to record a format marker.
2592
1652
          files, separate from the BzrDir format
2593
1653
        - modifies the hash cache format
2594
1654
        - is new in bzr 0.8
2595
 
        - uses a LockDir to guard access for writes.
 
1655
        - uses a LockDir to guard access to the repository
2596
1656
    """
2597
 
    
2598
 
    upgrade_recommended = True
2599
1657
 
2600
1658
    def get_format_string(self):
2601
1659
        """See WorkingTreeFormat.get_format_string()."""
2608
1666
    _lock_file_name = 'lock'
2609
1667
    _lock_class = LockDir
2610
1668
 
2611
 
    _tree_class = WorkingTree3
2612
 
 
2613
 
    def __get_matchingbzrdir(self):
2614
 
        return bzrdir.BzrDirMetaFormat1()
2615
 
 
2616
 
    _matchingbzrdir = property(__get_matchingbzrdir)
2617
 
 
2618
1669
    def _open_control_files(self, a_bzrdir):
2619
1670
        transport = a_bzrdir.get_workingtree_transport(None)
2620
1671
        return LockableFiles(transport, self._lock_file_name, 
2623
1674
    def initialize(self, a_bzrdir, revision_id=None):
2624
1675
        """See WorkingTreeFormat.initialize().
2625
1676
        
2626
 
        revision_id allows creating a working tree at a different
 
1677
        revision_id allows creating a working tree at a differnet
2627
1678
        revision than the branch is at.
2628
1679
        """
2629
1680
        if not isinstance(a_bzrdir.transport, LocalTransport):
2636
1687
        branch = a_bzrdir.open_branch()
2637
1688
        if revision_id is None:
2638
1689
            revision_id = branch.last_revision()
2639
 
        else:
2640
 
            revision_id = osutils.safe_revision_id(revision_id)
2641
 
        # WorkingTree3 can handle an inventory which has a unique root id.
2642
 
        # as of bzr 0.12. However, bzr 0.11 and earlier fail to handle
2643
 
        # those trees. And because there isn't a format bump inbetween, we
2644
 
        # are maintaining compatibility with older clients.
2645
 
        # inv = Inventory(root_id=gen_root_id())
2646
 
        inv = self._initial_inventory()
2647
 
        wt = self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
 
1690
        inv = Inventory() 
 
1691
        wt = WorkingTree3(a_bzrdir.root_transport.base,
2648
1692
                         branch,
2649
1693
                         inv,
2650
1694
                         _internal=True,
2651
1695
                         _format=self,
2652
1696
                         _bzrdir=a_bzrdir,
2653
1697
                         _control_files=control_files)
2654
 
        wt.lock_tree_write()
 
1698
        wt.lock_write()
2655
1699
        try:
2656
 
            basis_tree = branch.repository.revision_tree(revision_id)
2657
 
            # only set an explicit root id if there is one to set.
2658
 
            if basis_tree.inventory.root is not None:
2659
 
                wt.set_root_id(basis_tree.inventory.root.file_id)
2660
 
            if revision_id == NULL_REVISION:
2661
 
                wt.set_parent_trees([])
2662
 
            else:
2663
 
                wt.set_parent_trees([(revision_id, basis_tree)])
2664
 
            transform.build_tree(basis_tree, wt)
 
1700
            wt._write_inventory(inv)
 
1701
            wt.set_root_id(inv.root.file_id)
 
1702
            wt.set_last_revision(revision_id)
 
1703
            wt.set_pending_merges([])
 
1704
            build_tree(wt.basis_tree(), wt)
2665
1705
        finally:
2666
 
            # Unlock in this order so that the unlock-triggers-flush in
2667
 
            # WorkingTree is given a chance to fire.
 
1706
            wt.unlock()
2668
1707
            control_files.unlock()
2669
 
            wt.unlock()
2670
1708
        return wt
2671
1709
 
2672
 
    def _initial_inventory(self):
2673
 
        return Inventory()
2674
 
 
2675
1710
    def __init__(self):
2676
1711
        super(WorkingTreeFormat3, self).__init__()
 
1712
        self._matchingbzrdir = bzrdir.BzrDirMetaFormat1()
2677
1713
 
2678
1714
    def open(self, a_bzrdir, _found=False):
2679
1715
        """Return the WorkingTree object for a_bzrdir
2686
1722
            raise NotImplementedError
2687
1723
        if not isinstance(a_bzrdir.transport, LocalTransport):
2688
1724
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2689
 
        wt = self._open(a_bzrdir, self._open_control_files(a_bzrdir))
2690
 
        return wt
2691
 
 
2692
 
    def _open(self, a_bzrdir, control_files):
2693
 
        """Open the tree itself.
2694
 
        
2695
 
        :param a_bzrdir: the dir for the tree.
2696
 
        :param control_files: the control files for the tree.
2697
 
        """
2698
 
        return self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
2699
 
                                _internal=True,
2700
 
                                _format=self,
2701
 
                                _bzrdir=a_bzrdir,
2702
 
                                _control_files=control_files)
 
1725
        control_files = self._open_control_files(a_bzrdir)
 
1726
        return WorkingTree3(a_bzrdir.root_transport.base,
 
1727
                           _internal=True,
 
1728
                           _format=self,
 
1729
                           _bzrdir=a_bzrdir,
 
1730
                           _control_files=control_files)
2703
1731
 
2704
1732
    def __str__(self):
2705
1733
        return self.get_format_string()
2706
1734
 
2707
1735
 
2708
 
__default_format = WorkingTreeFormat4()
 
1736
# formats which have no format string are not discoverable
 
1737
# and not independently creatable, so are not registered.
 
1738
__default_format = WorkingTreeFormat3()
2709
1739
WorkingTreeFormat.register_format(__default_format)
2710
 
WorkingTreeFormat.register_format(WorkingTreeFormat3())
2711
1740
WorkingTreeFormat.set_default_format(__default_format)
2712
 
# formats which have no format string are not discoverable
2713
 
# and not independently creatable, so are not registered.
2714
1741
_legacy_formats = [WorkingTreeFormat2(),
2715
1742
                   ]
2716
1743
 
2729
1756
        self._transport_readonly_server = transport_readonly_server
2730
1757
        self._formats = formats
2731
1758
    
2732
 
    def _clone_test(self, test, bzrdir_format, workingtree_format, variation):
2733
 
        """Clone test for adaption."""
2734
 
        new_test = deepcopy(test)
2735
 
        new_test.transport_server = self._transport_server
2736
 
        new_test.transport_readonly_server = self._transport_readonly_server
2737
 
        new_test.bzrdir_format = bzrdir_format
2738
 
        new_test.workingtree_format = workingtree_format
2739
 
        def make_new_test_id():
2740
 
            new_id = "%s(%s)" % (test.id(), variation)
2741
 
            return lambda: new_id
2742
 
        new_test.id = make_new_test_id()
2743
 
        return new_test
2744
 
    
2745
1759
    def adapt(self, test):
2746
1760
        from bzrlib.tests import TestSuite
2747
1761
        result = TestSuite()
2748
1762
        for workingtree_format, bzrdir_format in self._formats:
2749
 
            new_test = self._clone_test(
2750
 
                test,
2751
 
                bzrdir_format,
2752
 
                workingtree_format, workingtree_format.__class__.__name__)
 
1763
            new_test = deepcopy(test)
 
1764
            new_test.transport_server = self._transport_server
 
1765
            new_test.transport_readonly_server = self._transport_readonly_server
 
1766
            new_test.bzrdir_format = bzrdir_format
 
1767
            new_test.workingtree_format = workingtree_format
 
1768
            def make_new_test_id():
 
1769
                new_id = "%s(%s)" % (new_test.id(), workingtree_format.__class__.__name__)
 
1770
                return lambda: new_id
 
1771
            new_test.id = make_new_test_id()
2753
1772
            result.addTest(new_test)
2754
1773
        return result