~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: Vincent Ladeuil
  • Date: 2007-06-20 14:25:06 UTC
  • mfrom: (2540 +trunk)
  • mto: This revision was merged to the branch mainline in revision 2646.
  • Revision ID: v.ladeuil+lp@free.fr-20070620142506-txsb1v8538kpsafw
merge bzr.dev @ 2540

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
"""WorkingTree object and friends.
18
18
 
19
19
A WorkingTree represents the editable working copy of a branch.
20
 
Operations which represent the WorkingTree are also done here,
21
 
such as renaming or adding files.  The WorkingTree has an inventory
22
 
which is updated by these operations.  A commit produces a
 
20
Operations which represent the WorkingTree are also done here, 
 
21
such as renaming or adding files.  The WorkingTree has an inventory 
 
22
which is updated by these operations.  A commit produces a 
23
23
new revision based on the workingtree and its inventory.
24
24
 
25
25
At the moment every WorkingTree has its own branch.  Remote
44
44
lazy_import(globals(), """
45
45
from bisect import bisect_left
46
46
import collections
 
47
from copy import deepcopy
47
48
import errno
48
49
import itertools
49
50
import operator
50
51
import stat
 
52
from time import time
 
53
import warnings
51
54
import re
52
55
 
53
56
import bzrlib
55
58
    branch,
56
59
    bzrdir,
57
60
    conflicts as _mod_conflicts,
 
61
    dirstate,
58
62
    errors,
59
63
    generate_ids,
60
64
    globbing,
61
 
    graph as _mod_graph,
62
65
    hashcache,
63
66
    ignores,
64
 
    inventory,
65
67
    merge,
66
 
    revision as _mod_revision,
 
68
    osutils,
67
69
    revisiontree,
 
70
    repository,
 
71
    textui,
68
72
    trace,
69
73
    transform,
70
74
    ui,
71
 
    views,
 
75
    urlutils,
72
76
    xml5,
 
77
    xml6,
73
78
    xml7,
74
79
    )
75
80
import bzrlib.branch
76
81
from bzrlib.transport import get_transport
77
 
from bzrlib.workingtree_4 import (
78
 
    WorkingTreeFormat4,
79
 
    WorkingTreeFormat5,
80
 
    WorkingTreeFormat6,
81
 
    )
 
82
import bzrlib.ui
 
83
from bzrlib.workingtree_4 import WorkingTreeFormat4
82
84
""")
83
85
 
84
86
from bzrlib import symbol_versioning
85
87
from bzrlib.decorators import needs_read_lock, needs_write_lock
86
 
from bzrlib.lockable_files import LockableFiles
 
88
from bzrlib.inventory import InventoryEntry, Inventory, ROOT_ID, TreeReference
 
89
from bzrlib.lockable_files import LockableFiles, TransportLock
87
90
from bzrlib.lockdir import LockDir
88
91
import bzrlib.mutabletree
89
92
from bzrlib.mutabletree import needs_tree_write_lock
90
 
from bzrlib import osutils
91
93
from bzrlib.osutils import (
 
94
    compact_date,
92
95
    file_kind,
93
96
    isdir,
94
97
    normpath,
95
98
    pathjoin,
 
99
    rand_chars,
96
100
    realpath,
97
101
    safe_unicode,
98
102
    splitpath,
99
103
    supports_executable,
100
104
    )
101
 
from bzrlib.filters import filtered_input_file
102
105
from bzrlib.trace import mutter, note
103
106
from bzrlib.transport.local import LocalTransport
104
 
from bzrlib.progress import ProgressPhase
105
 
from bzrlib.revision import CURRENT_REVISION
 
107
from bzrlib.progress import DummyProgress, ProgressPhase
 
108
from bzrlib.revision import NULL_REVISION, CURRENT_REVISION
106
109
from bzrlib.rio import RioReader, rio_file, Stanza
107
 
from bzrlib.symbol_versioning import (
108
 
    deprecated_passed,
109
 
    DEPRECATED_PARAMETER,
110
 
    )
 
110
from bzrlib.symbol_versioning import (deprecated_passed,
 
111
        deprecated_method,
 
112
        deprecated_function,
 
113
        DEPRECATED_PARAMETER,
 
114
        zero_eight,
 
115
        zero_eleven,
 
116
        zero_thirteen,
 
117
        )
111
118
 
112
119
 
113
120
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
114
 
# TODO: Modifying the conflict objects or their type is currently nearly
115
 
# impossible as there is no clear relationship between the working tree format
116
 
# and the conflict list file format.
117
121
CONFLICT_HEADER_1 = "BZR conflict list format 1"
118
122
 
119
123
ERROR_PATH_NOT_FOUND = 3    # WindowsError errno code, equivalent to ENOENT
120
124
 
121
125
 
 
126
@deprecated_function(zero_thirteen)
 
127
def gen_file_id(name):
 
128
    """Return new file id for the basename 'name'.
 
129
 
 
130
    Use bzrlib.generate_ids.gen_file_id() instead
 
131
    """
 
132
    return generate_ids.gen_file_id(name)
 
133
 
 
134
 
 
135
@deprecated_function(zero_thirteen)
 
136
def gen_root_id():
 
137
    """Return a new tree-root file id.
 
138
 
 
139
    This has been deprecated in favor of bzrlib.generate_ids.gen_root_id()
 
140
    """
 
141
    return generate_ids.gen_root_id()
 
142
 
 
143
 
122
144
class TreeEntry(object):
123
145
    """An entry that implements the minimum interface used by commands.
124
146
 
125
 
    This needs further inspection, it may be better to have
 
147
    This needs further inspection, it may be better to have 
126
148
    InventoryEntries without ids - though that seems wrong. For now,
127
149
    this is a parallel hierarchy to InventoryEntry, and needs to become
128
150
    one of several things: decorates to that hierarchy, children of, or
131
153
    no InventoryEntry available - i.e. for unversioned objects.
132
154
    Perhaps they should be UnversionedEntry et al. ? - RBC 20051003
133
155
    """
134
 
 
 
156
 
135
157
    def __eq__(self, other):
136
158
        # yes, this us ugly, TODO: best practice __eq__ style.
137
159
        return (isinstance(other, TreeEntry)
138
160
                and other.__class__ == self.__class__)
139
 
 
 
161
 
140
162
    def kind_character(self):
141
163
        return "???"
142
164
 
184
206
    not listed in the Inventory and vice versa.
185
207
    """
186
208
 
187
 
    # override this to set the strategy for storing views
188
 
    def _make_views(self):
189
 
        return views.DisabledViews(self)
190
 
 
191
209
    def __init__(self, basedir='.',
192
210
                 branch=DEPRECATED_PARAMETER,
193
211
                 _inventory=None,
204
222
        if not _internal:
205
223
            raise errors.BzrError("Please use bzrdir.open_workingtree or "
206
224
                "WorkingTree.open() to obtain a WorkingTree.")
 
225
        assert isinstance(basedir, basestring), \
 
226
            "base directory %r is not a string" % basedir
207
227
        basedir = safe_unicode(basedir)
208
228
        mutter("opening working tree %r", basedir)
209
229
        if deprecated_passed(branch):
217
237
            self._control_files = self.branch.control_files
218
238
        else:
219
239
            # assume all other formats have their own control files.
 
240
            assert isinstance(_control_files, LockableFiles), \
 
241
                    "_control_files must be a LockableFiles, not %r" \
 
242
                    % _control_files
220
243
            self._control_files = _control_files
221
 
        self._transport = self._control_files._transport
222
244
        # update the whole cache up front and write to disk if anything changed;
223
245
        # in the future we might want to do this more selectively
224
246
        # two possible ways offer themselves : in self._unlock, write the cache
228
250
        wt_trans = self.bzrdir.get_workingtree_transport(None)
229
251
        cache_filename = wt_trans.local_abspath('stat-cache')
230
252
        self._hashcache = hashcache.HashCache(basedir, cache_filename,
231
 
            self.bzrdir._get_file_mode(),
232
 
            self._content_filter_stack_provider())
 
253
                                              self._control_files._file_mode)
233
254
        hc = self._hashcache
234
255
        hc.read()
235
256
        # is this scan needed ? it makes things kinda slow.
249
270
            # the Format factory and creation methods that are
250
271
            # permitted to do this.
251
272
            self._set_inventory(_inventory, dirty=False)
252
 
        self._detect_case_handling()
253
 
        self._rules_searcher = None
254
 
        self.views = self._make_views()
255
 
 
256
 
    def _detect_case_handling(self):
257
 
        wt_trans = self.bzrdir.get_workingtree_transport(None)
258
 
        try:
259
 
            wt_trans.stat("FoRMaT")
260
 
        except errors.NoSuchFile:
261
 
            self.case_sensitive = True
262
 
        else:
263
 
            self.case_sensitive = False
264
 
 
265
 
        self._setup_directory_is_tree_reference()
266
273
 
267
274
    branch = property(
268
275
        fget=lambda self: self._branch,
283
290
        self._control_files.break_lock()
284
291
        self.branch.break_lock()
285
292
 
286
 
    def _get_check_refs(self):
287
 
        """Return the references needed to perform a check of this tree.
288
 
        
289
 
        The default implementation returns no refs, and is only suitable for
290
 
        trees that have no local caching and can commit on ghosts at any time.
291
 
 
292
 
        :seealso: bzrlib.check for details about check_refs.
293
 
        """
294
 
        return []
295
 
 
296
293
    def requires_rich_root(self):
297
294
        return self._format.requires_rich_root
298
295
 
299
296
    def supports_tree_reference(self):
300
297
        return False
301
298
 
302
 
    def supports_content_filtering(self):
303
 
        return self._format.supports_content_filtering()
304
 
 
305
 
    def supports_views(self):
306
 
        return self.views.supports_views()
307
 
 
308
299
    def _set_inventory(self, inv, dirty):
309
300
        """Set the internal cached inventory.
310
301
 
315
306
            False then the inventory is the same as that on disk and any
316
307
            serialisation would be unneeded overhead.
317
308
        """
 
309
        assert inv.root is not None
318
310
        self._inventory = inv
319
311
        self._inventory_is_modified = dirty
320
312
 
324
316
 
325
317
        """
326
318
        if path is None:
327
 
            path = osutils.getcwd()
 
319
            path = os.path.getcwdu()
328
320
        control = bzrdir.BzrDir.open(path, _unsupported)
329
321
        return control.open_workingtree(_unsupported)
330
 
 
 
322
        
331
323
    @staticmethod
332
324
    def open_containing(path=None):
333
325
        """Open an existing working tree which has its root about path.
334
 
 
 
326
        
335
327
        This probes for a working tree at path and searches upwards from there.
336
328
 
337
329
        Basically we keep looking up until we find the control directory or
355
347
        """
356
348
        return WorkingTree.open(path, _unsupported=True)
357
349
 
358
 
    @staticmethod
359
 
    def find_trees(location):
360
 
        def list_current(transport):
361
 
            return [d for d in transport.list_dir('') if d != '.bzr']
362
 
        def evaluate(bzrdir):
363
 
            try:
364
 
                tree = bzrdir.open_workingtree()
365
 
            except errors.NoWorkingTree:
366
 
                return True, None
367
 
            else:
368
 
                return True, tree
369
 
        transport = get_transport(location)
370
 
        iterator = bzrdir.BzrDir.find_bzrdirs(transport, evaluate=evaluate,
371
 
                                              list_current=list_current)
372
 
        return [t for t in iterator if t is not None]
373
 
 
374
350
    # should be deprecated - this is slow and in any case treating them as a
375
351
    # container is (we now know) bad style -- mbp 20070302
376
352
    ## @deprecated_method(zero_fifteen)
385
361
            if osutils.lexists(self.abspath(path)):
386
362
                yield ie.file_id
387
363
 
388
 
    def all_file_ids(self):
389
 
        """See Tree.iter_all_file_ids"""
390
 
        return set(self.inventory)
391
 
 
392
364
    def __repr__(self):
393
365
        return "<%s of %s>" % (self.__class__.__name__,
394
366
                               getattr(self, 'basedir', None))
398
370
 
399
371
    def basis_tree(self):
400
372
        """Return RevisionTree for the current last revision.
401
 
 
 
373
        
402
374
        If the left most parent is a ghost then the returned tree will be an
403
 
        empty tree - one obtained by calling
404
 
        repository.revision_tree(NULL_REVISION).
 
375
        empty tree - one obtained by calling repository.revision_tree(None).
405
376
        """
406
377
        try:
407
378
            revision_id = self.get_parent_ids()[0]
409
380
            # no parents, return an empty revision tree.
410
381
            # in the future this should return the tree for
411
382
            # 'empty:' - the implicit root empty tree.
412
 
            return self.branch.repository.revision_tree(
413
 
                       _mod_revision.NULL_REVISION)
 
383
            return self.branch.repository.revision_tree(None)
414
384
        try:
415
385
            return self.revision_tree(revision_id)
416
386
        except errors.NoSuchRevision:
420
390
        # at this point ?
421
391
        try:
422
392
            return self.branch.repository.revision_tree(revision_id)
423
 
        except (errors.RevisionNotPresent, errors.NoSuchRevision):
 
393
        except errors.RevisionNotPresent:
424
394
            # the basis tree *may* be a ghost or a low level error may have
425
 
            # occurred. If the revision is present, its a problem, if its not
 
395
            # occured. If the revision is present, its a problem, if its not
426
396
            # its a ghost.
427
397
            if self.branch.repository.has_revision(revision_id):
428
398
                raise
429
399
            # the basis tree is a ghost so return an empty tree.
430
 
            return self.branch.repository.revision_tree(
431
 
                       _mod_revision.NULL_REVISION)
432
 
 
433
 
    def _cleanup(self):
434
 
        self._flush_ignore_list_cache()
 
400
            return self.branch.repository.revision_tree(None)
 
401
 
 
402
    @staticmethod
 
403
    @deprecated_method(zero_eight)
 
404
    def create(branch, directory):
 
405
        """Create a workingtree for branch at directory.
 
406
 
 
407
        If existing_directory already exists it must have a .bzr directory.
 
408
        If it does not exist, it will be created.
 
409
 
 
410
        This returns a new WorkingTree object for the new checkout.
 
411
 
 
412
        TODO FIXME RBC 20060124 when we have checkout formats in place this
 
413
        should accept an optional revisionid to checkout [and reject this if
 
414
        checking out into the same dir as a pre-checkout-aware branch format.]
 
415
 
 
416
        XXX: When BzrDir is present, these should be created through that 
 
417
        interface instead.
 
418
        """
 
419
        warnings.warn('delete WorkingTree.create', stacklevel=3)
 
420
        transport = get_transport(directory)
 
421
        if branch.bzrdir.root_transport.base == transport.base:
 
422
            # same dir 
 
423
            return branch.bzrdir.create_workingtree()
 
424
        # different directory, 
 
425
        # create a branch reference
 
426
        # and now a working tree.
 
427
        raise NotImplementedError
 
428
 
 
429
    @staticmethod
 
430
    @deprecated_method(zero_eight)
 
431
    def create_standalone(directory):
 
432
        """Create a checkout and a branch and a repo at directory.
 
433
 
 
434
        Directory must exist and be empty.
 
435
 
 
436
        please use BzrDir.create_standalone_workingtree
 
437
        """
 
438
        return bzrdir.BzrDir.create_standalone_workingtree(directory)
435
439
 
436
440
    def relpath(self, path):
437
441
        """Return the local path portion from a given path.
438
 
 
439
 
        The path may be absolute or relative. If its a relative path it is
 
442
        
 
443
        The path may be absolute or relative. If its a relative path it is 
440
444
        interpreted relative to the python current working directory.
441
445
        """
442
446
        return osutils.relpath(self.basedir, path)
444
448
    def has_filename(self, filename):
445
449
        return osutils.lexists(self.abspath(filename))
446
450
 
447
 
    def get_file(self, file_id, path=None, filtered=True):
448
 
        return self.get_file_with_stat(file_id, path, filtered=filtered)[0]
449
 
 
450
 
    def get_file_with_stat(self, file_id, path=None, filtered=True,
451
 
        _fstat=os.fstat):
452
 
        """See Tree.get_file_with_stat."""
453
 
        if path is None:
454
 
            path = self.id2path(file_id)
455
 
        file_obj = self.get_file_byname(path, filtered=False)
456
 
        stat_value = _fstat(file_obj.fileno())
457
 
        if filtered and self.supports_content_filtering():
458
 
            filters = self._content_filter_stack(path)
459
 
            file_obj = filtered_input_file(file_obj, filters)
460
 
        return (file_obj, stat_value)
461
 
 
462
 
    def get_file_text(self, file_id, path=None, filtered=True):
463
 
        return self.get_file(file_id, path=path, filtered=filtered).read()
464
 
 
465
 
    def get_file_byname(self, filename, filtered=True):
466
 
        path = self.abspath(filename)
467
 
        f = file(path, 'rb')
468
 
        if filtered and self.supports_content_filtering():
469
 
            filters = self._content_filter_stack(filename)
470
 
            return filtered_input_file(f, filters)
471
 
        else:
472
 
            return f
473
 
 
474
 
    def get_file_lines(self, file_id, path=None, filtered=True):
475
 
        """See Tree.get_file_lines()"""
476
 
        file = self.get_file(file_id, path, filtered=filtered)
477
 
        try:
478
 
            return file.readlines()
479
 
        finally:
480
 
            file.close()
 
451
    def get_file(self, file_id):
 
452
        file_id = osutils.safe_file_id(file_id)
 
453
        return self.get_file_byname(self.id2path(file_id))
 
454
 
 
455
    def get_file_text(self, file_id):
 
456
        file_id = osutils.safe_file_id(file_id)
 
457
        return self.get_file(file_id).read()
 
458
 
 
459
    def get_file_byname(self, filename):
 
460
        return file(self.abspath(filename), 'rb')
481
461
 
482
462
    @needs_read_lock
483
 
    def annotate_iter(self, file_id, default_revision=CURRENT_REVISION):
 
463
    def annotate_iter(self, file_id):
484
464
        """See Tree.annotate_iter
485
465
 
486
466
        This implementation will use the basis tree implementation if possible.
490
470
        incorrectly attributed to CURRENT_REVISION (but after committing, the
491
471
        attribution will be correct).
492
472
        """
493
 
        maybe_file_parent_keys = []
494
 
        for parent_id in self.get_parent_ids():
495
 
            try:
496
 
                parent_tree = self.revision_tree(parent_id)
497
 
            except errors.NoSuchRevisionInTree:
498
 
                parent_tree = self.branch.repository.revision_tree(parent_id)
499
 
            parent_tree.lock_read()
500
 
            try:
501
 
                if file_id not in parent_tree:
502
 
                    continue
503
 
                ie = parent_tree.inventory[file_id]
504
 
                if ie.kind != 'file':
505
 
                    # Note: this is slightly unnecessary, because symlinks and
506
 
                    # directories have a "text" which is the empty text, and we
507
 
                    # know that won't mess up annotations. But it seems cleaner
508
 
                    continue
509
 
                parent_text_key = (file_id, ie.revision)
510
 
                if parent_text_key not in maybe_file_parent_keys:
511
 
                    maybe_file_parent_keys.append(parent_text_key)
512
 
            finally:
513
 
                parent_tree.unlock()
514
 
        graph = _mod_graph.Graph(self.branch.repository.texts)
515
 
        heads = graph.heads(maybe_file_parent_keys)
516
 
        file_parent_keys = []
517
 
        for key in maybe_file_parent_keys:
518
 
            if key in heads:
519
 
                file_parent_keys.append(key)
520
 
 
521
 
        # Now we have the parents of this content
522
 
        annotator = self.branch.repository.texts.get_annotator()
523
 
        text = self.get_file(file_id).read()
524
 
        this_key =(file_id, default_revision)
525
 
        annotator.add_special_text(this_key, file_parent_keys, text)
526
 
        annotations = [(key[-1], line)
527
 
                       for key, line in annotator.annotate_flat(this_key)]
528
 
        return annotations
529
 
 
530
 
    def _get_ancestors(self, default_revision):
531
 
        ancestors = set([default_revision])
532
 
        for parent_id in self.get_parent_ids():
533
 
            ancestors.update(self.branch.repository.get_ancestry(
534
 
                             parent_id, topo_sorted=False))
535
 
        return ancestors
 
473
        file_id = osutils.safe_file_id(file_id)
 
474
        basis = self.basis_tree()
 
475
        basis.lock_read()
 
476
        try:
 
477
            changes = self._iter_changes(basis, True, [self.id2path(file_id)],
 
478
                require_versioned=True).next()
 
479
            changed_content, kind = changes[2], changes[6]
 
480
            if not changed_content:
 
481
                return basis.annotate_iter(file_id)
 
482
            if kind[1] is None:
 
483
                return None
 
484
            import annotate
 
485
            if kind[0] != 'file':
 
486
                old_lines = []
 
487
            else:
 
488
                old_lines = list(basis.annotate_iter(file_id))
 
489
            old = [old_lines]
 
490
            for tree in self.branch.repository.revision_trees(
 
491
                self.get_parent_ids()[1:]):
 
492
                if file_id not in tree:
 
493
                    continue
 
494
                old.append(list(tree.annotate_iter(file_id)))
 
495
            return annotate.reannotate(old, self.get_file(file_id).readlines(),
 
496
                                       CURRENT_REVISION)
 
497
        finally:
 
498
            basis.unlock()
536
499
 
537
500
    def get_parent_ids(self):
538
501
        """See Tree.get_parent_ids.
539
 
 
 
502
        
540
503
        This implementation reads the pending merges list and last_revision
541
504
        value and uses that to decide what the parents list should be.
542
505
        """
543
 
        last_rev = _mod_revision.ensure_null(self._last_revision())
544
 
        if _mod_revision.NULL_REVISION == last_rev:
 
506
        last_rev = self._last_revision()
 
507
        if last_rev is None:
545
508
            parents = []
546
509
        else:
547
510
            parents = [last_rev]
548
511
        try:
549
 
            merges_bytes = self._transport.get_bytes('pending-merges')
 
512
            merges_file = self._control_files.get('pending-merges')
550
513
        except errors.NoSuchFile:
551
514
            pass
552
515
        else:
553
 
            for l in osutils.split_lines(merges_bytes):
554
 
                revision_id = l.rstrip('\n')
 
516
            for l in merges_file.readlines():
 
517
                revision_id = osutils.safe_revision_id(l.rstrip('\n'))
555
518
                parents.append(revision_id)
556
519
        return parents
557
520
 
559
522
    def get_root_id(self):
560
523
        """Return the id of this trees root"""
561
524
        return self._inventory.root.file_id
562
 
 
 
525
        
563
526
    def _get_store_filename(self, file_id):
564
527
        ## XXX: badly named; this is not in the store at all
 
528
        file_id = osutils.safe_file_id(file_id)
565
529
        return self.abspath(self.id2path(file_id))
566
530
 
567
531
    @needs_read_lock
568
532
    def clone(self, to_bzrdir, revision_id=None):
569
533
        """Duplicate this working tree into to_bzr, including all state.
570
 
 
 
534
        
571
535
        Specifically modified files are kept as modified, but
572
536
        ignored and unknown files are discarded.
573
537
 
574
538
        If you want to make a new line of development, see bzrdir.sprout()
575
539
 
576
540
        revision
577
 
            If not None, the cloned tree will have its last revision set to
578
 
            revision, and difference between the source trees last revision
 
541
            If not None, the cloned tree will have its last revision set to 
 
542
            revision, and and difference between the source trees last revision
579
543
            and this one merged in.
580
544
        """
581
545
        # assumes the target bzr dir format is compatible.
582
 
        result = to_bzrdir.create_workingtree()
 
546
        result = self._format.initialize(to_bzrdir)
583
547
        self.copy_content_into(result, revision_id)
584
548
        return result
585
549
 
596
560
            tree.set_parent_ids([revision_id])
597
561
 
598
562
    def id2abspath(self, file_id):
 
563
        file_id = osutils.safe_file_id(file_id)
599
564
        return self.abspath(self.id2path(file_id))
600
565
 
601
566
    def has_id(self, file_id):
602
567
        # files that have been deleted are excluded
 
568
        file_id = osutils.safe_file_id(file_id)
603
569
        inv = self.inventory
604
570
        if not inv.has_id(file_id):
605
571
            return False
607
573
        return osutils.lexists(self.abspath(path))
608
574
 
609
575
    def has_or_had_id(self, file_id):
 
576
        file_id = osutils.safe_file_id(file_id)
610
577
        if file_id == self.inventory.root.file_id:
611
578
            return True
612
579
        return self.inventory.has_id(file_id)
614
581
    __contains__ = has_id
615
582
 
616
583
    def get_file_size(self, file_id):
617
 
        """See Tree.get_file_size"""
618
 
        # XXX: this returns the on-disk size; it should probably return the
619
 
        # canonical size
620
 
        try:
621
 
            return os.path.getsize(self.id2abspath(file_id))
622
 
        except OSError, e:
623
 
            if e.errno != errno.ENOENT:
624
 
                raise
625
 
            else:
626
 
                return None
 
584
        file_id = osutils.safe_file_id(file_id)
 
585
        return os.path.getsize(self.id2abspath(file_id))
627
586
 
628
587
    @needs_read_lock
629
588
    def get_file_sha1(self, file_id, path=None, stat_value=None):
 
589
        file_id = osutils.safe_file_id(file_id)
630
590
        if not path:
631
591
            path = self._inventory.id2path(file_id)
632
592
        return self._hashcache.get_sha1(path, stat_value)
633
593
 
634
594
    def get_file_mtime(self, file_id, path=None):
 
595
        file_id = osutils.safe_file_id(file_id)
635
596
        if not path:
636
597
            path = self.inventory.id2path(file_id)
637
598
        return os.lstat(self.abspath(path)).st_mtime
638
599
 
639
 
    def _is_executable_from_path_and_stat_from_basis(self, path, stat_result):
640
 
        file_id = self.path2id(path)
641
 
        if file_id is None:
642
 
            # For unversioned files on win32, we just assume they are not
643
 
            # executable
644
 
            return False
645
 
        return self._inventory[file_id].executable
646
 
 
647
 
    def _is_executable_from_path_and_stat_from_stat(self, path, stat_result):
648
 
        mode = stat_result.st_mode
649
 
        return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
650
 
 
651
600
    if not supports_executable():
652
601
        def is_executable(self, file_id, path=None):
 
602
            file_id = osutils.safe_file_id(file_id)
653
603
            return self._inventory[file_id].executable
654
 
 
655
 
        _is_executable_from_path_and_stat = \
656
 
            _is_executable_from_path_and_stat_from_basis
657
604
    else:
658
605
        def is_executable(self, file_id, path=None):
659
606
            if not path:
 
607
                file_id = osutils.safe_file_id(file_id)
660
608
                path = self.id2path(file_id)
661
609
            mode = os.lstat(self.abspath(path)).st_mode
662
610
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
663
611
 
664
 
        _is_executable_from_path_and_stat = \
665
 
            _is_executable_from_path_and_stat_from_stat
666
 
 
667
612
    @needs_tree_write_lock
668
613
    def _add(self, files, ids, kinds):
669
614
        """See MutableTree._add."""
670
615
        # TODO: Re-adding a file that is removed in the working copy
671
616
        # should probably put it back with the previous ID.
672
 
        # the read and write working inventory should not occur in this
 
617
        # the read and write working inventory should not occur in this 
673
618
        # function - they should be part of lock_write and unlock.
674
 
        inv = self.inventory
 
619
        inv = self.read_working_inventory()
675
620
        for f, file_id, kind in zip(files, ids, kinds):
 
621
            assert kind is not None
676
622
            if file_id is None:
677
623
                inv.add_path(f, kind=kind)
678
624
            else:
 
625
                file_id = osutils.safe_file_id(file_id)
679
626
                inv.add_path(f, kind=kind, file_id=file_id)
680
 
            self._inventory_is_modified = True
 
627
        self._write_inventory(inv)
681
628
 
682
629
    @needs_tree_write_lock
683
630
    def _gather_kinds(self, files, kinds):
743
690
        if updated:
744
691
            self.set_parent_ids(parents, allow_leftmost_as_ghost=True)
745
692
 
746
 
    def path_content_summary(self, path, _lstat=os.lstat,
747
 
        _mapper=osutils.file_kind_from_stat_mode):
748
 
        """See Tree.path_content_summary."""
749
 
        abspath = self.abspath(path)
750
 
        try:
751
 
            stat_result = _lstat(abspath)
752
 
        except OSError, e:
753
 
            if getattr(e, 'errno', None) == errno.ENOENT:
754
 
                # no file.
755
 
                return ('missing', None, None, None)
756
 
            # propagate other errors
757
 
            raise
758
 
        kind = _mapper(stat_result.st_mode)
759
 
        if kind == 'file':
760
 
            return self._file_content_summary(path, stat_result)
761
 
        elif kind == 'directory':
762
 
            # perhaps it looks like a plain directory, but it's really a
763
 
            # reference.
764
 
            if self._directory_is_tree_reference(path):
765
 
                kind = 'tree-reference'
766
 
            return kind, None, None, None
767
 
        elif kind == 'symlink':
768
 
            target = osutils.readlink(abspath)
769
 
            return ('symlink', None, None, target)
770
 
        else:
771
 
            return (kind, None, None, None)
772
 
 
773
 
    def _file_content_summary(self, path, stat_result):
774
 
        size = stat_result.st_size
775
 
        executable = self._is_executable_from_path_and_stat(path, stat_result)
776
 
        # try for a stat cache lookup
777
 
        return ('file', size, executable, self._sha_from_stat(
778
 
            path, stat_result))
 
693
    @deprecated_method(zero_eleven)
 
694
    @needs_read_lock
 
695
    def pending_merges(self):
 
696
        """Return a list of pending merges.
 
697
 
 
698
        These are revisions that have been merged into the working
 
699
        directory but not yet committed.
 
700
 
 
701
        As of 0.11 this is deprecated. Please see WorkingTree.get_parent_ids()
 
702
        instead - which is available on all tree objects.
 
703
        """
 
704
        return self.get_parent_ids()[1:]
779
705
 
780
706
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
781
707
        """Common ghost checking functionality from set_parent_*.
791
717
 
792
718
    def _set_merges_from_parent_ids(self, parent_ids):
793
719
        merges = parent_ids[1:]
794
 
        self._transport.put_bytes('pending-merges', '\n'.join(merges),
795
 
            mode=self.bzrdir._get_file_mode())
796
 
 
797
 
    def _filter_parent_ids_by_ancestry(self, revision_ids):
798
 
        """Check that all merged revisions are proper 'heads'.
799
 
 
800
 
        This will always return the first revision_id, and any merged revisions
801
 
        which are
802
 
        """
803
 
        if len(revision_ids) == 0:
804
 
            return revision_ids
805
 
        graph = self.branch.repository.get_graph()
806
 
        heads = graph.heads(revision_ids)
807
 
        new_revision_ids = revision_ids[:1]
808
 
        for revision_id in revision_ids[1:]:
809
 
            if revision_id in heads and revision_id not in new_revision_ids:
810
 
                new_revision_ids.append(revision_id)
811
 
        if new_revision_ids != revision_ids:
812
 
            trace.mutter('requested to set revision_ids = %s,'
813
 
                         ' but filtered to %s', revision_ids, new_revision_ids)
814
 
        return new_revision_ids
 
720
        self._control_files.put_bytes('pending-merges', '\n'.join(merges))
815
721
 
816
722
    @needs_tree_write_lock
817
723
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
818
724
        """Set the parent ids to revision_ids.
819
 
 
 
725
        
820
726
        See also set_parent_trees. This api will try to retrieve the tree data
821
727
        for each element of revision_ids from the trees repository. If you have
822
728
        tree data already available, it is more efficient to use
826
732
        :param revision_ids: The revision_ids to set as the parent ids of this
827
733
            working tree. Any of these may be ghosts.
828
734
        """
 
735
        revision_ids = [osutils.safe_revision_id(r) for r in revision_ids]
829
736
        self._check_parents_for_ghosts(revision_ids,
830
737
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
831
 
        for revision_id in revision_ids:
832
 
            _mod_revision.check_not_reserved_id(revision_id)
833
 
 
834
 
        revision_ids = self._filter_parent_ids_by_ancestry(revision_ids)
835
738
 
836
739
        if len(revision_ids) > 0:
837
740
            self.set_last_revision(revision_ids[0])
838
741
        else:
839
 
            self.set_last_revision(_mod_revision.NULL_REVISION)
 
742
            self.set_last_revision(None)
840
743
 
841
744
        self._set_merges_from_parent_ids(revision_ids)
842
745
 
843
746
    @needs_tree_write_lock
844
747
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
845
748
        """See MutableTree.set_parent_trees."""
846
 
        parent_ids = [rev for (rev, tree) in parents_list]
847
 
        for revision_id in parent_ids:
848
 
            _mod_revision.check_not_reserved_id(revision_id)
 
749
        parent_ids = [osutils.safe_revision_id(rev) for (rev, tree) in parents_list]
849
750
 
850
751
        self._check_parents_for_ghosts(parent_ids,
851
752
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
852
753
 
853
 
        parent_ids = self._filter_parent_ids_by_ancestry(parent_ids)
854
 
 
855
754
        if len(parent_ids) == 0:
856
 
            leftmost_parent_id = _mod_revision.NULL_REVISION
 
755
            leftmost_parent_id = None
857
756
            leftmost_parent_tree = None
858
757
        else:
859
758
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
884
783
                yield Stanza(file_id=file_id.decode('utf8'), hash=hash)
885
784
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
886
785
 
887
 
    def _sha_from_stat(self, path, stat_result):
888
 
        """Get a sha digest from the tree's stat cache.
889
 
 
890
 
        The default implementation assumes no stat cache is present.
891
 
 
892
 
        :param path: The path.
893
 
        :param stat_result: The stat result being looked up.
894
 
        """
895
 
        return None
896
 
 
897
786
    def _put_rio(self, filename, stanzas, header):
898
787
        self._must_be_locked()
899
788
        my_file = rio_file(stanzas, header)
900
 
        self._transport.put_file(filename, my_file,
901
 
            mode=self.bzrdir._get_file_mode())
 
789
        self._control_files.put(filename, my_file)
902
790
 
903
791
    @needs_write_lock # because merge pulls data into the branch.
904
 
    def merge_from_branch(self, branch, to_revision=None, from_revision=None,
905
 
                          merge_type=None, force=False):
 
792
    def merge_from_branch(self, branch, to_revision=None):
906
793
        """Merge from a branch into this working tree.
907
794
 
908
795
        :param branch: The branch to merge from.
912
799
            branch.last_revision().
913
800
        """
914
801
        from bzrlib.merge import Merger, Merge3Merger
915
 
        merger = Merger(self.branch, this_tree=self)
916
 
        # check that there are no local alterations
917
 
        if not force and self.has_changes():
918
 
            raise errors.UncommittedChanges(self)
919
 
        if to_revision is None:
920
 
            to_revision = _mod_revision.ensure_null(branch.last_revision())
921
 
        merger.other_rev_id = to_revision
922
 
        if _mod_revision.is_null(merger.other_rev_id):
923
 
            raise errors.NoCommits(branch)
924
 
        self.branch.fetch(branch, last_revision=merger.other_rev_id)
925
 
        merger.other_basis = merger.other_rev_id
926
 
        merger.other_tree = self.branch.repository.revision_tree(
927
 
            merger.other_rev_id)
928
 
        merger.other_branch = branch
929
 
        if from_revision is None:
 
802
        pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
803
        try:
 
804
            merger = Merger(self.branch, this_tree=self, pb=pb)
 
805
            merger.pp = ProgressPhase("Merge phase", 5, pb)
 
806
            merger.pp.next_phase()
 
807
            # check that there are no
 
808
            # local alterations
 
809
            merger.check_basis(check_clean=True, require_commits=False)
 
810
            if to_revision is None:
 
811
                to_revision = branch.last_revision()
 
812
            else:
 
813
                to_revision = osutils.safe_revision_id(to_revision)
 
814
            merger.other_rev_id = to_revision
 
815
            if merger.other_rev_id is None:
 
816
                raise errors.NoCommits(branch)
 
817
            self.branch.fetch(branch, last_revision=merger.other_rev_id)
 
818
            merger.other_basis = merger.other_rev_id
 
819
            merger.other_tree = self.branch.repository.revision_tree(
 
820
                merger.other_rev_id)
 
821
            merger.other_branch = branch
 
822
            merger.pp.next_phase()
930
823
            merger.find_base()
931
 
        else:
932
 
            merger.set_base_revision(from_revision, branch)
933
 
        if merger.base_rev_id == merger.other_rev_id:
934
 
            raise errors.PointlessMerge
935
 
        merger.backup_files = False
936
 
        if merge_type is None:
 
824
            if merger.base_rev_id == merger.other_rev_id:
 
825
                raise errors.PointlessMerge
 
826
            merger.backup_files = False
937
827
            merger.merge_type = Merge3Merger
938
 
        else:
939
 
            merger.merge_type = merge_type
940
 
        merger.set_interesting_files(None)
941
 
        merger.show_base = False
942
 
        merger.reprocess = False
943
 
        conflicts = merger.do_merge()
944
 
        merger.set_pending()
 
828
            merger.set_interesting_files(None)
 
829
            merger.show_base = False
 
830
            merger.reprocess = False
 
831
            conflicts = merger.do_merge()
 
832
            merger.set_pending()
 
833
        finally:
 
834
            pb.finished()
945
835
        return conflicts
946
836
 
947
837
    @needs_read_lock
948
838
    def merge_modified(self):
949
839
        """Return a dictionary of files modified by a merge.
950
840
 
951
 
        The list is initialized by WorkingTree.set_merge_modified, which is
 
841
        The list is initialized by WorkingTree.set_merge_modified, which is 
952
842
        typically called after we make some automatic updates to the tree
953
843
        because of a merge.
954
844
 
956
846
        still in the working inventory and have that text hash.
957
847
        """
958
848
        try:
959
 
            hashfile = self._transport.get('merge-hashes')
 
849
            hashfile = self._control_files.get('merge-hashes')
960
850
        except errors.NoSuchFile:
961
851
            return {}
 
852
        merge_hashes = {}
962
853
        try:
963
 
            merge_hashes = {}
964
 
            try:
965
 
                if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
966
 
                    raise errors.MergeModifiedFormatError()
967
 
            except StopIteration:
 
854
            if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
968
855
                raise errors.MergeModifiedFormatError()
969
 
            for s in RioReader(hashfile):
970
 
                # RioReader reads in Unicode, so convert file_ids back to utf8
971
 
                file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
972
 
                if file_id not in self.inventory:
973
 
                    continue
974
 
                text_hash = s.get("hash")
975
 
                if text_hash == self.get_file_sha1(file_id):
976
 
                    merge_hashes[file_id] = text_hash
977
 
            return merge_hashes
978
 
        finally:
979
 
            hashfile.close()
 
856
        except StopIteration:
 
857
            raise errors.MergeModifiedFormatError()
 
858
        for s in RioReader(hashfile):
 
859
            # RioReader reads in Unicode, so convert file_ids back to utf8
 
860
            file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
 
861
            if file_id not in self.inventory:
 
862
                continue
 
863
            text_hash = s.get("hash")
 
864
            if text_hash == self.get_file_sha1(file_id):
 
865
                merge_hashes[file_id] = text_hash
 
866
        return merge_hashes
980
867
 
981
868
    @needs_write_lock
982
869
    def mkdir(self, path, file_id=None):
988
875
        return file_id
989
876
 
990
877
    def get_symlink_target(self, file_id):
991
 
        abspath = self.id2abspath(file_id)
992
 
        target = osutils.readlink(abspath)
993
 
        return target
 
878
        file_id = osutils.safe_file_id(file_id)
 
879
        return os.readlink(self.id2abspath(file_id))
994
880
 
995
881
    @needs_write_lock
996
882
    def subsume(self, other_tree):
1034
920
            other_tree.unlock()
1035
921
        other_tree.bzrdir.retire_bzrdir()
1036
922
 
1037
 
    def _setup_directory_is_tree_reference(self):
1038
 
        if self._branch.repository._format.supports_tree_reference:
1039
 
            self._directory_is_tree_reference = \
1040
 
                self._directory_may_be_tree_reference
1041
 
        else:
1042
 
            self._directory_is_tree_reference = \
1043
 
                self._directory_is_never_tree_reference
1044
 
 
1045
 
    def _directory_is_never_tree_reference(self, relpath):
1046
 
        return False
1047
 
 
1048
 
    def _directory_may_be_tree_reference(self, relpath):
1049
 
        # as a special case, if a directory contains control files then
1050
 
        # it's a tree reference, except that the root of the tree is not
1051
 
        return relpath and osutils.isdir(self.abspath(relpath) + u"/.bzr")
1052
 
        # TODO: We could ask all the control formats whether they
1053
 
        # recognize this directory, but at the moment there's no cheap api
1054
 
        # to do that.  Since we probably can only nest bzr checkouts and
1055
 
        # they always use this name it's ok for now.  -- mbp 20060306
1056
 
        #
1057
 
        # FIXME: There is an unhandled case here of a subdirectory
1058
 
        # containing .bzr but not a branch; that will probably blow up
1059
 
        # when you try to commit it.  It might happen if there is a
1060
 
        # checkout in a subdirectory.  This can be avoided by not adding
1061
 
        # it.  mbp 20070306
1062
 
 
1063
923
    @needs_tree_write_lock
1064
924
    def extract(self, file_id, format=None):
1065
925
        """Extract a subtree from this tree.
1066
 
 
 
926
        
1067
927
        A new branch will be created, relative to the path for this tree.
1068
928
        """
1069
929
        self.flush()
1074
934
                transport = transport.clone(name)
1075
935
                transport.ensure_base()
1076
936
            return transport
1077
 
 
 
937
            
1078
938
        sub_path = self.id2path(file_id)
1079
939
        branch_transport = mkdirs(sub_path)
1080
940
        if format is None:
1081
 
            format = self.bzrdir.cloning_metadir()
 
941
            format = bzrdir.format_registry.make_bzrdir('dirstate-with-subtree')
1082
942
        branch_transport.ensure_base()
1083
943
        branch_bzrdir = format.initialize_on_transport(branch_transport)
1084
944
        try:
1085
945
            repo = branch_bzrdir.find_repository()
1086
946
        except errors.NoRepositoryPresent:
1087
947
            repo = branch_bzrdir.create_repository()
1088
 
        if not repo.supports_rich_root():
1089
 
            raise errors.RootNotRich()
 
948
            assert repo.supports_rich_root()
 
949
        else:
 
950
            if not repo.supports_rich_root():
 
951
                raise errors.RootNotRich()
1090
952
        new_branch = branch_bzrdir.create_branch()
1091
953
        new_branch.pull(self.branch)
1092
954
        for parent_id in self.get_parent_ids():
1097
959
            branch.BranchReferenceFormat().initialize(tree_bzrdir, new_branch)
1098
960
        else:
1099
961
            tree_bzrdir = branch_bzrdir
1100
 
        wt = tree_bzrdir.create_workingtree(_mod_revision.NULL_REVISION)
 
962
        wt = tree_bzrdir.create_workingtree(NULL_REVISION)
1101
963
        wt.set_parent_ids(self.get_parent_ids())
1102
964
        my_inv = self.inventory
1103
 
        child_inv = inventory.Inventory(root_id=None)
 
965
        child_inv = Inventory(root_id=None)
1104
966
        new_root = my_inv[file_id]
1105
967
        my_inv.remove_recursive_id(file_id)
1106
968
        new_root.parent_id = None
1110
972
        return wt
1111
973
 
1112
974
    def _serialize(self, inventory, out_file):
1113
 
        xml5.serializer_v5.write_inventory(self._inventory, out_file,
1114
 
            working=True)
 
975
        xml5.serializer_v5.write_inventory(self._inventory, out_file)
1115
976
 
1116
977
    def _deserialize(selt, in_file):
1117
978
        return xml5.serializer_v5.read_inventory(in_file)
1124
985
        sio = StringIO()
1125
986
        self._serialize(self._inventory, sio)
1126
987
        sio.seek(0)
1127
 
        self._transport.put_file('inventory', sio,
1128
 
            mode=self.bzrdir._get_file_mode())
 
988
        self._control_files.put('inventory', sio)
1129
989
        self._inventory_is_modified = False
1130
990
 
1131
991
    def _kind(self, relpath):
1132
992
        return osutils.file_kind(self.abspath(relpath))
1133
993
 
1134
 
    def list_files(self, include_root=False, from_dir=None, recursive=True):
1135
 
        """List all files as (path, class, kind, id, entry).
 
994
    def list_files(self, include_root=False):
 
995
        """Recursively list all files as (path, class, kind, id, entry).
1136
996
 
1137
997
        Lists, but does not descend into unversioned directories.
 
998
 
1138
999
        This does not include files that have been deleted in this
1139
 
        tree. Skips the control directory.
 
1000
        tree.
1140
1001
 
1141
 
        :param include_root: if True, do not return an entry for the root
1142
 
        :param from_dir: start from this directory or None for the root
1143
 
        :param recursive: whether to recurse into subdirectories or not
 
1002
        Skips the control directory.
1144
1003
        """
1145
1004
        # list_files is an iterator, so @needs_read_lock doesn't work properly
1146
1005
        # with it. So callers should be careful to always read_lock the tree.
1148
1007
            raise errors.ObjectNotLocked(self)
1149
1008
 
1150
1009
        inv = self.inventory
1151
 
        if from_dir is None and include_root is True:
 
1010
        if include_root is True:
1152
1011
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
1153
1012
        # Convert these into local objects to save lookup times
1154
1013
        pathjoin = osutils.pathjoin
1161
1020
        fk_entries = {'directory':TreeDirectory, 'file':TreeFile, 'symlink':TreeLink}
1162
1021
 
1163
1022
        # directory file_id, relative path, absolute path, reverse sorted children
1164
 
        if from_dir is not None:
1165
 
            from_dir_id = inv.path2id(from_dir)
1166
 
            if from_dir_id is None:
1167
 
                # Directory not versioned
1168
 
                return
1169
 
            from_dir_abspath = pathjoin(self.basedir, from_dir)
1170
 
        else:
1171
 
            from_dir_id = inv.root.file_id
1172
 
            from_dir_abspath = self.basedir
1173
 
        children = os.listdir(from_dir_abspath)
 
1023
        children = os.listdir(self.basedir)
1174
1024
        children.sort()
1175
 
        # jam 20060527 The kernel sized tree seems equivalent whether we
 
1025
        # jam 20060527 The kernel sized tree seems equivalent whether we 
1176
1026
        # use a deque and popleft to keep them sorted, or if we use a plain
1177
1027
        # list and just reverse() them.
1178
1028
        children = collections.deque(children)
1179
 
        stack = [(from_dir_id, u'', from_dir_abspath, children)]
 
1029
        stack = [(inv.root.file_id, u'', self.basedir, children)]
1180
1030
        while stack:
1181
1031
            from_dir_id, from_dir_relpath, from_dir_abspath, children = stack[-1]
1182
1032
 
1198
1048
 
1199
1049
                # absolute path
1200
1050
                fap = from_dir_abspath + '/' + f
1201
 
 
 
1051
                
1202
1052
                f_ie = inv.get_child(from_dir_id, f)
1203
1053
                if f_ie:
1204
1054
                    c = 'V'
1236
1086
                    except KeyError:
1237
1087
                        yield fp[1:], c, fk, None, TreeEntry()
1238
1088
                    continue
1239
 
 
 
1089
                
1240
1090
                if fk != 'directory':
1241
1091
                    continue
1242
1092
 
1243
 
                # But do this child first if recursing down
1244
 
                if recursive:
1245
 
                    new_children = os.listdir(fap)
1246
 
                    new_children.sort()
1247
 
                    new_children = collections.deque(new_children)
1248
 
                    stack.append((f_ie.file_id, fp, fap, new_children))
1249
 
                    # Break out of inner loop,
1250
 
                    # so that we start outer loop with child
1251
 
                    break
 
1093
                # But do this child first
 
1094
                new_children = os.listdir(fap)
 
1095
                new_children.sort()
 
1096
                new_children = collections.deque(new_children)
 
1097
                stack.append((f_ie.file_id, fp, fap, new_children))
 
1098
                # Break out of inner loop,
 
1099
                # so that we start outer loop with child
 
1100
                break
1252
1101
            else:
1253
1102
                # if we finished all children, pop it off the stack
1254
1103
                stack.pop()
1260
1109
        to_dir must exist in the inventory.
1261
1110
 
1262
1111
        If to_dir exists and is a directory, the files are moved into
1263
 
        it, keeping their old names.
 
1112
        it, keeping their old names.  
1264
1113
 
1265
1114
        Note that to_dir is only the last component of the new name;
1266
1115
        this doesn't change the directory.
1303
1152
                                       DeprecationWarning)
1304
1153
 
1305
1154
        # check destination directory
1306
 
        if isinstance(from_paths, basestring):
1307
 
            raise ValueError()
 
1155
        assert not isinstance(from_paths, basestring)
1308
1156
        inv = self.inventory
1309
1157
        to_abs = self.abspath(to_dir)
1310
1158
        if not isdir(to_abs):
1394
1242
                only_change_inv = True
1395
1243
            elif self.has_filename(from_rel) and not self.has_filename(to_rel):
1396
1244
                only_change_inv = False
1397
 
            elif (not self.case_sensitive
1398
 
                  and from_rel.lower() == to_rel.lower()
1399
 
                  and self.has_filename(from_rel)):
1400
 
                only_change_inv = False
1401
1245
            else:
1402
1246
                # something is wrong, so lets determine what exactly
1403
1247
                if not self.has_filename(from_rel) and \
1406
1250
                        errors.PathsDoNotExist(paths=(str(from_rel),
1407
1251
                        str(to_rel))))
1408
1252
                else:
1409
 
                    raise errors.RenameFailedFilesExist(from_rel, to_rel)
 
1253
                    raise errors.RenameFailedFilesExist(from_rel, to_rel,
 
1254
                        extra="(Use --after to update the Bazaar id)")
1410
1255
            rename_entry.only_change_inv = only_change_inv
1411
1256
        return rename_entries
1412
1257
 
1432
1277
        inv = self.inventory
1433
1278
        for entry in moved:
1434
1279
            try:
1435
 
                self._move_entry(WorkingTree._RenameEntry(
1436
 
                    entry.to_rel, entry.from_id,
 
1280
                self._move_entry(_RenameEntry(entry.to_rel, entry.from_id,
1437
1281
                    entry.to_tail, entry.to_parent_id, entry.from_rel,
1438
1282
                    entry.from_tail, entry.from_parent_id,
1439
1283
                    entry.only_change_inv))
1490
1334
        from_tail = splitpath(from_rel)[-1]
1491
1335
        from_id = inv.path2id(from_rel)
1492
1336
        if from_id is None:
1493
 
            # if file is missing in the inventory maybe it's in the basis_tree
1494
 
            basis_tree = self.branch.basis_tree()
1495
 
            from_id = basis_tree.path2id(from_rel)
1496
 
            if from_id is None:
1497
 
                raise errors.BzrRenameFailedError(from_rel,to_rel,
1498
 
                    errors.NotVersionedError(path=str(from_rel)))
1499
 
            # put entry back in the inventory so we can rename it
1500
 
            from_entry = basis_tree.inventory[from_id].copy()
1501
 
            inv.add(from_entry)
1502
 
        else:
1503
 
            from_entry = inv[from_id]
 
1337
            raise errors.BzrRenameFailedError(from_rel,to_rel,
 
1338
                errors.NotVersionedError(path=str(from_rel)))
 
1339
        from_entry = inv[from_id]
1504
1340
        from_parent_id = from_entry.parent_id
1505
1341
        to_dir, to_tail = os.path.split(to_rel)
1506
1342
        to_dir_id = inv.path2id(to_dir)
1552
1388
        These are files in the working directory that are not versioned or
1553
1389
        control files or ignored.
1554
1390
        """
1555
 
        # force the extras method to be fully executed before returning, to
 
1391
        # force the extras method to be fully executed before returning, to 
1556
1392
        # prevent race conditions with the lock
1557
1393
        return iter(
1558
1394
            [subp for subp in self.extras() if not self.is_ignored(subp)])
1568
1404
        :raises: NoSuchId if any fileid is not currently versioned.
1569
1405
        """
1570
1406
        for file_id in file_ids:
1571
 
            if file_id not in self._inventory:
1572
 
                raise errors.NoSuchId(self, file_id)
1573
 
        for file_id in file_ids:
 
1407
            file_id = osutils.safe_file_id(file_id)
1574
1408
            if self._inventory.has_id(file_id):
1575
1409
                self._inventory.remove_recursive_id(file_id)
 
1410
            else:
 
1411
                raise errors.NoSuchId(self, file_id)
1576
1412
        if len(file_ids):
1577
 
            # in the future this should just set a dirty bit to wait for the
 
1413
            # in the future this should just set a dirty bit to wait for the 
1578
1414
            # final unlock. However, until all methods of workingtree start
1579
 
            # with the current in -memory inventory rather than triggering
 
1415
            # with the current in -memory inventory rather than triggering 
1580
1416
            # a read, it is more complex - we need to teach read_inventory
1581
1417
            # to know when to read, and when to not read first... and possibly
1582
1418
            # to save first when the in memory one may be corrupted.
1583
1419
            # so for now, we just only write it if it is indeed dirty.
1584
1420
            # - RBC 20060907
1585
1421
            self._write_inventory(self._inventory)
 
1422
    
 
1423
    @deprecated_method(zero_eight)
 
1424
    def iter_conflicts(self):
 
1425
        """List all files in the tree that have text or content conflicts.
 
1426
        DEPRECATED.  Use conflicts instead."""
 
1427
        return self._iter_conflicts()
1586
1428
 
1587
1429
    def _iter_conflicts(self):
1588
1430
        conflicted = set()
1597
1439
 
1598
1440
    @needs_write_lock
1599
1441
    def pull(self, source, overwrite=False, stop_revision=None,
1600
 
             change_reporter=None, possible_transports=None, local=False):
 
1442
             change_reporter=None):
 
1443
        top_pb = bzrlib.ui.ui_factory.nested_progress_bar()
1601
1444
        source.lock_read()
1602
1445
        try:
 
1446
            pp = ProgressPhase("Pull phase", 2, top_pb)
 
1447
            pp.next_phase()
1603
1448
            old_revision_info = self.branch.last_revision_info()
1604
1449
            basis_tree = self.basis_tree()
1605
 
            count = self.branch.pull(source, overwrite, stop_revision,
1606
 
                                     possible_transports=possible_transports,
1607
 
                                     local=local)
 
1450
            count = self.branch.pull(source, overwrite, stop_revision)
1608
1451
            new_revision_info = self.branch.last_revision_info()
1609
1452
            if new_revision_info != old_revision_info:
 
1453
                pp.next_phase()
1610
1454
                repository = self.branch.repository
 
1455
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
1611
1456
                basis_tree.lock_read()
1612
1457
                try:
1613
1458
                    new_basis_tree = self.branch.basis_tree()
1616
1461
                                new_basis_tree,
1617
1462
                                basis_tree,
1618
1463
                                this_tree=self,
1619
 
                                pb=None,
 
1464
                                pb=pb,
1620
1465
                                change_reporter=change_reporter)
1621
 
                    basis_root_id = basis_tree.get_root_id()
1622
 
                    new_root_id = new_basis_tree.get_root_id()
1623
 
                    if basis_root_id != new_root_id:
1624
 
                        self.set_root_id(new_root_id)
 
1466
                    if (basis_tree.inventory.root is None and
 
1467
                        new_basis_tree.inventory.root is not None):
 
1468
                        self.set_root_id(new_basis_tree.inventory.root.file_id)
1625
1469
                finally:
 
1470
                    pb.finished()
1626
1471
                    basis_tree.unlock()
1627
1472
                # TODO - dedup parents list with things merged by pull ?
1628
1473
                # reuse the revisiontree we merged against to set the new
1629
1474
                # tree data.
1630
1475
                parent_trees = [(self.branch.last_revision(), new_basis_tree)]
1631
 
                # we have to pull the merge trees out again, because
1632
 
                # merge_inner has set the ids. - this corner is not yet
 
1476
                # we have to pull the merge trees out again, because 
 
1477
                # merge_inner has set the ids. - this corner is not yet 
1633
1478
                # layered well enough to prevent double handling.
1634
1479
                # XXX TODO: Fix the double handling: telling the tree about
1635
1480
                # the already known parent data is wasteful.
1641
1486
            return count
1642
1487
        finally:
1643
1488
            source.unlock()
 
1489
            top_pb.finished()
1644
1490
 
1645
1491
    @needs_write_lock
1646
1492
    def put_file_bytes_non_atomic(self, file_id, bytes):
1647
1493
        """See MutableTree.put_file_bytes_non_atomic."""
 
1494
        file_id = osutils.safe_file_id(file_id)
1648
1495
        stream = file(self.id2abspath(file_id), 'wb')
1649
1496
        try:
1650
1497
            stream.write(bytes)
1672
1519
 
1673
1520
            fl = []
1674
1521
            for subf in os.listdir(dirabs):
1675
 
                if self.bzrdir.is_control_filename(subf):
 
1522
                if subf == '.bzr':
1676
1523
                    continue
1677
1524
                if subf not in dir_entry.children:
1678
 
                    try:
1679
 
                        (subf_norm,
1680
 
                         can_access) = osutils.normalized_filename(subf)
1681
 
                    except UnicodeDecodeError:
1682
 
                        path_os_enc = path.encode(osutils._fs_enc)
1683
 
                        relpath = path_os_enc + '/' + subf
1684
 
                        raise errors.BadFilenameEncoding(relpath,
1685
 
                                                         osutils._fs_enc)
 
1525
                    subf_norm, can_access = osutils.normalized_filename(subf)
1686
1526
                    if subf_norm != subf and can_access:
1687
1527
                        if subf_norm not in dir_entry.children:
1688
1528
                            fl.append(subf_norm)
1689
1529
                    else:
1690
1530
                        fl.append(subf)
1691
 
 
 
1531
            
1692
1532
            fl.sort()
1693
1533
            for subf in fl:
1694
1534
                subp = pathjoin(path, subf)
1710
1550
        if ignoreset is not None:
1711
1551
            return ignoreset
1712
1552
 
1713
 
        ignore_globs = set()
 
1553
        ignore_globs = set(bzrlib.DEFAULT_IGNORE)
1714
1554
        ignore_globs.update(ignores.get_runtime_ignores())
1715
1555
        ignore_globs.update(ignores.get_user_ignores())
1716
1556
        if self.has_filename(bzrlib.IGNORE_FILENAME):
1731
1571
        r"""Check whether the filename matches an ignore pattern.
1732
1572
 
1733
1573
        Patterns containing '/' or '\' need to match the whole path;
1734
 
        others match against only the last component.  Patterns starting
1735
 
        with '!' are ignore exceptions.  Exceptions take precedence
1736
 
        over regular patterns and cause the filename to not be ignored.
 
1574
        others match against only the last component.
1737
1575
 
1738
1576
        If the file is ignored, returns the pattern which caused it to
1739
1577
        be ignored, otherwise None.  So this can simply be used as a
1740
1578
        boolean if desired."""
1741
1579
        if getattr(self, '_ignoreglobster', None) is None:
1742
 
            self._ignoreglobster = globbing.ExceptionGlobster(self.get_ignore_list())
 
1580
            self._ignoreglobster = globbing.Globster(self.get_ignore_list())
1743
1581
        return self._ignoreglobster.match(filename)
1744
1582
 
1745
1583
    def kind(self, file_id):
1746
1584
        return file_kind(self.id2abspath(file_id))
1747
1585
 
1748
 
    def stored_kind(self, file_id):
1749
 
        """See Tree.stored_kind"""
1750
 
        return self.inventory[file_id].kind
1751
 
 
1752
1586
    def _comparison_data(self, entry, path):
1753
1587
        abspath = self.abspath(path)
1754
1588
        try:
1785
1619
    @needs_read_lock
1786
1620
    def _last_revision(self):
1787
1621
        """helper for get_parent_ids."""
1788
 
        return _mod_revision.ensure_null(self.branch.last_revision())
 
1622
        return self.branch.last_revision()
1789
1623
 
1790
1624
    def is_locked(self):
1791
1625
        return self._control_files.is_locked()
1836
1670
    def _reset_data(self):
1837
1671
        """Reset transient data that cannot be revalidated."""
1838
1672
        self._inventory_is_modified = False
1839
 
        f = self._transport.get('inventory')
1840
 
        try:
1841
 
            result = self._deserialize(f)
1842
 
        finally:
1843
 
            f.close()
 
1673
        result = self._deserialize(self._control_files.get('inventory'))
1844
1674
        self._set_inventory(result, dirty=False)
1845
1675
 
1846
1676
    @needs_tree_write_lock
1847
1677
    def set_last_revision(self, new_revision):
1848
1678
        """Change the last revision in the working tree."""
 
1679
        new_revision = osutils.safe_revision_id(new_revision)
1849
1680
        if self._change_last_revision(new_revision):
1850
1681
            self._cache_basis_inventory(new_revision)
1851
1682
 
1852
1683
    def _change_last_revision(self, new_revision):
1853
1684
        """Template method part of set_last_revision to perform the change.
1854
 
 
 
1685
        
1855
1686
        This is used to allow WorkingTree3 instances to not affect branch
1856
1687
        when their last revision is set.
1857
1688
        """
1858
 
        if _mod_revision.is_null(new_revision):
 
1689
        if new_revision is None:
1859
1690
            self.branch.set_revision_history([])
1860
1691
            return False
1861
1692
        try:
1867
1698
 
1868
1699
    def _write_basis_inventory(self, xml):
1869
1700
        """Write the basis inventory XML to the basis-inventory file"""
 
1701
        assert isinstance(xml, str), 'serialised xml must be bytestring.'
1870
1702
        path = self._basis_inventory_name()
1871
1703
        sio = StringIO(xml)
1872
 
        self._transport.put_file(path, sio,
1873
 
            mode=self.bzrdir._get_file_mode())
 
1704
        self._control_files.put(path, sio)
1874
1705
 
1875
1706
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
1876
1707
        """Create the text that will be saved in basis-inventory"""
1877
 
        inventory.revision_id = revision_id
 
1708
        # TODO: jam 20070209 This should be redundant, as the revision_id
 
1709
        #       as all callers should have already converted the revision_id to
 
1710
        #       utf8
 
1711
        inventory.revision_id = osutils.safe_revision_id(revision_id)
1878
1712
        return xml7.serializer_v7.write_inventory_to_string(inventory)
1879
1713
 
1880
1714
    def _cache_basis_inventory(self, new_revision):
1883
1717
        # as commit already has that ready-to-use [while the format is the
1884
1718
        # same, that is].
1885
1719
        try:
1886
 
            # this double handles the inventory - unpack and repack -
 
1720
            # this double handles the inventory - unpack and repack - 
1887
1721
            # but is easier to understand. We can/should put a conditional
1888
1722
            # in here based on whether the inventory is in the latest format
1889
1723
            # - perhaps we should repack all inventories on a repository
1890
1724
            # upgrade ?
1891
1725
            # the fast path is to copy the raw xml from the repository. If the
1892
 
            # xml contains 'revision_id="', then we assume the right
 
1726
            # xml contains 'revision_id="', then we assume the right 
1893
1727
            # revision_id is set. We must check for this full string, because a
1894
1728
            # root node id can legitimately look like 'revision_id' but cannot
1895
1729
            # contain a '"'.
1896
 
            xml = self.branch.repository._get_inventory_xml(new_revision)
 
1730
            xml = self.branch.repository.get_inventory_xml(new_revision)
1897
1731
            firstline = xml.split('\n', 1)[0]
1898
 
            if (not 'revision_id="' in firstline or
 
1732
            if (not 'revision_id="' in firstline or 
1899
1733
                'format="7"' not in firstline):
1900
 
                inv = self.branch.repository._serializer.read_inventory_from_string(
1901
 
                    xml, new_revision)
 
1734
                inv = self.branch.repository.deserialise_inventory(
 
1735
                    new_revision, xml)
1902
1736
                xml = self._create_basis_xml_from_inventory(new_revision, inv)
1903
1737
            self._write_basis_inventory(xml)
1904
1738
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
1907
1741
    def read_basis_inventory(self):
1908
1742
        """Read the cached basis inventory."""
1909
1743
        path = self._basis_inventory_name()
1910
 
        return self._transport.get_bytes(path)
1911
 
 
 
1744
        return self._control_files.get(path).read()
 
1745
        
1912
1746
    @needs_read_lock
1913
1747
    def read_working_inventory(self):
1914
1748
        """Read the working inventory.
1915
 
 
 
1749
        
1916
1750
        :raises errors.InventoryModified: read_working_inventory will fail
1917
1751
            when the current in memory inventory has been modified.
1918
1752
        """
1919
 
        # conceptually this should be an implementation detail of the tree.
 
1753
        # conceptually this should be an implementation detail of the tree. 
1920
1754
        # XXX: Deprecate this.
1921
1755
        # ElementTree does its own conversion from UTF-8, so open in
1922
1756
        # binary.
1923
1757
        if self._inventory_is_modified:
1924
1758
            raise errors.InventoryModified(self)
1925
 
        f = self._transport.get('inventory')
1926
 
        try:
1927
 
            result = self._deserialize(f)
1928
 
        finally:
1929
 
            f.close()
 
1759
        result = self._deserialize(self._control_files.get('inventory'))
1930
1760
        self._set_inventory(result, dirty=False)
1931
1761
        return result
1932
1762
 
1933
1763
    @needs_tree_write_lock
1934
1764
    def remove(self, files, verbose=False, to_file=None, keep_files=True,
1935
1765
        force=False):
1936
 
        """Remove nominated files from the working inventory.
 
1766
        """Remove nominated files from the working inventor.
1937
1767
 
1938
1768
        :files: File paths relative to the basedir.
1939
1769
        :keep_files: If true, the files will also be kept.
1940
1770
        :force: Delete files and directories, even if they are changed and
1941
1771
            even if the directories are not empty.
1942
1772
        """
 
1773
        ## TODO: Normalize names
 
1774
 
1943
1775
        if isinstance(files, basestring):
1944
1776
            files = [files]
1945
1777
 
1946
1778
        inv_delta = []
1947
1779
 
1948
1780
        new_files=set()
1949
 
        unknown_nested_files=set()
1950
 
        if to_file is None:
1951
 
            to_file = sys.stdout
 
1781
        unknown_files_in_directory=set()
1952
1782
 
1953
1783
        def recurse_directory_to_add_files(directory):
1954
 
            # Recurse directory and add all files
 
1784
            # recurse directory and add all files
1955
1785
            # so we can check if they have changed.
1956
1786
            for parent_info, file_infos in\
1957
 
                self.walkdirs(directory):
1958
 
                for relpath, basename, kind, lstat, fileid, kind in file_infos:
1959
 
                    # Is it versioned or ignored?
1960
 
                    if self.path2id(relpath) or self.is_ignored(relpath):
1961
 
                        # Add nested content for deletion.
1962
 
                        new_files.add(relpath)
1963
 
                    else:
1964
 
                        # Files which are not versioned and not ignored
1965
 
                        # should be treated as unknown.
1966
 
                        unknown_nested_files.add((relpath, None, kind))
 
1787
                osutils.walkdirs(self.abspath(directory),
 
1788
                    directory):
 
1789
                for relpath, basename, kind, lstat, abspath in file_infos:
 
1790
                    if kind == 'file':
 
1791
                        if self.path2id(relpath): #is it versioned?
 
1792
                            new_files.add(relpath)
 
1793
                        else:
 
1794
                            unknown_files_in_directory.add(
 
1795
                                (relpath, None, kind))
1967
1796
 
1968
1797
        for filename in files:
1969
1798
            # Get file name into canonical form.
1971
1800
            filename = self.relpath(abspath)
1972
1801
            if len(filename) > 0:
1973
1802
                new_files.add(filename)
1974
 
                recurse_directory_to_add_files(filename)
1975
 
 
1976
 
        files = list(new_files)
1977
 
 
1978
 
        if len(files) == 0:
1979
 
            return # nothing to do
 
1803
                if osutils.isdir(abspath):
 
1804
                    recurse_directory_to_add_files(filename)
 
1805
        files = [f for f in new_files]
1980
1806
 
1981
1807
        # Sort needed to first handle directory content before the directory
1982
1808
        files.sort(reverse=True)
1983
 
 
1984
 
        # Bail out if we are going to delete files we shouldn't
1985
1809
        if not keep_files and not force:
1986
 
            has_changed_files = len(unknown_nested_files) > 0
1987
 
            if not has_changed_files:
1988
 
                for (file_id, path, content_change, versioned, parent_id, name,
1989
 
                     kind, executable) in self.iter_changes(self.basis_tree(),
1990
 
                         include_unchanged=True, require_versioned=False,
1991
 
                         want_unversioned=True, specific_files=files):
1992
 
                    if versioned == (False, False):
1993
 
                        # The record is unknown ...
1994
 
                        if not self.is_ignored(path[1]):
1995
 
                            # ... but not ignored
1996
 
                            has_changed_files = True
1997
 
                            break
1998
 
                    elif content_change and (kind[1] is not None):
1999
 
                        # Versioned and changed, but not deleted
2000
 
                        has_changed_files = True
2001
 
                        break
2002
 
 
2003
 
            if has_changed_files:
2004
 
                # Make delta show ALL applicable changes in error message.
2005
 
                tree_delta = self.changes_from(self.basis_tree(),
2006
 
                    require_versioned=False, want_unversioned=True,
2007
 
                    specific_files=files)
2008
 
                for unknown_file in unknown_nested_files:
2009
 
                    if unknown_file not in tree_delta.unversioned:
2010
 
                        tree_delta.unversioned.extend((unknown_file,))
 
1810
            tree_delta = self.changes_from(self.basis_tree(),
 
1811
                specific_files=files)
 
1812
            for unknown_file in unknown_files_in_directory:
 
1813
                tree_delta.unversioned.extend((unknown_file,))
 
1814
            if bool(tree_delta.modified
 
1815
                    or tree_delta.added
 
1816
                    or tree_delta.renamed
 
1817
                    or tree_delta.kind_changed
 
1818
                    or tree_delta.unversioned):
2011
1819
                raise errors.BzrRemoveChangedFilesError(tree_delta)
2012
1820
 
2013
 
        # Build inv_delta and delete files where applicable,
2014
 
        # do this before any modifications to inventory.
 
1821
        # do this before any modifications
2015
1822
        for f in files:
2016
1823
            fid = self.path2id(f)
2017
 
            message = None
 
1824
            message=None
2018
1825
            if not fid:
2019
 
                message = "%s is not versioned." % (f,)
 
1826
                message="%s is not versioned." % (f,)
2020
1827
            else:
2021
1828
                if verbose:
2022
1829
                    # having removed it, it must be either ignored or unknown
2024
1831
                        new_status = 'I'
2025
1832
                    else:
2026
1833
                        new_status = '?'
2027
 
                    # XXX: Really should be a more abstract reporter interface
2028
 
                    kind_ch = osutils.kind_marker(self.kind(fid))
2029
 
                    to_file.write(new_status + '       ' + f + kind_ch + '\n')
2030
 
                # Unversion file
 
1834
                    textui.show_status(new_status, self.kind(fid), f,
 
1835
                                       to_file=to_file)
 
1836
                # unversion file
2031
1837
                inv_delta.append((f, None, fid, None))
2032
 
                message = "removed %s" % (f,)
 
1838
                message="removed %s" % (f,)
2033
1839
 
2034
1840
            if not keep_files:
2035
1841
                abs_path = self.abspath(f)
2036
1842
                if osutils.lexists(abs_path):
2037
1843
                    if (osutils.isdir(abs_path) and
2038
1844
                        len(os.listdir(abs_path)) > 0):
2039
 
                        if force:
2040
 
                            osutils.rmtree(abs_path)
2041
 
                        else:
2042
 
                            message = "%s is not an empty directory "\
2043
 
                                "and won't be deleted." % (f,)
 
1845
                        message="%s is not empty directory "\
 
1846
                            "and won't be deleted." % (f,)
2044
1847
                    else:
2045
1848
                        osutils.delete_any(abs_path)
2046
 
                        message = "deleted %s" % (f,)
 
1849
                        message="deleted %s" % (f,)
2047
1850
                elif message is not None:
2048
 
                    # Only care if we haven't done anything yet.
2049
 
                    message = "%s does not exist." % (f,)
 
1851
                    # only care if we haven't done anything yet.
 
1852
                    message="%s does not exist." % (f,)
2050
1853
 
2051
 
            # Print only one message (if any) per file.
 
1854
            # print only one message (if any) per file.
2052
1855
            if message is not None:
2053
1856
                note(message)
2054
1857
        self.apply_inventory_delta(inv_delta)
2055
1858
 
2056
1859
    @needs_tree_write_lock
2057
 
    def revert(self, filenames=None, old_tree=None, backups=True,
2058
 
               pb=None, report_changes=False):
 
1860
    def revert(self, filenames, old_tree=None, backups=True, 
 
1861
               pb=DummyProgress(), report_changes=False):
2059
1862
        from bzrlib.conflicts import resolve
2060
 
        if filenames == []:
2061
 
            filenames = None
2062
 
            symbol_versioning.warn('Using [] to revert all files is deprecated'
2063
 
                ' as of bzr 0.91.  Please use None (the default) instead.',
2064
 
                DeprecationWarning, stacklevel=2)
2065
1863
        if old_tree is None:
2066
 
            basis_tree = self.basis_tree()
2067
 
            basis_tree.lock_read()
2068
 
            old_tree = basis_tree
 
1864
            old_tree = self.basis_tree()
 
1865
        conflicts = transform.revert(self, old_tree, filenames, backups, pb,
 
1866
                                     report_changes)
 
1867
        if not len(filenames):
 
1868
            self.set_parent_ids(self.get_parent_ids()[:1])
 
1869
            resolve(self)
2069
1870
        else:
2070
 
            basis_tree = None
2071
 
        try:
2072
 
            conflicts = transform.revert(self, old_tree, filenames, backups, pb,
2073
 
                                         report_changes)
2074
 
            if filenames is None and len(self.get_parent_ids()) > 1:
2075
 
                parent_trees = []
2076
 
                last_revision = self.last_revision()
2077
 
                if last_revision != _mod_revision.NULL_REVISION:
2078
 
                    if basis_tree is None:
2079
 
                        basis_tree = self.basis_tree()
2080
 
                        basis_tree.lock_read()
2081
 
                    parent_trees.append((last_revision, basis_tree))
2082
 
                self.set_parent_trees(parent_trees)
2083
 
                resolve(self)
2084
 
            else:
2085
 
                resolve(self, filenames, ignore_misses=True, recursive=True)
2086
 
        finally:
2087
 
            if basis_tree is not None:
2088
 
                basis_tree.unlock()
 
1871
            resolve(self, filenames, ignore_misses=True)
2089
1872
        return conflicts
2090
1873
 
2091
1874
    def revision_tree(self, revision_id):
2118
1901
    def set_inventory(self, new_inventory_list):
2119
1902
        from bzrlib.inventory import (Inventory,
2120
1903
                                      InventoryDirectory,
 
1904
                                      InventoryEntry,
2121
1905
                                      InventoryFile,
2122
1906
                                      InventoryLink)
2123
1907
        inv = Inventory(self.get_root_id())
2125
1909
            name = os.path.basename(path)
2126
1910
            if name == "":
2127
1911
                continue
2128
 
            # fixme, there should be a factory function inv,add_??
 
1912
            # fixme, there should be a factory function inv,add_?? 
2129
1913
            if kind == 'directory':
2130
1914
                inv.add(InventoryDirectory(file_id, name, parent))
2131
1915
            elif kind == 'file':
2139
1923
    @needs_tree_write_lock
2140
1924
    def set_root_id(self, file_id):
2141
1925
        """Set the root id for this tree."""
2142
 
        # for compatability
 
1926
        # for compatability 
2143
1927
        if file_id is None:
2144
 
            raise ValueError(
2145
 
                'WorkingTree.set_root_id with fileid=None')
2146
 
        file_id = osutils.safe_file_id(file_id)
 
1928
            symbol_versioning.warn(symbol_versioning.zero_twelve
 
1929
                % 'WorkingTree.set_root_id with fileid=None',
 
1930
                DeprecationWarning,
 
1931
                stacklevel=3)
 
1932
            file_id = ROOT_ID
 
1933
        else:
 
1934
            file_id = osutils.safe_file_id(file_id)
2147
1935
        self._set_root_id(file_id)
2148
1936
 
2149
1937
    def _set_root_id(self, file_id):
2150
1938
        """Set the root id for this tree, in a format specific manner.
2151
1939
 
2152
 
        :param file_id: The file id to assign to the root. It must not be
 
1940
        :param file_id: The file id to assign to the root. It must not be 
2153
1941
            present in the current inventory or an error will occur. It must
2154
1942
            not be None, but rather a valid file id.
2155
1943
        """
2174
1962
 
2175
1963
    def unlock(self):
2176
1964
        """See Branch.unlock.
2177
 
 
 
1965
        
2178
1966
        WorkingTree locking just uses the Branch locking facilities.
2179
1967
        This is current because all working trees have an embedded branch
2180
1968
        within them. IF in the future, we were to make branch data shareable
2181
 
        between multiple working trees, i.e. via shared storage, then we
 
1969
        between multiple working trees, i.e. via shared storage, then we 
2182
1970
        would probably want to lock both the local tree, and the branch.
2183
1971
        """
2184
1972
        raise NotImplementedError(self.unlock)
2185
1973
 
2186
 
    _marker = object()
2187
 
 
2188
 
    def update(self, change_reporter=None, possible_transports=None,
2189
 
               revision=None, old_tip=_marker):
 
1974
    def update(self):
2190
1975
        """Update a working tree along its branch.
2191
1976
 
2192
1977
        This will update the branch if its bound too, which means we have
2210
1995
        - Merge current state -> basis tree of the master w.r.t. the old tree
2211
1996
          basis.
2212
1997
        - Do a 'normal' merge of the old branch basis if it is relevant.
2213
 
 
2214
 
        :param revision: The target revision to update to. Must be in the
2215
 
            revision history.
2216
 
        :param old_tip: If branch.update() has already been run, the value it
2217
 
            returned (old tip of the branch or None). _marker is used
2218
 
            otherwise.
2219
1998
        """
2220
 
        if self.branch.get_bound_location() is not None:
 
1999
        if self.branch.get_master_branch() is not None:
2221
2000
            self.lock_write()
2222
 
            update_branch = (old_tip is self._marker)
 
2001
            update_branch = True
2223
2002
        else:
2224
2003
            self.lock_tree_write()
2225
2004
            update_branch = False
2226
2005
        try:
2227
2006
            if update_branch:
2228
 
                old_tip = self.branch.update(possible_transports)
 
2007
                old_tip = self.branch.update()
2229
2008
            else:
2230
 
                if old_tip is self._marker:
2231
 
                    old_tip = None
2232
 
            return self._update_tree(old_tip, change_reporter, revision)
 
2009
                old_tip = None
 
2010
            return self._update_tree(old_tip)
2233
2011
        finally:
2234
2012
            self.unlock()
2235
2013
 
2236
2014
    @needs_tree_write_lock
2237
 
    def _update_tree(self, old_tip=None, change_reporter=None, revision=None):
 
2015
    def _update_tree(self, old_tip=None):
2238
2016
        """Update a tree to the master branch.
2239
2017
 
2240
2018
        :param old_tip: if supplied, the previous tip revision the branch,
2246
2024
        # cant set that until we update the working trees last revision to be
2247
2025
        # one from the new branch, because it will just get absorbed by the
2248
2026
        # parent de-duplication logic.
2249
 
        #
 
2027
        # 
2250
2028
        # We MUST save it even if an error occurs, because otherwise the users
2251
2029
        # local work is unreferenced and will appear to have been lost.
2252
 
        #
2253
 
        nb_conflicts = 0
 
2030
        # 
 
2031
        result = 0
2254
2032
        try:
2255
2033
            last_rev = self.get_parent_ids()[0]
2256
2034
        except IndexError:
2257
 
            last_rev = _mod_revision.NULL_REVISION
2258
 
        if revision is None:
2259
 
            revision = self.branch.last_revision()
2260
 
        else:
2261
 
            if revision not in self.branch.revision_history():
2262
 
                raise errors.NoSuchRevision(self.branch, revision)
2263
 
 
2264
 
        old_tip = old_tip or _mod_revision.NULL_REVISION
2265
 
 
2266
 
        if not _mod_revision.is_null(old_tip) and old_tip != last_rev:
2267
 
            # the branch we are bound to was updated
2268
 
            # merge those changes in first
2269
 
            base_tree  = self.basis_tree()
2270
 
            other_tree = self.branch.repository.revision_tree(old_tip)
2271
 
            nb_conflicts = merge.merge_inner(self.branch, other_tree,
2272
 
                                             base_tree, this_tree=self,
2273
 
                                             change_reporter=change_reporter)
2274
 
            if nb_conflicts:
2275
 
                self.add_parent_tree((old_tip, other_tree))
2276
 
                trace.note('Rerun update after fixing the conflicts.')
2277
 
                return nb_conflicts
2278
 
 
2279
 
        if last_rev != _mod_revision.ensure_null(revision):
2280
 
            # the working tree is up to date with the branch
2281
 
            # we can merge the specified revision from master
2282
 
            to_tree = self.branch.repository.revision_tree(revision)
2283
 
            to_root_id = to_tree.get_root_id()
2284
 
 
 
2035
            last_rev = None
 
2036
        if last_rev != self.branch.last_revision():
 
2037
            # merge tree state up to new branch tip.
2285
2038
            basis = self.basis_tree()
2286
2039
            basis.lock_read()
2287
2040
            try:
2288
 
                if (basis.inventory.root is None
2289
 
                    or basis.inventory.root.file_id != to_root_id):
2290
 
                    self.set_root_id(to_root_id)
 
2041
                to_tree = self.branch.basis_tree()
 
2042
                if basis.inventory.root is None:
 
2043
                    self.set_root_id(to_tree.inventory.root.file_id)
2291
2044
                    self.flush()
 
2045
                result += merge.merge_inner(
 
2046
                                      self.branch,
 
2047
                                      to_tree,
 
2048
                                      basis,
 
2049
                                      this_tree=self)
2292
2050
            finally:
2293
2051
                basis.unlock()
2294
 
 
2295
 
            # determine the branch point
2296
 
            graph = self.branch.repository.get_graph()
2297
 
            base_rev_id = graph.find_unique_lca(self.branch.last_revision(),
2298
 
                                                last_rev)
2299
 
            base_tree = self.branch.repository.revision_tree(base_rev_id)
2300
 
 
2301
 
            nb_conflicts = merge.merge_inner(self.branch, to_tree, base_tree,
2302
 
                                             this_tree=self,
2303
 
                                             change_reporter=change_reporter)
2304
 
            self.set_last_revision(revision)
2305
2052
            # TODO - dedup parents list with things merged by pull ?
2306
2053
            # reuse the tree we've updated to to set the basis:
2307
 
            parent_trees = [(revision, to_tree)]
 
2054
            parent_trees = [(self.branch.last_revision(), to_tree)]
2308
2055
            merges = self.get_parent_ids()[1:]
2309
2056
            # Ideally we ask the tree for the trees here, that way the working
2310
 
            # tree can decide whether to give us the entire tree or give us a
 
2057
            # tree can decide whether to give us teh entire tree or give us a
2311
2058
            # lazy initialised tree. dirstate for instance will have the trees
2312
2059
            # in ram already, whereas a last-revision + basis-inventory tree
2313
2060
            # will not, but also does not need them when setting parents.
2314
2061
            for parent in merges:
2315
2062
                parent_trees.append(
2316
2063
                    (parent, self.branch.repository.revision_tree(parent)))
2317
 
            if not _mod_revision.is_null(old_tip):
 
2064
            if old_tip is not None:
2318
2065
                parent_trees.append(
2319
2066
                    (old_tip, self.branch.repository.revision_tree(old_tip)))
2320
2067
            self.set_parent_trees(parent_trees)
2321
2068
            last_rev = parent_trees[0][0]
2322
 
        return nb_conflicts
 
2069
        else:
 
2070
            # the working tree had the same last-revision as the master
 
2071
            # branch did. We may still have pivot local work from the local
 
2072
            # branch into old_tip:
 
2073
            if old_tip is not None:
 
2074
                self.add_parent_tree_id(old_tip)
 
2075
        if old_tip and old_tip != last_rev:
 
2076
            # our last revision was not the prior branch last revision
 
2077
            # and we have converted that last revision to a pending merge.
 
2078
            # base is somewhere between the branch tip now
 
2079
            # and the now pending merge
 
2080
 
 
2081
            # Since we just modified the working tree and inventory, flush out
 
2082
            # the current state, before we modify it again.
 
2083
            # TODO: jam 20070214 WorkingTree3 doesn't require this, dirstate
 
2084
            #       requires it only because TreeTransform directly munges the
 
2085
            #       inventory and calls tree._write_inventory(). Ultimately we
 
2086
            #       should be able to remove this extra flush.
 
2087
            self.flush()
 
2088
            graph = self.branch.repository.get_graph()
 
2089
            base_rev_id = graph.find_unique_lca(self.branch.last_revision(),
 
2090
                                                old_tip)
 
2091
            base_tree = self.branch.repository.revision_tree(base_rev_id)
 
2092
            other_tree = self.branch.repository.revision_tree(old_tip)
 
2093
            result += merge.merge_inner(
 
2094
                                  self.branch,
 
2095
                                  other_tree,
 
2096
                                  base_tree,
 
2097
                                  this_tree=self)
 
2098
        return result
2323
2099
 
2324
2100
    def _write_hashcache_if_dirty(self):
2325
2101
        """Write out the hashcache if it is dirty."""
2409
2185
            current_inv = None
2410
2186
            inv_finished = True
2411
2187
        while not inv_finished or not disk_finished:
2412
 
            if current_disk:
2413
 
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
2414
 
                    cur_disk_dir_content) = current_disk
2415
 
            else:
2416
 
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
2417
 
                    cur_disk_dir_content) = ((None, None), None)
2418
2188
            if not disk_finished:
2419
2189
                # strip out .bzr dirs
2420
 
                if (cur_disk_dir_path_from_top[top_strip_len:] == '' and
2421
 
                    len(cur_disk_dir_content) > 0):
2422
 
                    # osutils.walkdirs can be made nicer -
 
2190
                if current_disk[0][1][top_strip_len:] == '':
 
2191
                    # osutils.walkdirs can be made nicer - 
2423
2192
                    # yield the path-from-prefix rather than the pathjoined
2424
2193
                    # value.
2425
 
                    bzrdir_loc = bisect_left(cur_disk_dir_content,
2426
 
                        ('.bzr', '.bzr'))
2427
 
                    if (bzrdir_loc < len(cur_disk_dir_content)
2428
 
                        and self.bzrdir.is_control_filename(
2429
 
                            cur_disk_dir_content[bzrdir_loc][0])):
 
2194
                    bzrdir_loc = bisect_left(current_disk[1], ('.bzr', '.bzr'))
 
2195
                    if current_disk[1][bzrdir_loc][0] == '.bzr':
2430
2196
                        # we dont yield the contents of, or, .bzr itself.
2431
 
                        del cur_disk_dir_content[bzrdir_loc]
 
2197
                        del current_disk[1][bzrdir_loc]
2432
2198
            if inv_finished:
2433
2199
                # everything is unknown
2434
2200
                direction = 1
2436
2202
                # everything is missing
2437
2203
                direction = -1
2438
2204
            else:
2439
 
                direction = cmp(current_inv[0][0], cur_disk_dir_relpath)
 
2205
                direction = cmp(current_inv[0][0], current_disk[0][0])
2440
2206
            if direction > 0:
2441
2207
                # disk is before inventory - unknown
2442
2208
                dirblock = [(relpath, basename, kind, stat, None, None) for
2443
 
                    relpath, basename, kind, stat, top_path in
2444
 
                    cur_disk_dir_content]
2445
 
                yield (cur_disk_dir_relpath, None), dirblock
 
2209
                    relpath, basename, kind, stat, top_path in current_disk[1]]
 
2210
                yield (current_disk[0][0], None), dirblock
2446
2211
                try:
2447
2212
                    current_disk = disk_iterator.next()
2448
2213
                except StopIteration:
2450
2215
            elif direction < 0:
2451
2216
                # inventory is before disk - missing.
2452
2217
                dirblock = [(relpath, basename, 'unknown', None, fileid, kind)
2453
 
                    for relpath, basename, dkind, stat, fileid, kind in
 
2218
                    for relpath, basename, dkind, stat, fileid, kind in 
2454
2219
                    current_inv[1]]
2455
2220
                yield (current_inv[0][0], current_inv[0][1]), dirblock
2456
2221
                try:
2462
2227
                # merge the inventory and disk data together
2463
2228
                dirblock = []
2464
2229
                for relpath, subiterator in itertools.groupby(sorted(
2465
 
                    current_inv[1] + cur_disk_dir_content,
2466
 
                    key=operator.itemgetter(0)), operator.itemgetter(1)):
 
2230
                    current_inv[1] + current_disk[1], key=operator.itemgetter(0)), operator.itemgetter(1)):
2467
2231
                    path_elements = list(subiterator)
2468
2232
                    if len(path_elements) == 2:
2469
2233
                        inv_row, disk_row = path_elements
2522
2286
                relroot = ""
2523
2287
            # FIXME: stash the node in pending
2524
2288
            entry = inv[top_id]
2525
 
            if entry.kind == 'directory':
2526
 
                for name, child in entry.sorted_children():
2527
 
                    dirblock.append((relroot + name, name, child.kind, None,
2528
 
                        child.file_id, child.kind
2529
 
                        ))
 
2289
            for name, child in entry.sorted_children():
 
2290
                dirblock.append((relroot + name, name, child.kind, None,
 
2291
                    child.file_id, child.kind
 
2292
                    ))
2530
2293
            yield (currentdir[0], entry.file_id), dirblock
2531
2294
            # push the user specified dirs from dirblock
2532
2295
            for dir in reversed(dirblock):
2565
2328
        self.set_conflicts(un_resolved)
2566
2329
        return un_resolved, resolved
2567
2330
 
2568
 
    @needs_read_lock
2569
 
    def _check(self, references):
2570
 
        """Check the tree for consistency.
2571
 
 
2572
 
        :param references: A dict with keys matching the items returned by
2573
 
            self._get_check_refs(), and values from looking those keys up in
2574
 
            the repository.
2575
 
        """
2576
 
        tree_basis = self.basis_tree()
2577
 
        tree_basis.lock_read()
2578
 
        try:
2579
 
            repo_basis = references[('trees', self.last_revision())]
2580
 
            if len(list(repo_basis.iter_changes(tree_basis))) > 0:
2581
 
                raise errors.BzrCheckError(
2582
 
                    "Mismatched basis inventory content.")
2583
 
            self._validate()
2584
 
        finally:
2585
 
            tree_basis.unlock()
2586
 
 
2587
2331
    def _validate(self):
2588
2332
        """Validate internal structures.
2589
2333
 
2595
2339
        """
2596
2340
        return
2597
2341
 
2598
 
    def _get_rules_searcher(self, default_searcher):
2599
 
        """See Tree._get_rules_searcher."""
2600
 
        if self._rules_searcher is None:
2601
 
            self._rules_searcher = super(WorkingTree,
2602
 
                self)._get_rules_searcher(default_searcher)
2603
 
        return self._rules_searcher
2604
 
 
2605
 
    def get_shelf_manager(self):
2606
 
        """Return the ShelfManager for this WorkingTree."""
2607
 
        from bzrlib.shelf import ShelfManager
2608
 
        return ShelfManager(self, self._transport)
2609
 
 
2610
2342
 
2611
2343
class WorkingTree2(WorkingTree):
2612
2344
    """This is the Format 2 working tree.
2613
2345
 
2614
 
    This was the first weave based working tree.
 
2346
    This was the first weave based working tree. 
2615
2347
     - uses os locks for locking.
2616
2348
     - uses the branch last-revision.
2617
2349
    """
2627
2359
        if self._inventory is None:
2628
2360
            self.read_working_inventory()
2629
2361
 
2630
 
    def _get_check_refs(self):
2631
 
        """Return the references needed to perform a check of this tree."""
2632
 
        return [('trees', self.last_revision())]
2633
 
 
2634
2362
    def lock_tree_write(self):
2635
2363
        """See WorkingTree.lock_tree_write().
2636
2364
 
2645
2373
            raise
2646
2374
 
2647
2375
    def unlock(self):
2648
 
        # do non-implementation specific cleanup
2649
 
        self._cleanup()
2650
 
 
2651
2376
        # we share control files:
2652
2377
        if self._control_files._lock_count == 3:
2653
2378
            # _inventory_is_modified is always False during a read lock.
2654
2379
            if self._inventory_is_modified:
2655
2380
                self.flush()
2656
2381
            self._write_hashcache_if_dirty()
2657
 
 
 
2382
                    
2658
2383
        # reverse order of locking.
2659
2384
        try:
2660
2385
            return self._control_files.unlock()
2676
2401
    def _last_revision(self):
2677
2402
        """See Mutable.last_revision."""
2678
2403
        try:
2679
 
            return self._transport.get_bytes('last-revision')
 
2404
            return osutils.safe_revision_id(
 
2405
                        self._control_files.get('last-revision').read())
2680
2406
        except errors.NoSuchFile:
2681
 
            return _mod_revision.NULL_REVISION
 
2407
            return None
2682
2408
 
2683
2409
    def _change_last_revision(self, revision_id):
2684
2410
        """See WorkingTree._change_last_revision."""
2685
 
        if revision_id is None or revision_id == _mod_revision.NULL_REVISION:
 
2411
        if revision_id is None or revision_id == NULL_REVISION:
2686
2412
            try:
2687
 
                self._transport.delete('last-revision')
 
2413
                self._control_files._transport.delete('last-revision')
2688
2414
            except errors.NoSuchFile:
2689
2415
                pass
2690
2416
            return False
2691
2417
        else:
2692
 
            self._transport.put_bytes('last-revision', revision_id,
2693
 
                mode=self.bzrdir._get_file_mode())
 
2418
            self._control_files.put_bytes('last-revision', revision_id)
2694
2419
            return True
2695
2420
 
2696
 
    def _get_check_refs(self):
2697
 
        """Return the references needed to perform a check of this tree."""
2698
 
        return [('trees', self.last_revision())]
2699
 
 
2700
2421
    @needs_tree_write_lock
2701
2422
    def set_conflicts(self, conflicts):
2702
 
        self._put_rio('conflicts', conflicts.to_stanzas(),
 
2423
        self._put_rio('conflicts', conflicts.to_stanzas(), 
2703
2424
                      CONFLICT_HEADER_1)
2704
2425
 
2705
2426
    @needs_tree_write_lock
2712
2433
    @needs_read_lock
2713
2434
    def conflicts(self):
2714
2435
        try:
2715
 
            confile = self._transport.get('conflicts')
 
2436
            confile = self._control_files.get('conflicts')
2716
2437
        except errors.NoSuchFile:
2717
2438
            return _mod_conflicts.ConflictList()
2718
2439
        try:
2719
 
            try:
2720
 
                if confile.next() != CONFLICT_HEADER_1 + '\n':
2721
 
                    raise errors.ConflictFormatError()
2722
 
            except StopIteration:
 
2440
            if confile.next() != CONFLICT_HEADER_1 + '\n':
2723
2441
                raise errors.ConflictFormatError()
2724
 
            return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
2725
 
        finally:
2726
 
            confile.close()
 
2442
        except StopIteration:
 
2443
            raise errors.ConflictFormatError()
 
2444
        return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
2727
2445
 
2728
2446
    def unlock(self):
2729
 
        # do non-implementation specific cleanup
2730
 
        self._cleanup()
2731
2447
        if self._control_files._lock_count == 1:
2732
2448
            # _inventory_is_modified is always False during a read lock.
2733
2449
            if self._inventory_is_modified:
2746
2462
            return path[:-len(suffix)]
2747
2463
 
2748
2464
 
 
2465
@deprecated_function(zero_eight)
 
2466
def is_control_file(filename):
 
2467
    """See WorkingTree.is_control_filename(filename)."""
 
2468
    ## FIXME: better check
 
2469
    filename = normpath(filename)
 
2470
    while filename != '':
 
2471
        head, tail = os.path.split(filename)
 
2472
        ## mutter('check %r for control file' % ((head, tail),))
 
2473
        if tail == '.bzr':
 
2474
            return True
 
2475
        if filename == head:
 
2476
            break
 
2477
        filename = head
 
2478
    return False
 
2479
 
 
2480
 
2749
2481
class WorkingTreeFormat(object):
2750
2482
    """An encapsulation of the initialization and open routines for a format.
2751
2483
 
2754
2486
     * a format string,
2755
2487
     * an open routine.
2756
2488
 
2757
 
    Formats are placed in an dict by their format string for reference
 
2489
    Formats are placed in an dict by their format string for reference 
2758
2490
    during workingtree opening. Its not required that these be instances, they
2759
 
    can be classes themselves with class methods - it simply depends on
 
2491
    can be classes themselves with class methods - it simply depends on 
2760
2492
    whether state is needed for a given format or not.
2761
2493
 
2762
2494
    Once a format is deprecated, just deprecate the initialize and open
2763
 
    methods on the format class. Do not deprecate the object, as the
 
2495
    methods on the format class. Do not deprecate the object, as the 
2764
2496
    object will be created every time regardless.
2765
2497
    """
2766
2498
 
2779
2511
        """Return the format for the working tree object in a_bzrdir."""
2780
2512
        try:
2781
2513
            transport = a_bzrdir.get_workingtree_transport(None)
2782
 
            format_string = transport.get_bytes("format")
 
2514
            format_string = transport.get("format").read()
2783
2515
            return klass._formats[format_string]
2784
2516
        except errors.NoSuchFile:
2785
2517
            raise errors.NoWorkingTree(base=transport.base)
2786
2518
        except KeyError:
2787
 
            raise errors.UnknownFormatError(format=format_string,
2788
 
                                            kind="working tree")
 
2519
            raise errors.UnknownFormatError(format=format_string)
2789
2520
 
2790
2521
    def __eq__(self, other):
2791
2522
        return self.__class__ is other.__class__
2810
2541
        """Is this format supported?
2811
2542
 
2812
2543
        Supported formats can be initialized and opened.
2813
 
        Unsupported formats may not support initialization or committing or
 
2544
        Unsupported formats may not support initialization or committing or 
2814
2545
        some other features depending on the reason for not being supported.
2815
2546
        """
2816
2547
        return True
2817
2548
 
2818
 
    def supports_content_filtering(self):
2819
 
        """True if this format supports content filtering."""
2820
 
        return False
2821
 
 
2822
 
    def supports_views(self):
2823
 
        """True if this format supports stored views."""
2824
 
        return False
2825
 
 
2826
2549
    @classmethod
2827
2550
    def register_format(klass, format):
2828
2551
        klass._formats[format.get_format_string()] = format
2833
2556
 
2834
2557
    @classmethod
2835
2558
    def unregister_format(klass, format):
 
2559
        assert klass._formats[format.get_format_string()] is format
2836
2560
        del klass._formats[format.get_format_string()]
2837
2561
 
2838
2562
 
2839
2563
class WorkingTreeFormat2(WorkingTreeFormat):
2840
 
    """The second working tree format.
 
2564
    """The second working tree format. 
2841
2565
 
2842
2566
    This format modified the hash cache from the format 1 hash cache.
2843
2567
    """
2848
2572
        """See WorkingTreeFormat.get_format_description()."""
2849
2573
        return "Working tree format 2"
2850
2574
 
2851
 
    def _stub_initialize_on_transport(self, transport, file_mode):
2852
 
        """Workaround: create control files for a remote working tree.
2853
 
 
 
2575
    def stub_initialize_remote(self, control_files):
 
2576
        """As a special workaround create critical control files for a remote working tree
 
2577
        
2854
2578
        This ensures that it can later be updated and dealt with locally,
2855
 
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with
 
2579
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with 
2856
2580
        no working tree.  (See bug #43064).
2857
2581
        """
2858
2582
        sio = StringIO()
2859
 
        inv = inventory.Inventory()
2860
 
        xml5.serializer_v5.write_inventory(inv, sio, working=True)
 
2583
        inv = Inventory()
 
2584
        xml5.serializer_v5.write_inventory(inv, sio)
2861
2585
        sio.seek(0)
2862
 
        transport.put_file('inventory', sio, file_mode)
2863
 
        transport.put_bytes('pending-merges', '', file_mode)
2864
 
 
2865
 
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
2866
 
                   accelerator_tree=None, hardlink=False):
 
2586
        control_files.put('inventory', sio)
 
2587
 
 
2588
        control_files.put_bytes('pending-merges', '')
 
2589
        
 
2590
 
 
2591
    def initialize(self, a_bzrdir, revision_id=None):
2867
2592
        """See WorkingTreeFormat.initialize()."""
2868
2593
        if not isinstance(a_bzrdir.transport, LocalTransport):
2869
2594
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2870
 
        if from_branch is not None:
2871
 
            branch = from_branch
2872
 
        else:
2873
 
            branch = a_bzrdir.open_branch()
2874
 
        if revision_id is None:
2875
 
            revision_id = _mod_revision.ensure_null(branch.last_revision())
2876
 
        branch.lock_write()
2877
 
        try:
2878
 
            branch.generate_revision_history(revision_id)
2879
 
        finally:
2880
 
            branch.unlock()
2881
 
        inv = inventory.Inventory()
 
2595
        branch = a_bzrdir.open_branch()
 
2596
        if revision_id is not None:
 
2597
            revision_id = osutils.safe_revision_id(revision_id)
 
2598
            branch.lock_write()
 
2599
            try:
 
2600
                revision_history = branch.revision_history()
 
2601
                try:
 
2602
                    position = revision_history.index(revision_id)
 
2603
                except ValueError:
 
2604
                    raise errors.NoSuchRevision(branch, revision_id)
 
2605
                branch.set_revision_history(revision_history[:position + 1])
 
2606
            finally:
 
2607
                branch.unlock()
 
2608
        revision = branch.last_revision()
 
2609
        inv = Inventory()
2882
2610
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
2883
2611
                         branch,
2884
2612
                         inv,
2885
2613
                         _internal=True,
2886
2614
                         _format=self,
2887
2615
                         _bzrdir=a_bzrdir)
2888
 
        basis_tree = branch.repository.revision_tree(revision_id)
 
2616
        basis_tree = branch.repository.revision_tree(revision)
2889
2617
        if basis_tree.inventory.root is not None:
2890
 
            wt.set_root_id(basis_tree.get_root_id())
 
2618
            wt.set_root_id(basis_tree.inventory.root.file_id)
2891
2619
        # set the parent list and cache the basis tree.
2892
 
        if _mod_revision.is_null(revision_id):
2893
 
            parent_trees = []
2894
 
        else:
2895
 
            parent_trees = [(revision_id, basis_tree)]
2896
 
        wt.set_parent_trees(parent_trees)
 
2620
        wt.set_parent_trees([(revision, basis_tree)])
2897
2621
        transform.build_tree(basis_tree, wt)
2898
2622
        return wt
2899
2623
 
2929
2653
        - is new in bzr 0.8
2930
2654
        - uses a LockDir to guard access for writes.
2931
2655
    """
2932
 
 
 
2656
    
2933
2657
    upgrade_recommended = True
2934
2658
 
2935
2659
    def get_format_string(self):
2952
2676
 
2953
2677
    def _open_control_files(self, a_bzrdir):
2954
2678
        transport = a_bzrdir.get_workingtree_transport(None)
2955
 
        return LockableFiles(transport, self._lock_file_name,
 
2679
        return LockableFiles(transport, self._lock_file_name, 
2956
2680
                             self._lock_class)
2957
2681
 
2958
 
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
2959
 
                   accelerator_tree=None, hardlink=False):
 
2682
    def initialize(self, a_bzrdir, revision_id=None):
2960
2683
        """See WorkingTreeFormat.initialize().
2961
 
 
2962
 
        :param revision_id: if supplied, create a working tree at a different
2963
 
            revision than the branch is at.
2964
 
        :param accelerator_tree: A tree which can be used for retrieving file
2965
 
            contents more quickly than the revision tree, i.e. a workingtree.
2966
 
            The revision tree will be used for cases where accelerator_tree's
2967
 
            content is different.
2968
 
        :param hardlink: If true, hard-link files from accelerator_tree,
2969
 
            where possible.
 
2684
        
 
2685
        revision_id allows creating a working tree at a different
 
2686
        revision than the branch is at.
2970
2687
        """
2971
2688
        if not isinstance(a_bzrdir.transport, LocalTransport):
2972
2689
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2974
2691
        control_files = self._open_control_files(a_bzrdir)
2975
2692
        control_files.create_lock()
2976
2693
        control_files.lock_write()
2977
 
        transport.put_bytes('format', self.get_format_string(),
2978
 
            mode=a_bzrdir._get_file_mode())
2979
 
        if from_branch is not None:
2980
 
            branch = from_branch
 
2694
        control_files.put_utf8('format', self.get_format_string())
 
2695
        branch = a_bzrdir.open_branch()
 
2696
        if revision_id is None:
 
2697
            revision_id = branch.last_revision()
2981
2698
        else:
2982
 
            branch = a_bzrdir.open_branch()
2983
 
        if revision_id is None:
2984
 
            revision_id = _mod_revision.ensure_null(branch.last_revision())
 
2699
            revision_id = osutils.safe_revision_id(revision_id)
2985
2700
        # WorkingTree3 can handle an inventory which has a unique root id.
2986
2701
        # as of bzr 0.12. However, bzr 0.11 and earlier fail to handle
2987
2702
        # those trees. And because there isn't a format bump inbetween, we
3000
2715
            basis_tree = branch.repository.revision_tree(revision_id)
3001
2716
            # only set an explicit root id if there is one to set.
3002
2717
            if basis_tree.inventory.root is not None:
3003
 
                wt.set_root_id(basis_tree.get_root_id())
3004
 
            if revision_id == _mod_revision.NULL_REVISION:
 
2718
                wt.set_root_id(basis_tree.inventory.root.file_id)
 
2719
            if revision_id == NULL_REVISION:
3005
2720
                wt.set_parent_trees([])
3006
2721
            else:
3007
2722
                wt.set_parent_trees([(revision_id, basis_tree)])
3014
2729
        return wt
3015
2730
 
3016
2731
    def _initial_inventory(self):
3017
 
        return inventory.Inventory()
 
2732
        return Inventory()
3018
2733
 
3019
2734
    def __init__(self):
3020
2735
        super(WorkingTreeFormat3, self).__init__()
3035
2750
 
3036
2751
    def _open(self, a_bzrdir, control_files):
3037
2752
        """Open the tree itself.
3038
 
 
 
2753
        
3039
2754
        :param a_bzrdir: the dir for the tree.
3040
2755
        :param control_files: the control files for the tree.
3041
2756
        """
3049
2764
        return self.get_format_string()
3050
2765
 
3051
2766
 
3052
 
__default_format = WorkingTreeFormat6()
 
2767
__default_format = WorkingTreeFormat4()
3053
2768
WorkingTreeFormat.register_format(__default_format)
3054
 
WorkingTreeFormat.register_format(WorkingTreeFormat5())
3055
 
WorkingTreeFormat.register_format(WorkingTreeFormat4())
3056
2769
WorkingTreeFormat.register_format(WorkingTreeFormat3())
3057
2770
WorkingTreeFormat.set_default_format(__default_format)
3058
2771
# formats which have no format string are not discoverable
3059
2772
# and not independently creatable, so are not registered.
3060
2773
_legacy_formats = [WorkingTreeFormat2(),
3061
2774
                   ]
 
2775
 
 
2776
 
 
2777
class WorkingTreeTestProviderAdapter(object):
 
2778
    """A tool to generate a suite testing multiple workingtree formats at once.
 
2779
 
 
2780
    This is done by copying the test once for each transport and injecting
 
2781
    the transport_server, transport_readonly_server, and workingtree_format
 
2782
    classes into each copy. Each copy is also given a new id() to make it
 
2783
    easy to identify.
 
2784
    """
 
2785
 
 
2786
    def __init__(self, transport_server, transport_readonly_server, formats):
 
2787
        self._transport_server = transport_server
 
2788
        self._transport_readonly_server = transport_readonly_server
 
2789
        self._formats = formats
 
2790
    
 
2791
    def _clone_test(self, test, bzrdir_format, workingtree_format, variation):
 
2792
        """Clone test for adaption."""
 
2793
        new_test = deepcopy(test)
 
2794
        new_test.transport_server = self._transport_server
 
2795
        new_test.transport_readonly_server = self._transport_readonly_server
 
2796
        new_test.bzrdir_format = bzrdir_format
 
2797
        new_test.workingtree_format = workingtree_format
 
2798
        def make_new_test_id():
 
2799
            new_id = "%s(%s)" % (test.id(), variation)
 
2800
            return lambda: new_id
 
2801
        new_test.id = make_new_test_id()
 
2802
        return new_test
 
2803
    
 
2804
    def adapt(self, test):
 
2805
        from bzrlib.tests import TestSuite
 
2806
        result = TestSuite()
 
2807
        for workingtree_format, bzrdir_format in self._formats:
 
2808
            new_test = self._clone_test(
 
2809
                test,
 
2810
                bzrdir_format,
 
2811
                workingtree_format, workingtree_format.__class__.__name__)
 
2812
            result.addTest(new_test)
 
2813
        return result