~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2007-06-25 17:46:47 UTC
  • mfrom: (2547.2.1 jam-integration)
  • Revision ID: pqm@pqm.ubuntu.com-20070625174647-pocypsjmp861qgv7
(Vincent Ladeuil) Fix bug #121889 by working around urllib2 limitation.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
"""WorkingTree object and friends.
18
18
 
19
19
A WorkingTree represents the editable working copy of a branch.
20
 
Operations which represent the WorkingTree are also done here,
21
 
such as renaming or adding files.  The WorkingTree has an inventory
22
 
which is updated by these operations.  A commit produces a
 
20
Operations which represent the WorkingTree are also done here, 
 
21
such as renaming or adding files.  The WorkingTree has an inventory 
 
22
which is updated by these operations.  A commit produces a 
23
23
new revision based on the workingtree and its inventory.
24
24
 
25
25
At the moment every WorkingTree has its own branch.  Remote
29
29
WorkingTree.open(dir).
30
30
"""
31
31
 
 
32
# TODO: Give the workingtree sole responsibility for the working inventory;
 
33
# remove the variable and references to it from the branch.  This may require
 
34
# updating the commit code so as to update the inventory within the working
 
35
# copy, and making sure there's only one WorkingTree for any directory on disk.
 
36
# At the moment they may alias the inventory and have old copies of it in
 
37
# memory.  (Now done? -- mbp 20060309)
32
38
 
33
39
from cStringIO import StringIO
34
40
import os
38
44
lazy_import(globals(), """
39
45
from bisect import bisect_left
40
46
import collections
 
47
from copy import deepcopy
41
48
import errno
42
49
import itertools
43
50
import operator
44
51
import stat
 
52
from time import time
 
53
import warnings
45
54
import re
46
55
 
47
56
import bzrlib
49
58
    branch,
50
59
    bzrdir,
51
60
    conflicts as _mod_conflicts,
 
61
    dirstate,
52
62
    errors,
53
63
    generate_ids,
54
64
    globbing,
55
 
    graph as _mod_graph,
56
65
    hashcache,
57
66
    ignores,
58
 
    inventory,
59
67
    merge,
60
 
    revision as _mod_revision,
 
68
    osutils,
61
69
    revisiontree,
 
70
    repository,
 
71
    textui,
62
72
    trace,
63
73
    transform,
64
74
    ui,
65
 
    views,
 
75
    urlutils,
66
76
    xml5,
 
77
    xml6,
67
78
    xml7,
68
79
    )
69
80
import bzrlib.branch
70
81
from bzrlib.transport import get_transport
71
 
from bzrlib.workingtree_4 import (
72
 
    WorkingTreeFormat4,
73
 
    WorkingTreeFormat5,
74
 
    WorkingTreeFormat6,
75
 
    )
 
82
import bzrlib.ui
 
83
from bzrlib.workingtree_4 import WorkingTreeFormat4
76
84
""")
77
85
 
78
86
from bzrlib import symbol_versioning
79
87
from bzrlib.decorators import needs_read_lock, needs_write_lock
80
 
from bzrlib.lockable_files import LockableFiles
 
88
from bzrlib.inventory import InventoryEntry, Inventory, ROOT_ID, TreeReference
 
89
from bzrlib.lockable_files import LockableFiles, TransportLock
81
90
from bzrlib.lockdir import LockDir
82
91
import bzrlib.mutabletree
83
92
from bzrlib.mutabletree import needs_tree_write_lock
84
 
from bzrlib import osutils
85
93
from bzrlib.osutils import (
 
94
    compact_date,
86
95
    file_kind,
87
96
    isdir,
88
97
    normpath,
89
98
    pathjoin,
 
99
    rand_chars,
90
100
    realpath,
91
101
    safe_unicode,
92
102
    splitpath,
93
103
    supports_executable,
94
104
    )
95
 
from bzrlib.filters import filtered_input_file
96
105
from bzrlib.trace import mutter, note
97
106
from bzrlib.transport.local import LocalTransport
98
 
from bzrlib.revision import CURRENT_REVISION
 
107
from bzrlib.progress import DummyProgress, ProgressPhase
 
108
from bzrlib.revision import NULL_REVISION, CURRENT_REVISION
99
109
from bzrlib.rio import RioReader, rio_file, Stanza
100
 
from bzrlib.symbol_versioning import (
101
 
    deprecated_passed,
102
 
    DEPRECATED_PARAMETER,
103
 
    )
 
110
from bzrlib.symbol_versioning import (deprecated_passed,
 
111
        deprecated_method,
 
112
        deprecated_function,
 
113
        DEPRECATED_PARAMETER,
 
114
        zero_eight,
 
115
        zero_eleven,
 
116
        zero_thirteen,
 
117
        )
104
118
 
105
119
 
106
120
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
107
 
# TODO: Modifying the conflict objects or their type is currently nearly
108
 
# impossible as there is no clear relationship between the working tree format
109
 
# and the conflict list file format.
110
121
CONFLICT_HEADER_1 = "BZR conflict list format 1"
111
122
 
112
123
ERROR_PATH_NOT_FOUND = 3    # WindowsError errno code, equivalent to ENOENT
113
124
 
114
125
 
 
126
@deprecated_function(zero_thirteen)
 
127
def gen_file_id(name):
 
128
    """Return new file id for the basename 'name'.
 
129
 
 
130
    Use bzrlib.generate_ids.gen_file_id() instead
 
131
    """
 
132
    return generate_ids.gen_file_id(name)
 
133
 
 
134
 
 
135
@deprecated_function(zero_thirteen)
 
136
def gen_root_id():
 
137
    """Return a new tree-root file id.
 
138
 
 
139
    This has been deprecated in favor of bzrlib.generate_ids.gen_root_id()
 
140
    """
 
141
    return generate_ids.gen_root_id()
 
142
 
 
143
 
115
144
class TreeEntry(object):
116
145
    """An entry that implements the minimum interface used by commands.
117
146
 
118
 
    This needs further inspection, it may be better to have
 
147
    This needs further inspection, it may be better to have 
119
148
    InventoryEntries without ids - though that seems wrong. For now,
120
149
    this is a parallel hierarchy to InventoryEntry, and needs to become
121
150
    one of several things: decorates to that hierarchy, children of, or
124
153
    no InventoryEntry available - i.e. for unversioned objects.
125
154
    Perhaps they should be UnversionedEntry et al. ? - RBC 20051003
126
155
    """
127
 
 
 
156
 
128
157
    def __eq__(self, other):
129
158
        # yes, this us ugly, TODO: best practice __eq__ style.
130
159
        return (isinstance(other, TreeEntry)
131
160
                and other.__class__ == self.__class__)
132
 
 
 
161
 
133
162
    def kind_character(self):
134
163
        return "???"
135
164
 
167
196
        return ''
168
197
 
169
198
 
170
 
class WorkingTree(bzrlib.mutabletree.MutableTree,
171
 
    bzrdir.ControlComponent):
 
199
class WorkingTree(bzrlib.mutabletree.MutableTree):
172
200
    """Working copy tree.
173
201
 
174
202
    The inventory is held in the `Branch` working-inventory, and the
178
206
    not listed in the Inventory and vice versa.
179
207
    """
180
208
 
181
 
    # override this to set the strategy for storing views
182
 
    def _make_views(self):
183
 
        return views.DisabledViews(self)
184
 
 
185
209
    def __init__(self, basedir='.',
186
210
                 branch=DEPRECATED_PARAMETER,
187
211
                 _inventory=None,
198
222
        if not _internal:
199
223
            raise errors.BzrError("Please use bzrdir.open_workingtree or "
200
224
                "WorkingTree.open() to obtain a WorkingTree.")
 
225
        assert isinstance(basedir, basestring), \
 
226
            "base directory %r is not a string" % basedir
201
227
        basedir = safe_unicode(basedir)
202
228
        mutter("opening working tree %r", basedir)
203
229
        if deprecated_passed(branch):
211
237
            self._control_files = self.branch.control_files
212
238
        else:
213
239
            # assume all other formats have their own control files.
 
240
            assert isinstance(_control_files, LockableFiles), \
 
241
                    "_control_files must be a LockableFiles, not %r" \
 
242
                    % _control_files
214
243
            self._control_files = _control_files
215
 
        self._transport = self._control_files._transport
216
244
        # update the whole cache up front and write to disk if anything changed;
217
245
        # in the future we might want to do this more selectively
218
246
        # two possible ways offer themselves : in self._unlock, write the cache
222
250
        wt_trans = self.bzrdir.get_workingtree_transport(None)
223
251
        cache_filename = wt_trans.local_abspath('stat-cache')
224
252
        self._hashcache = hashcache.HashCache(basedir, cache_filename,
225
 
            self.bzrdir._get_file_mode(),
226
 
            self._content_filter_stack_provider())
 
253
                                              self._control_files._file_mode)
227
254
        hc = self._hashcache
228
255
        hc.read()
229
256
        # is this scan needed ? it makes things kinda slow.
243
270
            # the Format factory and creation methods that are
244
271
            # permitted to do this.
245
272
            self._set_inventory(_inventory, dirty=False)
246
 
        self._detect_case_handling()
247
 
        self._rules_searcher = None
248
 
        self.views = self._make_views()
249
 
 
250
 
    @property
251
 
    def user_transport(self):
252
 
        return self.bzrdir.user_transport
253
 
 
254
 
    @property
255
 
    def control_transport(self):
256
 
        return self._transport
257
 
 
258
 
    def _detect_case_handling(self):
259
 
        wt_trans = self.bzrdir.get_workingtree_transport(None)
260
 
        try:
261
 
            wt_trans.stat("FoRMaT")
262
 
        except errors.NoSuchFile:
263
 
            self.case_sensitive = True
264
 
        else:
265
 
            self.case_sensitive = False
266
 
 
267
 
        self._setup_directory_is_tree_reference()
268
273
 
269
274
    branch = property(
270
275
        fget=lambda self: self._branch,
285
290
        self._control_files.break_lock()
286
291
        self.branch.break_lock()
287
292
 
288
 
    def _get_check_refs(self):
289
 
        """Return the references needed to perform a check of this tree.
290
 
        
291
 
        The default implementation returns no refs, and is only suitable for
292
 
        trees that have no local caching and can commit on ghosts at any time.
293
 
 
294
 
        :seealso: bzrlib.check for details about check_refs.
295
 
        """
296
 
        return []
297
 
 
298
293
    def requires_rich_root(self):
299
294
        return self._format.requires_rich_root
300
295
 
301
296
    def supports_tree_reference(self):
302
297
        return False
303
298
 
304
 
    def supports_content_filtering(self):
305
 
        return self._format.supports_content_filtering()
306
 
 
307
 
    def supports_views(self):
308
 
        return self.views.supports_views()
309
 
 
310
299
    def _set_inventory(self, inv, dirty):
311
300
        """Set the internal cached inventory.
312
301
 
317
306
            False then the inventory is the same as that on disk and any
318
307
            serialisation would be unneeded overhead.
319
308
        """
 
309
        assert inv.root is not None
320
310
        self._inventory = inv
321
311
        self._inventory_is_modified = dirty
322
312
 
326
316
 
327
317
        """
328
318
        if path is None:
329
 
            path = osutils.getcwd()
 
319
            path = os.path.getcwdu()
330
320
        control = bzrdir.BzrDir.open(path, _unsupported)
331
321
        return control.open_workingtree(_unsupported)
332
 
 
 
322
        
333
323
    @staticmethod
334
324
    def open_containing(path=None):
335
325
        """Open an existing working tree which has its root about path.
336
 
 
 
326
        
337
327
        This probes for a working tree at path and searches upwards from there.
338
328
 
339
329
        Basically we keep looking up until we find the control directory or
357
347
        """
358
348
        return WorkingTree.open(path, _unsupported=True)
359
349
 
360
 
    @staticmethod
361
 
    def find_trees(location):
362
 
        def list_current(transport):
363
 
            return [d for d in transport.list_dir('') if d != '.bzr']
364
 
        def evaluate(bzrdir):
365
 
            try:
366
 
                tree = bzrdir.open_workingtree()
367
 
            except errors.NoWorkingTree:
368
 
                return True, None
369
 
            else:
370
 
                return True, tree
371
 
        transport = get_transport(location)
372
 
        iterator = bzrdir.BzrDir.find_bzrdirs(transport, evaluate=evaluate,
373
 
                                              list_current=list_current)
374
 
        return [t for t in iterator if t is not None]
375
 
 
376
350
    # should be deprecated - this is slow and in any case treating them as a
377
351
    # container is (we now know) bad style -- mbp 20070302
378
352
    ## @deprecated_method(zero_fifteen)
387
361
            if osutils.lexists(self.abspath(path)):
388
362
                yield ie.file_id
389
363
 
390
 
    def all_file_ids(self):
391
 
        """See Tree.iter_all_file_ids"""
392
 
        return set(self.inventory)
393
 
 
394
364
    def __repr__(self):
395
365
        return "<%s of %s>" % (self.__class__.__name__,
396
366
                               getattr(self, 'basedir', None))
400
370
 
401
371
    def basis_tree(self):
402
372
        """Return RevisionTree for the current last revision.
403
 
 
 
373
        
404
374
        If the left most parent is a ghost then the returned tree will be an
405
 
        empty tree - one obtained by calling
406
 
        repository.revision_tree(NULL_REVISION).
 
375
        empty tree - one obtained by calling repository.revision_tree(None).
407
376
        """
408
377
        try:
409
378
            revision_id = self.get_parent_ids()[0]
411
380
            # no parents, return an empty revision tree.
412
381
            # in the future this should return the tree for
413
382
            # 'empty:' - the implicit root empty tree.
414
 
            return self.branch.repository.revision_tree(
415
 
                       _mod_revision.NULL_REVISION)
 
383
            return self.branch.repository.revision_tree(None)
416
384
        try:
417
385
            return self.revision_tree(revision_id)
418
386
        except errors.NoSuchRevision:
422
390
        # at this point ?
423
391
        try:
424
392
            return self.branch.repository.revision_tree(revision_id)
425
 
        except (errors.RevisionNotPresent, errors.NoSuchRevision):
 
393
        except errors.RevisionNotPresent:
426
394
            # the basis tree *may* be a ghost or a low level error may have
427
 
            # occurred. If the revision is present, its a problem, if its not
 
395
            # occured. If the revision is present, its a problem, if its not
428
396
            # its a ghost.
429
397
            if self.branch.repository.has_revision(revision_id):
430
398
                raise
431
399
            # the basis tree is a ghost so return an empty tree.
432
 
            return self.branch.repository.revision_tree(
433
 
                       _mod_revision.NULL_REVISION)
434
 
 
435
 
    def _cleanup(self):
436
 
        self._flush_ignore_list_cache()
 
400
            return self.branch.repository.revision_tree(None)
 
401
 
 
402
    @staticmethod
 
403
    @deprecated_method(zero_eight)
 
404
    def create(branch, directory):
 
405
        """Create a workingtree for branch at directory.
 
406
 
 
407
        If existing_directory already exists it must have a .bzr directory.
 
408
        If it does not exist, it will be created.
 
409
 
 
410
        This returns a new WorkingTree object for the new checkout.
 
411
 
 
412
        TODO FIXME RBC 20060124 when we have checkout formats in place this
 
413
        should accept an optional revisionid to checkout [and reject this if
 
414
        checking out into the same dir as a pre-checkout-aware branch format.]
 
415
 
 
416
        XXX: When BzrDir is present, these should be created through that 
 
417
        interface instead.
 
418
        """
 
419
        warnings.warn('delete WorkingTree.create', stacklevel=3)
 
420
        transport = get_transport(directory)
 
421
        if branch.bzrdir.root_transport.base == transport.base:
 
422
            # same dir 
 
423
            return branch.bzrdir.create_workingtree()
 
424
        # different directory, 
 
425
        # create a branch reference
 
426
        # and now a working tree.
 
427
        raise NotImplementedError
 
428
 
 
429
    @staticmethod
 
430
    @deprecated_method(zero_eight)
 
431
    def create_standalone(directory):
 
432
        """Create a checkout and a branch and a repo at directory.
 
433
 
 
434
        Directory must exist and be empty.
 
435
 
 
436
        please use BzrDir.create_standalone_workingtree
 
437
        """
 
438
        return bzrdir.BzrDir.create_standalone_workingtree(directory)
437
439
 
438
440
    def relpath(self, path):
439
441
        """Return the local path portion from a given path.
440
 
 
441
 
        The path may be absolute or relative. If its a relative path it is
 
442
        
 
443
        The path may be absolute or relative. If its a relative path it is 
442
444
        interpreted relative to the python current working directory.
443
445
        """
444
446
        return osutils.relpath(self.basedir, path)
446
448
    def has_filename(self, filename):
447
449
        return osutils.lexists(self.abspath(filename))
448
450
 
449
 
    def get_file(self, file_id, path=None, filtered=True):
450
 
        return self.get_file_with_stat(file_id, path, filtered=filtered)[0]
451
 
 
452
 
    def get_file_with_stat(self, file_id, path=None, filtered=True,
453
 
        _fstat=os.fstat):
454
 
        """See Tree.get_file_with_stat."""
455
 
        if path is None:
456
 
            path = self.id2path(file_id)
457
 
        file_obj = self.get_file_byname(path, filtered=False)
458
 
        stat_value = _fstat(file_obj.fileno())
459
 
        if filtered and self.supports_content_filtering():
460
 
            filters = self._content_filter_stack(path)
461
 
            file_obj = filtered_input_file(file_obj, filters)
462
 
        return (file_obj, stat_value)
463
 
 
464
 
    def get_file_text(self, file_id, path=None, filtered=True):
465
 
        return self.get_file(file_id, path=path, filtered=filtered).read()
466
 
 
467
 
    def get_file_byname(self, filename, filtered=True):
468
 
        path = self.abspath(filename)
469
 
        f = file(path, 'rb')
470
 
        if filtered and self.supports_content_filtering():
471
 
            filters = self._content_filter_stack(filename)
472
 
            return filtered_input_file(f, filters)
473
 
        else:
474
 
            return f
475
 
 
476
 
    def get_file_lines(self, file_id, path=None, filtered=True):
477
 
        """See Tree.get_file_lines()"""
478
 
        file = self.get_file(file_id, path, filtered=filtered)
479
 
        try:
480
 
            return file.readlines()
481
 
        finally:
482
 
            file.close()
 
451
    def get_file(self, file_id):
 
452
        file_id = osutils.safe_file_id(file_id)
 
453
        return self.get_file_byname(self.id2path(file_id))
 
454
 
 
455
    def get_file_text(self, file_id):
 
456
        file_id = osutils.safe_file_id(file_id)
 
457
        return self.get_file(file_id).read()
 
458
 
 
459
    def get_file_byname(self, filename):
 
460
        return file(self.abspath(filename), 'rb')
483
461
 
484
462
    @needs_read_lock
485
 
    def annotate_iter(self, file_id, default_revision=CURRENT_REVISION):
 
463
    def annotate_iter(self, file_id):
486
464
        """See Tree.annotate_iter
487
465
 
488
466
        This implementation will use the basis tree implementation if possible.
492
470
        incorrectly attributed to CURRENT_REVISION (but after committing, the
493
471
        attribution will be correct).
494
472
        """
495
 
        maybe_file_parent_keys = []
496
 
        for parent_id in self.get_parent_ids():
497
 
            try:
498
 
                parent_tree = self.revision_tree(parent_id)
499
 
            except errors.NoSuchRevisionInTree:
500
 
                parent_tree = self.branch.repository.revision_tree(parent_id)
501
 
            parent_tree.lock_read()
502
 
            try:
503
 
                if file_id not in parent_tree:
504
 
                    continue
505
 
                ie = parent_tree.inventory[file_id]
506
 
                if ie.kind != 'file':
507
 
                    # Note: this is slightly unnecessary, because symlinks and
508
 
                    # directories have a "text" which is the empty text, and we
509
 
                    # know that won't mess up annotations. But it seems cleaner
510
 
                    continue
511
 
                parent_text_key = (file_id, ie.revision)
512
 
                if parent_text_key not in maybe_file_parent_keys:
513
 
                    maybe_file_parent_keys.append(parent_text_key)
514
 
            finally:
515
 
                parent_tree.unlock()
516
 
        graph = _mod_graph.Graph(self.branch.repository.texts)
517
 
        heads = graph.heads(maybe_file_parent_keys)
518
 
        file_parent_keys = []
519
 
        for key in maybe_file_parent_keys:
520
 
            if key in heads:
521
 
                file_parent_keys.append(key)
522
 
 
523
 
        # Now we have the parents of this content
524
 
        annotator = self.branch.repository.texts.get_annotator()
525
 
        text = self.get_file(file_id).read()
526
 
        this_key =(file_id, default_revision)
527
 
        annotator.add_special_text(this_key, file_parent_keys, text)
528
 
        annotations = [(key[-1], line)
529
 
                       for key, line in annotator.annotate_flat(this_key)]
530
 
        return annotations
531
 
 
532
 
    def _get_ancestors(self, default_revision):
533
 
        ancestors = set([default_revision])
534
 
        for parent_id in self.get_parent_ids():
535
 
            ancestors.update(self.branch.repository.get_ancestry(
536
 
                             parent_id, topo_sorted=False))
537
 
        return ancestors
 
473
        file_id = osutils.safe_file_id(file_id)
 
474
        basis = self.basis_tree()
 
475
        basis.lock_read()
 
476
        try:
 
477
            changes = self._iter_changes(basis, True, [self.id2path(file_id)],
 
478
                require_versioned=True).next()
 
479
            changed_content, kind = changes[2], changes[6]
 
480
            if not changed_content:
 
481
                return basis.annotate_iter(file_id)
 
482
            if kind[1] is None:
 
483
                return None
 
484
            import annotate
 
485
            if kind[0] != 'file':
 
486
                old_lines = []
 
487
            else:
 
488
                old_lines = list(basis.annotate_iter(file_id))
 
489
            old = [old_lines]
 
490
            for tree in self.branch.repository.revision_trees(
 
491
                self.get_parent_ids()[1:]):
 
492
                if file_id not in tree:
 
493
                    continue
 
494
                old.append(list(tree.annotate_iter(file_id)))
 
495
            return annotate.reannotate(old, self.get_file(file_id).readlines(),
 
496
                                       CURRENT_REVISION)
 
497
        finally:
 
498
            basis.unlock()
538
499
 
539
500
    def get_parent_ids(self):
540
501
        """See Tree.get_parent_ids.
541
 
 
 
502
        
542
503
        This implementation reads the pending merges list and last_revision
543
504
        value and uses that to decide what the parents list should be.
544
505
        """
545
 
        last_rev = _mod_revision.ensure_null(self._last_revision())
546
 
        if _mod_revision.NULL_REVISION == last_rev:
 
506
        last_rev = self._last_revision()
 
507
        if last_rev is None:
547
508
            parents = []
548
509
        else:
549
510
            parents = [last_rev]
550
511
        try:
551
 
            merges_bytes = self._transport.get_bytes('pending-merges')
 
512
            merges_file = self._control_files.get('pending-merges')
552
513
        except errors.NoSuchFile:
553
514
            pass
554
515
        else:
555
 
            for l in osutils.split_lines(merges_bytes):
556
 
                revision_id = l.rstrip('\n')
 
516
            for l in merges_file.readlines():
 
517
                revision_id = osutils.safe_revision_id(l.rstrip('\n'))
557
518
                parents.append(revision_id)
558
519
        return parents
559
520
 
561
522
    def get_root_id(self):
562
523
        """Return the id of this trees root"""
563
524
        return self._inventory.root.file_id
564
 
 
 
525
        
565
526
    def _get_store_filename(self, file_id):
566
527
        ## XXX: badly named; this is not in the store at all
 
528
        file_id = osutils.safe_file_id(file_id)
567
529
        return self.abspath(self.id2path(file_id))
568
530
 
569
531
    @needs_read_lock
570
532
    def clone(self, to_bzrdir, revision_id=None):
571
533
        """Duplicate this working tree into to_bzr, including all state.
572
 
 
 
534
        
573
535
        Specifically modified files are kept as modified, but
574
536
        ignored and unknown files are discarded.
575
537
 
576
538
        If you want to make a new line of development, see bzrdir.sprout()
577
539
 
578
540
        revision
579
 
            If not None, the cloned tree will have its last revision set to
580
 
            revision, and difference between the source trees last revision
 
541
            If not None, the cloned tree will have its last revision set to 
 
542
            revision, and and difference between the source trees last revision
581
543
            and this one merged in.
582
544
        """
583
545
        # assumes the target bzr dir format is compatible.
584
 
        result = to_bzrdir.create_workingtree()
 
546
        result = self._format.initialize(to_bzrdir)
585
547
        self.copy_content_into(result, revision_id)
586
548
        return result
587
549
 
598
560
            tree.set_parent_ids([revision_id])
599
561
 
600
562
    def id2abspath(self, file_id):
 
563
        file_id = osutils.safe_file_id(file_id)
601
564
        return self.abspath(self.id2path(file_id))
602
565
 
603
566
    def has_id(self, file_id):
604
567
        # files that have been deleted are excluded
 
568
        file_id = osutils.safe_file_id(file_id)
605
569
        inv = self.inventory
606
570
        if not inv.has_id(file_id):
607
571
            return False
609
573
        return osutils.lexists(self.abspath(path))
610
574
 
611
575
    def has_or_had_id(self, file_id):
 
576
        file_id = osutils.safe_file_id(file_id)
612
577
        if file_id == self.inventory.root.file_id:
613
578
            return True
614
579
        return self.inventory.has_id(file_id)
616
581
    __contains__ = has_id
617
582
 
618
583
    def get_file_size(self, file_id):
619
 
        """See Tree.get_file_size"""
620
 
        # XXX: this returns the on-disk size; it should probably return the
621
 
        # canonical size
622
 
        try:
623
 
            return os.path.getsize(self.id2abspath(file_id))
624
 
        except OSError, e:
625
 
            if e.errno != errno.ENOENT:
626
 
                raise
627
 
            else:
628
 
                return None
 
584
        file_id = osutils.safe_file_id(file_id)
 
585
        return os.path.getsize(self.id2abspath(file_id))
629
586
 
630
587
    @needs_read_lock
631
588
    def get_file_sha1(self, file_id, path=None, stat_value=None):
 
589
        file_id = osutils.safe_file_id(file_id)
632
590
        if not path:
633
591
            path = self._inventory.id2path(file_id)
634
592
        return self._hashcache.get_sha1(path, stat_value)
635
593
 
636
594
    def get_file_mtime(self, file_id, path=None):
 
595
        file_id = osutils.safe_file_id(file_id)
637
596
        if not path:
638
597
            path = self.inventory.id2path(file_id)
639
598
        return os.lstat(self.abspath(path)).st_mtime
640
599
 
641
 
    def _is_executable_from_path_and_stat_from_basis(self, path, stat_result):
642
 
        file_id = self.path2id(path)
643
 
        if file_id is None:
644
 
            # For unversioned files on win32, we just assume they are not
645
 
            # executable
646
 
            return False
647
 
        return self._inventory[file_id].executable
648
 
 
649
 
    def _is_executable_from_path_and_stat_from_stat(self, path, stat_result):
650
 
        mode = stat_result.st_mode
651
 
        return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
652
 
 
653
600
    if not supports_executable():
654
601
        def is_executable(self, file_id, path=None):
 
602
            file_id = osutils.safe_file_id(file_id)
655
603
            return self._inventory[file_id].executable
656
 
 
657
 
        _is_executable_from_path_and_stat = \
658
 
            _is_executable_from_path_and_stat_from_basis
659
604
    else:
660
605
        def is_executable(self, file_id, path=None):
661
606
            if not path:
 
607
                file_id = osutils.safe_file_id(file_id)
662
608
                path = self.id2path(file_id)
663
609
            mode = os.lstat(self.abspath(path)).st_mode
664
610
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
665
611
 
666
 
        _is_executable_from_path_and_stat = \
667
 
            _is_executable_from_path_and_stat_from_stat
668
 
 
669
612
    @needs_tree_write_lock
670
613
    def _add(self, files, ids, kinds):
671
614
        """See MutableTree._add."""
672
615
        # TODO: Re-adding a file that is removed in the working copy
673
616
        # should probably put it back with the previous ID.
674
 
        # the read and write working inventory should not occur in this
 
617
        # the read and write working inventory should not occur in this 
675
618
        # function - they should be part of lock_write and unlock.
676
 
        inv = self.inventory
 
619
        inv = self.read_working_inventory()
677
620
        for f, file_id, kind in zip(files, ids, kinds):
 
621
            assert kind is not None
678
622
            if file_id is None:
679
623
                inv.add_path(f, kind=kind)
680
624
            else:
 
625
                file_id = osutils.safe_file_id(file_id)
681
626
                inv.add_path(f, kind=kind, file_id=file_id)
682
 
            self._inventory_is_modified = True
 
627
        self._write_inventory(inv)
683
628
 
684
629
    @needs_tree_write_lock
685
630
    def _gather_kinds(self, files, kinds):
745
690
        if updated:
746
691
            self.set_parent_ids(parents, allow_leftmost_as_ghost=True)
747
692
 
748
 
    def path_content_summary(self, path, _lstat=os.lstat,
749
 
        _mapper=osutils.file_kind_from_stat_mode):
750
 
        """See Tree.path_content_summary."""
751
 
        abspath = self.abspath(path)
752
 
        try:
753
 
            stat_result = _lstat(abspath)
754
 
        except OSError, e:
755
 
            if getattr(e, 'errno', None) == errno.ENOENT:
756
 
                # no file.
757
 
                return ('missing', None, None, None)
758
 
            # propagate other errors
759
 
            raise
760
 
        kind = _mapper(stat_result.st_mode)
761
 
        if kind == 'file':
762
 
            return self._file_content_summary(path, stat_result)
763
 
        elif kind == 'directory':
764
 
            # perhaps it looks like a plain directory, but it's really a
765
 
            # reference.
766
 
            if self._directory_is_tree_reference(path):
767
 
                kind = 'tree-reference'
768
 
            return kind, None, None, None
769
 
        elif kind == 'symlink':
770
 
            target = osutils.readlink(abspath)
771
 
            return ('symlink', None, None, target)
772
 
        else:
773
 
            return (kind, None, None, None)
774
 
 
775
 
    def _file_content_summary(self, path, stat_result):
776
 
        size = stat_result.st_size
777
 
        executable = self._is_executable_from_path_and_stat(path, stat_result)
778
 
        # try for a stat cache lookup
779
 
        return ('file', size, executable, self._sha_from_stat(
780
 
            path, stat_result))
 
693
    @deprecated_method(zero_eleven)
 
694
    @needs_read_lock
 
695
    def pending_merges(self):
 
696
        """Return a list of pending merges.
 
697
 
 
698
        These are revisions that have been merged into the working
 
699
        directory but not yet committed.
 
700
 
 
701
        As of 0.11 this is deprecated. Please see WorkingTree.get_parent_ids()
 
702
        instead - which is available on all tree objects.
 
703
        """
 
704
        return self.get_parent_ids()[1:]
781
705
 
782
706
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
783
707
        """Common ghost checking functionality from set_parent_*.
793
717
 
794
718
    def _set_merges_from_parent_ids(self, parent_ids):
795
719
        merges = parent_ids[1:]
796
 
        self._transport.put_bytes('pending-merges', '\n'.join(merges),
797
 
            mode=self.bzrdir._get_file_mode())
798
 
 
799
 
    def _filter_parent_ids_by_ancestry(self, revision_ids):
800
 
        """Check that all merged revisions are proper 'heads'.
801
 
 
802
 
        This will always return the first revision_id, and any merged revisions
803
 
        which are
804
 
        """
805
 
        if len(revision_ids) == 0:
806
 
            return revision_ids
807
 
        graph = self.branch.repository.get_graph()
808
 
        heads = graph.heads(revision_ids)
809
 
        new_revision_ids = revision_ids[:1]
810
 
        for revision_id in revision_ids[1:]:
811
 
            if revision_id in heads and revision_id not in new_revision_ids:
812
 
                new_revision_ids.append(revision_id)
813
 
        if new_revision_ids != revision_ids:
814
 
            trace.mutter('requested to set revision_ids = %s,'
815
 
                         ' but filtered to %s', revision_ids, new_revision_ids)
816
 
        return new_revision_ids
 
720
        self._control_files.put_bytes('pending-merges', '\n'.join(merges))
817
721
 
818
722
    @needs_tree_write_lock
819
723
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
820
724
        """Set the parent ids to revision_ids.
821
 
 
 
725
        
822
726
        See also set_parent_trees. This api will try to retrieve the tree data
823
727
        for each element of revision_ids from the trees repository. If you have
824
728
        tree data already available, it is more efficient to use
828
732
        :param revision_ids: The revision_ids to set as the parent ids of this
829
733
            working tree. Any of these may be ghosts.
830
734
        """
 
735
        revision_ids = [osutils.safe_revision_id(r) for r in revision_ids]
831
736
        self._check_parents_for_ghosts(revision_ids,
832
737
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
833
 
        for revision_id in revision_ids:
834
 
            _mod_revision.check_not_reserved_id(revision_id)
835
 
 
836
 
        revision_ids = self._filter_parent_ids_by_ancestry(revision_ids)
837
738
 
838
739
        if len(revision_ids) > 0:
839
740
            self.set_last_revision(revision_ids[0])
840
741
        else:
841
 
            self.set_last_revision(_mod_revision.NULL_REVISION)
 
742
            self.set_last_revision(None)
842
743
 
843
744
        self._set_merges_from_parent_ids(revision_ids)
844
745
 
845
746
    @needs_tree_write_lock
846
747
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
847
748
        """See MutableTree.set_parent_trees."""
848
 
        parent_ids = [rev for (rev, tree) in parents_list]
849
 
        for revision_id in parent_ids:
850
 
            _mod_revision.check_not_reserved_id(revision_id)
 
749
        parent_ids = [osutils.safe_revision_id(rev) for (rev, tree) in parents_list]
851
750
 
852
751
        self._check_parents_for_ghosts(parent_ids,
853
752
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
854
753
 
855
 
        parent_ids = self._filter_parent_ids_by_ancestry(parent_ids)
856
 
 
857
754
        if len(parent_ids) == 0:
858
 
            leftmost_parent_id = _mod_revision.NULL_REVISION
 
755
            leftmost_parent_id = None
859
756
            leftmost_parent_tree = None
860
757
        else:
861
758
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
886
783
                yield Stanza(file_id=file_id.decode('utf8'), hash=hash)
887
784
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
888
785
 
889
 
    def _sha_from_stat(self, path, stat_result):
890
 
        """Get a sha digest from the tree's stat cache.
891
 
 
892
 
        The default implementation assumes no stat cache is present.
893
 
 
894
 
        :param path: The path.
895
 
        :param stat_result: The stat result being looked up.
896
 
        """
897
 
        return None
898
 
 
899
786
    def _put_rio(self, filename, stanzas, header):
900
787
        self._must_be_locked()
901
788
        my_file = rio_file(stanzas, header)
902
 
        self._transport.put_file(filename, my_file,
903
 
            mode=self.bzrdir._get_file_mode())
 
789
        self._control_files.put(filename, my_file)
904
790
 
905
791
    @needs_write_lock # because merge pulls data into the branch.
906
 
    def merge_from_branch(self, branch, to_revision=None, from_revision=None,
907
 
                          merge_type=None, force=False):
 
792
    def merge_from_branch(self, branch, to_revision=None):
908
793
        """Merge from a branch into this working tree.
909
794
 
910
795
        :param branch: The branch to merge from.
914
799
            branch.last_revision().
915
800
        """
916
801
        from bzrlib.merge import Merger, Merge3Merger
917
 
        merger = Merger(self.branch, this_tree=self)
918
 
        # check that there are no local alterations
919
 
        if not force and self.has_changes():
920
 
            raise errors.UncommittedChanges(self)
921
 
        if to_revision is None:
922
 
            to_revision = _mod_revision.ensure_null(branch.last_revision())
923
 
        merger.other_rev_id = to_revision
924
 
        if _mod_revision.is_null(merger.other_rev_id):
925
 
            raise errors.NoCommits(branch)
926
 
        self.branch.fetch(branch, last_revision=merger.other_rev_id)
927
 
        merger.other_basis = merger.other_rev_id
928
 
        merger.other_tree = self.branch.repository.revision_tree(
929
 
            merger.other_rev_id)
930
 
        merger.other_branch = branch
931
 
        if from_revision is None:
 
802
        pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
803
        try:
 
804
            merger = Merger(self.branch, this_tree=self, pb=pb)
 
805
            merger.pp = ProgressPhase("Merge phase", 5, pb)
 
806
            merger.pp.next_phase()
 
807
            # check that there are no
 
808
            # local alterations
 
809
            merger.check_basis(check_clean=True, require_commits=False)
 
810
            if to_revision is None:
 
811
                to_revision = branch.last_revision()
 
812
            else:
 
813
                to_revision = osutils.safe_revision_id(to_revision)
 
814
            merger.other_rev_id = to_revision
 
815
            if merger.other_rev_id is None:
 
816
                raise errors.NoCommits(branch)
 
817
            self.branch.fetch(branch, last_revision=merger.other_rev_id)
 
818
            merger.other_basis = merger.other_rev_id
 
819
            merger.other_tree = self.branch.repository.revision_tree(
 
820
                merger.other_rev_id)
 
821
            merger.other_branch = branch
 
822
            merger.pp.next_phase()
932
823
            merger.find_base()
933
 
        else:
934
 
            merger.set_base_revision(from_revision, branch)
935
 
        if merger.base_rev_id == merger.other_rev_id:
936
 
            raise errors.PointlessMerge
937
 
        merger.backup_files = False
938
 
        if merge_type is None:
 
824
            if merger.base_rev_id == merger.other_rev_id:
 
825
                raise errors.PointlessMerge
 
826
            merger.backup_files = False
939
827
            merger.merge_type = Merge3Merger
940
 
        else:
941
 
            merger.merge_type = merge_type
942
 
        merger.set_interesting_files(None)
943
 
        merger.show_base = False
944
 
        merger.reprocess = False
945
 
        conflicts = merger.do_merge()
946
 
        merger.set_pending()
 
828
            merger.set_interesting_files(None)
 
829
            merger.show_base = False
 
830
            merger.reprocess = False
 
831
            conflicts = merger.do_merge()
 
832
            merger.set_pending()
 
833
        finally:
 
834
            pb.finished()
947
835
        return conflicts
948
836
 
949
837
    @needs_read_lock
950
838
    def merge_modified(self):
951
839
        """Return a dictionary of files modified by a merge.
952
840
 
953
 
        The list is initialized by WorkingTree.set_merge_modified, which is
 
841
        The list is initialized by WorkingTree.set_merge_modified, which is 
954
842
        typically called after we make some automatic updates to the tree
955
843
        because of a merge.
956
844
 
958
846
        still in the working inventory and have that text hash.
959
847
        """
960
848
        try:
961
 
            hashfile = self._transport.get('merge-hashes')
 
849
            hashfile = self._control_files.get('merge-hashes')
962
850
        except errors.NoSuchFile:
963
851
            return {}
 
852
        merge_hashes = {}
964
853
        try:
965
 
            merge_hashes = {}
966
 
            try:
967
 
                if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
968
 
                    raise errors.MergeModifiedFormatError()
969
 
            except StopIteration:
 
854
            if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
970
855
                raise errors.MergeModifiedFormatError()
971
 
            for s in RioReader(hashfile):
972
 
                # RioReader reads in Unicode, so convert file_ids back to utf8
973
 
                file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
974
 
                if file_id not in self.inventory:
975
 
                    continue
976
 
                text_hash = s.get("hash")
977
 
                if text_hash == self.get_file_sha1(file_id):
978
 
                    merge_hashes[file_id] = text_hash
979
 
            return merge_hashes
980
 
        finally:
981
 
            hashfile.close()
 
856
        except StopIteration:
 
857
            raise errors.MergeModifiedFormatError()
 
858
        for s in RioReader(hashfile):
 
859
            # RioReader reads in Unicode, so convert file_ids back to utf8
 
860
            file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
 
861
            if file_id not in self.inventory:
 
862
                continue
 
863
            text_hash = s.get("hash")
 
864
            if text_hash == self.get_file_sha1(file_id):
 
865
                merge_hashes[file_id] = text_hash
 
866
        return merge_hashes
982
867
 
983
868
    @needs_write_lock
984
869
    def mkdir(self, path, file_id=None):
990
875
        return file_id
991
876
 
992
877
    def get_symlink_target(self, file_id):
993
 
        abspath = self.id2abspath(file_id)
994
 
        target = osutils.readlink(abspath)
995
 
        return target
 
878
        file_id = osutils.safe_file_id(file_id)
 
879
        return os.readlink(self.id2abspath(file_id))
996
880
 
997
881
    @needs_write_lock
998
882
    def subsume(self, other_tree):
1036
920
            other_tree.unlock()
1037
921
        other_tree.bzrdir.retire_bzrdir()
1038
922
 
1039
 
    def _setup_directory_is_tree_reference(self):
1040
 
        if self._branch.repository._format.supports_tree_reference:
1041
 
            self._directory_is_tree_reference = \
1042
 
                self._directory_may_be_tree_reference
1043
 
        else:
1044
 
            self._directory_is_tree_reference = \
1045
 
                self._directory_is_never_tree_reference
1046
 
 
1047
 
    def _directory_is_never_tree_reference(self, relpath):
1048
 
        return False
1049
 
 
1050
 
    def _directory_may_be_tree_reference(self, relpath):
1051
 
        # as a special case, if a directory contains control files then
1052
 
        # it's a tree reference, except that the root of the tree is not
1053
 
        return relpath and osutils.isdir(self.abspath(relpath) + u"/.bzr")
1054
 
        # TODO: We could ask all the control formats whether they
1055
 
        # recognize this directory, but at the moment there's no cheap api
1056
 
        # to do that.  Since we probably can only nest bzr checkouts and
1057
 
        # they always use this name it's ok for now.  -- mbp 20060306
1058
 
        #
1059
 
        # FIXME: There is an unhandled case here of a subdirectory
1060
 
        # containing .bzr but not a branch; that will probably blow up
1061
 
        # when you try to commit it.  It might happen if there is a
1062
 
        # checkout in a subdirectory.  This can be avoided by not adding
1063
 
        # it.  mbp 20070306
1064
 
 
1065
923
    @needs_tree_write_lock
1066
924
    def extract(self, file_id, format=None):
1067
925
        """Extract a subtree from this tree.
1068
 
 
 
926
        
1069
927
        A new branch will be created, relative to the path for this tree.
1070
928
        """
1071
929
        self.flush()
1076
934
                transport = transport.clone(name)
1077
935
                transport.ensure_base()
1078
936
            return transport
1079
 
 
 
937
            
1080
938
        sub_path = self.id2path(file_id)
1081
939
        branch_transport = mkdirs(sub_path)
1082
940
        if format is None:
1083
 
            format = self.bzrdir.cloning_metadir()
 
941
            format = bzrdir.format_registry.make_bzrdir('dirstate-with-subtree')
1084
942
        branch_transport.ensure_base()
1085
943
        branch_bzrdir = format.initialize_on_transport(branch_transport)
1086
944
        try:
1087
945
            repo = branch_bzrdir.find_repository()
1088
946
        except errors.NoRepositoryPresent:
1089
947
            repo = branch_bzrdir.create_repository()
1090
 
        if not repo.supports_rich_root():
1091
 
            raise errors.RootNotRich()
 
948
            assert repo.supports_rich_root()
 
949
        else:
 
950
            if not repo.supports_rich_root():
 
951
                raise errors.RootNotRich()
1092
952
        new_branch = branch_bzrdir.create_branch()
1093
953
        new_branch.pull(self.branch)
1094
954
        for parent_id in self.get_parent_ids():
1096
956
        tree_transport = self.bzrdir.root_transport.clone(sub_path)
1097
957
        if tree_transport.base != branch_transport.base:
1098
958
            tree_bzrdir = format.initialize_on_transport(tree_transport)
1099
 
            branch.BranchReferenceFormat().initialize(tree_bzrdir,
1100
 
                target_branch=new_branch)
 
959
            branch.BranchReferenceFormat().initialize(tree_bzrdir, new_branch)
1101
960
        else:
1102
961
            tree_bzrdir = branch_bzrdir
1103
 
        wt = tree_bzrdir.create_workingtree(_mod_revision.NULL_REVISION)
 
962
        wt = tree_bzrdir.create_workingtree(NULL_REVISION)
1104
963
        wt.set_parent_ids(self.get_parent_ids())
1105
964
        my_inv = self.inventory
1106
 
        child_inv = inventory.Inventory(root_id=None)
 
965
        child_inv = Inventory(root_id=None)
1107
966
        new_root = my_inv[file_id]
1108
967
        my_inv.remove_recursive_id(file_id)
1109
968
        new_root.parent_id = None
1113
972
        return wt
1114
973
 
1115
974
    def _serialize(self, inventory, out_file):
1116
 
        xml5.serializer_v5.write_inventory(self._inventory, out_file,
1117
 
            working=True)
 
975
        xml5.serializer_v5.write_inventory(self._inventory, out_file)
1118
976
 
1119
977
    def _deserialize(selt, in_file):
1120
978
        return xml5.serializer_v5.read_inventory(in_file)
1127
985
        sio = StringIO()
1128
986
        self._serialize(self._inventory, sio)
1129
987
        sio.seek(0)
1130
 
        self._transport.put_file('inventory', sio,
1131
 
            mode=self.bzrdir._get_file_mode())
 
988
        self._control_files.put('inventory', sio)
1132
989
        self._inventory_is_modified = False
1133
990
 
1134
991
    def _kind(self, relpath):
1135
992
        return osutils.file_kind(self.abspath(relpath))
1136
993
 
1137
 
    def list_files(self, include_root=False, from_dir=None, recursive=True):
1138
 
        """List all files as (path, class, kind, id, entry).
 
994
    def list_files(self, include_root=False):
 
995
        """Recursively list all files as (path, class, kind, id, entry).
1139
996
 
1140
997
        Lists, but does not descend into unversioned directories.
 
998
 
1141
999
        This does not include files that have been deleted in this
1142
 
        tree. Skips the control directory.
 
1000
        tree.
1143
1001
 
1144
 
        :param include_root: if True, return an entry for the root
1145
 
        :param from_dir: start from this directory or None for the root
1146
 
        :param recursive: whether to recurse into subdirectories or not
 
1002
        Skips the control directory.
1147
1003
        """
1148
1004
        # list_files is an iterator, so @needs_read_lock doesn't work properly
1149
1005
        # with it. So callers should be careful to always read_lock the tree.
1151
1007
            raise errors.ObjectNotLocked(self)
1152
1008
 
1153
1009
        inv = self.inventory
1154
 
        if from_dir is None and include_root is True:
 
1010
        if include_root is True:
1155
1011
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
1156
1012
        # Convert these into local objects to save lookup times
1157
1013
        pathjoin = osutils.pathjoin
1164
1020
        fk_entries = {'directory':TreeDirectory, 'file':TreeFile, 'symlink':TreeLink}
1165
1021
 
1166
1022
        # directory file_id, relative path, absolute path, reverse sorted children
1167
 
        if from_dir is not None:
1168
 
            from_dir_id = inv.path2id(from_dir)
1169
 
            if from_dir_id is None:
1170
 
                # Directory not versioned
1171
 
                return
1172
 
            from_dir_abspath = pathjoin(self.basedir, from_dir)
1173
 
        else:
1174
 
            from_dir_id = inv.root.file_id
1175
 
            from_dir_abspath = self.basedir
1176
 
        children = os.listdir(from_dir_abspath)
 
1023
        children = os.listdir(self.basedir)
1177
1024
        children.sort()
1178
 
        # jam 20060527 The kernel sized tree seems equivalent whether we
 
1025
        # jam 20060527 The kernel sized tree seems equivalent whether we 
1179
1026
        # use a deque and popleft to keep them sorted, or if we use a plain
1180
1027
        # list and just reverse() them.
1181
1028
        children = collections.deque(children)
1182
 
        stack = [(from_dir_id, u'', from_dir_abspath, children)]
 
1029
        stack = [(inv.root.file_id, u'', self.basedir, children)]
1183
1030
        while stack:
1184
1031
            from_dir_id, from_dir_relpath, from_dir_abspath, children = stack[-1]
1185
1032
 
1201
1048
 
1202
1049
                # absolute path
1203
1050
                fap = from_dir_abspath + '/' + f
1204
 
 
 
1051
                
1205
1052
                f_ie = inv.get_child(from_dir_id, f)
1206
1053
                if f_ie:
1207
1054
                    c = 'V'
1239
1086
                    except KeyError:
1240
1087
                        yield fp[1:], c, fk, None, TreeEntry()
1241
1088
                    continue
1242
 
 
 
1089
                
1243
1090
                if fk != 'directory':
1244
1091
                    continue
1245
1092
 
1246
 
                # But do this child first if recursing down
1247
 
                if recursive:
1248
 
                    new_children = os.listdir(fap)
1249
 
                    new_children.sort()
1250
 
                    new_children = collections.deque(new_children)
1251
 
                    stack.append((f_ie.file_id, fp, fap, new_children))
1252
 
                    # Break out of inner loop,
1253
 
                    # so that we start outer loop with child
1254
 
                    break
 
1093
                # But do this child first
 
1094
                new_children = os.listdir(fap)
 
1095
                new_children.sort()
 
1096
                new_children = collections.deque(new_children)
 
1097
                stack.append((f_ie.file_id, fp, fap, new_children))
 
1098
                # Break out of inner loop,
 
1099
                # so that we start outer loop with child
 
1100
                break
1255
1101
            else:
1256
1102
                # if we finished all children, pop it off the stack
1257
1103
                stack.pop()
1263
1109
        to_dir must exist in the inventory.
1264
1110
 
1265
1111
        If to_dir exists and is a directory, the files are moved into
1266
 
        it, keeping their old names.
 
1112
        it, keeping their old names.  
1267
1113
 
1268
1114
        Note that to_dir is only the last component of the new name;
1269
1115
        this doesn't change the directory.
1306
1152
                                       DeprecationWarning)
1307
1153
 
1308
1154
        # check destination directory
1309
 
        if isinstance(from_paths, basestring):
1310
 
            raise ValueError()
 
1155
        assert not isinstance(from_paths, basestring)
1311
1156
        inv = self.inventory
1312
1157
        to_abs = self.abspath(to_dir)
1313
1158
        if not isdir(to_abs):
1397
1242
                only_change_inv = True
1398
1243
            elif self.has_filename(from_rel) and not self.has_filename(to_rel):
1399
1244
                only_change_inv = False
1400
 
            elif (not self.case_sensitive
1401
 
                  and from_rel.lower() == to_rel.lower()
1402
 
                  and self.has_filename(from_rel)):
1403
 
                only_change_inv = False
1404
1245
            else:
1405
1246
                # something is wrong, so lets determine what exactly
1406
1247
                if not self.has_filename(from_rel) and \
1409
1250
                        errors.PathsDoNotExist(paths=(str(from_rel),
1410
1251
                        str(to_rel))))
1411
1252
                else:
1412
 
                    raise errors.RenameFailedFilesExist(from_rel, to_rel)
 
1253
                    raise errors.RenameFailedFilesExist(from_rel, to_rel,
 
1254
                        extra="(Use --after to update the Bazaar id)")
1413
1255
            rename_entry.only_change_inv = only_change_inv
1414
1256
        return rename_entries
1415
1257
 
1435
1277
        inv = self.inventory
1436
1278
        for entry in moved:
1437
1279
            try:
1438
 
                self._move_entry(WorkingTree._RenameEntry(
1439
 
                    entry.to_rel, entry.from_id,
 
1280
                self._move_entry(_RenameEntry(entry.to_rel, entry.from_id,
1440
1281
                    entry.to_tail, entry.to_parent_id, entry.from_rel,
1441
1282
                    entry.from_tail, entry.from_parent_id,
1442
1283
                    entry.only_change_inv))
1493
1334
        from_tail = splitpath(from_rel)[-1]
1494
1335
        from_id = inv.path2id(from_rel)
1495
1336
        if from_id is None:
1496
 
            # if file is missing in the inventory maybe it's in the basis_tree
1497
 
            basis_tree = self.branch.basis_tree()
1498
 
            from_id = basis_tree.path2id(from_rel)
1499
 
            if from_id is None:
1500
 
                raise errors.BzrRenameFailedError(from_rel,to_rel,
1501
 
                    errors.NotVersionedError(path=str(from_rel)))
1502
 
            # put entry back in the inventory so we can rename it
1503
 
            from_entry = basis_tree.inventory[from_id].copy()
1504
 
            inv.add(from_entry)
1505
 
        else:
1506
 
            from_entry = inv[from_id]
 
1337
            raise errors.BzrRenameFailedError(from_rel,to_rel,
 
1338
                errors.NotVersionedError(path=str(from_rel)))
 
1339
        from_entry = inv[from_id]
1507
1340
        from_parent_id = from_entry.parent_id
1508
1341
        to_dir, to_tail = os.path.split(to_rel)
1509
1342
        to_dir_id = inv.path2id(to_dir)
1555
1388
        These are files in the working directory that are not versioned or
1556
1389
        control files or ignored.
1557
1390
        """
1558
 
        # force the extras method to be fully executed before returning, to
 
1391
        # force the extras method to be fully executed before returning, to 
1559
1392
        # prevent race conditions with the lock
1560
1393
        return iter(
1561
1394
            [subp for subp in self.extras() if not self.is_ignored(subp)])
1571
1404
        :raises: NoSuchId if any fileid is not currently versioned.
1572
1405
        """
1573
1406
        for file_id in file_ids:
1574
 
            if file_id not in self._inventory:
1575
 
                raise errors.NoSuchId(self, file_id)
1576
 
        for file_id in file_ids:
 
1407
            file_id = osutils.safe_file_id(file_id)
1577
1408
            if self._inventory.has_id(file_id):
1578
1409
                self._inventory.remove_recursive_id(file_id)
 
1410
            else:
 
1411
                raise errors.NoSuchId(self, file_id)
1579
1412
        if len(file_ids):
1580
 
            # in the future this should just set a dirty bit to wait for the
 
1413
            # in the future this should just set a dirty bit to wait for the 
1581
1414
            # final unlock. However, until all methods of workingtree start
1582
 
            # with the current in -memory inventory rather than triggering
 
1415
            # with the current in -memory inventory rather than triggering 
1583
1416
            # a read, it is more complex - we need to teach read_inventory
1584
1417
            # to know when to read, and when to not read first... and possibly
1585
1418
            # to save first when the in memory one may be corrupted.
1586
1419
            # so for now, we just only write it if it is indeed dirty.
1587
1420
            # - RBC 20060907
1588
1421
            self._write_inventory(self._inventory)
 
1422
    
 
1423
    @deprecated_method(zero_eight)
 
1424
    def iter_conflicts(self):
 
1425
        """List all files in the tree that have text or content conflicts.
 
1426
        DEPRECATED.  Use conflicts instead."""
 
1427
        return self._iter_conflicts()
1589
1428
 
1590
1429
    def _iter_conflicts(self):
1591
1430
        conflicted = set()
1600
1439
 
1601
1440
    @needs_write_lock
1602
1441
    def pull(self, source, overwrite=False, stop_revision=None,
1603
 
             change_reporter=None, possible_transports=None, local=False):
 
1442
             change_reporter=None):
 
1443
        top_pb = bzrlib.ui.ui_factory.nested_progress_bar()
1604
1444
        source.lock_read()
1605
1445
        try:
 
1446
            pp = ProgressPhase("Pull phase", 2, top_pb)
 
1447
            pp.next_phase()
1606
1448
            old_revision_info = self.branch.last_revision_info()
1607
1449
            basis_tree = self.basis_tree()
1608
 
            count = self.branch.pull(source, overwrite, stop_revision,
1609
 
                                     possible_transports=possible_transports,
1610
 
                                     local=local)
 
1450
            count = self.branch.pull(source, overwrite, stop_revision)
1611
1451
            new_revision_info = self.branch.last_revision_info()
1612
1452
            if new_revision_info != old_revision_info:
 
1453
                pp.next_phase()
1613
1454
                repository = self.branch.repository
 
1455
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
1614
1456
                basis_tree.lock_read()
1615
1457
                try:
1616
1458
                    new_basis_tree = self.branch.basis_tree()
1619
1461
                                new_basis_tree,
1620
1462
                                basis_tree,
1621
1463
                                this_tree=self,
1622
 
                                pb=None,
 
1464
                                pb=pb,
1623
1465
                                change_reporter=change_reporter)
1624
 
                    basis_root_id = basis_tree.get_root_id()
1625
 
                    new_root_id = new_basis_tree.get_root_id()
1626
 
                    if basis_root_id != new_root_id:
1627
 
                        self.set_root_id(new_root_id)
 
1466
                    if (basis_tree.inventory.root is None and
 
1467
                        new_basis_tree.inventory.root is not None):
 
1468
                        self.set_root_id(new_basis_tree.inventory.root.file_id)
1628
1469
                finally:
 
1470
                    pb.finished()
1629
1471
                    basis_tree.unlock()
1630
1472
                # TODO - dedup parents list with things merged by pull ?
1631
1473
                # reuse the revisiontree we merged against to set the new
1632
1474
                # tree data.
1633
1475
                parent_trees = [(self.branch.last_revision(), new_basis_tree)]
1634
 
                # we have to pull the merge trees out again, because
1635
 
                # merge_inner has set the ids. - this corner is not yet
 
1476
                # we have to pull the merge trees out again, because 
 
1477
                # merge_inner has set the ids. - this corner is not yet 
1636
1478
                # layered well enough to prevent double handling.
1637
1479
                # XXX TODO: Fix the double handling: telling the tree about
1638
1480
                # the already known parent data is wasteful.
1644
1486
            return count
1645
1487
        finally:
1646
1488
            source.unlock()
 
1489
            top_pb.finished()
1647
1490
 
1648
1491
    @needs_write_lock
1649
1492
    def put_file_bytes_non_atomic(self, file_id, bytes):
1650
1493
        """See MutableTree.put_file_bytes_non_atomic."""
 
1494
        file_id = osutils.safe_file_id(file_id)
1651
1495
        stream = file(self.id2abspath(file_id), 'wb')
1652
1496
        try:
1653
1497
            stream.write(bytes)
1675
1519
 
1676
1520
            fl = []
1677
1521
            for subf in os.listdir(dirabs):
1678
 
                if self.bzrdir.is_control_filename(subf):
 
1522
                if subf == '.bzr':
1679
1523
                    continue
1680
1524
                if subf not in dir_entry.children:
1681
 
                    try:
1682
 
                        (subf_norm,
1683
 
                         can_access) = osutils.normalized_filename(subf)
1684
 
                    except UnicodeDecodeError:
1685
 
                        path_os_enc = path.encode(osutils._fs_enc)
1686
 
                        relpath = path_os_enc + '/' + subf
1687
 
                        raise errors.BadFilenameEncoding(relpath,
1688
 
                                                         osutils._fs_enc)
 
1525
                    subf_norm, can_access = osutils.normalized_filename(subf)
1689
1526
                    if subf_norm != subf and can_access:
1690
1527
                        if subf_norm not in dir_entry.children:
1691
1528
                            fl.append(subf_norm)
1692
1529
                    else:
1693
1530
                        fl.append(subf)
1694
 
 
 
1531
            
1695
1532
            fl.sort()
1696
1533
            for subf in fl:
1697
1534
                subp = pathjoin(path, subf)
1713
1550
        if ignoreset is not None:
1714
1551
            return ignoreset
1715
1552
 
1716
 
        ignore_globs = set()
 
1553
        ignore_globs = set(bzrlib.DEFAULT_IGNORE)
1717
1554
        ignore_globs.update(ignores.get_runtime_ignores())
1718
1555
        ignore_globs.update(ignores.get_user_ignores())
1719
1556
        if self.has_filename(bzrlib.IGNORE_FILENAME):
1734
1571
        r"""Check whether the filename matches an ignore pattern.
1735
1572
 
1736
1573
        Patterns containing '/' or '\' need to match the whole path;
1737
 
        others match against only the last component.  Patterns starting
1738
 
        with '!' are ignore exceptions.  Exceptions take precedence
1739
 
        over regular patterns and cause the filename to not be ignored.
 
1574
        others match against only the last component.
1740
1575
 
1741
1576
        If the file is ignored, returns the pattern which caused it to
1742
1577
        be ignored, otherwise None.  So this can simply be used as a
1743
1578
        boolean if desired."""
1744
1579
        if getattr(self, '_ignoreglobster', None) is None:
1745
 
            self._ignoreglobster = globbing.ExceptionGlobster(self.get_ignore_list())
 
1580
            self._ignoreglobster = globbing.Globster(self.get_ignore_list())
1746
1581
        return self._ignoreglobster.match(filename)
1747
1582
 
1748
1583
    def kind(self, file_id):
1749
1584
        return file_kind(self.id2abspath(file_id))
1750
1585
 
1751
 
    def stored_kind(self, file_id):
1752
 
        """See Tree.stored_kind"""
1753
 
        return self.inventory[file_id].kind
1754
 
 
1755
1586
    def _comparison_data(self, entry, path):
1756
1587
        abspath = self.abspath(path)
1757
1588
        try:
1788
1619
    @needs_read_lock
1789
1620
    def _last_revision(self):
1790
1621
        """helper for get_parent_ids."""
1791
 
        return _mod_revision.ensure_null(self.branch.last_revision())
 
1622
        return self.branch.last_revision()
1792
1623
 
1793
1624
    def is_locked(self):
1794
1625
        return self._control_files.is_locked()
1798
1629
            raise errors.ObjectNotLocked(self)
1799
1630
 
1800
1631
    def lock_read(self):
1801
 
        """Lock the tree for reading.
1802
 
 
1803
 
        This also locks the branch, and can be unlocked via self.unlock().
1804
 
 
1805
 
        :return: An object with an unlock method which will release the lock
1806
 
            obtained.
1807
 
        """
 
1632
        """See Branch.lock_read, and WorkingTree.unlock."""
1808
1633
        if not self.is_locked():
1809
1634
            self._reset_data()
1810
1635
        self.branch.lock_read()
1811
1636
        try:
1812
 
            self._control_files.lock_read()
1813
 
            return self
 
1637
            return self._control_files.lock_read()
1814
1638
        except:
1815
1639
            self.branch.unlock()
1816
1640
            raise
1817
1641
 
1818
1642
    def lock_tree_write(self):
1819
 
        """See MutableTree.lock_tree_write, and WorkingTree.unlock.
1820
 
 
1821
 
        :return: An object with an unlock method which will release the lock
1822
 
            obtained.
1823
 
        """
 
1643
        """See MutableTree.lock_tree_write, and WorkingTree.unlock."""
1824
1644
        if not self.is_locked():
1825
1645
            self._reset_data()
1826
1646
        self.branch.lock_read()
1827
1647
        try:
1828
 
            self._control_files.lock_write()
1829
 
            return self
 
1648
            return self._control_files.lock_write()
1830
1649
        except:
1831
1650
            self.branch.unlock()
1832
1651
            raise
1833
1652
 
1834
1653
    def lock_write(self):
1835
 
        """See MutableTree.lock_write, and WorkingTree.unlock.
1836
 
 
1837
 
        :return: An object with an unlock method which will release the lock
1838
 
            obtained.
1839
 
        """
 
1654
        """See MutableTree.lock_write, and WorkingTree.unlock."""
1840
1655
        if not self.is_locked():
1841
1656
            self._reset_data()
1842
1657
        self.branch.lock_write()
1843
1658
        try:
1844
 
            self._control_files.lock_write()
1845
 
            return self
 
1659
            return self._control_files.lock_write()
1846
1660
        except:
1847
1661
            self.branch.unlock()
1848
1662
            raise
1856
1670
    def _reset_data(self):
1857
1671
        """Reset transient data that cannot be revalidated."""
1858
1672
        self._inventory_is_modified = False
1859
 
        f = self._transport.get('inventory')
1860
 
        try:
1861
 
            result = self._deserialize(f)
1862
 
        finally:
1863
 
            f.close()
 
1673
        result = self._deserialize(self._control_files.get('inventory'))
1864
1674
        self._set_inventory(result, dirty=False)
1865
1675
 
1866
1676
    @needs_tree_write_lock
1867
1677
    def set_last_revision(self, new_revision):
1868
1678
        """Change the last revision in the working tree."""
 
1679
        new_revision = osutils.safe_revision_id(new_revision)
1869
1680
        if self._change_last_revision(new_revision):
1870
1681
            self._cache_basis_inventory(new_revision)
1871
1682
 
1872
1683
    def _change_last_revision(self, new_revision):
1873
1684
        """Template method part of set_last_revision to perform the change.
1874
 
 
 
1685
        
1875
1686
        This is used to allow WorkingTree3 instances to not affect branch
1876
1687
        when their last revision is set.
1877
1688
        """
1878
 
        if _mod_revision.is_null(new_revision):
 
1689
        if new_revision is None:
1879
1690
            self.branch.set_revision_history([])
1880
1691
            return False
1881
1692
        try:
1887
1698
 
1888
1699
    def _write_basis_inventory(self, xml):
1889
1700
        """Write the basis inventory XML to the basis-inventory file"""
 
1701
        assert isinstance(xml, str), 'serialised xml must be bytestring.'
1890
1702
        path = self._basis_inventory_name()
1891
1703
        sio = StringIO(xml)
1892
 
        self._transport.put_file(path, sio,
1893
 
            mode=self.bzrdir._get_file_mode())
 
1704
        self._control_files.put(path, sio)
1894
1705
 
1895
1706
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
1896
1707
        """Create the text that will be saved in basis-inventory"""
1897
 
        inventory.revision_id = revision_id
 
1708
        # TODO: jam 20070209 This should be redundant, as the revision_id
 
1709
        #       as all callers should have already converted the revision_id to
 
1710
        #       utf8
 
1711
        inventory.revision_id = osutils.safe_revision_id(revision_id)
1898
1712
        return xml7.serializer_v7.write_inventory_to_string(inventory)
1899
1713
 
1900
1714
    def _cache_basis_inventory(self, new_revision):
1903
1717
        # as commit already has that ready-to-use [while the format is the
1904
1718
        # same, that is].
1905
1719
        try:
1906
 
            # this double handles the inventory - unpack and repack -
 
1720
            # this double handles the inventory - unpack and repack - 
1907
1721
            # but is easier to understand. We can/should put a conditional
1908
1722
            # in here based on whether the inventory is in the latest format
1909
1723
            # - perhaps we should repack all inventories on a repository
1910
1724
            # upgrade ?
1911
1725
            # the fast path is to copy the raw xml from the repository. If the
1912
 
            # xml contains 'revision_id="', then we assume the right
 
1726
            # xml contains 'revision_id="', then we assume the right 
1913
1727
            # revision_id is set. We must check for this full string, because a
1914
1728
            # root node id can legitimately look like 'revision_id' but cannot
1915
1729
            # contain a '"'.
1916
 
            xml = self.branch.repository._get_inventory_xml(new_revision)
 
1730
            xml = self.branch.repository.get_inventory_xml(new_revision)
1917
1731
            firstline = xml.split('\n', 1)[0]
1918
 
            if (not 'revision_id="' in firstline or
 
1732
            if (not 'revision_id="' in firstline or 
1919
1733
                'format="7"' not in firstline):
1920
 
                inv = self.branch.repository._serializer.read_inventory_from_string(
1921
 
                    xml, new_revision)
 
1734
                inv = self.branch.repository.deserialise_inventory(
 
1735
                    new_revision, xml)
1922
1736
                xml = self._create_basis_xml_from_inventory(new_revision, inv)
1923
1737
            self._write_basis_inventory(xml)
1924
1738
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
1927
1741
    def read_basis_inventory(self):
1928
1742
        """Read the cached basis inventory."""
1929
1743
        path = self._basis_inventory_name()
1930
 
        return self._transport.get_bytes(path)
1931
 
 
 
1744
        return self._control_files.get(path).read()
 
1745
        
1932
1746
    @needs_read_lock
1933
1747
    def read_working_inventory(self):
1934
1748
        """Read the working inventory.
1935
 
 
 
1749
        
1936
1750
        :raises errors.InventoryModified: read_working_inventory will fail
1937
1751
            when the current in memory inventory has been modified.
1938
1752
        """
1939
 
        # conceptually this should be an implementation detail of the tree.
 
1753
        # conceptually this should be an implementation detail of the tree. 
1940
1754
        # XXX: Deprecate this.
1941
1755
        # ElementTree does its own conversion from UTF-8, so open in
1942
1756
        # binary.
1943
1757
        if self._inventory_is_modified:
1944
1758
            raise errors.InventoryModified(self)
1945
 
        f = self._transport.get('inventory')
1946
 
        try:
1947
 
            result = self._deserialize(f)
1948
 
        finally:
1949
 
            f.close()
 
1759
        result = self._deserialize(self._control_files.get('inventory'))
1950
1760
        self._set_inventory(result, dirty=False)
1951
1761
        return result
1952
1762
 
1953
1763
    @needs_tree_write_lock
1954
1764
    def remove(self, files, verbose=False, to_file=None, keep_files=True,
1955
1765
        force=False):
1956
 
        """Remove nominated files from the working inventory.
 
1766
        """Remove nominated files from the working inventor.
1957
1767
 
1958
1768
        :files: File paths relative to the basedir.
1959
1769
        :keep_files: If true, the files will also be kept.
1960
1770
        :force: Delete files and directories, even if they are changed and
1961
1771
            even if the directories are not empty.
1962
1772
        """
 
1773
        ## TODO: Normalize names
 
1774
 
1963
1775
        if isinstance(files, basestring):
1964
1776
            files = [files]
1965
1777
 
1966
1778
        inv_delta = []
1967
1779
 
1968
1780
        new_files=set()
1969
 
        unknown_nested_files=set()
1970
 
        if to_file is None:
1971
 
            to_file = sys.stdout
 
1781
        unknown_files_in_directory=set()
1972
1782
 
1973
1783
        def recurse_directory_to_add_files(directory):
1974
 
            # Recurse directory and add all files
 
1784
            # recurse directory and add all files
1975
1785
            # so we can check if they have changed.
1976
1786
            for parent_info, file_infos in\
1977
 
                self.walkdirs(directory):
1978
 
                for relpath, basename, kind, lstat, fileid, kind in file_infos:
1979
 
                    # Is it versioned or ignored?
1980
 
                    if self.path2id(relpath) or self.is_ignored(relpath):
1981
 
                        # Add nested content for deletion.
1982
 
                        new_files.add(relpath)
1983
 
                    else:
1984
 
                        # Files which are not versioned and not ignored
1985
 
                        # should be treated as unknown.
1986
 
                        unknown_nested_files.add((relpath, None, kind))
 
1787
                osutils.walkdirs(self.abspath(directory),
 
1788
                    directory):
 
1789
                for relpath, basename, kind, lstat, abspath in file_infos:
 
1790
                    if kind == 'file':
 
1791
                        if self.path2id(relpath): #is it versioned?
 
1792
                            new_files.add(relpath)
 
1793
                        else:
 
1794
                            unknown_files_in_directory.add(
 
1795
                                (relpath, None, kind))
1987
1796
 
1988
1797
        for filename in files:
1989
1798
            # Get file name into canonical form.
1991
1800
            filename = self.relpath(abspath)
1992
1801
            if len(filename) > 0:
1993
1802
                new_files.add(filename)
1994
 
                recurse_directory_to_add_files(filename)
1995
 
 
1996
 
        files = list(new_files)
1997
 
 
1998
 
        if len(files) == 0:
1999
 
            return # nothing to do
 
1803
                if osutils.isdir(abspath):
 
1804
                    recurse_directory_to_add_files(filename)
 
1805
        files = [f for f in new_files]
2000
1806
 
2001
1807
        # Sort needed to first handle directory content before the directory
2002
1808
        files.sort(reverse=True)
2003
 
 
2004
 
        # Bail out if we are going to delete files we shouldn't
2005
1809
        if not keep_files and not force:
2006
 
            has_changed_files = len(unknown_nested_files) > 0
2007
 
            if not has_changed_files:
2008
 
                for (file_id, path, content_change, versioned, parent_id, name,
2009
 
                     kind, executable) in self.iter_changes(self.basis_tree(),
2010
 
                         include_unchanged=True, require_versioned=False,
2011
 
                         want_unversioned=True, specific_files=files):
2012
 
                    if versioned == (False, False):
2013
 
                        # The record is unknown ...
2014
 
                        if not self.is_ignored(path[1]):
2015
 
                            # ... but not ignored
2016
 
                            has_changed_files = True
2017
 
                            break
2018
 
                    elif content_change and (kind[1] is not None):
2019
 
                        # Versioned and changed, but not deleted
2020
 
                        has_changed_files = True
2021
 
                        break
2022
 
 
2023
 
            if has_changed_files:
2024
 
                # Make delta show ALL applicable changes in error message.
2025
 
                tree_delta = self.changes_from(self.basis_tree(),
2026
 
                    require_versioned=False, want_unversioned=True,
2027
 
                    specific_files=files)
2028
 
                for unknown_file in unknown_nested_files:
2029
 
                    if unknown_file not in tree_delta.unversioned:
2030
 
                        tree_delta.unversioned.extend((unknown_file,))
 
1810
            tree_delta = self.changes_from(self.basis_tree(),
 
1811
                specific_files=files)
 
1812
            for unknown_file in unknown_files_in_directory:
 
1813
                tree_delta.unversioned.extend((unknown_file,))
 
1814
            if bool(tree_delta.modified
 
1815
                    or tree_delta.added
 
1816
                    or tree_delta.renamed
 
1817
                    or tree_delta.kind_changed
 
1818
                    or tree_delta.unversioned):
2031
1819
                raise errors.BzrRemoveChangedFilesError(tree_delta)
2032
1820
 
2033
 
        # Build inv_delta and delete files where applicable,
2034
 
        # do this before any modifications to inventory.
 
1821
        # do this before any modifications
2035
1822
        for f in files:
2036
1823
            fid = self.path2id(f)
2037
 
            message = None
 
1824
            message=None
2038
1825
            if not fid:
2039
 
                message = "%s is not versioned." % (f,)
 
1826
                message="%s is not versioned." % (f,)
2040
1827
            else:
2041
1828
                if verbose:
2042
1829
                    # having removed it, it must be either ignored or unknown
2044
1831
                        new_status = 'I'
2045
1832
                    else:
2046
1833
                        new_status = '?'
2047
 
                    # XXX: Really should be a more abstract reporter interface
2048
 
                    kind_ch = osutils.kind_marker(self.kind(fid))
2049
 
                    to_file.write(new_status + '       ' + f + kind_ch + '\n')
2050
 
                # Unversion file
 
1834
                    textui.show_status(new_status, self.kind(fid), f,
 
1835
                                       to_file=to_file)
 
1836
                # unversion file
2051
1837
                inv_delta.append((f, None, fid, None))
2052
 
                message = "removed %s" % (f,)
 
1838
                message="removed %s" % (f,)
2053
1839
 
2054
1840
            if not keep_files:
2055
1841
                abs_path = self.abspath(f)
2056
1842
                if osutils.lexists(abs_path):
2057
1843
                    if (osutils.isdir(abs_path) and
2058
1844
                        len(os.listdir(abs_path)) > 0):
2059
 
                        if force:
2060
 
                            osutils.rmtree(abs_path)
2061
 
                        else:
2062
 
                            message = "%s is not an empty directory "\
2063
 
                                "and won't be deleted." % (f,)
 
1845
                        message="%s is not empty directory "\
 
1846
                            "and won't be deleted." % (f,)
2064
1847
                    else:
2065
1848
                        osutils.delete_any(abs_path)
2066
 
                        message = "deleted %s" % (f,)
 
1849
                        message="deleted %s" % (f,)
2067
1850
                elif message is not None:
2068
 
                    # Only care if we haven't done anything yet.
2069
 
                    message = "%s does not exist." % (f,)
 
1851
                    # only care if we haven't done anything yet.
 
1852
                    message="%s does not exist." % (f,)
2070
1853
 
2071
 
            # Print only one message (if any) per file.
 
1854
            # print only one message (if any) per file.
2072
1855
            if message is not None:
2073
1856
                note(message)
2074
1857
        self.apply_inventory_delta(inv_delta)
2075
1858
 
2076
1859
    @needs_tree_write_lock
2077
 
    def revert(self, filenames=None, old_tree=None, backups=True,
2078
 
               pb=None, report_changes=False):
 
1860
    def revert(self, filenames, old_tree=None, backups=True, 
 
1861
               pb=DummyProgress(), report_changes=False):
2079
1862
        from bzrlib.conflicts import resolve
2080
 
        if filenames == []:
2081
 
            filenames = None
2082
 
            symbol_versioning.warn('Using [] to revert all files is deprecated'
2083
 
                ' as of bzr 0.91.  Please use None (the default) instead.',
2084
 
                DeprecationWarning, stacklevel=2)
2085
1863
        if old_tree is None:
2086
 
            basis_tree = self.basis_tree()
2087
 
            basis_tree.lock_read()
2088
 
            old_tree = basis_tree
 
1864
            old_tree = self.basis_tree()
 
1865
        conflicts = transform.revert(self, old_tree, filenames, backups, pb,
 
1866
                                     report_changes)
 
1867
        if not len(filenames):
 
1868
            self.set_parent_ids(self.get_parent_ids()[:1])
 
1869
            resolve(self)
2089
1870
        else:
2090
 
            basis_tree = None
2091
 
        try:
2092
 
            conflicts = transform.revert(self, old_tree, filenames, backups, pb,
2093
 
                                         report_changes)
2094
 
            if filenames is None and len(self.get_parent_ids()) > 1:
2095
 
                parent_trees = []
2096
 
                last_revision = self.last_revision()
2097
 
                if last_revision != _mod_revision.NULL_REVISION:
2098
 
                    if basis_tree is None:
2099
 
                        basis_tree = self.basis_tree()
2100
 
                        basis_tree.lock_read()
2101
 
                    parent_trees.append((last_revision, basis_tree))
2102
 
                self.set_parent_trees(parent_trees)
2103
 
                resolve(self)
2104
 
            else:
2105
 
                resolve(self, filenames, ignore_misses=True, recursive=True)
2106
 
        finally:
2107
 
            if basis_tree is not None:
2108
 
                basis_tree.unlock()
 
1871
            resolve(self, filenames, ignore_misses=True)
2109
1872
        return conflicts
2110
1873
 
2111
1874
    def revision_tree(self, revision_id):
2138
1901
    def set_inventory(self, new_inventory_list):
2139
1902
        from bzrlib.inventory import (Inventory,
2140
1903
                                      InventoryDirectory,
 
1904
                                      InventoryEntry,
2141
1905
                                      InventoryFile,
2142
1906
                                      InventoryLink)
2143
1907
        inv = Inventory(self.get_root_id())
2145
1909
            name = os.path.basename(path)
2146
1910
            if name == "":
2147
1911
                continue
2148
 
            # fixme, there should be a factory function inv,add_??
 
1912
            # fixme, there should be a factory function inv,add_?? 
2149
1913
            if kind == 'directory':
2150
1914
                inv.add(InventoryDirectory(file_id, name, parent))
2151
1915
            elif kind == 'file':
2159
1923
    @needs_tree_write_lock
2160
1924
    def set_root_id(self, file_id):
2161
1925
        """Set the root id for this tree."""
2162
 
        # for compatability
 
1926
        # for compatability 
2163
1927
        if file_id is None:
2164
 
            raise ValueError(
2165
 
                'WorkingTree.set_root_id with fileid=None')
2166
 
        file_id = osutils.safe_file_id(file_id)
 
1928
            symbol_versioning.warn(symbol_versioning.zero_twelve
 
1929
                % 'WorkingTree.set_root_id with fileid=None',
 
1930
                DeprecationWarning,
 
1931
                stacklevel=3)
 
1932
            file_id = ROOT_ID
 
1933
        else:
 
1934
            file_id = osutils.safe_file_id(file_id)
2167
1935
        self._set_root_id(file_id)
2168
1936
 
2169
1937
    def _set_root_id(self, file_id):
2170
1938
        """Set the root id for this tree, in a format specific manner.
2171
1939
 
2172
 
        :param file_id: The file id to assign to the root. It must not be
 
1940
        :param file_id: The file id to assign to the root. It must not be 
2173
1941
            present in the current inventory or an error will occur. It must
2174
1942
            not be None, but rather a valid file id.
2175
1943
        """
2194
1962
 
2195
1963
    def unlock(self):
2196
1964
        """See Branch.unlock.
2197
 
 
 
1965
        
2198
1966
        WorkingTree locking just uses the Branch locking facilities.
2199
1967
        This is current because all working trees have an embedded branch
2200
1968
        within them. IF in the future, we were to make branch data shareable
2201
 
        between multiple working trees, i.e. via shared storage, then we
 
1969
        between multiple working trees, i.e. via shared storage, then we 
2202
1970
        would probably want to lock both the local tree, and the branch.
2203
1971
        """
2204
1972
        raise NotImplementedError(self.unlock)
2205
1973
 
2206
 
    _marker = object()
2207
 
 
2208
 
    def update(self, change_reporter=None, possible_transports=None,
2209
 
               revision=None, old_tip=_marker):
 
1974
    def update(self):
2210
1975
        """Update a working tree along its branch.
2211
1976
 
2212
1977
        This will update the branch if its bound too, which means we have
2230
1995
        - Merge current state -> basis tree of the master w.r.t. the old tree
2231
1996
          basis.
2232
1997
        - Do a 'normal' merge of the old branch basis if it is relevant.
2233
 
 
2234
 
        :param revision: The target revision to update to. Must be in the
2235
 
            revision history.
2236
 
        :param old_tip: If branch.update() has already been run, the value it
2237
 
            returned (old tip of the branch or None). _marker is used
2238
 
            otherwise.
2239
1998
        """
2240
 
        if self.branch.get_bound_location() is not None:
 
1999
        if self.branch.get_master_branch() is not None:
2241
2000
            self.lock_write()
2242
 
            update_branch = (old_tip is self._marker)
 
2001
            update_branch = True
2243
2002
        else:
2244
2003
            self.lock_tree_write()
2245
2004
            update_branch = False
2246
2005
        try:
2247
2006
            if update_branch:
2248
 
                old_tip = self.branch.update(possible_transports)
 
2007
                old_tip = self.branch.update()
2249
2008
            else:
2250
 
                if old_tip is self._marker:
2251
 
                    old_tip = None
2252
 
            return self._update_tree(old_tip, change_reporter, revision)
 
2009
                old_tip = None
 
2010
            return self._update_tree(old_tip)
2253
2011
        finally:
2254
2012
            self.unlock()
2255
2013
 
2256
2014
    @needs_tree_write_lock
2257
 
    def _update_tree(self, old_tip=None, change_reporter=None, revision=None):
 
2015
    def _update_tree(self, old_tip=None):
2258
2016
        """Update a tree to the master branch.
2259
2017
 
2260
2018
        :param old_tip: if supplied, the previous tip revision the branch,
2266
2024
        # cant set that until we update the working trees last revision to be
2267
2025
        # one from the new branch, because it will just get absorbed by the
2268
2026
        # parent de-duplication logic.
2269
 
        #
 
2027
        # 
2270
2028
        # We MUST save it even if an error occurs, because otherwise the users
2271
2029
        # local work is unreferenced and will appear to have been lost.
2272
 
        #
2273
 
        nb_conflicts = 0
 
2030
        # 
 
2031
        result = 0
2274
2032
        try:
2275
2033
            last_rev = self.get_parent_ids()[0]
2276
2034
        except IndexError:
2277
 
            last_rev = _mod_revision.NULL_REVISION
2278
 
        if revision is None:
2279
 
            revision = self.branch.last_revision()
2280
 
 
2281
 
        old_tip = old_tip or _mod_revision.NULL_REVISION
2282
 
 
2283
 
        if not _mod_revision.is_null(old_tip) and old_tip != last_rev:
2284
 
            # the branch we are bound to was updated
2285
 
            # merge those changes in first
2286
 
            base_tree  = self.basis_tree()
2287
 
            other_tree = self.branch.repository.revision_tree(old_tip)
2288
 
            nb_conflicts = merge.merge_inner(self.branch, other_tree,
2289
 
                                             base_tree, this_tree=self,
2290
 
                                             change_reporter=change_reporter)
2291
 
            if nb_conflicts:
2292
 
                self.add_parent_tree((old_tip, other_tree))
2293
 
                trace.note('Rerun update after fixing the conflicts.')
2294
 
                return nb_conflicts
2295
 
 
2296
 
        if last_rev != _mod_revision.ensure_null(revision):
2297
 
            # the working tree is up to date with the branch
2298
 
            # we can merge the specified revision from master
2299
 
            to_tree = self.branch.repository.revision_tree(revision)
2300
 
            to_root_id = to_tree.get_root_id()
2301
 
 
 
2035
            last_rev = None
 
2036
        if last_rev != self.branch.last_revision():
 
2037
            # merge tree state up to new branch tip.
2302
2038
            basis = self.basis_tree()
2303
2039
            basis.lock_read()
2304
2040
            try:
2305
 
                if (basis.inventory.root is None
2306
 
                    or basis.inventory.root.file_id != to_root_id):
2307
 
                    self.set_root_id(to_root_id)
 
2041
                to_tree = self.branch.basis_tree()
 
2042
                if basis.inventory.root is None:
 
2043
                    self.set_root_id(to_tree.inventory.root.file_id)
2308
2044
                    self.flush()
 
2045
                result += merge.merge_inner(
 
2046
                                      self.branch,
 
2047
                                      to_tree,
 
2048
                                      basis,
 
2049
                                      this_tree=self)
2309
2050
            finally:
2310
2051
                basis.unlock()
2311
 
 
2312
 
            # determine the branch point
2313
 
            graph = self.branch.repository.get_graph()
2314
 
            base_rev_id = graph.find_unique_lca(self.branch.last_revision(),
2315
 
                                                last_rev)
2316
 
            base_tree = self.branch.repository.revision_tree(base_rev_id)
2317
 
 
2318
 
            nb_conflicts = merge.merge_inner(self.branch, to_tree, base_tree,
2319
 
                                             this_tree=self,
2320
 
                                             change_reporter=change_reporter)
2321
 
            self.set_last_revision(revision)
2322
2052
            # TODO - dedup parents list with things merged by pull ?
2323
2053
            # reuse the tree we've updated to to set the basis:
2324
 
            parent_trees = [(revision, to_tree)]
 
2054
            parent_trees = [(self.branch.last_revision(), to_tree)]
2325
2055
            merges = self.get_parent_ids()[1:]
2326
2056
            # Ideally we ask the tree for the trees here, that way the working
2327
 
            # tree can decide whether to give us the entire tree or give us a
 
2057
            # tree can decide whether to give us teh entire tree or give us a
2328
2058
            # lazy initialised tree. dirstate for instance will have the trees
2329
2059
            # in ram already, whereas a last-revision + basis-inventory tree
2330
2060
            # will not, but also does not need them when setting parents.
2331
2061
            for parent in merges:
2332
2062
                parent_trees.append(
2333
2063
                    (parent, self.branch.repository.revision_tree(parent)))
2334
 
            if not _mod_revision.is_null(old_tip):
 
2064
            if old_tip is not None:
2335
2065
                parent_trees.append(
2336
2066
                    (old_tip, self.branch.repository.revision_tree(old_tip)))
2337
2067
            self.set_parent_trees(parent_trees)
2338
2068
            last_rev = parent_trees[0][0]
2339
 
        return nb_conflicts
 
2069
        else:
 
2070
            # the working tree had the same last-revision as the master
 
2071
            # branch did. We may still have pivot local work from the local
 
2072
            # branch into old_tip:
 
2073
            if old_tip is not None:
 
2074
                self.add_parent_tree_id(old_tip)
 
2075
        if old_tip and old_tip != last_rev:
 
2076
            # our last revision was not the prior branch last revision
 
2077
            # and we have converted that last revision to a pending merge.
 
2078
            # base is somewhere between the branch tip now
 
2079
            # and the now pending merge
 
2080
 
 
2081
            # Since we just modified the working tree and inventory, flush out
 
2082
            # the current state, before we modify it again.
 
2083
            # TODO: jam 20070214 WorkingTree3 doesn't require this, dirstate
 
2084
            #       requires it only because TreeTransform directly munges the
 
2085
            #       inventory and calls tree._write_inventory(). Ultimately we
 
2086
            #       should be able to remove this extra flush.
 
2087
            self.flush()
 
2088
            graph = self.branch.repository.get_graph()
 
2089
            base_rev_id = graph.find_unique_lca(self.branch.last_revision(),
 
2090
                                                old_tip)
 
2091
            base_tree = self.branch.repository.revision_tree(base_rev_id)
 
2092
            other_tree = self.branch.repository.revision_tree(old_tip)
 
2093
            result += merge.merge_inner(
 
2094
                                  self.branch,
 
2095
                                  other_tree,
 
2096
                                  base_tree,
 
2097
                                  this_tree=self)
 
2098
        return result
2340
2099
 
2341
2100
    def _write_hashcache_if_dirty(self):
2342
2101
        """Write out the hashcache if it is dirty."""
2426
2185
            current_inv = None
2427
2186
            inv_finished = True
2428
2187
        while not inv_finished or not disk_finished:
2429
 
            if current_disk:
2430
 
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
2431
 
                    cur_disk_dir_content) = current_disk
2432
 
            else:
2433
 
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
2434
 
                    cur_disk_dir_content) = ((None, None), None)
2435
2188
            if not disk_finished:
2436
2189
                # strip out .bzr dirs
2437
 
                if (cur_disk_dir_path_from_top[top_strip_len:] == '' and
2438
 
                    len(cur_disk_dir_content) > 0):
2439
 
                    # osutils.walkdirs can be made nicer -
 
2190
                if current_disk[0][1][top_strip_len:] == '':
 
2191
                    # osutils.walkdirs can be made nicer - 
2440
2192
                    # yield the path-from-prefix rather than the pathjoined
2441
2193
                    # value.
2442
 
                    bzrdir_loc = bisect_left(cur_disk_dir_content,
2443
 
                        ('.bzr', '.bzr'))
2444
 
                    if (bzrdir_loc < len(cur_disk_dir_content)
2445
 
                        and self.bzrdir.is_control_filename(
2446
 
                            cur_disk_dir_content[bzrdir_loc][0])):
 
2194
                    bzrdir_loc = bisect_left(current_disk[1], ('.bzr', '.bzr'))
 
2195
                    if current_disk[1][bzrdir_loc][0] == '.bzr':
2447
2196
                        # we dont yield the contents of, or, .bzr itself.
2448
 
                        del cur_disk_dir_content[bzrdir_loc]
 
2197
                        del current_disk[1][bzrdir_loc]
2449
2198
            if inv_finished:
2450
2199
                # everything is unknown
2451
2200
                direction = 1
2453
2202
                # everything is missing
2454
2203
                direction = -1
2455
2204
            else:
2456
 
                direction = cmp(current_inv[0][0], cur_disk_dir_relpath)
 
2205
                direction = cmp(current_inv[0][0], current_disk[0][0])
2457
2206
            if direction > 0:
2458
2207
                # disk is before inventory - unknown
2459
2208
                dirblock = [(relpath, basename, kind, stat, None, None) for
2460
 
                    relpath, basename, kind, stat, top_path in
2461
 
                    cur_disk_dir_content]
2462
 
                yield (cur_disk_dir_relpath, None), dirblock
 
2209
                    relpath, basename, kind, stat, top_path in current_disk[1]]
 
2210
                yield (current_disk[0][0], None), dirblock
2463
2211
                try:
2464
2212
                    current_disk = disk_iterator.next()
2465
2213
                except StopIteration:
2467
2215
            elif direction < 0:
2468
2216
                # inventory is before disk - missing.
2469
2217
                dirblock = [(relpath, basename, 'unknown', None, fileid, kind)
2470
 
                    for relpath, basename, dkind, stat, fileid, kind in
 
2218
                    for relpath, basename, dkind, stat, fileid, kind in 
2471
2219
                    current_inv[1]]
2472
2220
                yield (current_inv[0][0], current_inv[0][1]), dirblock
2473
2221
                try:
2479
2227
                # merge the inventory and disk data together
2480
2228
                dirblock = []
2481
2229
                for relpath, subiterator in itertools.groupby(sorted(
2482
 
                    current_inv[1] + cur_disk_dir_content,
2483
 
                    key=operator.itemgetter(0)), operator.itemgetter(1)):
 
2230
                    current_inv[1] + current_disk[1], key=operator.itemgetter(0)), operator.itemgetter(1)):
2484
2231
                    path_elements = list(subiterator)
2485
2232
                    if len(path_elements) == 2:
2486
2233
                        inv_row, disk_row = path_elements
2539
2286
                relroot = ""
2540
2287
            # FIXME: stash the node in pending
2541
2288
            entry = inv[top_id]
2542
 
            if entry.kind == 'directory':
2543
 
                for name, child in entry.sorted_children():
2544
 
                    dirblock.append((relroot + name, name, child.kind, None,
2545
 
                        child.file_id, child.kind
2546
 
                        ))
 
2289
            for name, child in entry.sorted_children():
 
2290
                dirblock.append((relroot + name, name, child.kind, None,
 
2291
                    child.file_id, child.kind
 
2292
                    ))
2547
2293
            yield (currentdir[0], entry.file_id), dirblock
2548
2294
            # push the user specified dirs from dirblock
2549
2295
            for dir in reversed(dirblock):
2582
2328
        self.set_conflicts(un_resolved)
2583
2329
        return un_resolved, resolved
2584
2330
 
2585
 
    @needs_read_lock
2586
 
    def _check(self, references):
2587
 
        """Check the tree for consistency.
2588
 
 
2589
 
        :param references: A dict with keys matching the items returned by
2590
 
            self._get_check_refs(), and values from looking those keys up in
2591
 
            the repository.
2592
 
        """
2593
 
        tree_basis = self.basis_tree()
2594
 
        tree_basis.lock_read()
2595
 
        try:
2596
 
            repo_basis = references[('trees', self.last_revision())]
2597
 
            if len(list(repo_basis.iter_changes(tree_basis))) > 0:
2598
 
                raise errors.BzrCheckError(
2599
 
                    "Mismatched basis inventory content.")
2600
 
            self._validate()
2601
 
        finally:
2602
 
            tree_basis.unlock()
2603
 
 
2604
2331
    def _validate(self):
2605
2332
        """Validate internal structures.
2606
2333
 
2612
2339
        """
2613
2340
        return
2614
2341
 
2615
 
    def _get_rules_searcher(self, default_searcher):
2616
 
        """See Tree._get_rules_searcher."""
2617
 
        if self._rules_searcher is None:
2618
 
            self._rules_searcher = super(WorkingTree,
2619
 
                self)._get_rules_searcher(default_searcher)
2620
 
        return self._rules_searcher
2621
 
 
2622
 
    def get_shelf_manager(self):
2623
 
        """Return the ShelfManager for this WorkingTree."""
2624
 
        from bzrlib.shelf import ShelfManager
2625
 
        return ShelfManager(self, self._transport)
2626
 
 
2627
2342
 
2628
2343
class WorkingTree2(WorkingTree):
2629
2344
    """This is the Format 2 working tree.
2630
2345
 
2631
 
    This was the first weave based working tree.
 
2346
    This was the first weave based working tree. 
2632
2347
     - uses os locks for locking.
2633
2348
     - uses the branch last-revision.
2634
2349
    """
2644
2359
        if self._inventory is None:
2645
2360
            self.read_working_inventory()
2646
2361
 
2647
 
    def _get_check_refs(self):
2648
 
        """Return the references needed to perform a check of this tree."""
2649
 
        return [('trees', self.last_revision())]
2650
 
 
2651
2362
    def lock_tree_write(self):
2652
2363
        """See WorkingTree.lock_tree_write().
2653
2364
 
2654
2365
        In Format2 WorkingTrees we have a single lock for the branch and tree
2655
2366
        so lock_tree_write() degrades to lock_write().
2656
 
 
2657
 
        :return: An object with an unlock method which will release the lock
2658
 
            obtained.
2659
2367
        """
2660
2368
        self.branch.lock_write()
2661
2369
        try:
2662
 
            self._control_files.lock_write()
2663
 
            return self
 
2370
            return self._control_files.lock_write()
2664
2371
        except:
2665
2372
            self.branch.unlock()
2666
2373
            raise
2667
2374
 
2668
2375
    def unlock(self):
2669
 
        # do non-implementation specific cleanup
2670
 
        self._cleanup()
2671
 
 
2672
2376
        # we share control files:
2673
2377
        if self._control_files._lock_count == 3:
2674
2378
            # _inventory_is_modified is always False during a read lock.
2675
2379
            if self._inventory_is_modified:
2676
2380
                self.flush()
2677
2381
            self._write_hashcache_if_dirty()
2678
 
 
 
2382
                    
2679
2383
        # reverse order of locking.
2680
2384
        try:
2681
2385
            return self._control_files.unlock()
2697
2401
    def _last_revision(self):
2698
2402
        """See Mutable.last_revision."""
2699
2403
        try:
2700
 
            return self._transport.get_bytes('last-revision')
 
2404
            return osutils.safe_revision_id(
 
2405
                        self._control_files.get('last-revision').read())
2701
2406
        except errors.NoSuchFile:
2702
 
            return _mod_revision.NULL_REVISION
 
2407
            return None
2703
2408
 
2704
2409
    def _change_last_revision(self, revision_id):
2705
2410
        """See WorkingTree._change_last_revision."""
2706
 
        if revision_id is None or revision_id == _mod_revision.NULL_REVISION:
 
2411
        if revision_id is None or revision_id == NULL_REVISION:
2707
2412
            try:
2708
 
                self._transport.delete('last-revision')
 
2413
                self._control_files._transport.delete('last-revision')
2709
2414
            except errors.NoSuchFile:
2710
2415
                pass
2711
2416
            return False
2712
2417
        else:
2713
 
            self._transport.put_bytes('last-revision', revision_id,
2714
 
                mode=self.bzrdir._get_file_mode())
 
2418
            self._control_files.put_bytes('last-revision', revision_id)
2715
2419
            return True
2716
2420
 
2717
 
    def _get_check_refs(self):
2718
 
        """Return the references needed to perform a check of this tree."""
2719
 
        return [('trees', self.last_revision())]
2720
 
 
2721
2421
    @needs_tree_write_lock
2722
2422
    def set_conflicts(self, conflicts):
2723
 
        self._put_rio('conflicts', conflicts.to_stanzas(),
 
2423
        self._put_rio('conflicts', conflicts.to_stanzas(), 
2724
2424
                      CONFLICT_HEADER_1)
2725
2425
 
2726
2426
    @needs_tree_write_lock
2733
2433
    @needs_read_lock
2734
2434
    def conflicts(self):
2735
2435
        try:
2736
 
            confile = self._transport.get('conflicts')
 
2436
            confile = self._control_files.get('conflicts')
2737
2437
        except errors.NoSuchFile:
2738
2438
            return _mod_conflicts.ConflictList()
2739
2439
        try:
2740
 
            try:
2741
 
                if confile.next() != CONFLICT_HEADER_1 + '\n':
2742
 
                    raise errors.ConflictFormatError()
2743
 
            except StopIteration:
 
2440
            if confile.next() != CONFLICT_HEADER_1 + '\n':
2744
2441
                raise errors.ConflictFormatError()
2745
 
            return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
2746
 
        finally:
2747
 
            confile.close()
 
2442
        except StopIteration:
 
2443
            raise errors.ConflictFormatError()
 
2444
        return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
2748
2445
 
2749
2446
    def unlock(self):
2750
 
        # do non-implementation specific cleanup
2751
 
        self._cleanup()
2752
2447
        if self._control_files._lock_count == 1:
2753
2448
            # _inventory_is_modified is always False during a read lock.
2754
2449
            if self._inventory_is_modified:
2767
2462
            return path[:-len(suffix)]
2768
2463
 
2769
2464
 
 
2465
@deprecated_function(zero_eight)
 
2466
def is_control_file(filename):
 
2467
    """See WorkingTree.is_control_filename(filename)."""
 
2468
    ## FIXME: better check
 
2469
    filename = normpath(filename)
 
2470
    while filename != '':
 
2471
        head, tail = os.path.split(filename)
 
2472
        ## mutter('check %r for control file' % ((head, tail),))
 
2473
        if tail == '.bzr':
 
2474
            return True
 
2475
        if filename == head:
 
2476
            break
 
2477
        filename = head
 
2478
    return False
 
2479
 
 
2480
 
2770
2481
class WorkingTreeFormat(object):
2771
2482
    """An encapsulation of the initialization and open routines for a format.
2772
2483
 
2775
2486
     * a format string,
2776
2487
     * an open routine.
2777
2488
 
2778
 
    Formats are placed in an dict by their format string for reference
 
2489
    Formats are placed in an dict by their format string for reference 
2779
2490
    during workingtree opening. Its not required that these be instances, they
2780
 
    can be classes themselves with class methods - it simply depends on
 
2491
    can be classes themselves with class methods - it simply depends on 
2781
2492
    whether state is needed for a given format or not.
2782
2493
 
2783
2494
    Once a format is deprecated, just deprecate the initialize and open
2784
 
    methods on the format class. Do not deprecate the object, as the
 
2495
    methods on the format class. Do not deprecate the object, as the 
2785
2496
    object will be created every time regardless.
2786
2497
    """
2787
2498
 
2800
2511
        """Return the format for the working tree object in a_bzrdir."""
2801
2512
        try:
2802
2513
            transport = a_bzrdir.get_workingtree_transport(None)
2803
 
            format_string = transport.get_bytes("format")
 
2514
            format_string = transport.get("format").read()
2804
2515
            return klass._formats[format_string]
2805
2516
        except errors.NoSuchFile:
2806
2517
            raise errors.NoWorkingTree(base=transport.base)
2807
2518
        except KeyError:
2808
 
            raise errors.UnknownFormatError(format=format_string,
2809
 
                                            kind="working tree")
 
2519
            raise errors.UnknownFormatError(format=format_string)
2810
2520
 
2811
2521
    def __eq__(self, other):
2812
2522
        return self.__class__ is other.__class__
2831
2541
        """Is this format supported?
2832
2542
 
2833
2543
        Supported formats can be initialized and opened.
2834
 
        Unsupported formats may not support initialization or committing or
 
2544
        Unsupported formats may not support initialization or committing or 
2835
2545
        some other features depending on the reason for not being supported.
2836
2546
        """
2837
2547
        return True
2838
2548
 
2839
 
    def supports_content_filtering(self):
2840
 
        """True if this format supports content filtering."""
2841
 
        return False
2842
 
 
2843
 
    def supports_views(self):
2844
 
        """True if this format supports stored views."""
2845
 
        return False
2846
 
 
2847
2549
    @classmethod
2848
2550
    def register_format(klass, format):
2849
2551
        klass._formats[format.get_format_string()] = format
2854
2556
 
2855
2557
    @classmethod
2856
2558
    def unregister_format(klass, format):
 
2559
        assert klass._formats[format.get_format_string()] is format
2857
2560
        del klass._formats[format.get_format_string()]
2858
2561
 
2859
2562
 
2860
2563
class WorkingTreeFormat2(WorkingTreeFormat):
2861
 
    """The second working tree format.
 
2564
    """The second working tree format. 
2862
2565
 
2863
2566
    This format modified the hash cache from the format 1 hash cache.
2864
2567
    """
2869
2572
        """See WorkingTreeFormat.get_format_description()."""
2870
2573
        return "Working tree format 2"
2871
2574
 
2872
 
    def _stub_initialize_on_transport(self, transport, file_mode):
2873
 
        """Workaround: create control files for a remote working tree.
2874
 
 
 
2575
    def stub_initialize_remote(self, control_files):
 
2576
        """As a special workaround create critical control files for a remote working tree
 
2577
        
2875
2578
        This ensures that it can later be updated and dealt with locally,
2876
 
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with
 
2579
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with 
2877
2580
        no working tree.  (See bug #43064).
2878
2581
        """
2879
2582
        sio = StringIO()
2880
 
        inv = inventory.Inventory()
2881
 
        xml5.serializer_v5.write_inventory(inv, sio, working=True)
 
2583
        inv = Inventory()
 
2584
        xml5.serializer_v5.write_inventory(inv, sio)
2882
2585
        sio.seek(0)
2883
 
        transport.put_file('inventory', sio, file_mode)
2884
 
        transport.put_bytes('pending-merges', '', file_mode)
2885
 
 
2886
 
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
2887
 
                   accelerator_tree=None, hardlink=False):
 
2586
        control_files.put('inventory', sio)
 
2587
 
 
2588
        control_files.put_bytes('pending-merges', '')
 
2589
        
 
2590
 
 
2591
    def initialize(self, a_bzrdir, revision_id=None):
2888
2592
        """See WorkingTreeFormat.initialize()."""
2889
2593
        if not isinstance(a_bzrdir.transport, LocalTransport):
2890
2594
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2891
 
        if from_branch is not None:
2892
 
            branch = from_branch
2893
 
        else:
2894
 
            branch = a_bzrdir.open_branch()
2895
 
        if revision_id is None:
2896
 
            revision_id = _mod_revision.ensure_null(branch.last_revision())
2897
 
        branch.lock_write()
2898
 
        try:
2899
 
            branch.generate_revision_history(revision_id)
2900
 
        finally:
2901
 
            branch.unlock()
2902
 
        inv = inventory.Inventory()
 
2595
        branch = a_bzrdir.open_branch()
 
2596
        if revision_id is not None:
 
2597
            revision_id = osutils.safe_revision_id(revision_id)
 
2598
            branch.lock_write()
 
2599
            try:
 
2600
                revision_history = branch.revision_history()
 
2601
                try:
 
2602
                    position = revision_history.index(revision_id)
 
2603
                except ValueError:
 
2604
                    raise errors.NoSuchRevision(branch, revision_id)
 
2605
                branch.set_revision_history(revision_history[:position + 1])
 
2606
            finally:
 
2607
                branch.unlock()
 
2608
        revision = branch.last_revision()
 
2609
        inv = Inventory()
2903
2610
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
2904
2611
                         branch,
2905
2612
                         inv,
2906
2613
                         _internal=True,
2907
2614
                         _format=self,
2908
2615
                         _bzrdir=a_bzrdir)
2909
 
        basis_tree = branch.repository.revision_tree(revision_id)
 
2616
        basis_tree = branch.repository.revision_tree(revision)
2910
2617
        if basis_tree.inventory.root is not None:
2911
 
            wt.set_root_id(basis_tree.get_root_id())
 
2618
            wt.set_root_id(basis_tree.inventory.root.file_id)
2912
2619
        # set the parent list and cache the basis tree.
2913
 
        if _mod_revision.is_null(revision_id):
2914
 
            parent_trees = []
2915
 
        else:
2916
 
            parent_trees = [(revision_id, basis_tree)]
2917
 
        wt.set_parent_trees(parent_trees)
 
2620
        wt.set_parent_trees([(revision, basis_tree)])
2918
2621
        transform.build_tree(basis_tree, wt)
2919
2622
        return wt
2920
2623
 
2950
2653
        - is new in bzr 0.8
2951
2654
        - uses a LockDir to guard access for writes.
2952
2655
    """
2953
 
 
 
2656
    
2954
2657
    upgrade_recommended = True
2955
2658
 
2956
2659
    def get_format_string(self):
2973
2676
 
2974
2677
    def _open_control_files(self, a_bzrdir):
2975
2678
        transport = a_bzrdir.get_workingtree_transport(None)
2976
 
        return LockableFiles(transport, self._lock_file_name,
 
2679
        return LockableFiles(transport, self._lock_file_name, 
2977
2680
                             self._lock_class)
2978
2681
 
2979
 
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
2980
 
                   accelerator_tree=None, hardlink=False):
 
2682
    def initialize(self, a_bzrdir, revision_id=None):
2981
2683
        """See WorkingTreeFormat.initialize().
2982
 
 
2983
 
        :param revision_id: if supplied, create a working tree at a different
2984
 
            revision than the branch is at.
2985
 
        :param accelerator_tree: A tree which can be used for retrieving file
2986
 
            contents more quickly than the revision tree, i.e. a workingtree.
2987
 
            The revision tree will be used for cases where accelerator_tree's
2988
 
            content is different.
2989
 
        :param hardlink: If true, hard-link files from accelerator_tree,
2990
 
            where possible.
 
2684
        
 
2685
        revision_id allows creating a working tree at a different
 
2686
        revision than the branch is at.
2991
2687
        """
2992
2688
        if not isinstance(a_bzrdir.transport, LocalTransport):
2993
2689
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2995
2691
        control_files = self._open_control_files(a_bzrdir)
2996
2692
        control_files.create_lock()
2997
2693
        control_files.lock_write()
2998
 
        transport.put_bytes('format', self.get_format_string(),
2999
 
            mode=a_bzrdir._get_file_mode())
3000
 
        if from_branch is not None:
3001
 
            branch = from_branch
 
2694
        control_files.put_utf8('format', self.get_format_string())
 
2695
        branch = a_bzrdir.open_branch()
 
2696
        if revision_id is None:
 
2697
            revision_id = branch.last_revision()
3002
2698
        else:
3003
 
            branch = a_bzrdir.open_branch()
3004
 
        if revision_id is None:
3005
 
            revision_id = _mod_revision.ensure_null(branch.last_revision())
 
2699
            revision_id = osutils.safe_revision_id(revision_id)
3006
2700
        # WorkingTree3 can handle an inventory which has a unique root id.
3007
2701
        # as of bzr 0.12. However, bzr 0.11 and earlier fail to handle
3008
2702
        # those trees. And because there isn't a format bump inbetween, we
3021
2715
            basis_tree = branch.repository.revision_tree(revision_id)
3022
2716
            # only set an explicit root id if there is one to set.
3023
2717
            if basis_tree.inventory.root is not None:
3024
 
                wt.set_root_id(basis_tree.get_root_id())
3025
 
            if revision_id == _mod_revision.NULL_REVISION:
 
2718
                wt.set_root_id(basis_tree.inventory.root.file_id)
 
2719
            if revision_id == NULL_REVISION:
3026
2720
                wt.set_parent_trees([])
3027
2721
            else:
3028
2722
                wt.set_parent_trees([(revision_id, basis_tree)])
3035
2729
        return wt
3036
2730
 
3037
2731
    def _initial_inventory(self):
3038
 
        return inventory.Inventory()
 
2732
        return Inventory()
3039
2733
 
3040
2734
    def __init__(self):
3041
2735
        super(WorkingTreeFormat3, self).__init__()
3056
2750
 
3057
2751
    def _open(self, a_bzrdir, control_files):
3058
2752
        """Open the tree itself.
3059
 
 
 
2753
        
3060
2754
        :param a_bzrdir: the dir for the tree.
3061
2755
        :param control_files: the control files for the tree.
3062
2756
        """
3070
2764
        return self.get_format_string()
3071
2765
 
3072
2766
 
3073
 
__default_format = WorkingTreeFormat6()
 
2767
__default_format = WorkingTreeFormat4()
3074
2768
WorkingTreeFormat.register_format(__default_format)
3075
 
WorkingTreeFormat.register_format(WorkingTreeFormat5())
3076
 
WorkingTreeFormat.register_format(WorkingTreeFormat4())
3077
2769
WorkingTreeFormat.register_format(WorkingTreeFormat3())
3078
2770
WorkingTreeFormat.set_default_format(__default_format)
3079
2771
# formats which have no format string are not discoverable
3080
2772
# and not independently creatable, so are not registered.
3081
2773
_legacy_formats = [WorkingTreeFormat2(),
3082
2774
                   ]
 
2775
 
 
2776
 
 
2777
class WorkingTreeTestProviderAdapter(object):
 
2778
    """A tool to generate a suite testing multiple workingtree formats at once.
 
2779
 
 
2780
    This is done by copying the test once for each transport and injecting
 
2781
    the transport_server, transport_readonly_server, and workingtree_format
 
2782
    classes into each copy. Each copy is also given a new id() to make it
 
2783
    easy to identify.
 
2784
    """
 
2785
 
 
2786
    def __init__(self, transport_server, transport_readonly_server, formats):
 
2787
        self._transport_server = transport_server
 
2788
        self._transport_readonly_server = transport_readonly_server
 
2789
        self._formats = formats
 
2790
    
 
2791
    def _clone_test(self, test, bzrdir_format, workingtree_format, variation):
 
2792
        """Clone test for adaption."""
 
2793
        new_test = deepcopy(test)
 
2794
        new_test.transport_server = self._transport_server
 
2795
        new_test.transport_readonly_server = self._transport_readonly_server
 
2796
        new_test.bzrdir_format = bzrdir_format
 
2797
        new_test.workingtree_format = workingtree_format
 
2798
        def make_new_test_id():
 
2799
            new_id = "%s(%s)" % (test.id(), variation)
 
2800
            return lambda: new_id
 
2801
        new_test.id = make_new_test_id()
 
2802
        return new_test
 
2803
    
 
2804
    def adapt(self, test):
 
2805
        from bzrlib.tests import TestSuite
 
2806
        result = TestSuite()
 
2807
        for workingtree_format, bzrdir_format in self._formats:
 
2808
            new_test = self._clone_test(
 
2809
                test,
 
2810
                bzrdir_format,
 
2811
                workingtree_format, workingtree_format.__class__.__name__)
 
2812
            result.addTest(new_test)
 
2813
        return result