~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: John Arbash Meinel
  • Date: 2007-02-26 21:17:03 UTC
  • mto: (2255.11.3 dirstate)
  • mto: This revision was merged to the branch mainline in revision 2322.
  • Revision ID: john@arbash-meinel.com-20070226211703-hqcam97hrxohk5jc
Make set_root_id() a no-op if the id doesn't change,
and change the test_merge_core tests to flush the state to disk, since
they are hanging onto a write lock.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005, 2006 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
"""WorkingTree object and friends.
18
18
 
19
19
A WorkingTree represents the editable working copy of a branch.
20
 
Operations which represent the WorkingTree are also done here,
21
 
such as renaming or adding files.  The WorkingTree has an inventory
22
 
which is updated by these operations.  A commit produces a
 
20
Operations which represent the WorkingTree are also done here, 
 
21
such as renaming or adding files.  The WorkingTree has an inventory 
 
22
which is updated by these operations.  A commit produces a 
23
23
new revision based on the workingtree and its inventory.
24
24
 
25
25
At the moment every WorkingTree has its own branch.  Remote
29
29
WorkingTree.open(dir).
30
30
"""
31
31
 
 
32
# TODO: Give the workingtree sole responsibility for the working inventory;
 
33
# remove the variable and references to it from the branch.  This may require
 
34
# updating the commit code so as to update the inventory within the working
 
35
# copy, and making sure there's only one WorkingTree for any directory on disk.
 
36
# At the moment they may alias the inventory and have old copies of it in
 
37
# memory.  (Now done? -- mbp 20060309)
32
38
 
33
39
from cStringIO import StringIO
34
40
import os
35
 
import sys
36
41
 
37
42
from bzrlib.lazy_import import lazy_import
38
43
lazy_import(globals(), """
39
44
from bisect import bisect_left
40
45
import collections
 
46
from copy import deepcopy
41
47
import errno
42
48
import itertools
43
49
import operator
44
50
import stat
45
 
import re
 
51
from time import time
 
52
import warnings
46
53
 
47
54
import bzrlib
48
55
from bzrlib import (
49
 
    branch,
50
56
    bzrdir,
51
57
    conflicts as _mod_conflicts,
 
58
    dirstate,
52
59
    errors,
53
60
    generate_ids,
54
61
    globbing,
55
 
    graph as _mod_graph,
56
62
    hashcache,
57
63
    ignores,
58
 
    inventory,
59
64
    merge,
60
 
    revision as _mod_revision,
 
65
    osutils,
61
66
    revisiontree,
62
 
    trace,
 
67
    textui,
63
68
    transform,
64
 
    ui,
65
 
    views,
 
69
    urlutils,
66
70
    xml5,
67
 
    xml7,
 
71
    xml6,
68
72
    )
69
73
import bzrlib.branch
70
74
from bzrlib.transport import get_transport
71
 
from bzrlib.workingtree_4 import (
72
 
    WorkingTreeFormat4,
73
 
    WorkingTreeFormat5,
74
 
    WorkingTreeFormat6,
75
 
    )
 
75
import bzrlib.ui
 
76
from bzrlib.workingtree_4 import WorkingTreeFormat4
76
77
""")
77
78
 
78
79
from bzrlib import symbol_versioning
79
80
from bzrlib.decorators import needs_read_lock, needs_write_lock
80
 
from bzrlib.lockable_files import LockableFiles
 
81
from bzrlib.inventory import InventoryEntry, Inventory, ROOT_ID
 
82
from bzrlib.lockable_files import LockableFiles, TransportLock
81
83
from bzrlib.lockdir import LockDir
82
84
import bzrlib.mutabletree
83
85
from bzrlib.mutabletree import needs_tree_write_lock
84
 
from bzrlib import osutils
85
86
from bzrlib.osutils import (
 
87
    compact_date,
86
88
    file_kind,
87
89
    isdir,
88
90
    normpath,
89
91
    pathjoin,
 
92
    rand_chars,
90
93
    realpath,
91
94
    safe_unicode,
92
95
    splitpath,
93
96
    supports_executable,
94
97
    )
95
 
from bzrlib.filters import filtered_input_file
96
98
from bzrlib.trace import mutter, note
97
99
from bzrlib.transport.local import LocalTransport
98
 
from bzrlib.revision import CURRENT_REVISION
 
100
from bzrlib.progress import DummyProgress, ProgressPhase
 
101
from bzrlib.revision import NULL_REVISION, CURRENT_REVISION
99
102
from bzrlib.rio import RioReader, rio_file, Stanza
100
 
from bzrlib.symbol_versioning import (
101
 
    deprecated_passed,
102
 
    DEPRECATED_PARAMETER,
103
 
    )
 
103
from bzrlib.symbol_versioning import (deprecated_passed,
 
104
        deprecated_method,
 
105
        deprecated_function,
 
106
        DEPRECATED_PARAMETER,
 
107
        zero_eight,
 
108
        zero_eleven,
 
109
        zero_thirteen,
 
110
        )
104
111
 
105
112
 
106
113
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
107
 
# TODO: Modifying the conflict objects or their type is currently nearly
108
 
# impossible as there is no clear relationship between the working tree format
109
 
# and the conflict list file format.
110
114
CONFLICT_HEADER_1 = "BZR conflict list format 1"
111
115
 
112
 
ERROR_PATH_NOT_FOUND = 3    # WindowsError errno code, equivalent to ENOENT
 
116
 
 
117
@deprecated_function(zero_thirteen)
 
118
def gen_file_id(name):
 
119
    """Return new file id for the basename 'name'.
 
120
 
 
121
    Use bzrlib.generate_ids.gen_file_id() instead
 
122
    """
 
123
    return generate_ids.gen_file_id(name)
 
124
 
 
125
 
 
126
@deprecated_function(zero_thirteen)
 
127
def gen_root_id():
 
128
    """Return a new tree-root file id.
 
129
 
 
130
    This has been deprecated in favor of bzrlib.generate_ids.gen_root_id()
 
131
    """
 
132
    return generate_ids.gen_root_id()
113
133
 
114
134
 
115
135
class TreeEntry(object):
116
136
    """An entry that implements the minimum interface used by commands.
117
137
 
118
 
    This needs further inspection, it may be better to have
 
138
    This needs further inspection, it may be better to have 
119
139
    InventoryEntries without ids - though that seems wrong. For now,
120
140
    this is a parallel hierarchy to InventoryEntry, and needs to become
121
141
    one of several things: decorates to that hierarchy, children of, or
124
144
    no InventoryEntry available - i.e. for unversioned objects.
125
145
    Perhaps they should be UnversionedEntry et al. ? - RBC 20051003
126
146
    """
127
 
 
 
147
 
128
148
    def __eq__(self, other):
129
149
        # yes, this us ugly, TODO: best practice __eq__ style.
130
150
        return (isinstance(other, TreeEntry)
131
151
                and other.__class__ == self.__class__)
132
 
 
 
152
 
133
153
    def kind_character(self):
134
154
        return "???"
135
155
 
167
187
        return ''
168
188
 
169
189
 
170
 
class WorkingTree(bzrlib.mutabletree.MutableTree,
171
 
    bzrdir.ControlComponent):
 
190
class WorkingTree(bzrlib.mutabletree.MutableTree):
172
191
    """Working copy tree.
173
192
 
174
193
    The inventory is held in the `Branch` working-inventory, and the
178
197
    not listed in the Inventory and vice versa.
179
198
    """
180
199
 
181
 
    # override this to set the strategy for storing views
182
 
    def _make_views(self):
183
 
        return views.DisabledViews(self)
184
 
 
185
200
    def __init__(self, basedir='.',
186
201
                 branch=DEPRECATED_PARAMETER,
187
202
                 _inventory=None,
189
204
                 _internal=False,
190
205
                 _format=None,
191
206
                 _bzrdir=None):
192
 
        """Construct a WorkingTree instance. This is not a public API.
 
207
        """Construct a WorkingTree for basedir.
193
208
 
194
 
        :param branch: A branch to override probing for the branch.
 
209
        If the branch is not supplied, it is opened automatically.
 
210
        If the branch is supplied, it must be the branch for this basedir.
 
211
        (branch.base is not cross checked, because for remote branches that
 
212
        would be meaningless).
195
213
        """
196
214
        self._format = _format
197
215
        self.bzrdir = _bzrdir
198
216
        if not _internal:
199
 
            raise errors.BzrError("Please use bzrdir.open_workingtree or "
200
 
                "WorkingTree.open() to obtain a WorkingTree.")
 
217
            # not created via open etc.
 
218
            warnings.warn("WorkingTree() is deprecated as of bzr version 0.8. "
 
219
                 "Please use bzrdir.open_workingtree or WorkingTree.open().",
 
220
                 DeprecationWarning,
 
221
                 stacklevel=2)
 
222
            wt = WorkingTree.open(basedir)
 
223
            self._branch = wt.branch
 
224
            self.basedir = wt.basedir
 
225
            self._control_files = wt._control_files
 
226
            self._hashcache = wt._hashcache
 
227
            self._set_inventory(wt._inventory, dirty=False)
 
228
            self._format = wt._format
 
229
            self.bzrdir = wt.bzrdir
 
230
        assert isinstance(basedir, basestring), \
 
231
            "base directory %r is not a string" % basedir
201
232
        basedir = safe_unicode(basedir)
202
233
        mutter("opening working tree %r", basedir)
203
234
        if deprecated_passed(branch):
 
235
            if not _internal:
 
236
                warnings.warn("WorkingTree(..., branch=XXX) is deprecated"
 
237
                     " as of bzr 0.8. Please use bzrdir.open_workingtree() or"
 
238
                     " WorkingTree.open().",
 
239
                     DeprecationWarning,
 
240
                     stacklevel=2
 
241
                     )
204
242
            self._branch = branch
205
243
        else:
206
244
            self._branch = self.bzrdir.open_branch()
211
249
            self._control_files = self.branch.control_files
212
250
        else:
213
251
            # assume all other formats have their own control files.
 
252
            assert isinstance(_control_files, LockableFiles), \
 
253
                    "_control_files must be a LockableFiles, not %r" \
 
254
                    % _control_files
214
255
            self._control_files = _control_files
215
 
        self._transport = self._control_files._transport
216
256
        # update the whole cache up front and write to disk if anything changed;
217
257
        # in the future we might want to do this more selectively
218
258
        # two possible ways offer themselves : in self._unlock, write the cache
222
262
        wt_trans = self.bzrdir.get_workingtree_transport(None)
223
263
        cache_filename = wt_trans.local_abspath('stat-cache')
224
264
        self._hashcache = hashcache.HashCache(basedir, cache_filename,
225
 
            self.bzrdir._get_file_mode(),
226
 
            self._content_filter_stack_provider())
 
265
                                              self._control_files._file_mode)
227
266
        hc = self._hashcache
228
267
        hc.read()
229
268
        # is this scan needed ? it makes things kinda slow.
234
273
            hc.write()
235
274
 
236
275
        if _inventory is None:
237
 
            # This will be acquired on lock_read() or lock_write()
238
276
            self._inventory_is_modified = False
239
 
            self._inventory = None
 
277
            self.read_working_inventory()
240
278
        else:
241
279
            # the caller of __init__ has provided an inventory,
242
280
            # we assume they know what they are doing - as its only
243
281
            # the Format factory and creation methods that are
244
282
            # permitted to do this.
245
283
            self._set_inventory(_inventory, dirty=False)
246
 
        self._detect_case_handling()
247
 
        self._rules_searcher = None
248
 
        self.views = self._make_views()
249
 
 
250
 
    @property
251
 
    def user_transport(self):
252
 
        return self.bzrdir.user_transport
253
 
 
254
 
    @property
255
 
    def control_transport(self):
256
 
        return self._transport
257
 
 
258
 
    def _detect_case_handling(self):
259
 
        wt_trans = self.bzrdir.get_workingtree_transport(None)
260
 
        try:
261
 
            wt_trans.stat("FoRMaT")
262
 
        except errors.NoSuchFile:
263
 
            self.case_sensitive = True
264
 
        else:
265
 
            self.case_sensitive = False
266
 
 
267
 
        self._setup_directory_is_tree_reference()
268
284
 
269
285
    branch = property(
270
286
        fget=lambda self: self._branch,
285
301
        self._control_files.break_lock()
286
302
        self.branch.break_lock()
287
303
 
288
 
    def _get_check_refs(self):
289
 
        """Return the references needed to perform a check of this tree.
290
 
        
291
 
        The default implementation returns no refs, and is only suitable for
292
 
        trees that have no local caching and can commit on ghosts at any time.
293
 
 
294
 
        :seealso: bzrlib.check for details about check_refs.
295
 
        """
296
 
        return []
297
 
 
298
 
    def requires_rich_root(self):
299
 
        return self._format.requires_rich_root
300
 
 
301
 
    def supports_tree_reference(self):
302
 
        return False
303
 
 
304
 
    def supports_content_filtering(self):
305
 
        return self._format.supports_content_filtering()
306
 
 
307
 
    def supports_views(self):
308
 
        return self.views.supports_views()
309
 
 
310
304
    def _set_inventory(self, inv, dirty):
311
305
        """Set the internal cached inventory.
312
306
 
317
311
            False then the inventory is the same as that on disk and any
318
312
            serialisation would be unneeded overhead.
319
313
        """
 
314
        assert inv.root is not None
320
315
        self._inventory = inv
321
316
        self._inventory_is_modified = dirty
322
317
 
326
321
 
327
322
        """
328
323
        if path is None:
329
 
            path = osutils.getcwd()
 
324
            path = os.path.getcwdu()
330
325
        control = bzrdir.BzrDir.open(path, _unsupported)
331
326
        return control.open_workingtree(_unsupported)
332
 
 
 
327
        
333
328
    @staticmethod
334
329
    def open_containing(path=None):
335
330
        """Open an existing working tree which has its root about path.
336
 
 
 
331
        
337
332
        This probes for a working tree at path and searches upwards from there.
338
333
 
339
334
        Basically we keep looking up until we find the control directory or
357
352
        """
358
353
        return WorkingTree.open(path, _unsupported=True)
359
354
 
360
 
    @staticmethod
361
 
    def find_trees(location):
362
 
        def list_current(transport):
363
 
            return [d for d in transport.list_dir('') if d != '.bzr']
364
 
        def evaluate(bzrdir):
365
 
            try:
366
 
                tree = bzrdir.open_workingtree()
367
 
            except errors.NoWorkingTree:
368
 
                return True, None
369
 
            else:
370
 
                return True, tree
371
 
        transport = get_transport(location)
372
 
        iterator = bzrdir.BzrDir.find_bzrdirs(transport, evaluate=evaluate,
373
 
                                              list_current=list_current)
374
 
        return [t for t in iterator if t is not None]
375
 
 
376
 
    # should be deprecated - this is slow and in any case treating them as a
377
 
    # container is (we now know) bad style -- mbp 20070302
378
 
    ## @deprecated_method(zero_fifteen)
379
355
    def __iter__(self):
380
356
        """Iterate through file_ids for this tree.
381
357
 
387
363
            if osutils.lexists(self.abspath(path)):
388
364
                yield ie.file_id
389
365
 
390
 
    def all_file_ids(self):
391
 
        """See Tree.iter_all_file_ids"""
392
 
        return set(self.inventory)
393
 
 
394
366
    def __repr__(self):
395
367
        return "<%s of %s>" % (self.__class__.__name__,
396
368
                               getattr(self, 'basedir', None))
397
369
 
398
370
    def abspath(self, filename):
399
371
        return pathjoin(self.basedir, filename)
400
 
 
 
372
    
401
373
    def basis_tree(self):
402
374
        """Return RevisionTree for the current last revision.
403
 
 
 
375
        
404
376
        If the left most parent is a ghost then the returned tree will be an
405
 
        empty tree - one obtained by calling
406
 
        repository.revision_tree(NULL_REVISION).
 
377
        empty tree - one obtained by calling repository.revision_tree(None).
407
378
        """
408
379
        try:
409
380
            revision_id = self.get_parent_ids()[0]
411
382
            # no parents, return an empty revision tree.
412
383
            # in the future this should return the tree for
413
384
            # 'empty:' - the implicit root empty tree.
414
 
            return self.branch.repository.revision_tree(
415
 
                       _mod_revision.NULL_REVISION)
 
385
            return self.branch.repository.revision_tree(None)
416
386
        try:
417
387
            return self.revision_tree(revision_id)
418
388
        except errors.NoSuchRevision:
422
392
        # at this point ?
423
393
        try:
424
394
            return self.branch.repository.revision_tree(revision_id)
425
 
        except (errors.RevisionNotPresent, errors.NoSuchRevision):
 
395
        except errors.RevisionNotPresent:
426
396
            # the basis tree *may* be a ghost or a low level error may have
427
 
            # occurred. If the revision is present, its a problem, if its not
 
397
            # occured. If the revision is present, its a problem, if its not
428
398
            # its a ghost.
429
399
            if self.branch.repository.has_revision(revision_id):
430
400
                raise
431
401
            # the basis tree is a ghost so return an empty tree.
432
 
            return self.branch.repository.revision_tree(
433
 
                       _mod_revision.NULL_REVISION)
434
 
 
435
 
    def _cleanup(self):
436
 
        self._flush_ignore_list_cache()
 
402
            return self.branch.repository.revision_tree(None)
 
403
 
 
404
    @staticmethod
 
405
    @deprecated_method(zero_eight)
 
406
    def create(branch, directory):
 
407
        """Create a workingtree for branch at directory.
 
408
 
 
409
        If existing_directory already exists it must have a .bzr directory.
 
410
        If it does not exist, it will be created.
 
411
 
 
412
        This returns a new WorkingTree object for the new checkout.
 
413
 
 
414
        TODO FIXME RBC 20060124 when we have checkout formats in place this
 
415
        should accept an optional revisionid to checkout [and reject this if
 
416
        checking out into the same dir as a pre-checkout-aware branch format.]
 
417
 
 
418
        XXX: When BzrDir is present, these should be created through that 
 
419
        interface instead.
 
420
        """
 
421
        warnings.warn('delete WorkingTree.create', stacklevel=3)
 
422
        transport = get_transport(directory)
 
423
        if branch.bzrdir.root_transport.base == transport.base:
 
424
            # same dir 
 
425
            return branch.bzrdir.create_workingtree()
 
426
        # different directory, 
 
427
        # create a branch reference
 
428
        # and now a working tree.
 
429
        raise NotImplementedError
 
430
 
 
431
    @staticmethod
 
432
    @deprecated_method(zero_eight)
 
433
    def create_standalone(directory):
 
434
        """Create a checkout and a branch and a repo at directory.
 
435
 
 
436
        Directory must exist and be empty.
 
437
 
 
438
        please use BzrDir.create_standalone_workingtree
 
439
        """
 
440
        return bzrdir.BzrDir.create_standalone_workingtree(directory)
437
441
 
438
442
    def relpath(self, path):
439
443
        """Return the local path portion from a given path.
440
 
 
441
 
        The path may be absolute or relative. If its a relative path it is
 
444
        
 
445
        The path may be absolute or relative. If its a relative path it is 
442
446
        interpreted relative to the python current working directory.
443
447
        """
444
448
        return osutils.relpath(self.basedir, path)
446
450
    def has_filename(self, filename):
447
451
        return osutils.lexists(self.abspath(filename))
448
452
 
449
 
    def get_file(self, file_id, path=None, filtered=True):
450
 
        return self.get_file_with_stat(file_id, path, filtered=filtered)[0]
451
 
 
452
 
    def get_file_with_stat(self, file_id, path=None, filtered=True,
453
 
        _fstat=os.fstat):
454
 
        """See Tree.get_file_with_stat."""
455
 
        if path is None:
456
 
            path = self.id2path(file_id)
457
 
        file_obj = self.get_file_byname(path, filtered=False)
458
 
        stat_value = _fstat(file_obj.fileno())
459
 
        if filtered and self.supports_content_filtering():
460
 
            filters = self._content_filter_stack(path)
461
 
            file_obj = filtered_input_file(file_obj, filters)
462
 
        return (file_obj, stat_value)
463
 
 
464
 
    def get_file_text(self, file_id, path=None, filtered=True):
465
 
        return self.get_file(file_id, path=path, filtered=filtered).read()
466
 
 
467
 
    def get_file_byname(self, filename, filtered=True):
468
 
        path = self.abspath(filename)
469
 
        f = file(path, 'rb')
470
 
        if filtered and self.supports_content_filtering():
471
 
            filters = self._content_filter_stack(filename)
472
 
            return filtered_input_file(f, filters)
473
 
        else:
474
 
            return f
475
 
 
476
 
    def get_file_lines(self, file_id, path=None, filtered=True):
477
 
        """See Tree.get_file_lines()"""
478
 
        file = self.get_file(file_id, path, filtered=filtered)
479
 
        try:
480
 
            return file.readlines()
481
 
        finally:
482
 
            file.close()
 
453
    def get_file(self, file_id):
 
454
        file_id = osutils.safe_file_id(file_id)
 
455
        return self.get_file_byname(self.id2path(file_id))
 
456
 
 
457
    def get_file_text(self, file_id):
 
458
        file_id = osutils.safe_file_id(file_id)
 
459
        return self.get_file(file_id).read()
 
460
 
 
461
    def get_file_byname(self, filename):
 
462
        return file(self.abspath(filename), 'rb')
483
463
 
484
464
    @needs_read_lock
485
 
    def annotate_iter(self, file_id, default_revision=CURRENT_REVISION):
 
465
    def annotate_iter(self, file_id):
486
466
        """See Tree.annotate_iter
487
467
 
488
468
        This implementation will use the basis tree implementation if possible.
492
472
        incorrectly attributed to CURRENT_REVISION (but after committing, the
493
473
        attribution will be correct).
494
474
        """
495
 
        maybe_file_parent_keys = []
496
 
        for parent_id in self.get_parent_ids():
497
 
            try:
498
 
                parent_tree = self.revision_tree(parent_id)
499
 
            except errors.NoSuchRevisionInTree:
500
 
                parent_tree = self.branch.repository.revision_tree(parent_id)
501
 
            parent_tree.lock_read()
502
 
            try:
503
 
                if file_id not in parent_tree:
504
 
                    continue
505
 
                ie = parent_tree.inventory[file_id]
506
 
                if ie.kind != 'file':
507
 
                    # Note: this is slightly unnecessary, because symlinks and
508
 
                    # directories have a "text" which is the empty text, and we
509
 
                    # know that won't mess up annotations. But it seems cleaner
510
 
                    continue
511
 
                parent_text_key = (file_id, ie.revision)
512
 
                if parent_text_key not in maybe_file_parent_keys:
513
 
                    maybe_file_parent_keys.append(parent_text_key)
514
 
            finally:
515
 
                parent_tree.unlock()
516
 
        graph = _mod_graph.Graph(self.branch.repository.texts)
517
 
        heads = graph.heads(maybe_file_parent_keys)
518
 
        file_parent_keys = []
519
 
        for key in maybe_file_parent_keys:
520
 
            if key in heads:
521
 
                file_parent_keys.append(key)
522
 
 
523
 
        # Now we have the parents of this content
524
 
        annotator = self.branch.repository.texts.get_annotator()
525
 
        text = self.get_file(file_id).read()
526
 
        this_key =(file_id, default_revision)
527
 
        annotator.add_special_text(this_key, file_parent_keys, text)
528
 
        annotations = [(key[-1], line)
529
 
                       for key, line in annotator.annotate_flat(this_key)]
530
 
        return annotations
531
 
 
532
 
    def _get_ancestors(self, default_revision):
533
 
        ancestors = set([default_revision])
534
 
        for parent_id in self.get_parent_ids():
535
 
            ancestors.update(self.branch.repository.get_ancestry(
536
 
                             parent_id, topo_sorted=False))
537
 
        return ancestors
 
475
        file_id = osutils.safe_file_id(file_id)
 
476
        basis = self.basis_tree()
 
477
        changes = self._iter_changes(basis, True, [self.id2path(file_id)],
 
478
            require_versioned=True).next()
 
479
        changed_content, kind = changes[2], changes[6]
 
480
        if not changed_content:
 
481
            return basis.annotate_iter(file_id)
 
482
        if kind[1] is None:
 
483
            return None
 
484
        import annotate
 
485
        if kind[0] != 'file':
 
486
            old_lines = []
 
487
        else:
 
488
            old_lines = list(basis.annotate_iter(file_id))
 
489
        old = [old_lines]
 
490
        for tree in self.branch.repository.revision_trees(
 
491
            self.get_parent_ids()[1:]):
 
492
            if file_id not in tree:
 
493
                continue
 
494
            old.append(list(tree.annotate_iter(file_id)))
 
495
        return annotate.reannotate(old, self.get_file(file_id).readlines(),
 
496
                                   CURRENT_REVISION)
538
497
 
539
498
    def get_parent_ids(self):
540
499
        """See Tree.get_parent_ids.
541
 
 
 
500
        
542
501
        This implementation reads the pending merges list and last_revision
543
502
        value and uses that to decide what the parents list should be.
544
503
        """
545
 
        last_rev = _mod_revision.ensure_null(self._last_revision())
546
 
        if _mod_revision.NULL_REVISION == last_rev:
 
504
        last_rev = self._last_revision()
 
505
        if last_rev is None:
547
506
            parents = []
548
507
        else:
549
508
            parents = [last_rev]
550
509
        try:
551
 
            merges_bytes = self._transport.get_bytes('pending-merges')
 
510
            merges_file = self._control_files.get('pending-merges')
552
511
        except errors.NoSuchFile:
553
512
            pass
554
513
        else:
555
 
            for l in osutils.split_lines(merges_bytes):
556
 
                revision_id = l.rstrip('\n')
 
514
            for l in merges_file.readlines():
 
515
                revision_id = osutils.safe_revision_id(l.rstrip('\n'))
557
516
                parents.append(revision_id)
558
517
        return parents
559
518
 
561
520
    def get_root_id(self):
562
521
        """Return the id of this trees root"""
563
522
        return self._inventory.root.file_id
564
 
 
 
523
        
565
524
    def _get_store_filename(self, file_id):
566
525
        ## XXX: badly named; this is not in the store at all
 
526
        file_id = osutils.safe_file_id(file_id)
567
527
        return self.abspath(self.id2path(file_id))
568
528
 
569
529
    @needs_read_lock
570
 
    def clone(self, to_bzrdir, revision_id=None):
 
530
    def clone(self, to_bzrdir, revision_id=None, basis=None):
571
531
        """Duplicate this working tree into to_bzr, including all state.
572
 
 
 
532
        
573
533
        Specifically modified files are kept as modified, but
574
534
        ignored and unknown files are discarded.
575
535
 
576
536
        If you want to make a new line of development, see bzrdir.sprout()
577
537
 
578
538
        revision
579
 
            If not None, the cloned tree will have its last revision set to
580
 
            revision, and difference between the source trees last revision
 
539
            If not None, the cloned tree will have its last revision set to 
 
540
            revision, and and difference between the source trees last revision
581
541
            and this one merged in.
 
542
 
 
543
        basis
 
544
            If not None, a closer copy of a tree which may have some files in
 
545
            common, and which file content should be preferentially copied from.
582
546
        """
583
547
        # assumes the target bzr dir format is compatible.
584
 
        result = to_bzrdir.create_workingtree()
 
548
        result = self._format.initialize(to_bzrdir)
585
549
        self.copy_content_into(result, revision_id)
586
550
        return result
587
551
 
598
562
            tree.set_parent_ids([revision_id])
599
563
 
600
564
    def id2abspath(self, file_id):
 
565
        file_id = osutils.safe_file_id(file_id)
601
566
        return self.abspath(self.id2path(file_id))
602
567
 
603
568
    def has_id(self, file_id):
604
569
        # files that have been deleted are excluded
 
570
        file_id = osutils.safe_file_id(file_id)
605
571
        inv = self.inventory
606
572
        if not inv.has_id(file_id):
607
573
            return False
609
575
        return osutils.lexists(self.abspath(path))
610
576
 
611
577
    def has_or_had_id(self, file_id):
 
578
        file_id = osutils.safe_file_id(file_id)
612
579
        if file_id == self.inventory.root.file_id:
613
580
            return True
614
581
        return self.inventory.has_id(file_id)
616
583
    __contains__ = has_id
617
584
 
618
585
    def get_file_size(self, file_id):
619
 
        """See Tree.get_file_size"""
620
 
        # XXX: this returns the on-disk size; it should probably return the
621
 
        # canonical size
622
 
        try:
623
 
            return os.path.getsize(self.id2abspath(file_id))
624
 
        except OSError, e:
625
 
            if e.errno != errno.ENOENT:
626
 
                raise
627
 
            else:
628
 
                return None
 
586
        file_id = osutils.safe_file_id(file_id)
 
587
        return os.path.getsize(self.id2abspath(file_id))
629
588
 
630
589
    @needs_read_lock
631
590
    def get_file_sha1(self, file_id, path=None, stat_value=None):
 
591
        file_id = osutils.safe_file_id(file_id)
632
592
        if not path:
633
593
            path = self._inventory.id2path(file_id)
634
594
        return self._hashcache.get_sha1(path, stat_value)
635
595
 
636
596
    def get_file_mtime(self, file_id, path=None):
 
597
        file_id = osutils.safe_file_id(file_id)
637
598
        if not path:
638
 
            path = self.inventory.id2path(file_id)
 
599
            path = self._inventory.id2path(file_id)
639
600
        return os.lstat(self.abspath(path)).st_mtime
640
601
 
641
 
    def _is_executable_from_path_and_stat_from_basis(self, path, stat_result):
642
 
        file_id = self.path2id(path)
643
 
        if file_id is None:
644
 
            # For unversioned files on win32, we just assume they are not
645
 
            # executable
646
 
            return False
647
 
        return self._inventory[file_id].executable
648
 
 
649
 
    def _is_executable_from_path_and_stat_from_stat(self, path, stat_result):
650
 
        mode = stat_result.st_mode
651
 
        return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
652
 
 
653
602
    if not supports_executable():
654
603
        def is_executable(self, file_id, path=None):
 
604
            file_id = osutils.safe_file_id(file_id)
655
605
            return self._inventory[file_id].executable
656
 
 
657
 
        _is_executable_from_path_and_stat = \
658
 
            _is_executable_from_path_and_stat_from_basis
659
606
    else:
660
607
        def is_executable(self, file_id, path=None):
661
608
            if not path:
 
609
                file_id = osutils.safe_file_id(file_id)
662
610
                path = self.id2path(file_id)
663
611
            mode = os.lstat(self.abspath(path)).st_mode
664
612
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
665
613
 
666
 
        _is_executable_from_path_and_stat = \
667
 
            _is_executable_from_path_and_stat_from_stat
668
 
 
669
 
    @needs_tree_write_lock
 
614
    @needs_write_lock
670
615
    def _add(self, files, ids, kinds):
671
616
        """See MutableTree._add."""
672
617
        # TODO: Re-adding a file that is removed in the working copy
673
618
        # should probably put it back with the previous ID.
674
 
        # the read and write working inventory should not occur in this
 
619
        # the read and write working inventory should not occur in this 
675
620
        # function - they should be part of lock_write and unlock.
676
 
        inv = self.inventory
 
621
        inv = self.read_working_inventory()
677
622
        for f, file_id, kind in zip(files, ids, kinds):
 
623
            assert kind is not None
678
624
            if file_id is None:
679
625
                inv.add_path(f, kind=kind)
680
626
            else:
 
627
                file_id = osutils.safe_file_id(file_id)
681
628
                inv.add_path(f, kind=kind, file_id=file_id)
682
 
            self._inventory_is_modified = True
 
629
        self._write_inventory(inv)
683
630
 
684
631
    @needs_tree_write_lock
685
632
    def _gather_kinds(self, files, kinds):
745
692
        if updated:
746
693
            self.set_parent_ids(parents, allow_leftmost_as_ghost=True)
747
694
 
748
 
    def path_content_summary(self, path, _lstat=os.lstat,
749
 
        _mapper=osutils.file_kind_from_stat_mode):
750
 
        """See Tree.path_content_summary."""
751
 
        abspath = self.abspath(path)
752
 
        try:
753
 
            stat_result = _lstat(abspath)
754
 
        except OSError, e:
755
 
            if getattr(e, 'errno', None) == errno.ENOENT:
756
 
                # no file.
757
 
                return ('missing', None, None, None)
758
 
            # propagate other errors
759
 
            raise
760
 
        kind = _mapper(stat_result.st_mode)
761
 
        if kind == 'file':
762
 
            return self._file_content_summary(path, stat_result)
763
 
        elif kind == 'directory':
764
 
            # perhaps it looks like a plain directory, but it's really a
765
 
            # reference.
766
 
            if self._directory_is_tree_reference(path):
767
 
                kind = 'tree-reference'
768
 
            return kind, None, None, None
769
 
        elif kind == 'symlink':
770
 
            target = osutils.readlink(abspath)
771
 
            return ('symlink', None, None, target)
772
 
        else:
773
 
            return (kind, None, None, None)
774
 
 
775
 
    def _file_content_summary(self, path, stat_result):
776
 
        size = stat_result.st_size
777
 
        executable = self._is_executable_from_path_and_stat(path, stat_result)
778
 
        # try for a stat cache lookup
779
 
        return ('file', size, executable, self._sha_from_stat(
780
 
            path, stat_result))
 
695
    @deprecated_method(zero_eleven)
 
696
    @needs_read_lock
 
697
    def pending_merges(self):
 
698
        """Return a list of pending merges.
 
699
 
 
700
        These are revisions that have been merged into the working
 
701
        directory but not yet committed.
 
702
 
 
703
        As of 0.11 this is deprecated. Please see WorkingTree.get_parent_ids()
 
704
        instead - which is available on all tree objects.
 
705
        """
 
706
        return self.get_parent_ids()[1:]
781
707
 
782
708
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
783
709
        """Common ghost checking functionality from set_parent_*.
793
719
 
794
720
    def _set_merges_from_parent_ids(self, parent_ids):
795
721
        merges = parent_ids[1:]
796
 
        self._transport.put_bytes('pending-merges', '\n'.join(merges),
797
 
            mode=self.bzrdir._get_file_mode())
798
 
 
799
 
    def _filter_parent_ids_by_ancestry(self, revision_ids):
800
 
        """Check that all merged revisions are proper 'heads'.
801
 
 
802
 
        This will always return the first revision_id, and any merged revisions
803
 
        which are
804
 
        """
805
 
        if len(revision_ids) == 0:
806
 
            return revision_ids
807
 
        graph = self.branch.repository.get_graph()
808
 
        heads = graph.heads(revision_ids)
809
 
        new_revision_ids = revision_ids[:1]
810
 
        for revision_id in revision_ids[1:]:
811
 
            if revision_id in heads and revision_id not in new_revision_ids:
812
 
                new_revision_ids.append(revision_id)
813
 
        if new_revision_ids != revision_ids:
814
 
            trace.mutter('requested to set revision_ids = %s,'
815
 
                         ' but filtered to %s', revision_ids, new_revision_ids)
816
 
        return new_revision_ids
 
722
        self._control_files.put_bytes('pending-merges', '\n'.join(merges))
817
723
 
818
724
    @needs_tree_write_lock
819
725
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
820
726
        """Set the parent ids to revision_ids.
821
 
 
 
727
        
822
728
        See also set_parent_trees. This api will try to retrieve the tree data
823
729
        for each element of revision_ids from the trees repository. If you have
824
730
        tree data already available, it is more efficient to use
828
734
        :param revision_ids: The revision_ids to set as the parent ids of this
829
735
            working tree. Any of these may be ghosts.
830
736
        """
 
737
        revision_ids = [osutils.safe_revision_id(r) for r in revision_ids]
831
738
        self._check_parents_for_ghosts(revision_ids,
832
739
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
833
 
        for revision_id in revision_ids:
834
 
            _mod_revision.check_not_reserved_id(revision_id)
835
 
 
836
 
        revision_ids = self._filter_parent_ids_by_ancestry(revision_ids)
837
740
 
838
741
        if len(revision_ids) > 0:
839
742
            self.set_last_revision(revision_ids[0])
840
743
        else:
841
 
            self.set_last_revision(_mod_revision.NULL_REVISION)
 
744
            self.set_last_revision(None)
842
745
 
843
746
        self._set_merges_from_parent_ids(revision_ids)
844
747
 
845
748
    @needs_tree_write_lock
846
749
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
847
750
        """See MutableTree.set_parent_trees."""
848
 
        parent_ids = [rev for (rev, tree) in parents_list]
849
 
        for revision_id in parent_ids:
850
 
            _mod_revision.check_not_reserved_id(revision_id)
 
751
        parent_ids = [osutils.safe_revision_id(rev) for (rev, tree) in parents_list]
851
752
 
852
753
        self._check_parents_for_ghosts(parent_ids,
853
754
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
854
755
 
855
 
        parent_ids = self._filter_parent_ids_by_ancestry(parent_ids)
856
 
 
857
756
        if len(parent_ids) == 0:
858
 
            leftmost_parent_id = _mod_revision.NULL_REVISION
 
757
            leftmost_parent_id = None
859
758
            leftmost_parent_tree = None
860
759
        else:
861
760
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
886
785
                yield Stanza(file_id=file_id.decode('utf8'), hash=hash)
887
786
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
888
787
 
889
 
    def _sha_from_stat(self, path, stat_result):
890
 
        """Get a sha digest from the tree's stat cache.
891
 
 
892
 
        The default implementation assumes no stat cache is present.
893
 
 
894
 
        :param path: The path.
895
 
        :param stat_result: The stat result being looked up.
896
 
        """
897
 
        return None
898
 
 
 
788
    @needs_tree_write_lock
899
789
    def _put_rio(self, filename, stanzas, header):
900
 
        self._must_be_locked()
901
790
        my_file = rio_file(stanzas, header)
902
 
        self._transport.put_file(filename, my_file,
903
 
            mode=self.bzrdir._get_file_mode())
 
791
        self._control_files.put(filename, my_file)
904
792
 
905
793
    @needs_write_lock # because merge pulls data into the branch.
906
 
    def merge_from_branch(self, branch, to_revision=None, from_revision=None,
907
 
                          merge_type=None, force=False):
 
794
    def merge_from_branch(self, branch, to_revision=None):
908
795
        """Merge from a branch into this working tree.
909
796
 
910
797
        :param branch: The branch to merge from.
914
801
            branch.last_revision().
915
802
        """
916
803
        from bzrlib.merge import Merger, Merge3Merger
917
 
        merger = Merger(self.branch, this_tree=self)
918
 
        # check that there are no local alterations
919
 
        if not force and self.has_changes():
920
 
            raise errors.UncommittedChanges(self)
921
 
        if to_revision is None:
922
 
            to_revision = _mod_revision.ensure_null(branch.last_revision())
923
 
        merger.other_rev_id = to_revision
924
 
        if _mod_revision.is_null(merger.other_rev_id):
925
 
            raise errors.NoCommits(branch)
926
 
        self.branch.fetch(branch, last_revision=merger.other_rev_id)
927
 
        merger.other_basis = merger.other_rev_id
928
 
        merger.other_tree = self.branch.repository.revision_tree(
929
 
            merger.other_rev_id)
930
 
        merger.other_branch = branch
931
 
        if from_revision is None:
 
804
        pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
805
        try:
 
806
            merger = Merger(self.branch, this_tree=self, pb=pb)
 
807
            merger.pp = ProgressPhase("Merge phase", 5, pb)
 
808
            merger.pp.next_phase()
 
809
            # check that there are no
 
810
            # local alterations
 
811
            merger.check_basis(check_clean=True, require_commits=False)
 
812
            if to_revision is None:
 
813
                to_revision = branch.last_revision()
 
814
            else:
 
815
                to_revision = osutils.safe_revision_id(to_revision)
 
816
            merger.other_rev_id = to_revision
 
817
            if merger.other_rev_id is None:
 
818
                raise error.NoCommits(branch)
 
819
            self.branch.fetch(branch, last_revision=merger.other_rev_id)
 
820
            merger.other_basis = merger.other_rev_id
 
821
            merger.other_tree = self.branch.repository.revision_tree(
 
822
                merger.other_rev_id)
 
823
            merger.pp.next_phase()
932
824
            merger.find_base()
933
 
        else:
934
 
            merger.set_base_revision(from_revision, branch)
935
 
        if merger.base_rev_id == merger.other_rev_id:
936
 
            raise errors.PointlessMerge
937
 
        merger.backup_files = False
938
 
        if merge_type is None:
 
825
            if merger.base_rev_id == merger.other_rev_id:
 
826
                raise errors.PointlessMerge
 
827
            merger.backup_files = False
939
828
            merger.merge_type = Merge3Merger
940
 
        else:
941
 
            merger.merge_type = merge_type
942
 
        merger.set_interesting_files(None)
943
 
        merger.show_base = False
944
 
        merger.reprocess = False
945
 
        conflicts = merger.do_merge()
946
 
        merger.set_pending()
 
829
            merger.set_interesting_files(None)
 
830
            merger.show_base = False
 
831
            merger.reprocess = False
 
832
            conflicts = merger.do_merge()
 
833
            merger.set_pending()
 
834
        finally:
 
835
            pb.finished()
947
836
        return conflicts
948
837
 
949
838
    @needs_read_lock
950
839
    def merge_modified(self):
951
 
        """Return a dictionary of files modified by a merge.
952
 
 
953
 
        The list is initialized by WorkingTree.set_merge_modified, which is
954
 
        typically called after we make some automatic updates to the tree
955
 
        because of a merge.
956
 
 
957
 
        This returns a map of file_id->sha1, containing only files which are
958
 
        still in the working inventory and have that text hash.
959
 
        """
960
840
        try:
961
 
            hashfile = self._transport.get('merge-hashes')
 
841
            hashfile = self._control_files.get('merge-hashes')
962
842
        except errors.NoSuchFile:
963
843
            return {}
 
844
        merge_hashes = {}
964
845
        try:
965
 
            merge_hashes = {}
966
 
            try:
967
 
                if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
968
 
                    raise errors.MergeModifiedFormatError()
969
 
            except StopIteration:
 
846
            if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
970
847
                raise errors.MergeModifiedFormatError()
971
 
            for s in RioReader(hashfile):
972
 
                # RioReader reads in Unicode, so convert file_ids back to utf8
973
 
                file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
974
 
                if file_id not in self.inventory:
975
 
                    continue
976
 
                text_hash = s.get("hash")
977
 
                if text_hash == self.get_file_sha1(file_id):
978
 
                    merge_hashes[file_id] = text_hash
979
 
            return merge_hashes
980
 
        finally:
981
 
            hashfile.close()
 
848
        except StopIteration:
 
849
            raise errors.MergeModifiedFormatError()
 
850
        for s in RioReader(hashfile):
 
851
            file_id = s.get("file_id")
 
852
            if file_id not in self.inventory:
 
853
                continue
 
854
            hash = s.get("hash")
 
855
            if hash == self.get_file_sha1(file_id):
 
856
                merge_hashes[file_id] = hash
 
857
        return merge_hashes
982
858
 
983
859
    @needs_write_lock
984
860
    def mkdir(self, path, file_id=None):
990
866
        return file_id
991
867
 
992
868
    def get_symlink_target(self, file_id):
993
 
        abspath = self.id2abspath(file_id)
994
 
        target = osutils.readlink(abspath)
995
 
        return target
996
 
 
997
 
    @needs_write_lock
998
 
    def subsume(self, other_tree):
999
 
        def add_children(inventory, entry):
1000
 
            for child_entry in entry.children.values():
1001
 
                inventory._byid[child_entry.file_id] = child_entry
1002
 
                if child_entry.kind == 'directory':
1003
 
                    add_children(inventory, child_entry)
1004
 
        if other_tree.get_root_id() == self.get_root_id():
1005
 
            raise errors.BadSubsumeSource(self, other_tree,
1006
 
                                          'Trees have the same root')
1007
 
        try:
1008
 
            other_tree_path = self.relpath(other_tree.basedir)
1009
 
        except errors.PathNotChild:
1010
 
            raise errors.BadSubsumeSource(self, other_tree,
1011
 
                'Tree is not contained by the other')
1012
 
        new_root_parent = self.path2id(osutils.dirname(other_tree_path))
1013
 
        if new_root_parent is None:
1014
 
            raise errors.BadSubsumeSource(self, other_tree,
1015
 
                'Parent directory is not versioned.')
1016
 
        # We need to ensure that the result of a fetch will have a
1017
 
        # versionedfile for the other_tree root, and only fetching into
1018
 
        # RepositoryKnit2 guarantees that.
1019
 
        if not self.branch.repository.supports_rich_root():
1020
 
            raise errors.SubsumeTargetNeedsUpgrade(other_tree)
1021
 
        other_tree.lock_tree_write()
1022
 
        try:
1023
 
            new_parents = other_tree.get_parent_ids()
1024
 
            other_root = other_tree.inventory.root
1025
 
            other_root.parent_id = new_root_parent
1026
 
            other_root.name = osutils.basename(other_tree_path)
1027
 
            self.inventory.add(other_root)
1028
 
            add_children(self.inventory, other_root)
1029
 
            self._write_inventory(self.inventory)
1030
 
            # normally we don't want to fetch whole repositories, but i think
1031
 
            # here we really do want to consolidate the whole thing.
1032
 
            for parent_id in other_tree.get_parent_ids():
1033
 
                self.branch.fetch(other_tree.branch, parent_id)
1034
 
                self.add_parent_tree_id(parent_id)
1035
 
        finally:
1036
 
            other_tree.unlock()
1037
 
        other_tree.bzrdir.retire_bzrdir()
1038
 
 
1039
 
    def _setup_directory_is_tree_reference(self):
1040
 
        if self._branch.repository._format.supports_tree_reference:
1041
 
            self._directory_is_tree_reference = \
1042
 
                self._directory_may_be_tree_reference
1043
 
        else:
1044
 
            self._directory_is_tree_reference = \
1045
 
                self._directory_is_never_tree_reference
1046
 
 
1047
 
    def _directory_is_never_tree_reference(self, relpath):
1048
 
        return False
1049
 
 
1050
 
    def _directory_may_be_tree_reference(self, relpath):
1051
 
        # as a special case, if a directory contains control files then
1052
 
        # it's a tree reference, except that the root of the tree is not
1053
 
        return relpath and osutils.isdir(self.abspath(relpath) + u"/.bzr")
1054
 
        # TODO: We could ask all the control formats whether they
1055
 
        # recognize this directory, but at the moment there's no cheap api
1056
 
        # to do that.  Since we probably can only nest bzr checkouts and
1057
 
        # they always use this name it's ok for now.  -- mbp 20060306
1058
 
        #
1059
 
        # FIXME: There is an unhandled case here of a subdirectory
1060
 
        # containing .bzr but not a branch; that will probably blow up
1061
 
        # when you try to commit it.  It might happen if there is a
1062
 
        # checkout in a subdirectory.  This can be avoided by not adding
1063
 
        # it.  mbp 20070306
1064
 
 
1065
 
    @needs_tree_write_lock
1066
 
    def extract(self, file_id, format=None):
1067
 
        """Extract a subtree from this tree.
1068
 
 
1069
 
        A new branch will be created, relative to the path for this tree.
1070
 
        """
1071
 
        self.flush()
1072
 
        def mkdirs(path):
1073
 
            segments = osutils.splitpath(path)
1074
 
            transport = self.branch.bzrdir.root_transport
1075
 
            for name in segments:
1076
 
                transport = transport.clone(name)
1077
 
                transport.ensure_base()
1078
 
            return transport
1079
 
 
1080
 
        sub_path = self.id2path(file_id)
1081
 
        branch_transport = mkdirs(sub_path)
1082
 
        if format is None:
1083
 
            format = self.bzrdir.cloning_metadir()
1084
 
        branch_transport.ensure_base()
1085
 
        branch_bzrdir = format.initialize_on_transport(branch_transport)
1086
 
        try:
1087
 
            repo = branch_bzrdir.find_repository()
1088
 
        except errors.NoRepositoryPresent:
1089
 
            repo = branch_bzrdir.create_repository()
1090
 
        if not repo.supports_rich_root():
1091
 
            raise errors.RootNotRich()
1092
 
        new_branch = branch_bzrdir.create_branch()
1093
 
        new_branch.pull(self.branch)
1094
 
        for parent_id in self.get_parent_ids():
1095
 
            new_branch.fetch(self.branch, parent_id)
1096
 
        tree_transport = self.bzrdir.root_transport.clone(sub_path)
1097
 
        if tree_transport.base != branch_transport.base:
1098
 
            tree_bzrdir = format.initialize_on_transport(tree_transport)
1099
 
            branch.BranchReferenceFormat().initialize(tree_bzrdir,
1100
 
                target_branch=new_branch)
1101
 
        else:
1102
 
            tree_bzrdir = branch_bzrdir
1103
 
        wt = tree_bzrdir.create_workingtree(_mod_revision.NULL_REVISION)
1104
 
        wt.set_parent_ids(self.get_parent_ids())
1105
 
        my_inv = self.inventory
1106
 
        child_inv = inventory.Inventory(root_id=None)
1107
 
        new_root = my_inv[file_id]
1108
 
        my_inv.remove_recursive_id(file_id)
1109
 
        new_root.parent_id = None
1110
 
        child_inv.add(new_root)
1111
 
        self._write_inventory(my_inv)
1112
 
        wt._write_inventory(child_inv)
1113
 
        return wt
1114
 
 
1115
 
    def _serialize(self, inventory, out_file):
1116
 
        xml5.serializer_v5.write_inventory(self._inventory, out_file,
1117
 
            working=True)
1118
 
 
1119
 
    def _deserialize(selt, in_file):
1120
 
        return xml5.serializer_v5.read_inventory(in_file)
 
869
        return os.readlink(self.id2abspath(file_id))
 
870
 
 
871
    def file_class(self, filename):
 
872
        if self.path2id(filename):
 
873
            return 'V'
 
874
        elif self.is_ignored(filename):
 
875
            return 'I'
 
876
        else:
 
877
            return '?'
1121
878
 
1122
879
    def flush(self):
1123
880
        """Write the in memory inventory to disk."""
1125
882
        if self._control_files._lock_mode != 'w':
1126
883
            raise errors.NotWriteLocked(self)
1127
884
        sio = StringIO()
1128
 
        self._serialize(self._inventory, sio)
 
885
        xml5.serializer_v5.write_inventory(self._inventory, sio)
1129
886
        sio.seek(0)
1130
 
        self._transport.put_file('inventory', sio,
1131
 
            mode=self.bzrdir._get_file_mode())
 
887
        self._control_files.put('inventory', sio)
1132
888
        self._inventory_is_modified = False
1133
889
 
1134
 
    def _kind(self, relpath):
1135
 
        return osutils.file_kind(self.abspath(relpath))
1136
 
 
1137
 
    def list_files(self, include_root=False, from_dir=None, recursive=True):
1138
 
        """List all files as (path, class, kind, id, entry).
 
890
    def list_files(self, include_root=False):
 
891
        """Recursively list all files as (path, class, kind, id, entry).
1139
892
 
1140
893
        Lists, but does not descend into unversioned directories.
 
894
 
1141
895
        This does not include files that have been deleted in this
1142
 
        tree. Skips the control directory.
 
896
        tree.
1143
897
 
1144
 
        :param include_root: if True, return an entry for the root
1145
 
        :param from_dir: start from this directory or None for the root
1146
 
        :param recursive: whether to recurse into subdirectories or not
 
898
        Skips the control directory.
1147
899
        """
1148
900
        # list_files is an iterator, so @needs_read_lock doesn't work properly
1149
901
        # with it. So callers should be careful to always read_lock the tree.
1151
903
            raise errors.ObjectNotLocked(self)
1152
904
 
1153
905
        inv = self.inventory
1154
 
        if from_dir is None and include_root is True:
 
906
        if include_root is True:
1155
907
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
1156
908
        # Convert these into local objects to save lookup times
1157
909
        pathjoin = osutils.pathjoin
1158
 
        file_kind = self._kind
 
910
        file_kind = osutils.file_kind
1159
911
 
1160
912
        # transport.base ends in a slash, we want the piece
1161
913
        # between the last two slashes
1164
916
        fk_entries = {'directory':TreeDirectory, 'file':TreeFile, 'symlink':TreeLink}
1165
917
 
1166
918
        # directory file_id, relative path, absolute path, reverse sorted children
1167
 
        if from_dir is not None:
1168
 
            from_dir_id = inv.path2id(from_dir)
1169
 
            if from_dir_id is None:
1170
 
                # Directory not versioned
1171
 
                return
1172
 
            from_dir_abspath = pathjoin(self.basedir, from_dir)
1173
 
        else:
1174
 
            from_dir_id = inv.root.file_id
1175
 
            from_dir_abspath = self.basedir
1176
 
        children = os.listdir(from_dir_abspath)
 
919
        children = os.listdir(self.basedir)
1177
920
        children.sort()
1178
 
        # jam 20060527 The kernel sized tree seems equivalent whether we
 
921
        # jam 20060527 The kernel sized tree seems equivalent whether we 
1179
922
        # use a deque and popleft to keep them sorted, or if we use a plain
1180
923
        # list and just reverse() them.
1181
924
        children = collections.deque(children)
1182
 
        stack = [(from_dir_id, u'', from_dir_abspath, children)]
 
925
        stack = [(inv.root.file_id, u'', self.basedir, children)]
1183
926
        while stack:
1184
927
            from_dir_id, from_dir_relpath, from_dir_abspath, children = stack[-1]
1185
928
 
1201
944
 
1202
945
                # absolute path
1203
946
                fap = from_dir_abspath + '/' + f
1204
 
 
 
947
                
1205
948
                f_ie = inv.get_child(from_dir_id, f)
1206
949
                if f_ie:
1207
950
                    c = 'V'
1230
973
 
1231
974
                fk = file_kind(fap)
1232
975
 
 
976
                if f_ie:
 
977
                    if f_ie.kind != fk:
 
978
                        raise errors.BzrCheckError(
 
979
                            "file %r entered as kind %r id %r, now of kind %r"
 
980
                            % (fap, f_ie.kind, f_ie.file_id, fk))
 
981
 
1233
982
                # make a last minute entry
1234
983
                if f_ie:
1235
984
                    yield fp[1:], c, fk, f_ie.file_id, f_ie
1239
988
                    except KeyError:
1240
989
                        yield fp[1:], c, fk, None, TreeEntry()
1241
990
                    continue
1242
 
 
 
991
                
1243
992
                if fk != 'directory':
1244
993
                    continue
1245
994
 
1246
 
                # But do this child first if recursing down
1247
 
                if recursive:
1248
 
                    new_children = os.listdir(fap)
1249
 
                    new_children.sort()
1250
 
                    new_children = collections.deque(new_children)
1251
 
                    stack.append((f_ie.file_id, fp, fap, new_children))
1252
 
                    # Break out of inner loop,
1253
 
                    # so that we start outer loop with child
1254
 
                    break
 
995
                # But do this child first
 
996
                new_children = os.listdir(fap)
 
997
                new_children.sort()
 
998
                new_children = collections.deque(new_children)
 
999
                stack.append((f_ie.file_id, fp, fap, new_children))
 
1000
                # Break out of inner loop,
 
1001
                # so that we start outer loop with child
 
1002
                break
1255
1003
            else:
1256
1004
                # if we finished all children, pop it off the stack
1257
1005
                stack.pop()
1263
1011
        to_dir must exist in the inventory.
1264
1012
 
1265
1013
        If to_dir exists and is a directory, the files are moved into
1266
 
        it, keeping their old names.
 
1014
        it, keeping their old names.  
1267
1015
 
1268
1016
        Note that to_dir is only the last component of the new name;
1269
1017
        this doesn't change the directory.
1306
1054
                                       DeprecationWarning)
1307
1055
 
1308
1056
        # check destination directory
1309
 
        if isinstance(from_paths, basestring):
1310
 
            raise ValueError()
 
1057
        assert not isinstance(from_paths, basestring)
1311
1058
        inv = self.inventory
1312
1059
        to_abs = self.abspath(to_dir)
1313
1060
        if not isdir(to_abs):
1397
1144
                only_change_inv = True
1398
1145
            elif self.has_filename(from_rel) and not self.has_filename(to_rel):
1399
1146
                only_change_inv = False
1400
 
            elif (not self.case_sensitive
1401
 
                  and from_rel.lower() == to_rel.lower()
1402
 
                  and self.has_filename(from_rel)):
1403
 
                only_change_inv = False
1404
1147
            else:
1405
1148
                # something is wrong, so lets determine what exactly
1406
1149
                if not self.has_filename(from_rel) and \
1409
1152
                        errors.PathsDoNotExist(paths=(str(from_rel),
1410
1153
                        str(to_rel))))
1411
1154
                else:
1412
 
                    raise errors.RenameFailedFilesExist(from_rel, to_rel)
 
1155
                    raise errors.RenameFailedFilesExist(from_rel, to_rel,
 
1156
                        extra="(Use --after to update the Bazaar id)")
1413
1157
            rename_entry.only_change_inv = only_change_inv
1414
1158
        return rename_entries
1415
1159
 
1435
1179
        inv = self.inventory
1436
1180
        for entry in moved:
1437
1181
            try:
1438
 
                self._move_entry(WorkingTree._RenameEntry(
1439
 
                    entry.to_rel, entry.from_id,
 
1182
                self._move_entry(_RenameEntry(entry.to_rel, entry.from_id,
1440
1183
                    entry.to_tail, entry.to_parent_id, entry.from_rel,
1441
1184
                    entry.from_tail, entry.from_parent_id,
1442
1185
                    entry.only_change_inv))
1493
1236
        from_tail = splitpath(from_rel)[-1]
1494
1237
        from_id = inv.path2id(from_rel)
1495
1238
        if from_id is None:
1496
 
            # if file is missing in the inventory maybe it's in the basis_tree
1497
 
            basis_tree = self.branch.basis_tree()
1498
 
            from_id = basis_tree.path2id(from_rel)
1499
 
            if from_id is None:
1500
 
                raise errors.BzrRenameFailedError(from_rel,to_rel,
1501
 
                    errors.NotVersionedError(path=str(from_rel)))
1502
 
            # put entry back in the inventory so we can rename it
1503
 
            from_entry = basis_tree.inventory[from_id].copy()
1504
 
            inv.add(from_entry)
1505
 
        else:
1506
 
            from_entry = inv[from_id]
 
1239
            raise errors.BzrRenameFailedError(from_rel,to_rel,
 
1240
                errors.NotVersionedError(path=str(from_rel)))
 
1241
        from_entry = inv[from_id]
1507
1242
        from_parent_id = from_entry.parent_id
1508
1243
        to_dir, to_tail = os.path.split(to_rel)
1509
1244
        to_dir_id = inv.path2id(to_dir)
1555
1290
        These are files in the working directory that are not versioned or
1556
1291
        control files or ignored.
1557
1292
        """
1558
 
        # force the extras method to be fully executed before returning, to
 
1293
        # force the extras method to be fully executed before returning, to 
1559
1294
        # prevent race conditions with the lock
1560
1295
        return iter(
1561
1296
            [subp for subp in self.extras() if not self.is_ignored(subp)])
1562
 
 
 
1297
    
1563
1298
    @needs_tree_write_lock
1564
1299
    def unversion(self, file_ids):
1565
1300
        """Remove the file ids in file_ids from the current versioned set.
1571
1306
        :raises: NoSuchId if any fileid is not currently versioned.
1572
1307
        """
1573
1308
        for file_id in file_ids:
1574
 
            if file_id not in self._inventory:
1575
 
                raise errors.NoSuchId(self, file_id)
1576
 
        for file_id in file_ids:
 
1309
            file_id = osutils.safe_file_id(file_id)
1577
1310
            if self._inventory.has_id(file_id):
1578
1311
                self._inventory.remove_recursive_id(file_id)
 
1312
            else:
 
1313
                raise errors.NoSuchId(self, file_id)
1579
1314
        if len(file_ids):
1580
 
            # in the future this should just set a dirty bit to wait for the
 
1315
            # in the future this should just set a dirty bit to wait for the 
1581
1316
            # final unlock. However, until all methods of workingtree start
1582
 
            # with the current in -memory inventory rather than triggering
 
1317
            # with the current in -memory inventory rather than triggering 
1583
1318
            # a read, it is more complex - we need to teach read_inventory
1584
1319
            # to know when to read, and when to not read first... and possibly
1585
1320
            # to save first when the in memory one may be corrupted.
1586
1321
            # so for now, we just only write it if it is indeed dirty.
1587
1322
            # - RBC 20060907
1588
1323
            self._write_inventory(self._inventory)
 
1324
    
 
1325
    @deprecated_method(zero_eight)
 
1326
    def iter_conflicts(self):
 
1327
        """List all files in the tree that have text or content conflicts.
 
1328
        DEPRECATED.  Use conflicts instead."""
 
1329
        return self._iter_conflicts()
1589
1330
 
1590
1331
    def _iter_conflicts(self):
1591
1332
        conflicted = set()
1600
1341
 
1601
1342
    @needs_write_lock
1602
1343
    def pull(self, source, overwrite=False, stop_revision=None,
1603
 
             change_reporter=None, possible_transports=None, local=False):
 
1344
             change_reporter=None):
 
1345
        top_pb = bzrlib.ui.ui_factory.nested_progress_bar()
1604
1346
        source.lock_read()
1605
1347
        try:
 
1348
            pp = ProgressPhase("Pull phase", 2, top_pb)
 
1349
            pp.next_phase()
1606
1350
            old_revision_info = self.branch.last_revision_info()
1607
1351
            basis_tree = self.basis_tree()
1608
 
            count = self.branch.pull(source, overwrite, stop_revision,
1609
 
                                     possible_transports=possible_transports,
1610
 
                                     local=local)
 
1352
            count = self.branch.pull(source, overwrite, stop_revision)
1611
1353
            new_revision_info = self.branch.last_revision_info()
1612
1354
            if new_revision_info != old_revision_info:
 
1355
                pp.next_phase()
1613
1356
                repository = self.branch.repository
 
1357
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
1614
1358
                basis_tree.lock_read()
1615
1359
                try:
1616
1360
                    new_basis_tree = self.branch.basis_tree()
1619
1363
                                new_basis_tree,
1620
1364
                                basis_tree,
1621
1365
                                this_tree=self,
1622
 
                                pb=None,
 
1366
                                pb=pb,
1623
1367
                                change_reporter=change_reporter)
1624
 
                    basis_root_id = basis_tree.get_root_id()
1625
 
                    new_root_id = new_basis_tree.get_root_id()
1626
 
                    if basis_root_id != new_root_id:
1627
 
                        self.set_root_id(new_root_id)
 
1368
                    if (basis_tree.inventory.root is None and
 
1369
                        new_basis_tree.inventory.root is not None):
 
1370
                        self.set_root_id(new_basis_tree.inventory.root.file_id)
1628
1371
                finally:
 
1372
                    pb.finished()
1629
1373
                    basis_tree.unlock()
1630
1374
                # TODO - dedup parents list with things merged by pull ?
1631
1375
                # reuse the revisiontree we merged against to set the new
1632
1376
                # tree data.
1633
1377
                parent_trees = [(self.branch.last_revision(), new_basis_tree)]
1634
 
                # we have to pull the merge trees out again, because
1635
 
                # merge_inner has set the ids. - this corner is not yet
 
1378
                # we have to pull the merge trees out again, because 
 
1379
                # merge_inner has set the ids. - this corner is not yet 
1636
1380
                # layered well enough to prevent double handling.
1637
1381
                # XXX TODO: Fix the double handling: telling the tree about
1638
1382
                # the already known parent data is wasteful.
1644
1388
            return count
1645
1389
        finally:
1646
1390
            source.unlock()
 
1391
            top_pb.finished()
1647
1392
 
1648
1393
    @needs_write_lock
1649
1394
    def put_file_bytes_non_atomic(self, file_id, bytes):
1650
1395
        """See MutableTree.put_file_bytes_non_atomic."""
 
1396
        file_id = osutils.safe_file_id(file_id)
1651
1397
        stream = file(self.id2abspath(file_id), 'wb')
1652
1398
        try:
1653
1399
            stream.write(bytes)
1656
1402
        # TODO: update the hashcache here ?
1657
1403
 
1658
1404
    def extras(self):
1659
 
        """Yield all unversioned files in this WorkingTree.
 
1405
        """Yield all unknown files in this WorkingTree.
1660
1406
 
1661
 
        If there are any unversioned directories then only the directory is
1662
 
        returned, not all its children.  But if there are unversioned files
 
1407
        If there are any unknown directories then only the directory is
 
1408
        returned, not all its children.  But if there are unknown files
1663
1409
        under a versioned subdirectory, they are returned.
1664
1410
 
1665
1411
        Currently returned depth-first, sorted by name within directories.
1666
 
        This is the same order used by 'osutils.walkdirs'.
1667
1412
        """
1668
1413
        ## TODO: Work from given directory downwards
1669
1414
        for path, dir_entry in self.inventory.directories():
1675
1420
 
1676
1421
            fl = []
1677
1422
            for subf in os.listdir(dirabs):
1678
 
                if self.bzrdir.is_control_filename(subf):
 
1423
                if subf == '.bzr':
1679
1424
                    continue
1680
1425
                if subf not in dir_entry.children:
1681
 
                    try:
1682
 
                        (subf_norm,
1683
 
                         can_access) = osutils.normalized_filename(subf)
1684
 
                    except UnicodeDecodeError:
1685
 
                        path_os_enc = path.encode(osutils._fs_enc)
1686
 
                        relpath = path_os_enc + '/' + subf
1687
 
                        raise errors.BadFilenameEncoding(relpath,
1688
 
                                                         osutils._fs_enc)
 
1426
                    subf_norm, can_access = osutils.normalized_filename(subf)
1689
1427
                    if subf_norm != subf and can_access:
1690
1428
                        if subf_norm not in dir_entry.children:
1691
1429
                            fl.append(subf_norm)
1692
1430
                    else:
1693
1431
                        fl.append(subf)
1694
 
 
 
1432
            
1695
1433
            fl.sort()
1696
1434
            for subf in fl:
1697
1435
                subp = pathjoin(path, subf)
1713
1451
        if ignoreset is not None:
1714
1452
            return ignoreset
1715
1453
 
1716
 
        ignore_globs = set()
 
1454
        ignore_globs = set(bzrlib.DEFAULT_IGNORE)
1717
1455
        ignore_globs.update(ignores.get_runtime_ignores())
1718
1456
        ignore_globs.update(ignores.get_user_ignores())
1719
1457
        if self.has_filename(bzrlib.IGNORE_FILENAME):
1734
1472
        r"""Check whether the filename matches an ignore pattern.
1735
1473
 
1736
1474
        Patterns containing '/' or '\' need to match the whole path;
1737
 
        others match against only the last component.  Patterns starting
1738
 
        with '!' are ignore exceptions.  Exceptions take precedence
1739
 
        over regular patterns and cause the filename to not be ignored.
 
1475
        others match against only the last component.
1740
1476
 
1741
1477
        If the file is ignored, returns the pattern which caused it to
1742
1478
        be ignored, otherwise None.  So this can simply be used as a
1743
1479
        boolean if desired."""
1744
1480
        if getattr(self, '_ignoreglobster', None) is None:
1745
 
            self._ignoreglobster = globbing.ExceptionGlobster(self.get_ignore_list())
 
1481
            self._ignoreglobster = globbing.Globster(self.get_ignore_list())
1746
1482
        return self._ignoreglobster.match(filename)
1747
1483
 
1748
1484
    def kind(self, file_id):
1749
1485
        return file_kind(self.id2abspath(file_id))
1750
1486
 
1751
 
    def stored_kind(self, file_id):
1752
 
        """See Tree.stored_kind"""
1753
 
        return self.inventory[file_id].kind
1754
 
 
1755
1487
    def _comparison_data(self, entry, path):
1756
1488
        abspath = self.abspath(path)
1757
1489
        try:
1767
1499
            mode = stat_value.st_mode
1768
1500
            kind = osutils.file_kind_from_stat_mode(mode)
1769
1501
            if not supports_executable():
1770
 
                executable = entry is not None and entry.executable
 
1502
                executable = entry.executable
1771
1503
            else:
1772
1504
                executable = bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
1773
1505
        return kind, executable, stat_value
1788
1520
    @needs_read_lock
1789
1521
    def _last_revision(self):
1790
1522
        """helper for get_parent_ids."""
1791
 
        return _mod_revision.ensure_null(self.branch.last_revision())
 
1523
        return self.branch.last_revision()
1792
1524
 
1793
1525
    def is_locked(self):
1794
1526
        return self._control_files.is_locked()
1795
1527
 
1796
 
    def _must_be_locked(self):
1797
 
        if not self.is_locked():
1798
 
            raise errors.ObjectNotLocked(self)
1799
 
 
1800
1528
    def lock_read(self):
1801
 
        """Lock the tree for reading.
1802
 
 
1803
 
        This also locks the branch, and can be unlocked via self.unlock().
1804
 
 
1805
 
        :return: An object with an unlock method which will release the lock
1806
 
            obtained.
1807
 
        """
1808
 
        if not self.is_locked():
1809
 
            self._reset_data()
 
1529
        """See Branch.lock_read, and WorkingTree.unlock."""
1810
1530
        self.branch.lock_read()
1811
1531
        try:
1812
 
            self._control_files.lock_read()
1813
 
            return self
 
1532
            return self._control_files.lock_read()
1814
1533
        except:
1815
1534
            self.branch.unlock()
1816
1535
            raise
1817
1536
 
1818
1537
    def lock_tree_write(self):
1819
 
        """See MutableTree.lock_tree_write, and WorkingTree.unlock.
1820
 
 
1821
 
        :return: An object with an unlock method which will release the lock
1822
 
            obtained.
1823
 
        """
1824
 
        if not self.is_locked():
1825
 
            self._reset_data()
 
1538
        """See MutableTree.lock_tree_write, and WorkingTree.unlock."""
1826
1539
        self.branch.lock_read()
1827
1540
        try:
1828
 
            self._control_files.lock_write()
1829
 
            return self
 
1541
            return self._control_files.lock_write()
1830
1542
        except:
1831
1543
            self.branch.unlock()
1832
1544
            raise
1833
1545
 
1834
1546
    def lock_write(self):
1835
 
        """See MutableTree.lock_write, and WorkingTree.unlock.
1836
 
 
1837
 
        :return: An object with an unlock method which will release the lock
1838
 
            obtained.
1839
 
        """
1840
 
        if not self.is_locked():
1841
 
            self._reset_data()
 
1547
        """See MutableTree.lock_write, and WorkingTree.unlock."""
1842
1548
        self.branch.lock_write()
1843
1549
        try:
1844
 
            self._control_files.lock_write()
1845
 
            return self
 
1550
            return self._control_files.lock_write()
1846
1551
        except:
1847
1552
            self.branch.unlock()
1848
1553
            raise
1853
1558
    def _basis_inventory_name(self):
1854
1559
        return 'basis-inventory-cache'
1855
1560
 
1856
 
    def _reset_data(self):
1857
 
        """Reset transient data that cannot be revalidated."""
1858
 
        self._inventory_is_modified = False
1859
 
        f = self._transport.get('inventory')
1860
 
        try:
1861
 
            result = self._deserialize(f)
1862
 
        finally:
1863
 
            f.close()
1864
 
        self._set_inventory(result, dirty=False)
1865
 
 
1866
1561
    @needs_tree_write_lock
1867
1562
    def set_last_revision(self, new_revision):
1868
1563
        """Change the last revision in the working tree."""
 
1564
        new_revision = osutils.safe_revision_id(new_revision)
1869
1565
        if self._change_last_revision(new_revision):
1870
1566
            self._cache_basis_inventory(new_revision)
1871
1567
 
1872
1568
    def _change_last_revision(self, new_revision):
1873
1569
        """Template method part of set_last_revision to perform the change.
1874
 
 
 
1570
        
1875
1571
        This is used to allow WorkingTree3 instances to not affect branch
1876
1572
        when their last revision is set.
1877
1573
        """
1878
 
        if _mod_revision.is_null(new_revision):
 
1574
        if new_revision is None:
1879
1575
            self.branch.set_revision_history([])
1880
1576
            return False
1881
1577
        try:
1887
1583
 
1888
1584
    def _write_basis_inventory(self, xml):
1889
1585
        """Write the basis inventory XML to the basis-inventory file"""
 
1586
        assert isinstance(xml, str), 'serialised xml must be bytestring.'
1890
1587
        path = self._basis_inventory_name()
1891
1588
        sio = StringIO(xml)
1892
 
        self._transport.put_file(path, sio,
1893
 
            mode=self.bzrdir._get_file_mode())
 
1589
        self._control_files.put(path, sio)
1894
1590
 
1895
1591
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
1896
1592
        """Create the text that will be saved in basis-inventory"""
1897
 
        inventory.revision_id = revision_id
1898
 
        return xml7.serializer_v7.write_inventory_to_string(inventory)
 
1593
        # TODO: jam 20070209 This should be redundant, as the revision_id
 
1594
        #       as all callers should have already converted the revision_id to
 
1595
        #       utf8
 
1596
        inventory.revision_id = osutils.safe_revision_id(revision_id)
 
1597
        return xml6.serializer_v6.write_inventory_to_string(inventory)
1899
1598
 
1900
1599
    def _cache_basis_inventory(self, new_revision):
1901
1600
        """Cache new_revision as the basis inventory."""
1903
1602
        # as commit already has that ready-to-use [while the format is the
1904
1603
        # same, that is].
1905
1604
        try:
1906
 
            # this double handles the inventory - unpack and repack -
 
1605
            # this double handles the inventory - unpack and repack - 
1907
1606
            # but is easier to understand. We can/should put a conditional
1908
1607
            # in here based on whether the inventory is in the latest format
1909
1608
            # - perhaps we should repack all inventories on a repository
1910
1609
            # upgrade ?
1911
1610
            # the fast path is to copy the raw xml from the repository. If the
1912
 
            # xml contains 'revision_id="', then we assume the right
 
1611
            # xml contains 'revision_id="', then we assume the right 
1913
1612
            # revision_id is set. We must check for this full string, because a
1914
1613
            # root node id can legitimately look like 'revision_id' but cannot
1915
1614
            # contain a '"'.
1916
 
            xml = self.branch.repository._get_inventory_xml(new_revision)
 
1615
            xml = self.branch.repository.get_inventory_xml(new_revision)
1917
1616
            firstline = xml.split('\n', 1)[0]
1918
 
            if (not 'revision_id="' in firstline or
1919
 
                'format="7"' not in firstline):
1920
 
                inv = self.branch.repository._serializer.read_inventory_from_string(
1921
 
                    xml, new_revision)
 
1617
            if (not 'revision_id="' in firstline or 
 
1618
                'format="6"' not in firstline):
 
1619
                inv = self.branch.repository.deserialise_inventory(
 
1620
                    new_revision, xml)
1922
1621
                xml = self._create_basis_xml_from_inventory(new_revision, inv)
1923
1622
            self._write_basis_inventory(xml)
1924
1623
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
1927
1626
    def read_basis_inventory(self):
1928
1627
        """Read the cached basis inventory."""
1929
1628
        path = self._basis_inventory_name()
1930
 
        return self._transport.get_bytes(path)
1931
 
 
 
1629
        return self._control_files.get(path).read()
 
1630
        
1932
1631
    @needs_read_lock
1933
1632
    def read_working_inventory(self):
1934
1633
        """Read the working inventory.
1935
 
 
 
1634
        
1936
1635
        :raises errors.InventoryModified: read_working_inventory will fail
1937
1636
            when the current in memory inventory has been modified.
1938
1637
        """
1939
 
        # conceptually this should be an implementation detail of the tree.
 
1638
        # conceptually this should be an implementation detail of the tree. 
1940
1639
        # XXX: Deprecate this.
1941
1640
        # ElementTree does its own conversion from UTF-8, so open in
1942
1641
        # binary.
1943
1642
        if self._inventory_is_modified:
1944
1643
            raise errors.InventoryModified(self)
1945
 
        f = self._transport.get('inventory')
1946
 
        try:
1947
 
            result = self._deserialize(f)
1948
 
        finally:
1949
 
            f.close()
 
1644
        result = xml5.serializer_v5.read_inventory(
 
1645
            self._control_files.get('inventory'))
1950
1646
        self._set_inventory(result, dirty=False)
1951
1647
        return result
1952
1648
 
1953
1649
    @needs_tree_write_lock
1954
 
    def remove(self, files, verbose=False, to_file=None, keep_files=True,
1955
 
        force=False):
1956
 
        """Remove nominated files from the working inventory.
1957
 
 
1958
 
        :files: File paths relative to the basedir.
1959
 
        :keep_files: If true, the files will also be kept.
1960
 
        :force: Delete files and directories, even if they are changed and
1961
 
            even if the directories are not empty.
 
1650
    def remove(self, files, verbose=False, to_file=None):
 
1651
        """Remove nominated files from the working inventory..
 
1652
 
 
1653
        This does not remove their text.  This does not run on XXX on what? RBC
 
1654
 
 
1655
        TODO: Refuse to remove modified files unless --force is given?
 
1656
 
 
1657
        TODO: Do something useful with directories.
 
1658
 
 
1659
        TODO: Should this remove the text or not?  Tough call; not
 
1660
        removing may be useful and the user can just use use rm, and
 
1661
        is the opposite of add.  Removing it is consistent with most
 
1662
        other tools.  Maybe an option.
1962
1663
        """
 
1664
        ## TODO: Normalize names
 
1665
        ## TODO: Remove nested loops; better scalability
1963
1666
        if isinstance(files, basestring):
1964
1667
            files = [files]
1965
1668
 
1966
 
        inv_delta = []
1967
 
 
1968
 
        new_files=set()
1969
 
        unknown_nested_files=set()
1970
 
        if to_file is None:
1971
 
            to_file = sys.stdout
1972
 
 
1973
 
        def recurse_directory_to_add_files(directory):
1974
 
            # Recurse directory and add all files
1975
 
            # so we can check if they have changed.
1976
 
            for parent_info, file_infos in\
1977
 
                self.walkdirs(directory):
1978
 
                for relpath, basename, kind, lstat, fileid, kind in file_infos:
1979
 
                    # Is it versioned or ignored?
1980
 
                    if self.path2id(relpath) or self.is_ignored(relpath):
1981
 
                        # Add nested content for deletion.
1982
 
                        new_files.add(relpath)
1983
 
                    else:
1984
 
                        # Files which are not versioned and not ignored
1985
 
                        # should be treated as unknown.
1986
 
                        unknown_nested_files.add((relpath, None, kind))
1987
 
 
1988
 
        for filename in files:
1989
 
            # Get file name into canonical form.
1990
 
            abspath = self.abspath(filename)
1991
 
            filename = self.relpath(abspath)
1992
 
            if len(filename) > 0:
1993
 
                new_files.add(filename)
1994
 
                recurse_directory_to_add_files(filename)
1995
 
 
1996
 
        files = list(new_files)
1997
 
 
1998
 
        if len(files) == 0:
1999
 
            return # nothing to do
2000
 
 
2001
 
        # Sort needed to first handle directory content before the directory
2002
 
        files.sort(reverse=True)
2003
 
 
2004
 
        # Bail out if we are going to delete files we shouldn't
2005
 
        if not keep_files and not force:
2006
 
            has_changed_files = len(unknown_nested_files) > 0
2007
 
            if not has_changed_files:
2008
 
                for (file_id, path, content_change, versioned, parent_id, name,
2009
 
                     kind, executable) in self.iter_changes(self.basis_tree(),
2010
 
                         include_unchanged=True, require_versioned=False,
2011
 
                         want_unversioned=True, specific_files=files):
2012
 
                    if versioned == (False, False):
2013
 
                        # The record is unknown ...
2014
 
                        if not self.is_ignored(path[1]):
2015
 
                            # ... but not ignored
2016
 
                            has_changed_files = True
2017
 
                            break
2018
 
                    elif content_change and (kind[1] is not None):
2019
 
                        # Versioned and changed, but not deleted
2020
 
                        has_changed_files = True
2021
 
                        break
2022
 
 
2023
 
            if has_changed_files:
2024
 
                # Make delta show ALL applicable changes in error message.
2025
 
                tree_delta = self.changes_from(self.basis_tree(),
2026
 
                    require_versioned=False, want_unversioned=True,
2027
 
                    specific_files=files)
2028
 
                for unknown_file in unknown_nested_files:
2029
 
                    if unknown_file not in tree_delta.unversioned:
2030
 
                        tree_delta.unversioned.extend((unknown_file,))
2031
 
                raise errors.BzrRemoveChangedFilesError(tree_delta)
2032
 
 
2033
 
        # Build inv_delta and delete files where applicable,
2034
 
        # do this before any modifications to inventory.
 
1669
        inv = self.inventory
 
1670
 
 
1671
        # do this before any modifications
2035
1672
        for f in files:
2036
 
            fid = self.path2id(f)
2037
 
            message = None
 
1673
            fid = inv.path2id(f)
2038
1674
            if not fid:
2039
 
                message = "%s is not versioned." % (f,)
 
1675
                note("%s is not versioned."%f)
2040
1676
            else:
2041
1677
                if verbose:
2042
 
                    # having removed it, it must be either ignored or unknown
 
1678
                    # having remove it, it must be either ignored or unknown
2043
1679
                    if self.is_ignored(f):
2044
1680
                        new_status = 'I'
2045
1681
                    else:
2046
1682
                        new_status = '?'
2047
 
                    # XXX: Really should be a more abstract reporter interface
2048
 
                    kind_ch = osutils.kind_marker(self.kind(fid))
2049
 
                    to_file.write(new_status + '       ' + f + kind_ch + '\n')
2050
 
                # Unversion file
2051
 
                inv_delta.append((f, None, fid, None))
2052
 
                message = "removed %s" % (f,)
2053
 
 
2054
 
            if not keep_files:
2055
 
                abs_path = self.abspath(f)
2056
 
                if osutils.lexists(abs_path):
2057
 
                    if (osutils.isdir(abs_path) and
2058
 
                        len(os.listdir(abs_path)) > 0):
2059
 
                        if force:
2060
 
                            osutils.rmtree(abs_path)
2061
 
                        else:
2062
 
                            message = "%s is not an empty directory "\
2063
 
                                "and won't be deleted." % (f,)
2064
 
                    else:
2065
 
                        osutils.delete_any(abs_path)
2066
 
                        message = "deleted %s" % (f,)
2067
 
                elif message is not None:
2068
 
                    # Only care if we haven't done anything yet.
2069
 
                    message = "%s does not exist." % (f,)
2070
 
 
2071
 
            # Print only one message (if any) per file.
2072
 
            if message is not None:
2073
 
                note(message)
2074
 
        self.apply_inventory_delta(inv_delta)
 
1683
                    textui.show_status(new_status, inv[fid].kind, f,
 
1684
                                       to_file=to_file)
 
1685
                del inv[fid]
 
1686
 
 
1687
        self._write_inventory(inv)
2075
1688
 
2076
1689
    @needs_tree_write_lock
2077
 
    def revert(self, filenames=None, old_tree=None, backups=True,
2078
 
               pb=None, report_changes=False):
 
1690
    def revert(self, filenames, old_tree=None, backups=True, 
 
1691
               pb=DummyProgress(), report_changes=False):
2079
1692
        from bzrlib.conflicts import resolve
2080
 
        if filenames == []:
2081
 
            filenames = None
2082
 
            symbol_versioning.warn('Using [] to revert all files is deprecated'
2083
 
                ' as of bzr 0.91.  Please use None (the default) instead.',
2084
 
                DeprecationWarning, stacklevel=2)
2085
1693
        if old_tree is None:
2086
 
            basis_tree = self.basis_tree()
2087
 
            basis_tree.lock_read()
2088
 
            old_tree = basis_tree
 
1694
            old_tree = self.basis_tree()
 
1695
        conflicts = transform.revert(self, old_tree, filenames, backups, pb,
 
1696
                                     report_changes)
 
1697
        if not len(filenames):
 
1698
            self.set_parent_ids(self.get_parent_ids()[:1])
 
1699
            resolve(self)
2089
1700
        else:
2090
 
            basis_tree = None
2091
 
        try:
2092
 
            conflicts = transform.revert(self, old_tree, filenames, backups, pb,
2093
 
                                         report_changes)
2094
 
            if filenames is None and len(self.get_parent_ids()) > 1:
2095
 
                parent_trees = []
2096
 
                last_revision = self.last_revision()
2097
 
                if last_revision != _mod_revision.NULL_REVISION:
2098
 
                    if basis_tree is None:
2099
 
                        basis_tree = self.basis_tree()
2100
 
                        basis_tree.lock_read()
2101
 
                    parent_trees.append((last_revision, basis_tree))
2102
 
                self.set_parent_trees(parent_trees)
2103
 
                resolve(self)
2104
 
            else:
2105
 
                resolve(self, filenames, ignore_misses=True, recursive=True)
2106
 
        finally:
2107
 
            if basis_tree is not None:
2108
 
                basis_tree.unlock()
 
1701
            resolve(self, filenames, ignore_misses=True)
2109
1702
        return conflicts
2110
1703
 
2111
1704
    def revision_tree(self, revision_id):
2121
1714
                pass
2122
1715
            else:
2123
1716
                try:
2124
 
                    inv = xml7.serializer_v7.read_inventory_from_string(xml)
 
1717
                    inv = xml6.serializer_v6.read_inventory_from_string(xml)
2125
1718
                    # dont use the repository revision_tree api because we want
2126
1719
                    # to supply the inventory.
2127
1720
                    if inv.revision_id == revision_id:
2138
1731
    def set_inventory(self, new_inventory_list):
2139
1732
        from bzrlib.inventory import (Inventory,
2140
1733
                                      InventoryDirectory,
 
1734
                                      InventoryEntry,
2141
1735
                                      InventoryFile,
2142
1736
                                      InventoryLink)
2143
1737
        inv = Inventory(self.get_root_id())
2145
1739
            name = os.path.basename(path)
2146
1740
            if name == "":
2147
1741
                continue
2148
 
            # fixme, there should be a factory function inv,add_??
 
1742
            # fixme, there should be a factory function inv,add_?? 
2149
1743
            if kind == 'directory':
2150
1744
                inv.add(InventoryDirectory(file_id, name, parent))
2151
1745
            elif kind == 'file':
2159
1753
    @needs_tree_write_lock
2160
1754
    def set_root_id(self, file_id):
2161
1755
        """Set the root id for this tree."""
2162
 
        # for compatability
 
1756
        # for compatability 
2163
1757
        if file_id is None:
2164
 
            raise ValueError(
2165
 
                'WorkingTree.set_root_id with fileid=None')
2166
 
        file_id = osutils.safe_file_id(file_id)
 
1758
            symbol_versioning.warn(symbol_versioning.zero_twelve
 
1759
                % 'WorkingTree.set_root_id with fileid=None',
 
1760
                DeprecationWarning,
 
1761
                stacklevel=3)
 
1762
            file_id = ROOT_ID
 
1763
        else:
 
1764
            file_id = osutils.safe_file_id(file_id)
2167
1765
        self._set_root_id(file_id)
2168
1766
 
2169
1767
    def _set_root_id(self, file_id):
2170
1768
        """Set the root id for this tree, in a format specific manner.
2171
1769
 
2172
 
        :param file_id: The file id to assign to the root. It must not be
 
1770
        :param file_id: The file id to assign to the root. It must not be 
2173
1771
            present in the current inventory or an error will occur. It must
2174
1772
            not be None, but rather a valid file id.
2175
1773
        """
2194
1792
 
2195
1793
    def unlock(self):
2196
1794
        """See Branch.unlock.
2197
 
 
 
1795
        
2198
1796
        WorkingTree locking just uses the Branch locking facilities.
2199
1797
        This is current because all working trees have an embedded branch
2200
1798
        within them. IF in the future, we were to make branch data shareable
2201
 
        between multiple working trees, i.e. via shared storage, then we
 
1799
        between multiple working trees, i.e. via shared storage, then we 
2202
1800
        would probably want to lock both the local tree, and the branch.
2203
1801
        """
2204
1802
        raise NotImplementedError(self.unlock)
2205
1803
 
2206
 
    _marker = object()
2207
 
 
2208
 
    def update(self, change_reporter=None, possible_transports=None,
2209
 
               revision=None, old_tip=_marker):
 
1804
    def update(self):
2210
1805
        """Update a working tree along its branch.
2211
1806
 
2212
1807
        This will update the branch if its bound too, which means we have
2230
1825
        - Merge current state -> basis tree of the master w.r.t. the old tree
2231
1826
          basis.
2232
1827
        - Do a 'normal' merge of the old branch basis if it is relevant.
2233
 
 
2234
 
        :param revision: The target revision to update to. Must be in the
2235
 
            revision history.
2236
 
        :param old_tip: If branch.update() has already been run, the value it
2237
 
            returned (old tip of the branch or None). _marker is used
2238
 
            otherwise.
2239
1828
        """
2240
 
        if self.branch.get_bound_location() is not None:
 
1829
        if self.branch.get_master_branch() is not None:
2241
1830
            self.lock_write()
2242
 
            update_branch = (old_tip is self._marker)
 
1831
            update_branch = True
2243
1832
        else:
2244
1833
            self.lock_tree_write()
2245
1834
            update_branch = False
2246
1835
        try:
2247
1836
            if update_branch:
2248
 
                old_tip = self.branch.update(possible_transports)
 
1837
                old_tip = self.branch.update()
2249
1838
            else:
2250
 
                if old_tip is self._marker:
2251
 
                    old_tip = None
2252
 
            return self._update_tree(old_tip, change_reporter, revision)
 
1839
                old_tip = None
 
1840
            return self._update_tree(old_tip)
2253
1841
        finally:
2254
1842
            self.unlock()
2255
1843
 
2256
1844
    @needs_tree_write_lock
2257
 
    def _update_tree(self, old_tip=None, change_reporter=None, revision=None):
 
1845
    def _update_tree(self, old_tip=None):
2258
1846
        """Update a tree to the master branch.
2259
1847
 
2260
1848
        :param old_tip: if supplied, the previous tip revision the branch,
2266
1854
        # cant set that until we update the working trees last revision to be
2267
1855
        # one from the new branch, because it will just get absorbed by the
2268
1856
        # parent de-duplication logic.
2269
 
        #
 
1857
        # 
2270
1858
        # We MUST save it even if an error occurs, because otherwise the users
2271
1859
        # local work is unreferenced and will appear to have been lost.
2272
 
        #
2273
 
        nb_conflicts = 0
 
1860
        # 
 
1861
        result = 0
2274
1862
        try:
2275
1863
            last_rev = self.get_parent_ids()[0]
2276
1864
        except IndexError:
2277
 
            last_rev = _mod_revision.NULL_REVISION
2278
 
        if revision is None:
2279
 
            revision = self.branch.last_revision()
2280
 
 
2281
 
        old_tip = old_tip or _mod_revision.NULL_REVISION
2282
 
 
2283
 
        if not _mod_revision.is_null(old_tip) and old_tip != last_rev:
2284
 
            # the branch we are bound to was updated
2285
 
            # merge those changes in first
2286
 
            base_tree  = self.basis_tree()
2287
 
            other_tree = self.branch.repository.revision_tree(old_tip)
2288
 
            nb_conflicts = merge.merge_inner(self.branch, other_tree,
2289
 
                                             base_tree, this_tree=self,
2290
 
                                             change_reporter=change_reporter)
2291
 
            if nb_conflicts:
2292
 
                self.add_parent_tree((old_tip, other_tree))
2293
 
                trace.note('Rerun update after fixing the conflicts.')
2294
 
                return nb_conflicts
2295
 
 
2296
 
        if last_rev != _mod_revision.ensure_null(revision):
2297
 
            # the working tree is up to date with the branch
2298
 
            # we can merge the specified revision from master
2299
 
            to_tree = self.branch.repository.revision_tree(revision)
2300
 
            to_root_id = to_tree.get_root_id()
2301
 
 
 
1865
            last_rev = None
 
1866
        if last_rev != self.branch.last_revision():
 
1867
            # merge tree state up to new branch tip.
2302
1868
            basis = self.basis_tree()
2303
1869
            basis.lock_read()
2304
1870
            try:
2305
 
                if (basis.inventory.root is None
2306
 
                    or basis.inventory.root.file_id != to_root_id):
2307
 
                    self.set_root_id(to_root_id)
2308
 
                    self.flush()
 
1871
                to_tree = self.branch.basis_tree()
 
1872
                if basis.inventory.root is None and self.inventory.root is None:
 
1873
                    self.set_root_id(to_tree.inventory.root.file_id)
 
1874
                result += merge.merge_inner(
 
1875
                                      self.branch,
 
1876
                                      to_tree,
 
1877
                                      basis,
 
1878
                                      this_tree=self)
2309
1879
            finally:
2310
1880
                basis.unlock()
2311
 
 
2312
 
            # determine the branch point
2313
 
            graph = self.branch.repository.get_graph()
2314
 
            base_rev_id = graph.find_unique_lca(self.branch.last_revision(),
2315
 
                                                last_rev)
2316
 
            base_tree = self.branch.repository.revision_tree(base_rev_id)
2317
 
 
2318
 
            nb_conflicts = merge.merge_inner(self.branch, to_tree, base_tree,
2319
 
                                             this_tree=self,
2320
 
                                             change_reporter=change_reporter)
2321
 
            self.set_last_revision(revision)
2322
1881
            # TODO - dedup parents list with things merged by pull ?
2323
1882
            # reuse the tree we've updated to to set the basis:
2324
 
            parent_trees = [(revision, to_tree)]
 
1883
            parent_trees = [(self.branch.last_revision(), to_tree)]
2325
1884
            merges = self.get_parent_ids()[1:]
2326
1885
            # Ideally we ask the tree for the trees here, that way the working
2327
 
            # tree can decide whether to give us the entire tree or give us a
 
1886
            # tree can decide whether to give us teh entire tree or give us a
2328
1887
            # lazy initialised tree. dirstate for instance will have the trees
2329
1888
            # in ram already, whereas a last-revision + basis-inventory tree
2330
1889
            # will not, but also does not need them when setting parents.
2331
1890
            for parent in merges:
2332
1891
                parent_trees.append(
2333
1892
                    (parent, self.branch.repository.revision_tree(parent)))
2334
 
            if not _mod_revision.is_null(old_tip):
 
1893
            if old_tip is not None:
2335
1894
                parent_trees.append(
2336
1895
                    (old_tip, self.branch.repository.revision_tree(old_tip)))
2337
1896
            self.set_parent_trees(parent_trees)
2338
1897
            last_rev = parent_trees[0][0]
2339
 
        return nb_conflicts
 
1898
        else:
 
1899
            # the working tree had the same last-revision as the master
 
1900
            # branch did. We may still have pivot local work from the local
 
1901
            # branch into old_tip:
 
1902
            if old_tip is not None:
 
1903
                self.add_parent_tree_id(old_tip)
 
1904
        if old_tip and old_tip != last_rev:
 
1905
            # our last revision was not the prior branch last revision
 
1906
            # and we have converted that last revision to a pending merge.
 
1907
            # base is somewhere between the branch tip now
 
1908
            # and the now pending merge
 
1909
 
 
1910
            # Since we just modified the working tree and inventory, flush out
 
1911
            # the current state, before we modify it again.
 
1912
            # TODO: jam 20070214 WorkingTree3 doesn't require this, dirstate
 
1913
            #       requires it only because TreeTransform directly munges the
 
1914
            #       inventory and calls tree._write_inventory(). Ultimately we
 
1915
            #       should be able to remove this extra flush.
 
1916
            self.flush()
 
1917
            from bzrlib.revision import common_ancestor
 
1918
            try:
 
1919
                base_rev_id = common_ancestor(self.branch.last_revision(),
 
1920
                                              old_tip,
 
1921
                                              self.branch.repository)
 
1922
            except errors.NoCommonAncestor:
 
1923
                base_rev_id = None
 
1924
            base_tree = self.branch.repository.revision_tree(base_rev_id)
 
1925
            other_tree = self.branch.repository.revision_tree(old_tip)
 
1926
            result += merge.merge_inner(
 
1927
                                  self.branch,
 
1928
                                  other_tree,
 
1929
                                  base_tree,
 
1930
                                  this_tree=self)
 
1931
        return result
2340
1932
 
2341
1933
    def _write_hashcache_if_dirty(self):
2342
1934
        """Write out the hashcache if it is dirty."""
2393
1985
    def walkdirs(self, prefix=""):
2394
1986
        """Walk the directories of this tree.
2395
1987
 
2396
 
        returns a generator which yields items in the form:
2397
 
                ((curren_directory_path, fileid),
2398
 
                 [(file1_path, file1_name, file1_kind, (lstat), file1_id,
2399
 
                   file1_kind), ... ])
2400
 
 
2401
1988
        This API returns a generator, which is only valid during the current
2402
1989
        tree transaction - within a single lock_read or lock_write duration.
2403
1990
 
2404
 
        If the tree is not locked, it may cause an error to be raised,
2405
 
        depending on the tree implementation.
 
1991
        If the tree is not locked, it may cause an error to be raised, depending
 
1992
        on the tree implementation.
2406
1993
        """
2407
1994
        disk_top = self.abspath(prefix)
2408
1995
        if disk_top.endswith('/'):
2414
2001
            current_disk = disk_iterator.next()
2415
2002
            disk_finished = False
2416
2003
        except OSError, e:
2417
 
            if not (e.errno == errno.ENOENT or
2418
 
                (sys.platform == 'win32' and e.errno == ERROR_PATH_NOT_FOUND)):
 
2004
            if e.errno != errno.ENOENT:
2419
2005
                raise
2420
2006
            current_disk = None
2421
2007
            disk_finished = True
2426
2012
            current_inv = None
2427
2013
            inv_finished = True
2428
2014
        while not inv_finished or not disk_finished:
2429
 
            if current_disk:
2430
 
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
2431
 
                    cur_disk_dir_content) = current_disk
2432
 
            else:
2433
 
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
2434
 
                    cur_disk_dir_content) = ((None, None), None)
2435
2015
            if not disk_finished:
2436
2016
                # strip out .bzr dirs
2437
 
                if (cur_disk_dir_path_from_top[top_strip_len:] == '' and
2438
 
                    len(cur_disk_dir_content) > 0):
2439
 
                    # osutils.walkdirs can be made nicer -
 
2017
                if current_disk[0][1][top_strip_len:] == '':
 
2018
                    # osutils.walkdirs can be made nicer - 
2440
2019
                    # yield the path-from-prefix rather than the pathjoined
2441
2020
                    # value.
2442
 
                    bzrdir_loc = bisect_left(cur_disk_dir_content,
2443
 
                        ('.bzr', '.bzr'))
2444
 
                    if (bzrdir_loc < len(cur_disk_dir_content)
2445
 
                        and self.bzrdir.is_control_filename(
2446
 
                            cur_disk_dir_content[bzrdir_loc][0])):
 
2021
                    bzrdir_loc = bisect_left(current_disk[1], ('.bzr', '.bzr'))
 
2022
                    if current_disk[1][bzrdir_loc][0] == '.bzr':
2447
2023
                        # we dont yield the contents of, or, .bzr itself.
2448
 
                        del cur_disk_dir_content[bzrdir_loc]
 
2024
                        del current_disk[1][bzrdir_loc]
2449
2025
            if inv_finished:
2450
2026
                # everything is unknown
2451
2027
                direction = 1
2453
2029
                # everything is missing
2454
2030
                direction = -1
2455
2031
            else:
2456
 
                direction = cmp(current_inv[0][0], cur_disk_dir_relpath)
 
2032
                direction = cmp(current_inv[0][0], current_disk[0][0])
2457
2033
            if direction > 0:
2458
2034
                # disk is before inventory - unknown
2459
2035
                dirblock = [(relpath, basename, kind, stat, None, None) for
2460
 
                    relpath, basename, kind, stat, top_path in
2461
 
                    cur_disk_dir_content]
2462
 
                yield (cur_disk_dir_relpath, None), dirblock
 
2036
                    relpath, basename, kind, stat, top_path in current_disk[1]]
 
2037
                yield (current_disk[0][0], None), dirblock
2463
2038
                try:
2464
2039
                    current_disk = disk_iterator.next()
2465
2040
                except StopIteration:
2467
2042
            elif direction < 0:
2468
2043
                # inventory is before disk - missing.
2469
2044
                dirblock = [(relpath, basename, 'unknown', None, fileid, kind)
2470
 
                    for relpath, basename, dkind, stat, fileid, kind in
 
2045
                    for relpath, basename, dkind, stat, fileid, kind in 
2471
2046
                    current_inv[1]]
2472
2047
                yield (current_inv[0][0], current_inv[0][1]), dirblock
2473
2048
                try:
2479
2054
                # merge the inventory and disk data together
2480
2055
                dirblock = []
2481
2056
                for relpath, subiterator in itertools.groupby(sorted(
2482
 
                    current_inv[1] + cur_disk_dir_content,
2483
 
                    key=operator.itemgetter(0)), operator.itemgetter(1)):
 
2057
                    current_inv[1] + current_disk[1], key=operator.itemgetter(0)), operator.itemgetter(1)):
2484
2058
                    path_elements = list(subiterator)
2485
2059
                    if len(path_elements) == 2:
2486
2060
                        inv_row, disk_row = path_elements
2512
2086
                    disk_finished = True
2513
2087
 
2514
2088
    def _walkdirs(self, prefix=""):
2515
 
        """Walk the directories of this tree.
2516
 
 
2517
 
           :prefix: is used as the directrory to start with.
2518
 
           returns a generator which yields items in the form:
2519
 
                ((curren_directory_path, fileid),
2520
 
                 [(file1_path, file1_name, file1_kind, None, file1_id,
2521
 
                   file1_kind), ... ])
2522
 
        """
2523
2089
        _directory = 'directory'
2524
2090
        # get the root in the inventory
2525
2091
        inv = self.inventory
2539
2105
                relroot = ""
2540
2106
            # FIXME: stash the node in pending
2541
2107
            entry = inv[top_id]
2542
 
            if entry.kind == 'directory':
2543
 
                for name, child in entry.sorted_children():
2544
 
                    dirblock.append((relroot + name, name, child.kind, None,
2545
 
                        child.file_id, child.kind
2546
 
                        ))
 
2108
            for name, child in entry.sorted_children():
 
2109
                dirblock.append((relroot + name, name, child.kind, None,
 
2110
                    child.file_id, child.kind
 
2111
                    ))
2547
2112
            yield (currentdir[0], entry.file_id), dirblock
2548
2113
            # push the user specified dirs from dirblock
2549
2114
            for dir in reversed(dirblock):
2550
2115
                if dir[2] == _directory:
2551
2116
                    pending.append(dir)
2552
2117
 
2553
 
    @needs_tree_write_lock
2554
 
    def auto_resolve(self):
2555
 
        """Automatically resolve text conflicts according to contents.
2556
 
 
2557
 
        Only text conflicts are auto_resolvable. Files with no conflict markers
2558
 
        are considered 'resolved', because bzr always puts conflict markers
2559
 
        into files that have text conflicts.  The corresponding .THIS .BASE and
2560
 
        .OTHER files are deleted, as per 'resolve'.
2561
 
        :return: a tuple of ConflictLists: (un_resolved, resolved).
2562
 
        """
2563
 
        un_resolved = _mod_conflicts.ConflictList()
2564
 
        resolved = _mod_conflicts.ConflictList()
2565
 
        conflict_re = re.compile('^(<{7}|={7}|>{7})')
2566
 
        for conflict in self.conflicts():
2567
 
            if (conflict.typestring != 'text conflict' or
2568
 
                self.kind(conflict.file_id) != 'file'):
2569
 
                un_resolved.append(conflict)
2570
 
                continue
2571
 
            my_file = open(self.id2abspath(conflict.file_id), 'rb')
2572
 
            try:
2573
 
                for line in my_file:
2574
 
                    if conflict_re.search(line):
2575
 
                        un_resolved.append(conflict)
2576
 
                        break
2577
 
                else:
2578
 
                    resolved.append(conflict)
2579
 
            finally:
2580
 
                my_file.close()
2581
 
        resolved.remove_files(self)
2582
 
        self.set_conflicts(un_resolved)
2583
 
        return un_resolved, resolved
2584
 
 
2585
 
    @needs_read_lock
2586
 
    def _check(self, references):
2587
 
        """Check the tree for consistency.
2588
 
 
2589
 
        :param references: A dict with keys matching the items returned by
2590
 
            self._get_check_refs(), and values from looking those keys up in
2591
 
            the repository.
2592
 
        """
2593
 
        tree_basis = self.basis_tree()
2594
 
        tree_basis.lock_read()
2595
 
        try:
2596
 
            repo_basis = references[('trees', self.last_revision())]
2597
 
            if len(list(repo_basis.iter_changes(tree_basis))) > 0:
2598
 
                raise errors.BzrCheckError(
2599
 
                    "Mismatched basis inventory content.")
2600
 
            self._validate()
2601
 
        finally:
2602
 
            tree_basis.unlock()
2603
 
 
2604
 
    def _validate(self):
2605
 
        """Validate internal structures.
2606
 
 
2607
 
        This is meant mostly for the test suite. To give it a chance to detect
2608
 
        corruption after actions have occurred. The default implementation is a
2609
 
        just a no-op.
2610
 
 
2611
 
        :return: None. An exception should be raised if there is an error.
2612
 
        """
2613
 
        return
2614
 
 
2615
 
    def _get_rules_searcher(self, default_searcher):
2616
 
        """See Tree._get_rules_searcher."""
2617
 
        if self._rules_searcher is None:
2618
 
            self._rules_searcher = super(WorkingTree,
2619
 
                self)._get_rules_searcher(default_searcher)
2620
 
        return self._rules_searcher
2621
 
 
2622
 
    def get_shelf_manager(self):
2623
 
        """Return the ShelfManager for this WorkingTree."""
2624
 
        from bzrlib.shelf import ShelfManager
2625
 
        return ShelfManager(self, self._transport)
2626
 
 
2627
2118
 
2628
2119
class WorkingTree2(WorkingTree):
2629
2120
    """This is the Format 2 working tree.
2630
2121
 
2631
 
    This was the first weave based working tree.
 
2122
    This was the first weave based working tree. 
2632
2123
     - uses os locks for locking.
2633
2124
     - uses the branch last-revision.
2634
2125
    """
2635
2126
 
2636
 
    def __init__(self, *args, **kwargs):
2637
 
        super(WorkingTree2, self).__init__(*args, **kwargs)
2638
 
        # WorkingTree2 has more of a constraint that self._inventory must
2639
 
        # exist. Because this is an older format, we don't mind the overhead
2640
 
        # caused by the extra computation here.
2641
 
 
2642
 
        # Newer WorkingTree's should only have self._inventory set when they
2643
 
        # have a read lock.
2644
 
        if self._inventory is None:
2645
 
            self.read_working_inventory()
2646
 
 
2647
 
    def _get_check_refs(self):
2648
 
        """Return the references needed to perform a check of this tree."""
2649
 
        return [('trees', self.last_revision())]
2650
 
 
2651
2127
    def lock_tree_write(self):
2652
2128
        """See WorkingTree.lock_tree_write().
2653
2129
 
2654
2130
        In Format2 WorkingTrees we have a single lock for the branch and tree
2655
2131
        so lock_tree_write() degrades to lock_write().
2656
 
 
2657
 
        :return: An object with an unlock method which will release the lock
2658
 
            obtained.
2659
2132
        """
2660
2133
        self.branch.lock_write()
2661
2134
        try:
2662
 
            self._control_files.lock_write()
2663
 
            return self
 
2135
            return self._control_files.lock_write()
2664
2136
        except:
2665
2137
            self.branch.unlock()
2666
2138
            raise
2667
2139
 
2668
2140
    def unlock(self):
2669
 
        # do non-implementation specific cleanup
2670
 
        self._cleanup()
2671
 
 
2672
2141
        # we share control files:
2673
2142
        if self._control_files._lock_count == 3:
2674
2143
            # _inventory_is_modified is always False during a read lock.
2675
2144
            if self._inventory_is_modified:
2676
2145
                self.flush()
2677
2146
            self._write_hashcache_if_dirty()
2678
 
 
 
2147
                    
2679
2148
        # reverse order of locking.
2680
2149
        try:
2681
2150
            return self._control_files.unlock()
2697
2166
    def _last_revision(self):
2698
2167
        """See Mutable.last_revision."""
2699
2168
        try:
2700
 
            return self._transport.get_bytes('last-revision')
 
2169
            return osutils.safe_revision_id(
 
2170
                        self._control_files.get('last-revision').read())
2701
2171
        except errors.NoSuchFile:
2702
 
            return _mod_revision.NULL_REVISION
 
2172
            return None
2703
2173
 
2704
2174
    def _change_last_revision(self, revision_id):
2705
2175
        """See WorkingTree._change_last_revision."""
2706
 
        if revision_id is None or revision_id == _mod_revision.NULL_REVISION:
 
2176
        if revision_id is None or revision_id == NULL_REVISION:
2707
2177
            try:
2708
 
                self._transport.delete('last-revision')
 
2178
                self._control_files._transport.delete('last-revision')
2709
2179
            except errors.NoSuchFile:
2710
2180
                pass
2711
2181
            return False
2712
2182
        else:
2713
 
            self._transport.put_bytes('last-revision', revision_id,
2714
 
                mode=self.bzrdir._get_file_mode())
 
2183
            self._control_files.put_bytes('last-revision', revision_id)
2715
2184
            return True
2716
2185
 
2717
 
    def _get_check_refs(self):
2718
 
        """Return the references needed to perform a check of this tree."""
2719
 
        return [('trees', self.last_revision())]
2720
 
 
2721
2186
    @needs_tree_write_lock
2722
2187
    def set_conflicts(self, conflicts):
2723
 
        self._put_rio('conflicts', conflicts.to_stanzas(),
 
2188
        self._put_rio('conflicts', conflicts.to_stanzas(), 
2724
2189
                      CONFLICT_HEADER_1)
2725
2190
 
2726
2191
    @needs_tree_write_lock
2733
2198
    @needs_read_lock
2734
2199
    def conflicts(self):
2735
2200
        try:
2736
 
            confile = self._transport.get('conflicts')
 
2201
            confile = self._control_files.get('conflicts')
2737
2202
        except errors.NoSuchFile:
2738
2203
            return _mod_conflicts.ConflictList()
2739
2204
        try:
2740
 
            try:
2741
 
                if confile.next() != CONFLICT_HEADER_1 + '\n':
2742
 
                    raise errors.ConflictFormatError()
2743
 
            except StopIteration:
 
2205
            if confile.next() != CONFLICT_HEADER_1 + '\n':
2744
2206
                raise errors.ConflictFormatError()
2745
 
            return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
2746
 
        finally:
2747
 
            confile.close()
 
2207
        except StopIteration:
 
2208
            raise errors.ConflictFormatError()
 
2209
        return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
2748
2210
 
2749
2211
    def unlock(self):
2750
 
        # do non-implementation specific cleanup
2751
 
        self._cleanup()
2752
2212
        if self._control_files._lock_count == 1:
2753
2213
            # _inventory_is_modified is always False during a read lock.
2754
2214
            if self._inventory_is_modified:
2767
2227
            return path[:-len(suffix)]
2768
2228
 
2769
2229
 
 
2230
@deprecated_function(zero_eight)
 
2231
def is_control_file(filename):
 
2232
    """See WorkingTree.is_control_filename(filename)."""
 
2233
    ## FIXME: better check
 
2234
    filename = normpath(filename)
 
2235
    while filename != '':
 
2236
        head, tail = os.path.split(filename)
 
2237
        ## mutter('check %r for control file' % ((head, tail),))
 
2238
        if tail == '.bzr':
 
2239
            return True
 
2240
        if filename == head:
 
2241
            break
 
2242
        filename = head
 
2243
    return False
 
2244
 
 
2245
 
2770
2246
class WorkingTreeFormat(object):
2771
2247
    """An encapsulation of the initialization and open routines for a format.
2772
2248
 
2775
2251
     * a format string,
2776
2252
     * an open routine.
2777
2253
 
2778
 
    Formats are placed in an dict by their format string for reference
 
2254
    Formats are placed in an dict by their format string for reference 
2779
2255
    during workingtree opening. Its not required that these be instances, they
2780
 
    can be classes themselves with class methods - it simply depends on
 
2256
    can be classes themselves with class methods - it simply depends on 
2781
2257
    whether state is needed for a given format or not.
2782
2258
 
2783
2259
    Once a format is deprecated, just deprecate the initialize and open
2784
 
    methods on the format class. Do not deprecate the object, as the
 
2260
    methods on the format class. Do not deprecate the object, as the 
2785
2261
    object will be created every time regardless.
2786
2262
    """
2787
2263
 
2791
2267
    _formats = {}
2792
2268
    """The known formats."""
2793
2269
 
2794
 
    requires_rich_root = False
2795
 
 
2796
 
    upgrade_recommended = False
2797
 
 
2798
2270
    @classmethod
2799
2271
    def find_format(klass, a_bzrdir):
2800
2272
        """Return the format for the working tree object in a_bzrdir."""
2801
2273
        try:
2802
2274
            transport = a_bzrdir.get_workingtree_transport(None)
2803
 
            format_string = transport.get_bytes("format")
 
2275
            format_string = transport.get("format").read()
2804
2276
            return klass._formats[format_string]
2805
2277
        except errors.NoSuchFile:
2806
2278
            raise errors.NoWorkingTree(base=transport.base)
2807
2279
        except KeyError:
2808
 
            raise errors.UnknownFormatError(format=format_string,
2809
 
                                            kind="working tree")
2810
 
 
2811
 
    def __eq__(self, other):
2812
 
        return self.__class__ is other.__class__
2813
 
 
2814
 
    def __ne__(self, other):
2815
 
        return not (self == other)
 
2280
            raise errors.UnknownFormatError(format=format_string)
2816
2281
 
2817
2282
    @classmethod
2818
2283
    def get_default_format(klass):
2831
2296
        """Is this format supported?
2832
2297
 
2833
2298
        Supported formats can be initialized and opened.
2834
 
        Unsupported formats may not support initialization or committing or
 
2299
        Unsupported formats may not support initialization or committing or 
2835
2300
        some other features depending on the reason for not being supported.
2836
2301
        """
2837
2302
        return True
2838
2303
 
2839
 
    def supports_content_filtering(self):
2840
 
        """True if this format supports content filtering."""
2841
 
        return False
2842
 
 
2843
 
    def supports_views(self):
2844
 
        """True if this format supports stored views."""
2845
 
        return False
2846
 
 
2847
2304
    @classmethod
2848
2305
    def register_format(klass, format):
2849
2306
        klass._formats[format.get_format_string()] = format
2854
2311
 
2855
2312
    @classmethod
2856
2313
    def unregister_format(klass, format):
 
2314
        assert klass._formats[format.get_format_string()] is format
2857
2315
        del klass._formats[format.get_format_string()]
2858
2316
 
2859
2317
 
 
2318
 
2860
2319
class WorkingTreeFormat2(WorkingTreeFormat):
2861
 
    """The second working tree format.
 
2320
    """The second working tree format. 
2862
2321
 
2863
2322
    This format modified the hash cache from the format 1 hash cache.
2864
2323
    """
2865
2324
 
2866
 
    upgrade_recommended = True
2867
 
 
2868
2325
    def get_format_description(self):
2869
2326
        """See WorkingTreeFormat.get_format_description()."""
2870
2327
        return "Working tree format 2"
2871
2328
 
2872
 
    def _stub_initialize_on_transport(self, transport, file_mode):
2873
 
        """Workaround: create control files for a remote working tree.
2874
 
 
 
2329
    def stub_initialize_remote(self, control_files):
 
2330
        """As a special workaround create critical control files for a remote working tree
 
2331
        
2875
2332
        This ensures that it can later be updated and dealt with locally,
2876
 
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with
 
2333
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with 
2877
2334
        no working tree.  (See bug #43064).
2878
2335
        """
2879
2336
        sio = StringIO()
2880
 
        inv = inventory.Inventory()
2881
 
        xml5.serializer_v5.write_inventory(inv, sio, working=True)
 
2337
        inv = Inventory()
 
2338
        xml5.serializer_v5.write_inventory(inv, sio)
2882
2339
        sio.seek(0)
2883
 
        transport.put_file('inventory', sio, file_mode)
2884
 
        transport.put_bytes('pending-merges', '', file_mode)
2885
 
 
2886
 
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
2887
 
                   accelerator_tree=None, hardlink=False):
 
2340
        control_files.put('inventory', sio)
 
2341
 
 
2342
        control_files.put_bytes('pending-merges', '')
 
2343
        
 
2344
 
 
2345
    def initialize(self, a_bzrdir, revision_id=None):
2888
2346
        """See WorkingTreeFormat.initialize()."""
2889
2347
        if not isinstance(a_bzrdir.transport, LocalTransport):
2890
2348
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2891
 
        if from_branch is not None:
2892
 
            branch = from_branch
2893
 
        else:
2894
 
            branch = a_bzrdir.open_branch()
2895
 
        if revision_id is None:
2896
 
            revision_id = _mod_revision.ensure_null(branch.last_revision())
2897
 
        branch.lock_write()
2898
 
        try:
2899
 
            branch.generate_revision_history(revision_id)
2900
 
        finally:
2901
 
            branch.unlock()
2902
 
        inv = inventory.Inventory()
 
2349
        branch = a_bzrdir.open_branch()
 
2350
        if revision_id is not None:
 
2351
            revision_id = osutils.safe_revision_id(revision_id)
 
2352
            branch.lock_write()
 
2353
            try:
 
2354
                revision_history = branch.revision_history()
 
2355
                try:
 
2356
                    position = revision_history.index(revision_id)
 
2357
                except ValueError:
 
2358
                    raise errors.NoSuchRevision(branch, revision_id)
 
2359
                branch.set_revision_history(revision_history[:position + 1])
 
2360
            finally:
 
2361
                branch.unlock()
 
2362
        revision = branch.last_revision()
 
2363
        inv = Inventory()
2903
2364
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
2904
2365
                         branch,
2905
2366
                         inv,
2906
2367
                         _internal=True,
2907
2368
                         _format=self,
2908
2369
                         _bzrdir=a_bzrdir)
2909
 
        basis_tree = branch.repository.revision_tree(revision_id)
 
2370
        basis_tree = branch.repository.revision_tree(revision)
2910
2371
        if basis_tree.inventory.root is not None:
2911
 
            wt.set_root_id(basis_tree.get_root_id())
 
2372
            wt.set_root_id(basis_tree.inventory.root.file_id)
2912
2373
        # set the parent list and cache the basis tree.
2913
 
        if _mod_revision.is_null(revision_id):
2914
 
            parent_trees = []
2915
 
        else:
2916
 
            parent_trees = [(revision_id, basis_tree)]
2917
 
        wt.set_parent_trees(parent_trees)
 
2374
        wt.set_parent_trees([(revision, basis_tree)])
2918
2375
        transform.build_tree(basis_tree, wt)
2919
2376
        return wt
2920
2377
 
2933
2390
            raise NotImplementedError
2934
2391
        if not isinstance(a_bzrdir.transport, LocalTransport):
2935
2392
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2936
 
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
 
2393
        return WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
2937
2394
                           _internal=True,
2938
2395
                           _format=self,
2939
2396
                           _bzrdir=a_bzrdir)
2940
 
        return wt
 
2397
 
2941
2398
 
2942
2399
class WorkingTreeFormat3(WorkingTreeFormat):
2943
2400
    """The second working tree format updated to record a format marker.
2951
2408
        - uses a LockDir to guard access for writes.
2952
2409
    """
2953
2410
 
2954
 
    upgrade_recommended = True
2955
 
 
2956
2411
    def get_format_string(self):
2957
2412
        """See WorkingTreeFormat.get_format_string()."""
2958
2413
        return "Bazaar-NG Working Tree format 3"
2964
2419
    _lock_file_name = 'lock'
2965
2420
    _lock_class = LockDir
2966
2421
 
2967
 
    _tree_class = WorkingTree3
2968
 
 
2969
 
    def __get_matchingbzrdir(self):
2970
 
        return bzrdir.BzrDirMetaFormat1()
2971
 
 
2972
 
    _matchingbzrdir = property(__get_matchingbzrdir)
2973
 
 
2974
2422
    def _open_control_files(self, a_bzrdir):
2975
2423
        transport = a_bzrdir.get_workingtree_transport(None)
2976
 
        return LockableFiles(transport, self._lock_file_name,
 
2424
        return LockableFiles(transport, self._lock_file_name, 
2977
2425
                             self._lock_class)
2978
2426
 
2979
 
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
2980
 
                   accelerator_tree=None, hardlink=False):
 
2427
    def initialize(self, a_bzrdir, revision_id=None):
2981
2428
        """See WorkingTreeFormat.initialize().
2982
 
 
2983
 
        :param revision_id: if supplied, create a working tree at a different
2984
 
            revision than the branch is at.
2985
 
        :param accelerator_tree: A tree which can be used for retrieving file
2986
 
            contents more quickly than the revision tree, i.e. a workingtree.
2987
 
            The revision tree will be used for cases where accelerator_tree's
2988
 
            content is different.
2989
 
        :param hardlink: If true, hard-link files from accelerator_tree,
2990
 
            where possible.
 
2429
        
 
2430
        revision_id allows creating a working tree at a different
 
2431
        revision than the branch is at.
2991
2432
        """
2992
2433
        if not isinstance(a_bzrdir.transport, LocalTransport):
2993
2434
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2995
2436
        control_files = self._open_control_files(a_bzrdir)
2996
2437
        control_files.create_lock()
2997
2438
        control_files.lock_write()
2998
 
        transport.put_bytes('format', self.get_format_string(),
2999
 
            mode=a_bzrdir._get_file_mode())
3000
 
        if from_branch is not None:
3001
 
            branch = from_branch
 
2439
        control_files.put_utf8('format', self.get_format_string())
 
2440
        branch = a_bzrdir.open_branch()
 
2441
        if revision_id is None:
 
2442
            revision_id = branch.last_revision()
3002
2443
        else:
3003
 
            branch = a_bzrdir.open_branch()
3004
 
        if revision_id is None:
3005
 
            revision_id = _mod_revision.ensure_null(branch.last_revision())
 
2444
            revision_id = osutils.safe_revision_id(revision_id)
3006
2445
        # WorkingTree3 can handle an inventory which has a unique root id.
3007
2446
        # as of bzr 0.12. However, bzr 0.11 and earlier fail to handle
3008
2447
        # those trees. And because there isn't a format bump inbetween, we
3009
2448
        # are maintaining compatibility with older clients.
3010
2449
        # inv = Inventory(root_id=gen_root_id())
3011
 
        inv = self._initial_inventory()
3012
 
        wt = self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
 
2450
        inv = Inventory()
 
2451
        wt = WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
3013
2452
                         branch,
3014
2453
                         inv,
3015
2454
                         _internal=True,
3021
2460
            basis_tree = branch.repository.revision_tree(revision_id)
3022
2461
            # only set an explicit root id if there is one to set.
3023
2462
            if basis_tree.inventory.root is not None:
3024
 
                wt.set_root_id(basis_tree.get_root_id())
3025
 
            if revision_id == _mod_revision.NULL_REVISION:
 
2463
                wt.set_root_id(basis_tree.inventory.root.file_id)
 
2464
            if revision_id == NULL_REVISION:
3026
2465
                wt.set_parent_trees([])
3027
2466
            else:
3028
2467
                wt.set_parent_trees([(revision_id, basis_tree)])
3034
2473
            wt.unlock()
3035
2474
        return wt
3036
2475
 
3037
 
    def _initial_inventory(self):
3038
 
        return inventory.Inventory()
3039
 
 
3040
2476
    def __init__(self):
3041
2477
        super(WorkingTreeFormat3, self).__init__()
 
2478
        self._matchingbzrdir = bzrdir.BzrDirMetaFormat1()
3042
2479
 
3043
2480
    def open(self, a_bzrdir, _found=False):
3044
2481
        """Return the WorkingTree object for a_bzrdir
3051
2488
            raise NotImplementedError
3052
2489
        if not isinstance(a_bzrdir.transport, LocalTransport):
3053
2490
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
3054
 
        wt = self._open(a_bzrdir, self._open_control_files(a_bzrdir))
3055
 
        return wt
 
2491
        return self._open(a_bzrdir, self._open_control_files(a_bzrdir))
3056
2492
 
3057
2493
    def _open(self, a_bzrdir, control_files):
3058
2494
        """Open the tree itself.
3059
 
 
 
2495
        
3060
2496
        :param a_bzrdir: the dir for the tree.
3061
2497
        :param control_files: the control files for the tree.
3062
2498
        """
3063
 
        return self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
3064
 
                                _internal=True,
3065
 
                                _format=self,
3066
 
                                _bzrdir=a_bzrdir,
3067
 
                                _control_files=control_files)
 
2499
        return WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
 
2500
                           _internal=True,
 
2501
                           _format=self,
 
2502
                           _bzrdir=a_bzrdir,
 
2503
                           _control_files=control_files)
3068
2504
 
3069
2505
    def __str__(self):
3070
2506
        return self.get_format_string()
3071
2507
 
3072
2508
 
3073
 
__default_format = WorkingTreeFormat6()
 
2509
__default_format = WorkingTreeFormat3()
3074
2510
WorkingTreeFormat.register_format(__default_format)
3075
 
WorkingTreeFormat.register_format(WorkingTreeFormat5())
3076
2511
WorkingTreeFormat.register_format(WorkingTreeFormat4())
3077
 
WorkingTreeFormat.register_format(WorkingTreeFormat3())
3078
2512
WorkingTreeFormat.set_default_format(__default_format)
3079
2513
# formats which have no format string are not discoverable
3080
2514
# and not independently creatable, so are not registered.
3081
2515
_legacy_formats = [WorkingTreeFormat2(),
3082
2516
                   ]
 
2517
 
 
2518
 
 
2519
class WorkingTreeTestProviderAdapter(object):
 
2520
    """A tool to generate a suite testing multiple workingtree formats at once.
 
2521
 
 
2522
    This is done by copying the test once for each transport and injecting
 
2523
    the transport_server, transport_readonly_server, and workingtree_format
 
2524
    classes into each copy. Each copy is also given a new id() to make it
 
2525
    easy to identify.
 
2526
    """
 
2527
 
 
2528
    def __init__(self, transport_server, transport_readonly_server, formats):
 
2529
        self._transport_server = transport_server
 
2530
        self._transport_readonly_server = transport_readonly_server
 
2531
        self._formats = formats
 
2532
    
 
2533
    def _clone_test(self, test, bzrdir_format, workingtree_format, variation):
 
2534
        """Clone test for adaption."""
 
2535
        new_test = deepcopy(test)
 
2536
        new_test.transport_server = self._transport_server
 
2537
        new_test.transport_readonly_server = self._transport_readonly_server
 
2538
        new_test.bzrdir_format = bzrdir_format
 
2539
        new_test.workingtree_format = workingtree_format
 
2540
        def make_new_test_id():
 
2541
            new_id = "%s(%s)" % (test.id(), variation)
 
2542
            return lambda: new_id
 
2543
        new_test.id = make_new_test_id()
 
2544
        return new_test
 
2545
    
 
2546
    def adapt(self, test):
 
2547
        from bzrlib.tests import TestSuite
 
2548
        result = TestSuite()
 
2549
        for workingtree_format, bzrdir_format in self._formats:
 
2550
            new_test = self._clone_test(
 
2551
                test,
 
2552
                bzrdir_format,
 
2553
                workingtree_format, workingtree_format.__class__.__name__)
 
2554
            result.addTest(new_test)
 
2555
        return result