~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: Vincent Ladeuil
  • Date: 2009-06-22 14:32:48 UTC
  • mto: (4471.1.1 integration)
  • mto: This revision was merged to the branch mainline in revision 4472.
  • Revision ID: v.ladeuil+lp@free.fr-20090622143248-pe4av866hxgzn60e
Use the same method or function names for _dirstate_helpers in pyrex and
python modules.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007, 2008 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
17
"""WorkingTree object and friends.
18
18
 
19
19
A WorkingTree represents the editable working copy of a branch.
20
 
Operations which represent the WorkingTree are also done here, 
21
 
such as renaming or adding files.  The WorkingTree has an inventory 
22
 
which is updated by these operations.  A commit produces a 
 
20
Operations which represent the WorkingTree are also done here,
 
21
such as renaming or adding files.  The WorkingTree has an inventory
 
22
which is updated by these operations.  A commit produces a
23
23
new revision based on the workingtree and its inventory.
24
24
 
25
25
At the moment every WorkingTree has its own branch.  Remote
38
38
 
39
39
from cStringIO import StringIO
40
40
import os
 
41
import sys
41
42
 
42
43
from bzrlib.lazy_import import lazy_import
43
44
lazy_import(globals(), """
44
45
from bisect import bisect_left
45
46
import collections
46
 
from copy import deepcopy
47
47
import errno
48
48
import itertools
49
49
import operator
64
64
    hashcache,
65
65
    ignores,
66
66
    merge,
67
 
    osutils,
 
67
    revision as _mod_revision,
68
68
    revisiontree,
69
69
    repository,
70
70
    textui,
72
72
    transform,
73
73
    ui,
74
74
    urlutils,
 
75
    views,
75
76
    xml5,
76
77
    xml6,
77
78
    xml7,
79
80
import bzrlib.branch
80
81
from bzrlib.transport import get_transport
81
82
import bzrlib.ui
82
 
from bzrlib.workingtree_4 import WorkingTreeFormat4
 
83
from bzrlib.workingtree_4 import (
 
84
    WorkingTreeFormat4,
 
85
    WorkingTreeFormat5,
 
86
    WorkingTreeFormat6,
 
87
    )
83
88
""")
84
89
 
85
90
from bzrlib import symbol_versioning
86
91
from bzrlib.decorators import needs_read_lock, needs_write_lock
87
92
from bzrlib.inventory import InventoryEntry, Inventory, ROOT_ID, TreeReference
88
 
from bzrlib.lockable_files import LockableFiles, TransportLock
 
93
from bzrlib.lockable_files import LockableFiles
89
94
from bzrlib.lockdir import LockDir
90
95
import bzrlib.mutabletree
91
96
from bzrlib.mutabletree import needs_tree_write_lock
 
97
from bzrlib import osutils
92
98
from bzrlib.osutils import (
93
99
    compact_date,
94
100
    file_kind,
101
107
    splitpath,
102
108
    supports_executable,
103
109
    )
 
110
from bzrlib.filters import filtered_input_file
104
111
from bzrlib.trace import mutter, note
105
112
from bzrlib.transport.local import LocalTransport
106
113
from bzrlib.progress import DummyProgress, ProgressPhase
110
117
        deprecated_method,
111
118
        deprecated_function,
112
119
        DEPRECATED_PARAMETER,
113
 
        zero_eight,
114
 
        zero_eleven,
115
 
        zero_thirteen,
116
120
        )
117
121
 
118
122
 
119
123
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
120
124
CONFLICT_HEADER_1 = "BZR conflict list format 1"
121
125
 
122
 
 
123
 
@deprecated_function(zero_thirteen)
124
 
def gen_file_id(name):
125
 
    """Return new file id for the basename 'name'.
126
 
 
127
 
    Use bzrlib.generate_ids.gen_file_id() instead
128
 
    """
129
 
    return generate_ids.gen_file_id(name)
130
 
 
131
 
 
132
 
@deprecated_function(zero_thirteen)
133
 
def gen_root_id():
134
 
    """Return a new tree-root file id.
135
 
 
136
 
    This has been deprecated in favor of bzrlib.generate_ids.gen_root_id()
137
 
    """
138
 
    return generate_ids.gen_root_id()
 
126
ERROR_PATH_NOT_FOUND = 3    # WindowsError errno code, equivalent to ENOENT
139
127
 
140
128
 
141
129
class TreeEntry(object):
142
130
    """An entry that implements the minimum interface used by commands.
143
131
 
144
 
    This needs further inspection, it may be better to have 
 
132
    This needs further inspection, it may be better to have
145
133
    InventoryEntries without ids - though that seems wrong. For now,
146
134
    this is a parallel hierarchy to InventoryEntry, and needs to become
147
135
    one of several things: decorates to that hierarchy, children of, or
150
138
    no InventoryEntry available - i.e. for unversioned objects.
151
139
    Perhaps they should be UnversionedEntry et al. ? - RBC 20051003
152
140
    """
153
 
 
 
141
 
154
142
    def __eq__(self, other):
155
143
        # yes, this us ugly, TODO: best practice __eq__ style.
156
144
        return (isinstance(other, TreeEntry)
157
145
                and other.__class__ == self.__class__)
158
 
 
 
146
 
159
147
    def kind_character(self):
160
148
        return "???"
161
149
 
203
191
    not listed in the Inventory and vice versa.
204
192
    """
205
193
 
 
194
    # override this to set the strategy for storing views
 
195
    def _make_views(self):
 
196
        return views.DisabledViews(self)
 
197
 
206
198
    def __init__(self, basedir='.',
207
199
                 branch=DEPRECATED_PARAMETER,
208
200
                 _inventory=None,
219
211
        if not _internal:
220
212
            raise errors.BzrError("Please use bzrdir.open_workingtree or "
221
213
                "WorkingTree.open() to obtain a WorkingTree.")
222
 
        assert isinstance(basedir, basestring), \
223
 
            "base directory %r is not a string" % basedir
224
214
        basedir = safe_unicode(basedir)
225
215
        mutter("opening working tree %r", basedir)
226
216
        if deprecated_passed(branch):
234
224
            self._control_files = self.branch.control_files
235
225
        else:
236
226
            # assume all other formats have their own control files.
237
 
            assert isinstance(_control_files, LockableFiles), \
238
 
                    "_control_files must be a LockableFiles, not %r" \
239
 
                    % _control_files
240
227
            self._control_files = _control_files
 
228
        self._transport = self._control_files._transport
241
229
        # update the whole cache up front and write to disk if anything changed;
242
230
        # in the future we might want to do this more selectively
243
231
        # two possible ways offer themselves : in self._unlock, write the cache
247
235
        wt_trans = self.bzrdir.get_workingtree_transport(None)
248
236
        cache_filename = wt_trans.local_abspath('stat-cache')
249
237
        self._hashcache = hashcache.HashCache(basedir, cache_filename,
250
 
                                              self._control_files._file_mode)
 
238
            self.bzrdir._get_file_mode(),
 
239
            self._content_filter_stack_provider())
251
240
        hc = self._hashcache
252
241
        hc.read()
253
242
        # is this scan needed ? it makes things kinda slow.
267
256
            # the Format factory and creation methods that are
268
257
            # permitted to do this.
269
258
            self._set_inventory(_inventory, dirty=False)
 
259
        self._detect_case_handling()
 
260
        self._rules_searcher = None
 
261
        self.views = self._make_views()
 
262
 
 
263
    def _detect_case_handling(self):
 
264
        wt_trans = self.bzrdir.get_workingtree_transport(None)
 
265
        try:
 
266
            wt_trans.stat("FoRMaT")
 
267
        except errors.NoSuchFile:
 
268
            self.case_sensitive = True
 
269
        else:
 
270
            self.case_sensitive = False
 
271
 
 
272
        self._setup_directory_is_tree_reference()
270
273
 
271
274
    branch = property(
272
275
        fget=lambda self: self._branch,
293
296
    def supports_tree_reference(self):
294
297
        return False
295
298
 
 
299
    def supports_content_filtering(self):
 
300
        return self._format.supports_content_filtering()
 
301
 
 
302
    def supports_views(self):
 
303
        return self.views.supports_views()
 
304
 
296
305
    def _set_inventory(self, inv, dirty):
297
306
        """Set the internal cached inventory.
298
307
 
303
312
            False then the inventory is the same as that on disk and any
304
313
            serialisation would be unneeded overhead.
305
314
        """
306
 
        assert inv.root is not None
307
315
        self._inventory = inv
308
316
        self._inventory_is_modified = dirty
309
317
 
313
321
 
314
322
        """
315
323
        if path is None:
316
 
            path = os.path.getcwdu()
 
324
            path = osutils.getcwd()
317
325
        control = bzrdir.BzrDir.open(path, _unsupported)
318
326
        return control.open_workingtree(_unsupported)
319
 
        
 
327
 
320
328
    @staticmethod
321
329
    def open_containing(path=None):
322
330
        """Open an existing working tree which has its root about path.
323
 
        
 
331
 
324
332
        This probes for a working tree at path and searches upwards from there.
325
333
 
326
334
        Basically we keep looking up until we find the control directory or
344
352
        """
345
353
        return WorkingTree.open(path, _unsupported=True)
346
354
 
 
355
    @staticmethod
 
356
    def find_trees(location):
 
357
        def list_current(transport):
 
358
            return [d for d in transport.list_dir('') if d != '.bzr']
 
359
        def evaluate(bzrdir):
 
360
            try:
 
361
                tree = bzrdir.open_workingtree()
 
362
            except errors.NoWorkingTree:
 
363
                return True, None
 
364
            else:
 
365
                return True, tree
 
366
        transport = get_transport(location)
 
367
        iterator = bzrdir.BzrDir.find_bzrdirs(transport, evaluate=evaluate,
 
368
                                              list_current=list_current)
 
369
        return [t for t in iterator if t is not None]
 
370
 
347
371
    # should be deprecated - this is slow and in any case treating them as a
348
372
    # container is (we now know) bad style -- mbp 20070302
349
373
    ## @deprecated_method(zero_fifteen)
358
382
            if osutils.lexists(self.abspath(path)):
359
383
                yield ie.file_id
360
384
 
 
385
    def all_file_ids(self):
 
386
        """See Tree.iter_all_file_ids"""
 
387
        return set(self.inventory)
 
388
 
361
389
    def __repr__(self):
362
390
        return "<%s of %s>" % (self.__class__.__name__,
363
391
                               getattr(self, 'basedir', None))
364
392
 
365
393
    def abspath(self, filename):
366
394
        return pathjoin(self.basedir, filename)
367
 
    
 
395
 
368
396
    def basis_tree(self):
369
397
        """Return RevisionTree for the current last revision.
370
 
        
 
398
 
371
399
        If the left most parent is a ghost then the returned tree will be an
372
 
        empty tree - one obtained by calling repository.revision_tree(None).
 
400
        empty tree - one obtained by calling
 
401
        repository.revision_tree(NULL_REVISION).
373
402
        """
374
403
        try:
375
404
            revision_id = self.get_parent_ids()[0]
377
406
            # no parents, return an empty revision tree.
378
407
            # in the future this should return the tree for
379
408
            # 'empty:' - the implicit root empty tree.
380
 
            return self.branch.repository.revision_tree(None)
 
409
            return self.branch.repository.revision_tree(
 
410
                       _mod_revision.NULL_REVISION)
381
411
        try:
382
412
            return self.revision_tree(revision_id)
383
413
        except errors.NoSuchRevision:
387
417
        # at this point ?
388
418
        try:
389
419
            return self.branch.repository.revision_tree(revision_id)
390
 
        except errors.RevisionNotPresent:
 
420
        except (errors.RevisionNotPresent, errors.NoSuchRevision):
391
421
            # the basis tree *may* be a ghost or a low level error may have
392
 
            # occured. If the revision is present, its a problem, if its not
 
422
            # occurred. If the revision is present, its a problem, if its not
393
423
            # its a ghost.
394
424
            if self.branch.repository.has_revision(revision_id):
395
425
                raise
396
426
            # the basis tree is a ghost so return an empty tree.
397
 
            return self.branch.repository.revision_tree(None)
398
 
 
399
 
    @staticmethod
400
 
    @deprecated_method(zero_eight)
401
 
    def create(branch, directory):
402
 
        """Create a workingtree for branch at directory.
403
 
 
404
 
        If existing_directory already exists it must have a .bzr directory.
405
 
        If it does not exist, it will be created.
406
 
 
407
 
        This returns a new WorkingTree object for the new checkout.
408
 
 
409
 
        TODO FIXME RBC 20060124 when we have checkout formats in place this
410
 
        should accept an optional revisionid to checkout [and reject this if
411
 
        checking out into the same dir as a pre-checkout-aware branch format.]
412
 
 
413
 
        XXX: When BzrDir is present, these should be created through that 
414
 
        interface instead.
415
 
        """
416
 
        warnings.warn('delete WorkingTree.create', stacklevel=3)
417
 
        transport = get_transport(directory)
418
 
        if branch.bzrdir.root_transport.base == transport.base:
419
 
            # same dir 
420
 
            return branch.bzrdir.create_workingtree()
421
 
        # different directory, 
422
 
        # create a branch reference
423
 
        # and now a working tree.
424
 
        raise NotImplementedError
425
 
 
426
 
    @staticmethod
427
 
    @deprecated_method(zero_eight)
428
 
    def create_standalone(directory):
429
 
        """Create a checkout and a branch and a repo at directory.
430
 
 
431
 
        Directory must exist and be empty.
432
 
 
433
 
        please use BzrDir.create_standalone_workingtree
434
 
        """
435
 
        return bzrdir.BzrDir.create_standalone_workingtree(directory)
 
427
            return self.branch.repository.revision_tree(
 
428
                       _mod_revision.NULL_REVISION)
 
429
 
 
430
    def _cleanup(self):
 
431
        self._flush_ignore_list_cache()
436
432
 
437
433
    def relpath(self, path):
438
434
        """Return the local path portion from a given path.
439
 
        
440
 
        The path may be absolute or relative. If its a relative path it is 
 
435
 
 
436
        The path may be absolute or relative. If its a relative path it is
441
437
        interpreted relative to the python current working directory.
442
438
        """
443
439
        return osutils.relpath(self.basedir, path)
445
441
    def has_filename(self, filename):
446
442
        return osutils.lexists(self.abspath(filename))
447
443
 
448
 
    def get_file(self, file_id):
449
 
        file_id = osutils.safe_file_id(file_id)
450
 
        return self.get_file_byname(self.id2path(file_id))
451
 
 
452
 
    def get_file_text(self, file_id):
453
 
        file_id = osutils.safe_file_id(file_id)
454
 
        return self.get_file(file_id).read()
455
 
 
456
 
    def get_file_byname(self, filename):
457
 
        return file(self.abspath(filename), 'rb')
 
444
    def get_file(self, file_id, path=None, filtered=True):
 
445
        return self.get_file_with_stat(file_id, path, filtered=filtered)[0]
 
446
 
 
447
    def get_file_with_stat(self, file_id, path=None, filtered=True,
 
448
        _fstat=os.fstat):
 
449
        """See Tree.get_file_with_stat."""
 
450
        if path is None:
 
451
            path = self.id2path(file_id)
 
452
        file_obj = self.get_file_byname(path, filtered=False)
 
453
        stat_value = _fstat(file_obj.fileno())
 
454
        if filtered and self.supports_content_filtering():
 
455
            filters = self._content_filter_stack(path)
 
456
            file_obj = filtered_input_file(file_obj, filters)
 
457
        return (file_obj, stat_value)
 
458
 
 
459
    def get_file_text(self, file_id, path=None, filtered=True):
 
460
        return self.get_file(file_id, path=path, filtered=filtered).read()
 
461
 
 
462
    def get_file_byname(self, filename, filtered=True):
 
463
        path = self.abspath(filename)
 
464
        f = file(path, 'rb')
 
465
        if filtered and self.supports_content_filtering():
 
466
            filters = self._content_filter_stack(filename)
 
467
            return filtered_input_file(f, filters)
 
468
        else:
 
469
            return f
 
470
 
 
471
    def get_file_lines(self, file_id, path=None, filtered=True):
 
472
        """See Tree.get_file_lines()"""
 
473
        file = self.get_file(file_id, path, filtered=filtered)
 
474
        try:
 
475
            return file.readlines()
 
476
        finally:
 
477
            file.close()
458
478
 
459
479
    @needs_read_lock
460
 
    def annotate_iter(self, file_id):
 
480
    def annotate_iter(self, file_id, default_revision=CURRENT_REVISION):
461
481
        """See Tree.annotate_iter
462
482
 
463
483
        This implementation will use the basis tree implementation if possible.
467
487
        incorrectly attributed to CURRENT_REVISION (but after committing, the
468
488
        attribution will be correct).
469
489
        """
470
 
        file_id = osutils.safe_file_id(file_id)
471
490
        basis = self.basis_tree()
472
491
        basis.lock_read()
473
492
        try:
474
 
            changes = self._iter_changes(basis, True, [self.id2path(file_id)],
 
493
            changes = self.iter_changes(basis, True, [self.id2path(file_id)],
475
494
                require_versioned=True).next()
476
495
            changed_content, kind = changes[2], changes[6]
477
496
            if not changed_content:
490
509
                    continue
491
510
                old.append(list(tree.annotate_iter(file_id)))
492
511
            return annotate.reannotate(old, self.get_file(file_id).readlines(),
493
 
                                       CURRENT_REVISION)
 
512
                                       default_revision)
494
513
        finally:
495
514
            basis.unlock()
496
515
 
 
516
    def _get_ancestors(self, default_revision):
 
517
        ancestors = set([default_revision])
 
518
        for parent_id in self.get_parent_ids():
 
519
            ancestors.update(self.branch.repository.get_ancestry(
 
520
                             parent_id, topo_sorted=False))
 
521
        return ancestors
 
522
 
497
523
    def get_parent_ids(self):
498
524
        """See Tree.get_parent_ids.
499
 
        
 
525
 
500
526
        This implementation reads the pending merges list and last_revision
501
527
        value and uses that to decide what the parents list should be.
502
528
        """
503
 
        last_rev = self._last_revision()
504
 
        if last_rev is None:
 
529
        last_rev = _mod_revision.ensure_null(self._last_revision())
 
530
        if _mod_revision.NULL_REVISION == last_rev:
505
531
            parents = []
506
532
        else:
507
533
            parents = [last_rev]
508
534
        try:
509
 
            merges_file = self._control_files.get('pending-merges')
 
535
            merges_file = self._transport.get('pending-merges')
510
536
        except errors.NoSuchFile:
511
537
            pass
512
538
        else:
513
539
            for l in merges_file.readlines():
514
 
                revision_id = osutils.safe_revision_id(l.rstrip('\n'))
 
540
                revision_id = l.rstrip('\n')
515
541
                parents.append(revision_id)
516
542
        return parents
517
543
 
519
545
    def get_root_id(self):
520
546
        """Return the id of this trees root"""
521
547
        return self._inventory.root.file_id
522
 
        
 
548
 
523
549
    def _get_store_filename(self, file_id):
524
550
        ## XXX: badly named; this is not in the store at all
525
 
        file_id = osutils.safe_file_id(file_id)
526
551
        return self.abspath(self.id2path(file_id))
527
552
 
528
553
    @needs_read_lock
529
554
    def clone(self, to_bzrdir, revision_id=None):
530
555
        """Duplicate this working tree into to_bzr, including all state.
531
 
        
 
556
 
532
557
        Specifically modified files are kept as modified, but
533
558
        ignored and unknown files are discarded.
534
559
 
535
560
        If you want to make a new line of development, see bzrdir.sprout()
536
561
 
537
562
        revision
538
 
            If not None, the cloned tree will have its last revision set to 
539
 
            revision, and and difference between the source trees last revision
 
563
            If not None, the cloned tree will have its last revision set to
 
564
            revision, and difference between the source trees last revision
540
565
            and this one merged in.
541
566
        """
542
567
        # assumes the target bzr dir format is compatible.
543
 
        result = self._format.initialize(to_bzrdir)
 
568
        result = to_bzrdir.create_workingtree()
544
569
        self.copy_content_into(result, revision_id)
545
570
        return result
546
571
 
557
582
            tree.set_parent_ids([revision_id])
558
583
 
559
584
    def id2abspath(self, file_id):
560
 
        file_id = osutils.safe_file_id(file_id)
561
585
        return self.abspath(self.id2path(file_id))
562
586
 
563
587
    def has_id(self, file_id):
564
588
        # files that have been deleted are excluded
565
 
        file_id = osutils.safe_file_id(file_id)
566
589
        inv = self.inventory
567
590
        if not inv.has_id(file_id):
568
591
            return False
570
593
        return osutils.lexists(self.abspath(path))
571
594
 
572
595
    def has_or_had_id(self, file_id):
573
 
        file_id = osutils.safe_file_id(file_id)
574
596
        if file_id == self.inventory.root.file_id:
575
597
            return True
576
598
        return self.inventory.has_id(file_id)
578
600
    __contains__ = has_id
579
601
 
580
602
    def get_file_size(self, file_id):
581
 
        file_id = osutils.safe_file_id(file_id)
582
 
        return os.path.getsize(self.id2abspath(file_id))
 
603
        """See Tree.get_file_size"""
 
604
        try:
 
605
            return os.path.getsize(self.id2abspath(file_id))
 
606
        except OSError, e:
 
607
            if e.errno != errno.ENOENT:
 
608
                raise
 
609
            else:
 
610
                return None
583
611
 
584
612
    @needs_read_lock
585
613
    def get_file_sha1(self, file_id, path=None, stat_value=None):
586
 
        file_id = osutils.safe_file_id(file_id)
587
614
        if not path:
588
615
            path = self._inventory.id2path(file_id)
589
616
        return self._hashcache.get_sha1(path, stat_value)
590
617
 
591
618
    def get_file_mtime(self, file_id, path=None):
592
 
        file_id = osutils.safe_file_id(file_id)
593
619
        if not path:
594
620
            path = self.inventory.id2path(file_id)
595
621
        return os.lstat(self.abspath(path)).st_mtime
596
622
 
 
623
    def _is_executable_from_path_and_stat_from_basis(self, path, stat_result):
 
624
        file_id = self.path2id(path)
 
625
        return self._inventory[file_id].executable
 
626
 
 
627
    def _is_executable_from_path_and_stat_from_stat(self, path, stat_result):
 
628
        mode = stat_result.st_mode
 
629
        return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
 
630
 
597
631
    if not supports_executable():
598
632
        def is_executable(self, file_id, path=None):
599
 
            file_id = osutils.safe_file_id(file_id)
600
633
            return self._inventory[file_id].executable
 
634
 
 
635
        _is_executable_from_path_and_stat = \
 
636
            _is_executable_from_path_and_stat_from_basis
601
637
    else:
602
638
        def is_executable(self, file_id, path=None):
603
639
            if not path:
604
 
                file_id = osutils.safe_file_id(file_id)
605
640
                path = self.id2path(file_id)
606
641
            mode = os.lstat(self.abspath(path)).st_mode
607
642
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
608
643
 
 
644
        _is_executable_from_path_and_stat = \
 
645
            _is_executable_from_path_and_stat_from_stat
 
646
 
609
647
    @needs_tree_write_lock
610
648
    def _add(self, files, ids, kinds):
611
649
        """See MutableTree._add."""
612
650
        # TODO: Re-adding a file that is removed in the working copy
613
651
        # should probably put it back with the previous ID.
614
 
        # the read and write working inventory should not occur in this 
 
652
        # the read and write working inventory should not occur in this
615
653
        # function - they should be part of lock_write and unlock.
616
 
        inv = self.read_working_inventory()
 
654
        inv = self.inventory
617
655
        for f, file_id, kind in zip(files, ids, kinds):
618
 
            assert kind is not None
619
656
            if file_id is None:
620
657
                inv.add_path(f, kind=kind)
621
658
            else:
622
 
                file_id = osutils.safe_file_id(file_id)
623
659
                inv.add_path(f, kind=kind, file_id=file_id)
624
 
        self._write_inventory(inv)
 
660
            self._inventory_is_modified = True
625
661
 
626
662
    @needs_tree_write_lock
627
663
    def _gather_kinds(self, files, kinds):
687
723
        if updated:
688
724
            self.set_parent_ids(parents, allow_leftmost_as_ghost=True)
689
725
 
690
 
    @deprecated_method(zero_eleven)
691
 
    @needs_read_lock
692
 
    def pending_merges(self):
693
 
        """Return a list of pending merges.
694
 
 
695
 
        These are revisions that have been merged into the working
696
 
        directory but not yet committed.
697
 
 
698
 
        As of 0.11 this is deprecated. Please see WorkingTree.get_parent_ids()
699
 
        instead - which is available on all tree objects.
700
 
        """
701
 
        return self.get_parent_ids()[1:]
 
726
    def path_content_summary(self, path, _lstat=os.lstat,
 
727
        _mapper=osutils.file_kind_from_stat_mode):
 
728
        """See Tree.path_content_summary."""
 
729
        abspath = self.abspath(path)
 
730
        try:
 
731
            stat_result = _lstat(abspath)
 
732
        except OSError, e:
 
733
            if getattr(e, 'errno', None) == errno.ENOENT:
 
734
                # no file.
 
735
                return ('missing', None, None, None)
 
736
            # propagate other errors
 
737
            raise
 
738
        kind = _mapper(stat_result.st_mode)
 
739
        if kind == 'file':
 
740
            size = stat_result.st_size
 
741
            # try for a stat cache lookup
 
742
            executable = self._is_executable_from_path_and_stat(path, stat_result)
 
743
            return (kind, size, executable, self._sha_from_stat(
 
744
                path, stat_result))
 
745
        elif kind == 'directory':
 
746
            # perhaps it looks like a plain directory, but it's really a
 
747
            # reference.
 
748
            if self._directory_is_tree_reference(path):
 
749
                kind = 'tree-reference'
 
750
            return kind, None, None, None
 
751
        elif kind == 'symlink':
 
752
            target = osutils.readlink(abspath)
 
753
            return ('symlink', None, None, target)
 
754
        else:
 
755
            return (kind, None, None, None)
702
756
 
703
757
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
704
758
        """Common ghost checking functionality from set_parent_*.
714
768
 
715
769
    def _set_merges_from_parent_ids(self, parent_ids):
716
770
        merges = parent_ids[1:]
717
 
        self._control_files.put_bytes('pending-merges', '\n'.join(merges))
 
771
        self._transport.put_bytes('pending-merges', '\n'.join(merges),
 
772
            mode=self.bzrdir._get_file_mode())
 
773
 
 
774
    def _filter_parent_ids_by_ancestry(self, revision_ids):
 
775
        """Check that all merged revisions are proper 'heads'.
 
776
 
 
777
        This will always return the first revision_id, and any merged revisions
 
778
        which are
 
779
        """
 
780
        if len(revision_ids) == 0:
 
781
            return revision_ids
 
782
        graph = self.branch.repository.get_graph()
 
783
        heads = graph.heads(revision_ids)
 
784
        new_revision_ids = revision_ids[:1]
 
785
        for revision_id in revision_ids[1:]:
 
786
            if revision_id in heads and revision_id not in new_revision_ids:
 
787
                new_revision_ids.append(revision_id)
 
788
        if new_revision_ids != revision_ids:
 
789
            trace.mutter('requested to set revision_ids = %s,'
 
790
                         ' but filtered to %s', revision_ids, new_revision_ids)
 
791
        return new_revision_ids
718
792
 
719
793
    @needs_tree_write_lock
720
794
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
721
795
        """Set the parent ids to revision_ids.
722
 
        
 
796
 
723
797
        See also set_parent_trees. This api will try to retrieve the tree data
724
798
        for each element of revision_ids from the trees repository. If you have
725
799
        tree data already available, it is more efficient to use
729
803
        :param revision_ids: The revision_ids to set as the parent ids of this
730
804
            working tree. Any of these may be ghosts.
731
805
        """
732
 
        revision_ids = [osutils.safe_revision_id(r) for r in revision_ids]
733
806
        self._check_parents_for_ghosts(revision_ids,
734
807
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
808
        for revision_id in revision_ids:
 
809
            _mod_revision.check_not_reserved_id(revision_id)
 
810
 
 
811
        revision_ids = self._filter_parent_ids_by_ancestry(revision_ids)
735
812
 
736
813
        if len(revision_ids) > 0:
737
814
            self.set_last_revision(revision_ids[0])
738
815
        else:
739
 
            self.set_last_revision(None)
 
816
            self.set_last_revision(_mod_revision.NULL_REVISION)
740
817
 
741
818
        self._set_merges_from_parent_ids(revision_ids)
742
819
 
743
820
    @needs_tree_write_lock
744
821
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
745
822
        """See MutableTree.set_parent_trees."""
746
 
        parent_ids = [osutils.safe_revision_id(rev) for (rev, tree) in parents_list]
 
823
        parent_ids = [rev for (rev, tree) in parents_list]
 
824
        for revision_id in parent_ids:
 
825
            _mod_revision.check_not_reserved_id(revision_id)
747
826
 
748
827
        self._check_parents_for_ghosts(parent_ids,
749
828
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
750
829
 
 
830
        parent_ids = self._filter_parent_ids_by_ancestry(parent_ids)
 
831
 
751
832
        if len(parent_ids) == 0:
752
 
            leftmost_parent_id = None
 
833
            leftmost_parent_id = _mod_revision.NULL_REVISION
753
834
            leftmost_parent_tree = None
754
835
        else:
755
836
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
780
861
                yield Stanza(file_id=file_id.decode('utf8'), hash=hash)
781
862
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
782
863
 
 
864
    def _sha_from_stat(self, path, stat_result):
 
865
        """Get a sha digest from the tree's stat cache.
 
866
 
 
867
        The default implementation assumes no stat cache is present.
 
868
 
 
869
        :param path: The path.
 
870
        :param stat_result: The stat result being looked up.
 
871
        """
 
872
        return None
 
873
 
783
874
    def _put_rio(self, filename, stanzas, header):
784
875
        self._must_be_locked()
785
876
        my_file = rio_file(stanzas, header)
786
 
        self._control_files.put(filename, my_file)
 
877
        self._transport.put_file(filename, my_file,
 
878
            mode=self.bzrdir._get_file_mode())
787
879
 
788
880
    @needs_write_lock # because merge pulls data into the branch.
789
 
    def merge_from_branch(self, branch, to_revision=None):
 
881
    def merge_from_branch(self, branch, to_revision=None, from_revision=None,
 
882
        merge_type=None):
790
883
        """Merge from a branch into this working tree.
791
884
 
792
885
        :param branch: The branch to merge from.
805
898
            # local alterations
806
899
            merger.check_basis(check_clean=True, require_commits=False)
807
900
            if to_revision is None:
808
 
                to_revision = branch.last_revision()
809
 
            else:
810
 
                to_revision = osutils.safe_revision_id(to_revision)
 
901
                to_revision = _mod_revision.ensure_null(branch.last_revision())
811
902
            merger.other_rev_id = to_revision
812
 
            if merger.other_rev_id is None:
813
 
                raise error.NoCommits(branch)
 
903
            if _mod_revision.is_null(merger.other_rev_id):
 
904
                raise errors.NoCommits(branch)
814
905
            self.branch.fetch(branch, last_revision=merger.other_rev_id)
815
906
            merger.other_basis = merger.other_rev_id
816
907
            merger.other_tree = self.branch.repository.revision_tree(
817
908
                merger.other_rev_id)
818
909
            merger.other_branch = branch
819
910
            merger.pp.next_phase()
820
 
            merger.find_base()
 
911
            if from_revision is None:
 
912
                merger.find_base()
 
913
            else:
 
914
                merger.set_base_revision(from_revision, branch)
821
915
            if merger.base_rev_id == merger.other_rev_id:
822
916
                raise errors.PointlessMerge
823
917
            merger.backup_files = False
824
 
            merger.merge_type = Merge3Merger
 
918
            if merge_type is None:
 
919
                merger.merge_type = Merge3Merger
 
920
            else:
 
921
                merger.merge_type = merge_type
825
922
            merger.set_interesting_files(None)
826
923
            merger.show_base = False
827
924
            merger.reprocess = False
835
932
    def merge_modified(self):
836
933
        """Return a dictionary of files modified by a merge.
837
934
 
838
 
        The list is initialized by WorkingTree.set_merge_modified, which is 
 
935
        The list is initialized by WorkingTree.set_merge_modified, which is
839
936
        typically called after we make some automatic updates to the tree
840
937
        because of a merge.
841
938
 
843
940
        still in the working inventory and have that text hash.
844
941
        """
845
942
        try:
846
 
            hashfile = self._control_files.get('merge-hashes')
 
943
            hashfile = self._transport.get('merge-hashes')
847
944
        except errors.NoSuchFile:
848
945
            return {}
849
 
        merge_hashes = {}
850
946
        try:
851
 
            if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
 
947
            merge_hashes = {}
 
948
            try:
 
949
                if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
 
950
                    raise errors.MergeModifiedFormatError()
 
951
            except StopIteration:
852
952
                raise errors.MergeModifiedFormatError()
853
 
        except StopIteration:
854
 
            raise errors.MergeModifiedFormatError()
855
 
        for s in RioReader(hashfile):
856
 
            # RioReader reads in Unicode, so convert file_ids back to utf8
857
 
            file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
858
 
            if file_id not in self.inventory:
859
 
                continue
860
 
            text_hash = s.get("hash")
861
 
            if text_hash == self.get_file_sha1(file_id):
862
 
                merge_hashes[file_id] = text_hash
863
 
        return merge_hashes
 
953
            for s in RioReader(hashfile):
 
954
                # RioReader reads in Unicode, so convert file_ids back to utf8
 
955
                file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
 
956
                if file_id not in self.inventory:
 
957
                    continue
 
958
                text_hash = s.get("hash")
 
959
                if text_hash == self.get_file_sha1(file_id):
 
960
                    merge_hashes[file_id] = text_hash
 
961
            return merge_hashes
 
962
        finally:
 
963
            hashfile.close()
864
964
 
865
965
    @needs_write_lock
866
966
    def mkdir(self, path, file_id=None):
872
972
        return file_id
873
973
 
874
974
    def get_symlink_target(self, file_id):
875
 
        file_id = osutils.safe_file_id(file_id)
876
 
        return os.readlink(self.id2abspath(file_id))
 
975
        abspath = self.id2abspath(file_id)
 
976
        target = osutils.readlink(abspath)
 
977
        return target
877
978
 
878
979
    @needs_write_lock
879
980
    def subsume(self, other_tree):
917
1018
            other_tree.unlock()
918
1019
        other_tree.bzrdir.retire_bzrdir()
919
1020
 
 
1021
    def _setup_directory_is_tree_reference(self):
 
1022
        if self._branch.repository._format.supports_tree_reference:
 
1023
            self._directory_is_tree_reference = \
 
1024
                self._directory_may_be_tree_reference
 
1025
        else:
 
1026
            self._directory_is_tree_reference = \
 
1027
                self._directory_is_never_tree_reference
 
1028
 
 
1029
    def _directory_is_never_tree_reference(self, relpath):
 
1030
        return False
 
1031
 
 
1032
    def _directory_may_be_tree_reference(self, relpath):
 
1033
        # as a special case, if a directory contains control files then
 
1034
        # it's a tree reference, except that the root of the tree is not
 
1035
        return relpath and osutils.isdir(self.abspath(relpath) + u"/.bzr")
 
1036
        # TODO: We could ask all the control formats whether they
 
1037
        # recognize this directory, but at the moment there's no cheap api
 
1038
        # to do that.  Since we probably can only nest bzr checkouts and
 
1039
        # they always use this name it's ok for now.  -- mbp 20060306
 
1040
        #
 
1041
        # FIXME: There is an unhandled case here of a subdirectory
 
1042
        # containing .bzr but not a branch; that will probably blow up
 
1043
        # when you try to commit it.  It might happen if there is a
 
1044
        # checkout in a subdirectory.  This can be avoided by not adding
 
1045
        # it.  mbp 20070306
 
1046
 
920
1047
    @needs_tree_write_lock
921
1048
    def extract(self, file_id, format=None):
922
1049
        """Extract a subtree from this tree.
923
 
        
 
1050
 
924
1051
        A new branch will be created, relative to the path for this tree.
925
1052
        """
926
1053
        self.flush()
929
1056
            transport = self.branch.bzrdir.root_transport
930
1057
            for name in segments:
931
1058
                transport = transport.clone(name)
932
 
                try:
933
 
                    transport.mkdir('.')
934
 
                except errors.FileExists:
935
 
                    pass
 
1059
                transport.ensure_base()
936
1060
            return transport
937
 
            
 
1061
 
938
1062
        sub_path = self.id2path(file_id)
939
1063
        branch_transport = mkdirs(sub_path)
940
1064
        if format is None:
941
 
            format = bzrdir.format_registry.make_bzrdir('dirstate-with-subtree')
942
 
        try:
943
 
            branch_transport.mkdir('.')
944
 
        except errors.FileExists:
945
 
            pass
 
1065
            format = self.bzrdir.cloning_metadir()
 
1066
        branch_transport.ensure_base()
946
1067
        branch_bzrdir = format.initialize_on_transport(branch_transport)
947
1068
        try:
948
1069
            repo = branch_bzrdir.find_repository()
949
1070
        except errors.NoRepositoryPresent:
950
1071
            repo = branch_bzrdir.create_repository()
951
 
            assert repo.supports_rich_root()
952
 
        else:
953
 
            if not repo.supports_rich_root():
954
 
                raise errors.RootNotRich()
 
1072
        if not repo.supports_rich_root():
 
1073
            raise errors.RootNotRich()
955
1074
        new_branch = branch_bzrdir.create_branch()
956
1075
        new_branch.pull(self.branch)
957
1076
        for parent_id in self.get_parent_ids():
975
1094
        return wt
976
1095
 
977
1096
    def _serialize(self, inventory, out_file):
978
 
        xml5.serializer_v5.write_inventory(self._inventory, out_file)
 
1097
        xml5.serializer_v5.write_inventory(self._inventory, out_file,
 
1098
            working=True)
979
1099
 
980
1100
    def _deserialize(selt, in_file):
981
1101
        return xml5.serializer_v5.read_inventory(in_file)
988
1108
        sio = StringIO()
989
1109
        self._serialize(self._inventory, sio)
990
1110
        sio.seek(0)
991
 
        self._control_files.put('inventory', sio)
 
1111
        self._transport.put_file('inventory', sio,
 
1112
            mode=self.bzrdir._get_file_mode())
992
1113
        self._inventory_is_modified = False
993
1114
 
994
1115
    def _kind(self, relpath):
995
1116
        return osutils.file_kind(self.abspath(relpath))
996
1117
 
997
 
    def list_files(self, include_root=False):
998
 
        """Recursively list all files as (path, class, kind, id, entry).
 
1118
    def list_files(self, include_root=False, from_dir=None, recursive=True):
 
1119
        """List all files as (path, class, kind, id, entry).
999
1120
 
1000
1121
        Lists, but does not descend into unversioned directories.
1001
 
 
1002
1122
        This does not include files that have been deleted in this
1003
 
        tree.
 
1123
        tree. Skips the control directory.
1004
1124
 
1005
 
        Skips the control directory.
 
1125
        :param include_root: if True, do not return an entry for the root
 
1126
        :param from_dir: start from this directory or None for the root
 
1127
        :param recursive: whether to recurse into subdirectories or not
1006
1128
        """
1007
1129
        # list_files is an iterator, so @needs_read_lock doesn't work properly
1008
1130
        # with it. So callers should be careful to always read_lock the tree.
1010
1132
            raise errors.ObjectNotLocked(self)
1011
1133
 
1012
1134
        inv = self.inventory
1013
 
        if include_root is True:
 
1135
        if from_dir is None and include_root is True:
1014
1136
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
1015
1137
        # Convert these into local objects to save lookup times
1016
1138
        pathjoin = osutils.pathjoin
1023
1145
        fk_entries = {'directory':TreeDirectory, 'file':TreeFile, 'symlink':TreeLink}
1024
1146
 
1025
1147
        # directory file_id, relative path, absolute path, reverse sorted children
1026
 
        children = os.listdir(self.basedir)
 
1148
        if from_dir is not None:
 
1149
            from_dir_id = inv.path2id(from_dir)
 
1150
            if from_dir_id is None:
 
1151
                # Directory not versioned
 
1152
                return
 
1153
            from_dir_abspath = pathjoin(self.basedir, from_dir)
 
1154
        else:
 
1155
            from_dir_id = inv.root.file_id
 
1156
            from_dir_abspath = self.basedir
 
1157
        children = os.listdir(from_dir_abspath)
1027
1158
        children.sort()
1028
 
        # jam 20060527 The kernel sized tree seems equivalent whether we 
 
1159
        # jam 20060527 The kernel sized tree seems equivalent whether we
1029
1160
        # use a deque and popleft to keep them sorted, or if we use a plain
1030
1161
        # list and just reverse() them.
1031
1162
        children = collections.deque(children)
1032
 
        stack = [(inv.root.file_id, u'', self.basedir, children)]
 
1163
        stack = [(from_dir_id, u'', from_dir_abspath, children)]
1033
1164
        while stack:
1034
1165
            from_dir_id, from_dir_relpath, from_dir_abspath, children = stack[-1]
1035
1166
 
1051
1182
 
1052
1183
                # absolute path
1053
1184
                fap = from_dir_abspath + '/' + f
1054
 
                
 
1185
 
1055
1186
                f_ie = inv.get_child(from_dir_id, f)
1056
1187
                if f_ie:
1057
1188
                    c = 'V'
1089
1220
                    except KeyError:
1090
1221
                        yield fp[1:], c, fk, None, TreeEntry()
1091
1222
                    continue
1092
 
                
 
1223
 
1093
1224
                if fk != 'directory':
1094
1225
                    continue
1095
1226
 
1096
 
                # But do this child first
1097
 
                new_children = os.listdir(fap)
1098
 
                new_children.sort()
1099
 
                new_children = collections.deque(new_children)
1100
 
                stack.append((f_ie.file_id, fp, fap, new_children))
1101
 
                # Break out of inner loop,
1102
 
                # so that we start outer loop with child
1103
 
                break
 
1227
                # But do this child first if recursing down
 
1228
                if recursive:
 
1229
                    new_children = os.listdir(fap)
 
1230
                    new_children.sort()
 
1231
                    new_children = collections.deque(new_children)
 
1232
                    stack.append((f_ie.file_id, fp, fap, new_children))
 
1233
                    # Break out of inner loop,
 
1234
                    # so that we start outer loop with child
 
1235
                    break
1104
1236
            else:
1105
1237
                # if we finished all children, pop it off the stack
1106
1238
                stack.pop()
1112
1244
        to_dir must exist in the inventory.
1113
1245
 
1114
1246
        If to_dir exists and is a directory, the files are moved into
1115
 
        it, keeping their old names.  
 
1247
        it, keeping their old names.
1116
1248
 
1117
1249
        Note that to_dir is only the last component of the new name;
1118
1250
        this doesn't change the directory.
1155
1287
                                       DeprecationWarning)
1156
1288
 
1157
1289
        # check destination directory
1158
 
        assert not isinstance(from_paths, basestring)
 
1290
        if isinstance(from_paths, basestring):
 
1291
            raise ValueError()
1159
1292
        inv = self.inventory
1160
1293
        to_abs = self.abspath(to_dir)
1161
1294
        if not isdir(to_abs):
1245
1378
                only_change_inv = True
1246
1379
            elif self.has_filename(from_rel) and not self.has_filename(to_rel):
1247
1380
                only_change_inv = False
 
1381
            elif (not self.case_sensitive
 
1382
                  and from_rel.lower() == to_rel.lower()
 
1383
                  and self.has_filename(from_rel)):
 
1384
                only_change_inv = False
1248
1385
            else:
1249
1386
                # something is wrong, so lets determine what exactly
1250
1387
                if not self.has_filename(from_rel) and \
1253
1390
                        errors.PathsDoNotExist(paths=(str(from_rel),
1254
1391
                        str(to_rel))))
1255
1392
                else:
1256
 
                    raise errors.RenameFailedFilesExist(from_rel, to_rel,
1257
 
                        extra="(Use --after to update the Bazaar id)")
 
1393
                    raise errors.RenameFailedFilesExist(from_rel, to_rel)
1258
1394
            rename_entry.only_change_inv = only_change_inv
1259
1395
        return rename_entries
1260
1396
 
1391
1527
        These are files in the working directory that are not versioned or
1392
1528
        control files or ignored.
1393
1529
        """
1394
 
        # force the extras method to be fully executed before returning, to 
 
1530
        # force the extras method to be fully executed before returning, to
1395
1531
        # prevent race conditions with the lock
1396
1532
        return iter(
1397
1533
            [subp for subp in self.extras() if not self.is_ignored(subp)])
1407
1543
        :raises: NoSuchId if any fileid is not currently versioned.
1408
1544
        """
1409
1545
        for file_id in file_ids:
1410
 
            file_id = osutils.safe_file_id(file_id)
 
1546
            if file_id not in self._inventory:
 
1547
                raise errors.NoSuchId(self, file_id)
 
1548
        for file_id in file_ids:
1411
1549
            if self._inventory.has_id(file_id):
1412
1550
                self._inventory.remove_recursive_id(file_id)
1413
 
            else:
1414
 
                raise errors.NoSuchId(self, file_id)
1415
1551
        if len(file_ids):
1416
 
            # in the future this should just set a dirty bit to wait for the 
 
1552
            # in the future this should just set a dirty bit to wait for the
1417
1553
            # final unlock. However, until all methods of workingtree start
1418
 
            # with the current in -memory inventory rather than triggering 
 
1554
            # with the current in -memory inventory rather than triggering
1419
1555
            # a read, it is more complex - we need to teach read_inventory
1420
1556
            # to know when to read, and when to not read first... and possibly
1421
1557
            # to save first when the in memory one may be corrupted.
1422
1558
            # so for now, we just only write it if it is indeed dirty.
1423
1559
            # - RBC 20060907
1424
1560
            self._write_inventory(self._inventory)
1425
 
    
1426
 
    @deprecated_method(zero_eight)
1427
 
    def iter_conflicts(self):
1428
 
        """List all files in the tree that have text or content conflicts.
1429
 
        DEPRECATED.  Use conflicts instead."""
1430
 
        return self._iter_conflicts()
1431
1561
 
1432
1562
    def _iter_conflicts(self):
1433
1563
        conflicted = set()
1442
1572
 
1443
1573
    @needs_write_lock
1444
1574
    def pull(self, source, overwrite=False, stop_revision=None,
1445
 
             change_reporter=None):
 
1575
             change_reporter=None, possible_transports=None, local=False):
1446
1576
        top_pb = bzrlib.ui.ui_factory.nested_progress_bar()
1447
1577
        source.lock_read()
1448
1578
        try:
1450
1580
            pp.next_phase()
1451
1581
            old_revision_info = self.branch.last_revision_info()
1452
1582
            basis_tree = self.basis_tree()
1453
 
            count = self.branch.pull(source, overwrite, stop_revision)
 
1583
            count = self.branch.pull(source, overwrite, stop_revision,
 
1584
                                     possible_transports=possible_transports,
 
1585
                                     local=local)
1454
1586
            new_revision_info = self.branch.last_revision_info()
1455
1587
            if new_revision_info != old_revision_info:
1456
1588
                pp.next_phase()
1468
1600
                                change_reporter=change_reporter)
1469
1601
                    if (basis_tree.inventory.root is None and
1470
1602
                        new_basis_tree.inventory.root is not None):
1471
 
                        self.set_root_id(new_basis_tree.inventory.root.file_id)
 
1603
                        self.set_root_id(new_basis_tree.get_root_id())
1472
1604
                finally:
1473
1605
                    pb.finished()
1474
1606
                    basis_tree.unlock()
1476
1608
                # reuse the revisiontree we merged against to set the new
1477
1609
                # tree data.
1478
1610
                parent_trees = [(self.branch.last_revision(), new_basis_tree)]
1479
 
                # we have to pull the merge trees out again, because 
1480
 
                # merge_inner has set the ids. - this corner is not yet 
 
1611
                # we have to pull the merge trees out again, because
 
1612
                # merge_inner has set the ids. - this corner is not yet
1481
1613
                # layered well enough to prevent double handling.
1482
1614
                # XXX TODO: Fix the double handling: telling the tree about
1483
1615
                # the already known parent data is wasteful.
1494
1626
    @needs_write_lock
1495
1627
    def put_file_bytes_non_atomic(self, file_id, bytes):
1496
1628
        """See MutableTree.put_file_bytes_non_atomic."""
1497
 
        file_id = osutils.safe_file_id(file_id)
1498
1629
        stream = file(self.id2abspath(file_id), 'wb')
1499
1630
        try:
1500
1631
            stream.write(bytes)
1522
1653
 
1523
1654
            fl = []
1524
1655
            for subf in os.listdir(dirabs):
1525
 
                if subf == '.bzr':
 
1656
                if self.bzrdir.is_control_filename(subf):
1526
1657
                    continue
1527
1658
                if subf not in dir_entry.children:
1528
 
                    subf_norm, can_access = osutils.normalized_filename(subf)
 
1659
                    try:
 
1660
                        (subf_norm,
 
1661
                         can_access) = osutils.normalized_filename(subf)
 
1662
                    except UnicodeDecodeError:
 
1663
                        path_os_enc = path.encode(osutils._fs_enc)
 
1664
                        relpath = path_os_enc + '/' + subf
 
1665
                        raise errors.BadFilenameEncoding(relpath,
 
1666
                                                         osutils._fs_enc)
1529
1667
                    if subf_norm != subf and can_access:
1530
1668
                        if subf_norm not in dir_entry.children:
1531
1669
                            fl.append(subf_norm)
1532
1670
                    else:
1533
1671
                        fl.append(subf)
1534
 
            
 
1672
 
1535
1673
            fl.sort()
1536
1674
            for subf in fl:
1537
1675
                subp = pathjoin(path, subf)
1553
1691
        if ignoreset is not None:
1554
1692
            return ignoreset
1555
1693
 
1556
 
        ignore_globs = set(bzrlib.DEFAULT_IGNORE)
 
1694
        ignore_globs = set()
1557
1695
        ignore_globs.update(ignores.get_runtime_ignores())
1558
1696
        ignore_globs.update(ignores.get_user_ignores())
1559
1697
        if self.has_filename(bzrlib.IGNORE_FILENAME):
1586
1724
    def kind(self, file_id):
1587
1725
        return file_kind(self.id2abspath(file_id))
1588
1726
 
 
1727
    def stored_kind(self, file_id):
 
1728
        """See Tree.stored_kind"""
 
1729
        return self.inventory[file_id].kind
 
1730
 
1589
1731
    def _comparison_data(self, entry, path):
1590
1732
        abspath = self.abspath(path)
1591
1733
        try:
1622
1764
    @needs_read_lock
1623
1765
    def _last_revision(self):
1624
1766
        """helper for get_parent_ids."""
1625
 
        return self.branch.last_revision()
 
1767
        return _mod_revision.ensure_null(self.branch.last_revision())
1626
1768
 
1627
1769
    def is_locked(self):
1628
1770
        return self._control_files.is_locked()
1673
1815
    def _reset_data(self):
1674
1816
        """Reset transient data that cannot be revalidated."""
1675
1817
        self._inventory_is_modified = False
1676
 
        result = self._deserialize(self._control_files.get('inventory'))
 
1818
        result = self._deserialize(self._transport.get('inventory'))
1677
1819
        self._set_inventory(result, dirty=False)
1678
1820
 
1679
1821
    @needs_tree_write_lock
1680
1822
    def set_last_revision(self, new_revision):
1681
1823
        """Change the last revision in the working tree."""
1682
 
        new_revision = osutils.safe_revision_id(new_revision)
1683
1824
        if self._change_last_revision(new_revision):
1684
1825
            self._cache_basis_inventory(new_revision)
1685
1826
 
1686
1827
    def _change_last_revision(self, new_revision):
1687
1828
        """Template method part of set_last_revision to perform the change.
1688
 
        
 
1829
 
1689
1830
        This is used to allow WorkingTree3 instances to not affect branch
1690
1831
        when their last revision is set.
1691
1832
        """
1692
 
        if new_revision is None:
 
1833
        if _mod_revision.is_null(new_revision):
1693
1834
            self.branch.set_revision_history([])
1694
1835
            return False
1695
1836
        try:
1701
1842
 
1702
1843
    def _write_basis_inventory(self, xml):
1703
1844
        """Write the basis inventory XML to the basis-inventory file"""
1704
 
        assert isinstance(xml, str), 'serialised xml must be bytestring.'
1705
1845
        path = self._basis_inventory_name()
1706
1846
        sio = StringIO(xml)
1707
 
        self._control_files.put(path, sio)
 
1847
        self._transport.put_file(path, sio,
 
1848
            mode=self.bzrdir._get_file_mode())
1708
1849
 
1709
1850
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
1710
1851
        """Create the text that will be saved in basis-inventory"""
1711
 
        # TODO: jam 20070209 This should be redundant, as the revision_id
1712
 
        #       as all callers should have already converted the revision_id to
1713
 
        #       utf8
1714
 
        inventory.revision_id = osutils.safe_revision_id(revision_id)
 
1852
        inventory.revision_id = revision_id
1715
1853
        return xml7.serializer_v7.write_inventory_to_string(inventory)
1716
1854
 
1717
1855
    def _cache_basis_inventory(self, new_revision):
1720
1858
        # as commit already has that ready-to-use [while the format is the
1721
1859
        # same, that is].
1722
1860
        try:
1723
 
            # this double handles the inventory - unpack and repack - 
 
1861
            # this double handles the inventory - unpack and repack -
1724
1862
            # but is easier to understand. We can/should put a conditional
1725
1863
            # in here based on whether the inventory is in the latest format
1726
1864
            # - perhaps we should repack all inventories on a repository
1727
1865
            # upgrade ?
1728
1866
            # the fast path is to copy the raw xml from the repository. If the
1729
 
            # xml contains 'revision_id="', then we assume the right 
 
1867
            # xml contains 'revision_id="', then we assume the right
1730
1868
            # revision_id is set. We must check for this full string, because a
1731
1869
            # root node id can legitimately look like 'revision_id' but cannot
1732
1870
            # contain a '"'.
1733
1871
            xml = self.branch.repository.get_inventory_xml(new_revision)
1734
1872
            firstline = xml.split('\n', 1)[0]
1735
 
            if (not 'revision_id="' in firstline or 
 
1873
            if (not 'revision_id="' in firstline or
1736
1874
                'format="7"' not in firstline):
1737
1875
                inv = self.branch.repository.deserialise_inventory(
1738
1876
                    new_revision, xml)
1744
1882
    def read_basis_inventory(self):
1745
1883
        """Read the cached basis inventory."""
1746
1884
        path = self._basis_inventory_name()
1747
 
        return self._control_files.get(path).read()
1748
 
        
 
1885
        return self._transport.get_bytes(path)
 
1886
 
1749
1887
    @needs_read_lock
1750
1888
    def read_working_inventory(self):
1751
1889
        """Read the working inventory.
1752
 
        
 
1890
 
1753
1891
        :raises errors.InventoryModified: read_working_inventory will fail
1754
1892
            when the current in memory inventory has been modified.
1755
1893
        """
1756
 
        # conceptually this should be an implementation detail of the tree. 
 
1894
        # conceptually this should be an implementation detail of the tree.
1757
1895
        # XXX: Deprecate this.
1758
1896
        # ElementTree does its own conversion from UTF-8, so open in
1759
1897
        # binary.
1760
1898
        if self._inventory_is_modified:
1761
1899
            raise errors.InventoryModified(self)
1762
 
        result = self._deserialize(self._control_files.get('inventory'))
 
1900
        result = self._deserialize(self._transport.get('inventory'))
1763
1901
        self._set_inventory(result, dirty=False)
1764
1902
        return result
1765
1903
 
1766
1904
    @needs_tree_write_lock
1767
 
    def remove(self, files, verbose=False, to_file=None):
1768
 
        """Remove nominated files from the working inventory..
1769
 
 
1770
 
        This does not remove their text.  This does not run on XXX on what? RBC
1771
 
 
1772
 
        TODO: Refuse to remove modified files unless --force is given?
1773
 
 
1774
 
        TODO: Do something useful with directories.
1775
 
 
1776
 
        TODO: Should this remove the text or not?  Tough call; not
1777
 
        removing may be useful and the user can just use use rm, and
1778
 
        is the opposite of add.  Removing it is consistent with most
1779
 
        other tools.  Maybe an option.
 
1905
    def remove(self, files, verbose=False, to_file=None, keep_files=True,
 
1906
        force=False):
 
1907
        """Remove nominated files from the working inventory.
 
1908
 
 
1909
        :files: File paths relative to the basedir.
 
1910
        :keep_files: If true, the files will also be kept.
 
1911
        :force: Delete files and directories, even if they are changed and
 
1912
            even if the directories are not empty.
1780
1913
        """
1781
 
        ## TODO: Normalize names
1782
 
        ## TODO: Remove nested loops; better scalability
1783
1914
        if isinstance(files, basestring):
1784
1915
            files = [files]
1785
1916
 
1786
 
        inv = self.inventory
1787
 
 
1788
 
        # do this before any modifications
 
1917
        inv_delta = []
 
1918
 
 
1919
        new_files=set()
 
1920
        unknown_nested_files=set()
 
1921
 
 
1922
        def recurse_directory_to_add_files(directory):
 
1923
            # Recurse directory and add all files
 
1924
            # so we can check if they have changed.
 
1925
            for parent_info, file_infos in\
 
1926
                self.walkdirs(directory):
 
1927
                for relpath, basename, kind, lstat, fileid, kind in file_infos:
 
1928
                    # Is it versioned or ignored?
 
1929
                    if self.path2id(relpath) or self.is_ignored(relpath):
 
1930
                        # Add nested content for deletion.
 
1931
                        new_files.add(relpath)
 
1932
                    else:
 
1933
                        # Files which are not versioned and not ignored
 
1934
                        # should be treated as unknown.
 
1935
                        unknown_nested_files.add((relpath, None, kind))
 
1936
 
 
1937
        for filename in files:
 
1938
            # Get file name into canonical form.
 
1939
            abspath = self.abspath(filename)
 
1940
            filename = self.relpath(abspath)
 
1941
            if len(filename) > 0:
 
1942
                new_files.add(filename)
 
1943
                recurse_directory_to_add_files(filename)
 
1944
 
 
1945
        files = list(new_files)
 
1946
 
 
1947
        if len(files) == 0:
 
1948
            return # nothing to do
 
1949
 
 
1950
        # Sort needed to first handle directory content before the directory
 
1951
        files.sort(reverse=True)
 
1952
 
 
1953
        # Bail out if we are going to delete files we shouldn't
 
1954
        if not keep_files and not force:
 
1955
            has_changed_files = len(unknown_nested_files) > 0
 
1956
            if not has_changed_files:
 
1957
                for (file_id, path, content_change, versioned, parent_id, name,
 
1958
                     kind, executable) in self.iter_changes(self.basis_tree(),
 
1959
                         include_unchanged=True, require_versioned=False,
 
1960
                         want_unversioned=True, specific_files=files):
 
1961
                    if versioned == (False, False):
 
1962
                        # The record is unknown ...
 
1963
                        if not self.is_ignored(path[1]):
 
1964
                            # ... but not ignored
 
1965
                            has_changed_files = True
 
1966
                            break
 
1967
                    elif content_change and (kind[1] is not None):
 
1968
                        # Versioned and changed, but not deleted
 
1969
                        has_changed_files = True
 
1970
                        break
 
1971
 
 
1972
            if has_changed_files:
 
1973
                # Make delta show ALL applicable changes in error message.
 
1974
                tree_delta = self.changes_from(self.basis_tree(),
 
1975
                    require_versioned=False, want_unversioned=True,
 
1976
                    specific_files=files)
 
1977
                for unknown_file in unknown_nested_files:
 
1978
                    if unknown_file not in tree_delta.unversioned:
 
1979
                        tree_delta.unversioned.extend((unknown_file,))
 
1980
                raise errors.BzrRemoveChangedFilesError(tree_delta)
 
1981
 
 
1982
        # Build inv_delta and delete files where applicable,
 
1983
        # do this before any modifications to inventory.
1789
1984
        for f in files:
1790
 
            fid = inv.path2id(f)
 
1985
            fid = self.path2id(f)
 
1986
            message = None
1791
1987
            if not fid:
1792
 
                note("%s is not versioned."%f)
 
1988
                message = "%s is not versioned." % (f,)
1793
1989
            else:
1794
1990
                if verbose:
1795
 
                    # having remove it, it must be either ignored or unknown
 
1991
                    # having removed it, it must be either ignored or unknown
1796
1992
                    if self.is_ignored(f):
1797
1993
                        new_status = 'I'
1798
1994
                    else:
1799
1995
                        new_status = '?'
1800
 
                    textui.show_status(new_status, inv[fid].kind, f,
 
1996
                    textui.show_status(new_status, self.kind(fid), f,
1801
1997
                                       to_file=to_file)
1802
 
                del inv[fid]
1803
 
 
1804
 
        self._write_inventory(inv)
 
1998
                # Unversion file
 
1999
                inv_delta.append((f, None, fid, None))
 
2000
                message = "removed %s" % (f,)
 
2001
 
 
2002
            if not keep_files:
 
2003
                abs_path = self.abspath(f)
 
2004
                if osutils.lexists(abs_path):
 
2005
                    if (osutils.isdir(abs_path) and
 
2006
                        len(os.listdir(abs_path)) > 0):
 
2007
                        if force:
 
2008
                            osutils.rmtree(abs_path)
 
2009
                        else:
 
2010
                            message = "%s is not an empty directory "\
 
2011
                                "and won't be deleted." % (f,)
 
2012
                    else:
 
2013
                        osutils.delete_any(abs_path)
 
2014
                        message = "deleted %s" % (f,)
 
2015
                elif message is not None:
 
2016
                    # Only care if we haven't done anything yet.
 
2017
                    message = "%s does not exist." % (f,)
 
2018
 
 
2019
            # Print only one message (if any) per file.
 
2020
            if message is not None:
 
2021
                note(message)
 
2022
        self.apply_inventory_delta(inv_delta)
1805
2023
 
1806
2024
    @needs_tree_write_lock
1807
 
    def revert(self, filenames, old_tree=None, backups=True, 
 
2025
    def revert(self, filenames=None, old_tree=None, backups=True,
1808
2026
               pb=DummyProgress(), report_changes=False):
1809
2027
        from bzrlib.conflicts import resolve
 
2028
        if filenames == []:
 
2029
            filenames = None
 
2030
            symbol_versioning.warn('Using [] to revert all files is deprecated'
 
2031
                ' as of bzr 0.91.  Please use None (the default) instead.',
 
2032
                DeprecationWarning, stacklevel=2)
1810
2033
        if old_tree is None:
1811
 
            old_tree = self.basis_tree()
1812
 
        conflicts = transform.revert(self, old_tree, filenames, backups, pb,
1813
 
                                     report_changes)
1814
 
        if not len(filenames):
1815
 
            self.set_parent_ids(self.get_parent_ids()[:1])
1816
 
            resolve(self)
 
2034
            basis_tree = self.basis_tree()
 
2035
            basis_tree.lock_read()
 
2036
            old_tree = basis_tree
1817
2037
        else:
1818
 
            resolve(self, filenames, ignore_misses=True)
 
2038
            basis_tree = None
 
2039
        try:
 
2040
            conflicts = transform.revert(self, old_tree, filenames, backups, pb,
 
2041
                                         report_changes)
 
2042
            if filenames is None and len(self.get_parent_ids()) > 1:
 
2043
                parent_trees = []
 
2044
                last_revision = self.last_revision()
 
2045
                if last_revision != NULL_REVISION:
 
2046
                    if basis_tree is None:
 
2047
                        basis_tree = self.basis_tree()
 
2048
                        basis_tree.lock_read()
 
2049
                    parent_trees.append((last_revision, basis_tree))
 
2050
                self.set_parent_trees(parent_trees)
 
2051
                resolve(self)
 
2052
            else:
 
2053
                resolve(self, filenames, ignore_misses=True, recursive=True)
 
2054
        finally:
 
2055
            if basis_tree is not None:
 
2056
                basis_tree.unlock()
1819
2057
        return conflicts
1820
2058
 
1821
2059
    def revision_tree(self, revision_id):
1856
2094
            name = os.path.basename(path)
1857
2095
            if name == "":
1858
2096
                continue
1859
 
            # fixme, there should be a factory function inv,add_?? 
 
2097
            # fixme, there should be a factory function inv,add_??
1860
2098
            if kind == 'directory':
1861
2099
                inv.add(InventoryDirectory(file_id, name, parent))
1862
2100
            elif kind == 'file':
1870
2108
    @needs_tree_write_lock
1871
2109
    def set_root_id(self, file_id):
1872
2110
        """Set the root id for this tree."""
1873
 
        # for compatability 
 
2111
        # for compatability
1874
2112
        if file_id is None:
1875
 
            symbol_versioning.warn(symbol_versioning.zero_twelve
1876
 
                % 'WorkingTree.set_root_id with fileid=None',
1877
 
                DeprecationWarning,
1878
 
                stacklevel=3)
1879
 
            file_id = ROOT_ID
1880
 
        else:
1881
 
            file_id = osutils.safe_file_id(file_id)
 
2113
            raise ValueError(
 
2114
                'WorkingTree.set_root_id with fileid=None')
 
2115
        file_id = osutils.safe_file_id(file_id)
1882
2116
        self._set_root_id(file_id)
1883
2117
 
1884
2118
    def _set_root_id(self, file_id):
1885
2119
        """Set the root id for this tree, in a format specific manner.
1886
2120
 
1887
 
        :param file_id: The file id to assign to the root. It must not be 
 
2121
        :param file_id: The file id to assign to the root. It must not be
1888
2122
            present in the current inventory or an error will occur. It must
1889
2123
            not be None, but rather a valid file id.
1890
2124
        """
1909
2143
 
1910
2144
    def unlock(self):
1911
2145
        """See Branch.unlock.
1912
 
        
 
2146
 
1913
2147
        WorkingTree locking just uses the Branch locking facilities.
1914
2148
        This is current because all working trees have an embedded branch
1915
2149
        within them. IF in the future, we were to make branch data shareable
1916
 
        between multiple working trees, i.e. via shared storage, then we 
 
2150
        between multiple working trees, i.e. via shared storage, then we
1917
2151
        would probably want to lock both the local tree, and the branch.
1918
2152
        """
1919
2153
        raise NotImplementedError(self.unlock)
1920
2154
 
1921
 
    def update(self):
 
2155
    def update(self, change_reporter=None, possible_transports=None):
1922
2156
        """Update a working tree along its branch.
1923
2157
 
1924
2158
        This will update the branch if its bound too, which means we have
1943
2177
          basis.
1944
2178
        - Do a 'normal' merge of the old branch basis if it is relevant.
1945
2179
        """
1946
 
        if self.branch.get_master_branch() is not None:
 
2180
        if self.branch.get_bound_location() is not None:
1947
2181
            self.lock_write()
1948
2182
            update_branch = True
1949
2183
        else:
1951
2185
            update_branch = False
1952
2186
        try:
1953
2187
            if update_branch:
1954
 
                old_tip = self.branch.update()
 
2188
                old_tip = self.branch.update(possible_transports)
1955
2189
            else:
1956
2190
                old_tip = None
1957
 
            return self._update_tree(old_tip)
 
2191
            return self._update_tree(old_tip, change_reporter)
1958
2192
        finally:
1959
2193
            self.unlock()
1960
2194
 
1961
2195
    @needs_tree_write_lock
1962
 
    def _update_tree(self, old_tip=None):
 
2196
    def _update_tree(self, old_tip=None, change_reporter=None):
1963
2197
        """Update a tree to the master branch.
1964
2198
 
1965
2199
        :param old_tip: if supplied, the previous tip revision the branch,
1971
2205
        # cant set that until we update the working trees last revision to be
1972
2206
        # one from the new branch, because it will just get absorbed by the
1973
2207
        # parent de-duplication logic.
1974
 
        # 
 
2208
        #
1975
2209
        # We MUST save it even if an error occurs, because otherwise the users
1976
2210
        # local work is unreferenced and will appear to have been lost.
1977
 
        # 
 
2211
        #
1978
2212
        result = 0
1979
2213
        try:
1980
2214
            last_rev = self.get_parent_ids()[0]
1981
2215
        except IndexError:
1982
 
            last_rev = None
1983
 
        if last_rev != self.branch.last_revision():
 
2216
            last_rev = _mod_revision.NULL_REVISION
 
2217
        if last_rev != _mod_revision.ensure_null(self.branch.last_revision()):
1984
2218
            # merge tree state up to new branch tip.
1985
2219
            basis = self.basis_tree()
1986
2220
            basis.lock_read()
1987
2221
            try:
1988
2222
                to_tree = self.branch.basis_tree()
1989
2223
                if basis.inventory.root is None:
1990
 
                    self.set_root_id(to_tree.inventory.root.file_id)
 
2224
                    self.set_root_id(to_tree.get_root_id())
1991
2225
                    self.flush()
1992
2226
                result += merge.merge_inner(
1993
2227
                                      self.branch,
1994
2228
                                      to_tree,
1995
2229
                                      basis,
1996
 
                                      this_tree=self)
 
2230
                                      this_tree=self,
 
2231
                                      change_reporter=change_reporter)
1997
2232
            finally:
1998
2233
                basis.unlock()
1999
2234
            # TODO - dedup parents list with things merged by pull ?
2001
2236
            parent_trees = [(self.branch.last_revision(), to_tree)]
2002
2237
            merges = self.get_parent_ids()[1:]
2003
2238
            # Ideally we ask the tree for the trees here, that way the working
2004
 
            # tree can decide whether to give us teh entire tree or give us a
 
2239
            # tree can decide whether to give us the entire tree or give us a
2005
2240
            # lazy initialised tree. dirstate for instance will have the trees
2006
2241
            # in ram already, whereas a last-revision + basis-inventory tree
2007
2242
            # will not, but also does not need them when setting parents.
2008
2243
            for parent in merges:
2009
2244
                parent_trees.append(
2010
2245
                    (parent, self.branch.repository.revision_tree(parent)))
2011
 
            if old_tip is not None:
 
2246
            if (old_tip is not None and not _mod_revision.is_null(old_tip)):
2012
2247
                parent_trees.append(
2013
2248
                    (old_tip, self.branch.repository.revision_tree(old_tip)))
2014
2249
            self.set_parent_trees(parent_trees)
2017
2252
            # the working tree had the same last-revision as the master
2018
2253
            # branch did. We may still have pivot local work from the local
2019
2254
            # branch into old_tip:
2020
 
            if old_tip is not None:
 
2255
            if (old_tip is not None and not _mod_revision.is_null(old_tip)):
2021
2256
                self.add_parent_tree_id(old_tip)
2022
 
        if old_tip and old_tip != last_rev:
 
2257
        if (old_tip is not None and not _mod_revision.is_null(old_tip)
 
2258
            and old_tip != last_rev):
2023
2259
            # our last revision was not the prior branch last revision
2024
2260
            # and we have converted that last revision to a pending merge.
2025
2261
            # base is somewhere between the branch tip now
2032
2268
            #       inventory and calls tree._write_inventory(). Ultimately we
2033
2269
            #       should be able to remove this extra flush.
2034
2270
            self.flush()
2035
 
            from bzrlib.revision import common_ancestor
2036
 
            try:
2037
 
                base_rev_id = common_ancestor(self.branch.last_revision(),
2038
 
                                              old_tip,
2039
 
                                              self.branch.repository)
2040
 
            except errors.NoCommonAncestor:
2041
 
                base_rev_id = None
 
2271
            graph = self.branch.repository.get_graph()
 
2272
            base_rev_id = graph.find_unique_lca(self.branch.last_revision(),
 
2273
                                                old_tip)
2042
2274
            base_tree = self.branch.repository.revision_tree(base_rev_id)
2043
2275
            other_tree = self.branch.repository.revision_tree(old_tip)
2044
2276
            result += merge.merge_inner(
2045
2277
                                  self.branch,
2046
2278
                                  other_tree,
2047
2279
                                  base_tree,
2048
 
                                  this_tree=self)
 
2280
                                  this_tree=self,
 
2281
                                  change_reporter=change_reporter)
2049
2282
        return result
2050
2283
 
2051
2284
    def _write_hashcache_if_dirty(self):
2103
2336
    def walkdirs(self, prefix=""):
2104
2337
        """Walk the directories of this tree.
2105
2338
 
 
2339
        returns a generator which yields items in the form:
 
2340
                ((curren_directory_path, fileid),
 
2341
                 [(file1_path, file1_name, file1_kind, (lstat), file1_id,
 
2342
                   file1_kind), ... ])
 
2343
 
2106
2344
        This API returns a generator, which is only valid during the current
2107
2345
        tree transaction - within a single lock_read or lock_write duration.
2108
2346
 
2109
 
        If the tree is not locked, it may cause an error to be raised, depending
2110
 
        on the tree implementation.
 
2347
        If the tree is not locked, it may cause an error to be raised,
 
2348
        depending on the tree implementation.
2111
2349
        """
2112
2350
        disk_top = self.abspath(prefix)
2113
2351
        if disk_top.endswith('/'):
2119
2357
            current_disk = disk_iterator.next()
2120
2358
            disk_finished = False
2121
2359
        except OSError, e:
2122
 
            if e.errno != errno.ENOENT:
 
2360
            if not (e.errno == errno.ENOENT or
 
2361
                (sys.platform == 'win32' and e.errno == ERROR_PATH_NOT_FOUND)):
2123
2362
                raise
2124
2363
            current_disk = None
2125
2364
            disk_finished = True
2130
2369
            current_inv = None
2131
2370
            inv_finished = True
2132
2371
        while not inv_finished or not disk_finished:
 
2372
            if current_disk:
 
2373
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
 
2374
                    cur_disk_dir_content) = current_disk
 
2375
            else:
 
2376
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
 
2377
                    cur_disk_dir_content) = ((None, None), None)
2133
2378
            if not disk_finished:
2134
2379
                # strip out .bzr dirs
2135
 
                if current_disk[0][1][top_strip_len:] == '':
2136
 
                    # osutils.walkdirs can be made nicer - 
 
2380
                if (cur_disk_dir_path_from_top[top_strip_len:] == '' and
 
2381
                    len(cur_disk_dir_content) > 0):
 
2382
                    # osutils.walkdirs can be made nicer -
2137
2383
                    # yield the path-from-prefix rather than the pathjoined
2138
2384
                    # value.
2139
 
                    bzrdir_loc = bisect_left(current_disk[1], ('.bzr', '.bzr'))
2140
 
                    if current_disk[1][bzrdir_loc][0] == '.bzr':
 
2385
                    bzrdir_loc = bisect_left(cur_disk_dir_content,
 
2386
                        ('.bzr', '.bzr'))
 
2387
                    if (bzrdir_loc < len(cur_disk_dir_content)
 
2388
                        and self.bzrdir.is_control_filename(
 
2389
                            cur_disk_dir_content[bzrdir_loc][0])):
2141
2390
                        # we dont yield the contents of, or, .bzr itself.
2142
 
                        del current_disk[1][bzrdir_loc]
 
2391
                        del cur_disk_dir_content[bzrdir_loc]
2143
2392
            if inv_finished:
2144
2393
                # everything is unknown
2145
2394
                direction = 1
2147
2396
                # everything is missing
2148
2397
                direction = -1
2149
2398
            else:
2150
 
                direction = cmp(current_inv[0][0], current_disk[0][0])
 
2399
                direction = cmp(current_inv[0][0], cur_disk_dir_relpath)
2151
2400
            if direction > 0:
2152
2401
                # disk is before inventory - unknown
2153
2402
                dirblock = [(relpath, basename, kind, stat, None, None) for
2154
 
                    relpath, basename, kind, stat, top_path in current_disk[1]]
2155
 
                yield (current_disk[0][0], None), dirblock
 
2403
                    relpath, basename, kind, stat, top_path in
 
2404
                    cur_disk_dir_content]
 
2405
                yield (cur_disk_dir_relpath, None), dirblock
2156
2406
                try:
2157
2407
                    current_disk = disk_iterator.next()
2158
2408
                except StopIteration:
2160
2410
            elif direction < 0:
2161
2411
                # inventory is before disk - missing.
2162
2412
                dirblock = [(relpath, basename, 'unknown', None, fileid, kind)
2163
 
                    for relpath, basename, dkind, stat, fileid, kind in 
 
2413
                    for relpath, basename, dkind, stat, fileid, kind in
2164
2414
                    current_inv[1]]
2165
2415
                yield (current_inv[0][0], current_inv[0][1]), dirblock
2166
2416
                try:
2172
2422
                # merge the inventory and disk data together
2173
2423
                dirblock = []
2174
2424
                for relpath, subiterator in itertools.groupby(sorted(
2175
 
                    current_inv[1] + current_disk[1], key=operator.itemgetter(0)), operator.itemgetter(1)):
 
2425
                    current_inv[1] + cur_disk_dir_content,
 
2426
                    key=operator.itemgetter(0)), operator.itemgetter(1)):
2176
2427
                    path_elements = list(subiterator)
2177
2428
                    if len(path_elements) == 2:
2178
2429
                        inv_row, disk_row = path_elements
2204
2455
                    disk_finished = True
2205
2456
 
2206
2457
    def _walkdirs(self, prefix=""):
 
2458
        """Walk the directories of this tree.
 
2459
 
 
2460
           :prefix: is used as the directrory to start with.
 
2461
           returns a generator which yields items in the form:
 
2462
                ((curren_directory_path, fileid),
 
2463
                 [(file1_path, file1_name, file1_kind, None, file1_id,
 
2464
                   file1_kind), ... ])
 
2465
        """
2207
2466
        _directory = 'directory'
2208
2467
        # get the root in the inventory
2209
2468
        inv = self.inventory
2223
2482
                relroot = ""
2224
2483
            # FIXME: stash the node in pending
2225
2484
            entry = inv[top_id]
2226
 
            for name, child in entry.sorted_children():
2227
 
                dirblock.append((relroot + name, name, child.kind, None,
2228
 
                    child.file_id, child.kind
2229
 
                    ))
 
2485
            if entry.kind == 'directory':
 
2486
                for name, child in entry.sorted_children():
 
2487
                    dirblock.append((relroot + name, name, child.kind, None,
 
2488
                        child.file_id, child.kind
 
2489
                        ))
2230
2490
            yield (currentdir[0], entry.file_id), dirblock
2231
2491
            # push the user specified dirs from dirblock
2232
2492
            for dir in reversed(dirblock):
2265
2525
        self.set_conflicts(un_resolved)
2266
2526
        return un_resolved, resolved
2267
2527
 
 
2528
    @needs_read_lock
 
2529
    def _check(self):
 
2530
        tree_basis = self.basis_tree()
 
2531
        tree_basis.lock_read()
 
2532
        try:
 
2533
            repo_basis = self.branch.repository.revision_tree(
 
2534
                self.last_revision())
 
2535
            if len(list(repo_basis.iter_changes(tree_basis))) > 0:
 
2536
                raise errors.BzrCheckError(
 
2537
                    "Mismatched basis inventory content.")
 
2538
            self._validate()
 
2539
        finally:
 
2540
            tree_basis.unlock()
 
2541
 
2268
2542
    def _validate(self):
2269
2543
        """Validate internal structures.
2270
2544
 
2276
2550
        """
2277
2551
        return
2278
2552
 
 
2553
    @needs_read_lock
 
2554
    def _get_rules_searcher(self, default_searcher):
 
2555
        """See Tree._get_rules_searcher."""
 
2556
        if self._rules_searcher is None:
 
2557
            self._rules_searcher = super(WorkingTree,
 
2558
                self)._get_rules_searcher(default_searcher)
 
2559
        return self._rules_searcher
 
2560
 
 
2561
    def get_shelf_manager(self):
 
2562
        """Return the ShelfManager for this WorkingTree."""
 
2563
        from bzrlib.shelf import ShelfManager
 
2564
        return ShelfManager(self, self._transport)
 
2565
 
2279
2566
 
2280
2567
class WorkingTree2(WorkingTree):
2281
2568
    """This is the Format 2 working tree.
2282
2569
 
2283
 
    This was the first weave based working tree. 
 
2570
    This was the first weave based working tree.
2284
2571
     - uses os locks for locking.
2285
2572
     - uses the branch last-revision.
2286
2573
    """
2310
2597
            raise
2311
2598
 
2312
2599
    def unlock(self):
 
2600
        # do non-implementation specific cleanup
 
2601
        self._cleanup()
 
2602
 
2313
2603
        # we share control files:
2314
2604
        if self._control_files._lock_count == 3:
2315
2605
            # _inventory_is_modified is always False during a read lock.
2316
2606
            if self._inventory_is_modified:
2317
2607
                self.flush()
2318
2608
            self._write_hashcache_if_dirty()
2319
 
                    
 
2609
 
2320
2610
        # reverse order of locking.
2321
2611
        try:
2322
2612
            return self._control_files.unlock()
2338
2628
    def _last_revision(self):
2339
2629
        """See Mutable.last_revision."""
2340
2630
        try:
2341
 
            return osutils.safe_revision_id(
2342
 
                        self._control_files.get('last-revision').read())
 
2631
            return self._transport.get_bytes('last-revision')
2343
2632
        except errors.NoSuchFile:
2344
 
            return None
 
2633
            return _mod_revision.NULL_REVISION
2345
2634
 
2346
2635
    def _change_last_revision(self, revision_id):
2347
2636
        """See WorkingTree._change_last_revision."""
2348
2637
        if revision_id is None or revision_id == NULL_REVISION:
2349
2638
            try:
2350
 
                self._control_files._transport.delete('last-revision')
 
2639
                self._transport.delete('last-revision')
2351
2640
            except errors.NoSuchFile:
2352
2641
                pass
2353
2642
            return False
2354
2643
        else:
2355
 
            self._control_files.put_bytes('last-revision', revision_id)
 
2644
            self._transport.put_bytes('last-revision', revision_id,
 
2645
                mode=self.bzrdir._get_file_mode())
2356
2646
            return True
2357
2647
 
2358
2648
    @needs_tree_write_lock
2359
2649
    def set_conflicts(self, conflicts):
2360
 
        self._put_rio('conflicts', conflicts.to_stanzas(), 
 
2650
        self._put_rio('conflicts', conflicts.to_stanzas(),
2361
2651
                      CONFLICT_HEADER_1)
2362
2652
 
2363
2653
    @needs_tree_write_lock
2370
2660
    @needs_read_lock
2371
2661
    def conflicts(self):
2372
2662
        try:
2373
 
            confile = self._control_files.get('conflicts')
 
2663
            confile = self._transport.get('conflicts')
2374
2664
        except errors.NoSuchFile:
2375
2665
            return _mod_conflicts.ConflictList()
2376
2666
        try:
2377
 
            if confile.next() != CONFLICT_HEADER_1 + '\n':
 
2667
            try:
 
2668
                if confile.next() != CONFLICT_HEADER_1 + '\n':
 
2669
                    raise errors.ConflictFormatError()
 
2670
            except StopIteration:
2378
2671
                raise errors.ConflictFormatError()
2379
 
        except StopIteration:
2380
 
            raise errors.ConflictFormatError()
2381
 
        return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
 
2672
            return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
 
2673
        finally:
 
2674
            confile.close()
2382
2675
 
2383
2676
    def unlock(self):
 
2677
        # do non-implementation specific cleanup
 
2678
        self._cleanup()
2384
2679
        if self._control_files._lock_count == 1:
2385
2680
            # _inventory_is_modified is always False during a read lock.
2386
2681
            if self._inventory_is_modified:
2399
2694
            return path[:-len(suffix)]
2400
2695
 
2401
2696
 
2402
 
@deprecated_function(zero_eight)
2403
 
def is_control_file(filename):
2404
 
    """See WorkingTree.is_control_filename(filename)."""
2405
 
    ## FIXME: better check
2406
 
    filename = normpath(filename)
2407
 
    while filename != '':
2408
 
        head, tail = os.path.split(filename)
2409
 
        ## mutter('check %r for control file' % ((head, tail),))
2410
 
        if tail == '.bzr':
2411
 
            return True
2412
 
        if filename == head:
2413
 
            break
2414
 
        filename = head
2415
 
    return False
2416
 
 
2417
 
 
2418
2697
class WorkingTreeFormat(object):
2419
2698
    """An encapsulation of the initialization and open routines for a format.
2420
2699
 
2423
2702
     * a format string,
2424
2703
     * an open routine.
2425
2704
 
2426
 
    Formats are placed in an dict by their format string for reference 
 
2705
    Formats are placed in an dict by their format string for reference
2427
2706
    during workingtree opening. Its not required that these be instances, they
2428
 
    can be classes themselves with class methods - it simply depends on 
 
2707
    can be classes themselves with class methods - it simply depends on
2429
2708
    whether state is needed for a given format or not.
2430
2709
 
2431
2710
    Once a format is deprecated, just deprecate the initialize and open
2432
 
    methods on the format class. Do not deprecate the object, as the 
 
2711
    methods on the format class. Do not deprecate the object, as the
2433
2712
    object will be created every time regardless.
2434
2713
    """
2435
2714
 
2453
2732
        except errors.NoSuchFile:
2454
2733
            raise errors.NoWorkingTree(base=transport.base)
2455
2734
        except KeyError:
2456
 
            raise errors.UnknownFormatError(format=format_string)
 
2735
            raise errors.UnknownFormatError(format=format_string,
 
2736
                                            kind="working tree")
2457
2737
 
2458
2738
    def __eq__(self, other):
2459
2739
        return self.__class__ is other.__class__
2478
2758
        """Is this format supported?
2479
2759
 
2480
2760
        Supported formats can be initialized and opened.
2481
 
        Unsupported formats may not support initialization or committing or 
 
2761
        Unsupported formats may not support initialization or committing or
2482
2762
        some other features depending on the reason for not being supported.
2483
2763
        """
2484
2764
        return True
2485
2765
 
 
2766
    def supports_content_filtering(self):
 
2767
        """True if this format supports content filtering."""
 
2768
        return False
 
2769
 
 
2770
    def supports_views(self):
 
2771
        """True if this format supports stored views."""
 
2772
        return False
 
2773
 
2486
2774
    @classmethod
2487
2775
    def register_format(klass, format):
2488
2776
        klass._formats[format.get_format_string()] = format
2493
2781
 
2494
2782
    @classmethod
2495
2783
    def unregister_format(klass, format):
2496
 
        assert klass._formats[format.get_format_string()] is format
2497
2784
        del klass._formats[format.get_format_string()]
2498
2785
 
2499
2786
 
2500
2787
class WorkingTreeFormat2(WorkingTreeFormat):
2501
 
    """The second working tree format. 
 
2788
    """The second working tree format.
2502
2789
 
2503
2790
    This format modified the hash cache from the format 1 hash cache.
2504
2791
    """
2509
2796
        """See WorkingTreeFormat.get_format_description()."""
2510
2797
        return "Working tree format 2"
2511
2798
 
2512
 
    def stub_initialize_remote(self, control_files):
2513
 
        """As a special workaround create critical control files for a remote working tree
2514
 
        
 
2799
    def _stub_initialize_on_transport(self, transport, file_mode):
 
2800
        """Workaround: create control files for a remote working tree.
 
2801
 
2515
2802
        This ensures that it can later be updated and dealt with locally,
2516
 
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with 
 
2803
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with
2517
2804
        no working tree.  (See bug #43064).
2518
2805
        """
2519
2806
        sio = StringIO()
2520
2807
        inv = Inventory()
2521
 
        xml5.serializer_v5.write_inventory(inv, sio)
 
2808
        xml5.serializer_v5.write_inventory(inv, sio, working=True)
2522
2809
        sio.seek(0)
2523
 
        control_files.put('inventory', sio)
2524
 
 
2525
 
        control_files.put_bytes('pending-merges', '')
2526
 
        
2527
 
 
2528
 
    def initialize(self, a_bzrdir, revision_id=None):
 
2810
        transport.put_file('inventory', sio, file_mode)
 
2811
        transport.put_bytes('pending-merges', '', file_mode)
 
2812
 
 
2813
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
 
2814
                   accelerator_tree=None, hardlink=False):
2529
2815
        """See WorkingTreeFormat.initialize()."""
2530
2816
        if not isinstance(a_bzrdir.transport, LocalTransport):
2531
2817
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2532
 
        branch = a_bzrdir.open_branch()
2533
 
        if revision_id is not None:
2534
 
            revision_id = osutils.safe_revision_id(revision_id)
2535
 
            branch.lock_write()
2536
 
            try:
2537
 
                revision_history = branch.revision_history()
2538
 
                try:
2539
 
                    position = revision_history.index(revision_id)
2540
 
                except ValueError:
2541
 
                    raise errors.NoSuchRevision(branch, revision_id)
2542
 
                branch.set_revision_history(revision_history[:position + 1])
2543
 
            finally:
2544
 
                branch.unlock()
2545
 
        revision = branch.last_revision()
 
2818
        if from_branch is not None:
 
2819
            branch = from_branch
 
2820
        else:
 
2821
            branch = a_bzrdir.open_branch()
 
2822
        if revision_id is None:
 
2823
            revision_id = _mod_revision.ensure_null(branch.last_revision())
 
2824
        branch.lock_write()
 
2825
        try:
 
2826
            branch.generate_revision_history(revision_id)
 
2827
        finally:
 
2828
            branch.unlock()
2546
2829
        inv = Inventory()
2547
2830
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
2548
2831
                         branch,
2550
2833
                         _internal=True,
2551
2834
                         _format=self,
2552
2835
                         _bzrdir=a_bzrdir)
2553
 
        basis_tree = branch.repository.revision_tree(revision)
 
2836
        basis_tree = branch.repository.revision_tree(revision_id)
2554
2837
        if basis_tree.inventory.root is not None:
2555
 
            wt.set_root_id(basis_tree.inventory.root.file_id)
 
2838
            wt.set_root_id(basis_tree.get_root_id())
2556
2839
        # set the parent list and cache the basis tree.
2557
 
        wt.set_parent_trees([(revision, basis_tree)])
 
2840
        if _mod_revision.is_null(revision_id):
 
2841
            parent_trees = []
 
2842
        else:
 
2843
            parent_trees = [(revision_id, basis_tree)]
 
2844
        wt.set_parent_trees(parent_trees)
2558
2845
        transform.build_tree(basis_tree, wt)
2559
2846
        return wt
2560
2847
 
2590
2877
        - is new in bzr 0.8
2591
2878
        - uses a LockDir to guard access for writes.
2592
2879
    """
2593
 
    
 
2880
 
2594
2881
    upgrade_recommended = True
2595
2882
 
2596
2883
    def get_format_string(self):
2613
2900
 
2614
2901
    def _open_control_files(self, a_bzrdir):
2615
2902
        transport = a_bzrdir.get_workingtree_transport(None)
2616
 
        return LockableFiles(transport, self._lock_file_name, 
 
2903
        return LockableFiles(transport, self._lock_file_name,
2617
2904
                             self._lock_class)
2618
2905
 
2619
 
    def initialize(self, a_bzrdir, revision_id=None):
 
2906
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
 
2907
                   accelerator_tree=None, hardlink=False):
2620
2908
        """See WorkingTreeFormat.initialize().
2621
 
        
2622
 
        revision_id allows creating a working tree at a different
2623
 
        revision than the branch is at.
 
2909
 
 
2910
        :param revision_id: if supplied, create a working tree at a different
 
2911
            revision than the branch is at.
 
2912
        :param accelerator_tree: A tree which can be used for retrieving file
 
2913
            contents more quickly than the revision tree, i.e. a workingtree.
 
2914
            The revision tree will be used for cases where accelerator_tree's
 
2915
            content is different.
 
2916
        :param hardlink: If true, hard-link files from accelerator_tree,
 
2917
            where possible.
2624
2918
        """
2625
2919
        if not isinstance(a_bzrdir.transport, LocalTransport):
2626
2920
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2628
2922
        control_files = self._open_control_files(a_bzrdir)
2629
2923
        control_files.create_lock()
2630
2924
        control_files.lock_write()
2631
 
        control_files.put_utf8('format', self.get_format_string())
2632
 
        branch = a_bzrdir.open_branch()
 
2925
        transport.put_bytes('format', self.get_format_string(),
 
2926
            mode=a_bzrdir._get_file_mode())
 
2927
        if from_branch is not None:
 
2928
            branch = from_branch
 
2929
        else:
 
2930
            branch = a_bzrdir.open_branch()
2633
2931
        if revision_id is None:
2634
 
            revision_id = branch.last_revision()
2635
 
        else:
2636
 
            revision_id = osutils.safe_revision_id(revision_id)
 
2932
            revision_id = _mod_revision.ensure_null(branch.last_revision())
2637
2933
        # WorkingTree3 can handle an inventory which has a unique root id.
2638
2934
        # as of bzr 0.12. However, bzr 0.11 and earlier fail to handle
2639
2935
        # those trees. And because there isn't a format bump inbetween, we
2652
2948
            basis_tree = branch.repository.revision_tree(revision_id)
2653
2949
            # only set an explicit root id if there is one to set.
2654
2950
            if basis_tree.inventory.root is not None:
2655
 
                wt.set_root_id(basis_tree.inventory.root.file_id)
 
2951
                wt.set_root_id(basis_tree.get_root_id())
2656
2952
            if revision_id == NULL_REVISION:
2657
2953
                wt.set_parent_trees([])
2658
2954
            else:
2687
2983
 
2688
2984
    def _open(self, a_bzrdir, control_files):
2689
2985
        """Open the tree itself.
2690
 
        
 
2986
 
2691
2987
        :param a_bzrdir: the dir for the tree.
2692
2988
        :param control_files: the control files for the tree.
2693
2989
        """
2703
2999
 
2704
3000
__default_format = WorkingTreeFormat4()
2705
3001
WorkingTreeFormat.register_format(__default_format)
 
3002
WorkingTreeFormat.register_format(WorkingTreeFormat6())
 
3003
WorkingTreeFormat.register_format(WorkingTreeFormat5())
2706
3004
WorkingTreeFormat.register_format(WorkingTreeFormat3())
2707
3005
WorkingTreeFormat.set_default_format(__default_format)
2708
3006
# formats which have no format string are not discoverable
2709
3007
# and not independently creatable, so are not registered.
2710
3008
_legacy_formats = [WorkingTreeFormat2(),
2711
3009
                   ]
2712
 
 
2713
 
 
2714
 
class WorkingTreeTestProviderAdapter(object):
2715
 
    """A tool to generate a suite testing multiple workingtree formats at once.
2716
 
 
2717
 
    This is done by copying the test once for each transport and injecting
2718
 
    the transport_server, transport_readonly_server, and workingtree_format
2719
 
    classes into each copy. Each copy is also given a new id() to make it
2720
 
    easy to identify.
2721
 
    """
2722
 
 
2723
 
    def __init__(self, transport_server, transport_readonly_server, formats):
2724
 
        self._transport_server = transport_server
2725
 
        self._transport_readonly_server = transport_readonly_server
2726
 
        self._formats = formats
2727
 
    
2728
 
    def _clone_test(self, test, bzrdir_format, workingtree_format, variation):
2729
 
        """Clone test for adaption."""
2730
 
        new_test = deepcopy(test)
2731
 
        new_test.transport_server = self._transport_server
2732
 
        new_test.transport_readonly_server = self._transport_readonly_server
2733
 
        new_test.bzrdir_format = bzrdir_format
2734
 
        new_test.workingtree_format = workingtree_format
2735
 
        def make_new_test_id():
2736
 
            new_id = "%s(%s)" % (test.id(), variation)
2737
 
            return lambda: new_id
2738
 
        new_test.id = make_new_test_id()
2739
 
        return new_test
2740
 
    
2741
 
    def adapt(self, test):
2742
 
        from bzrlib.tests import TestSuite
2743
 
        result = TestSuite()
2744
 
        for workingtree_format, bzrdir_format in self._formats:
2745
 
            new_test = self._clone_test(
2746
 
                test,
2747
 
                bzrdir_format,
2748
 
                workingtree_format, workingtree_format.__class__.__name__)
2749
 
            result.addTest(new_test)
2750
 
        return result