~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/tree.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2010-02-01 13:53:24 UTC
  • mfrom: (4990.1.2 rm-obsolete)
  • Revision ID: pqm@pqm.ubuntu.com-20100201135324-cuhuolr97guf5xjp
(Jelmer) Remove obsolete (and broken) biobench and history2revfiles
        tools.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005 Canonical Ltd
2
 
 
 
1
# Copyright (C) 2005, 2009 Canonical Ltd
 
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
 
 
7
#
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
 
 
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
17
"""Tree classes, representing directory at point in time.
18
18
"""
19
19
 
20
 
from osutils import pumpfile, appendpath, fingerprint_file
21
20
import os
22
 
 
23
 
from bzrlib.trace import mutter, note
24
 
from bzrlib.errors import BzrError
 
21
from collections import deque
25
22
 
26
23
import bzrlib
 
24
from bzrlib import (
 
25
    conflicts as _mod_conflicts,
 
26
    debug,
 
27
    delta,
 
28
    filters,
 
29
    osutils,
 
30
    revision as _mod_revision,
 
31
    rules,
 
32
    )
 
33
from bzrlib.decorators import needs_read_lock
 
34
from bzrlib.errors import BzrError, NoSuchId
 
35
from bzrlib import errors
 
36
from bzrlib.inventory import InventoryFile
 
37
from bzrlib.inter import InterObject
 
38
from bzrlib.osutils import fingerprint_file
 
39
import bzrlib.revision
 
40
from bzrlib.symbol_versioning import deprecated_function, deprecated_in
 
41
from bzrlib.trace import note
27
42
 
28
 
exporters = {}
29
43
 
30
44
class Tree(object):
31
45
    """Abstract file tree.
32
46
 
33
47
    There are several subclasses:
34
 
    
 
48
 
35
49
    * `WorkingTree` exists as files on disk editable by the user.
36
50
 
37
51
    * `RevisionTree` is a tree as recorded at some point in the past.
38
52
 
39
 
    * `EmptyTree`
40
 
 
41
53
    Trees contain an `Inventory` object, and also know how to retrieve
42
54
    file texts mentioned in the inventory, either from a working
43
55
    directory or from a store.
48
60
    Trees can be compared, etc, regardless of whether they are working
49
61
    trees or versioned trees.
50
62
    """
51
 
    
 
63
 
 
64
    def changes_from(self, other, want_unchanged=False, specific_files=None,
 
65
        extra_trees=None, require_versioned=False, include_root=False,
 
66
        want_unversioned=False):
 
67
        """Return a TreeDelta of the changes from other to this tree.
 
68
 
 
69
        :param other: A tree to compare with.
 
70
        :param specific_files: An optional list of file paths to restrict the
 
71
            comparison to. When mapping filenames to ids, all matches in all
 
72
            trees (including optional extra_trees) are used, and all children of
 
73
            matched directories are included.
 
74
        :param want_unchanged: An optional boolean requesting the inclusion of
 
75
            unchanged entries in the result.
 
76
        :param extra_trees: An optional list of additional trees to use when
 
77
            mapping the contents of specific_files (paths) to file_ids.
 
78
        :param require_versioned: An optional boolean (defaults to False). When
 
79
            supplied and True all the 'specific_files' must be versioned, or
 
80
            a PathsNotVersionedError will be thrown.
 
81
        :param want_unversioned: Scan for unversioned paths.
 
82
 
 
83
        The comparison will be performed by an InterTree object looked up on
 
84
        self and other.
 
85
        """
 
86
        # Martin observes that Tree.changes_from returns a TreeDelta and this
 
87
        # may confuse people, because the class name of the returned object is
 
88
        # a synonym of the object referenced in the method name.
 
89
        return InterTree.get(other, self).compare(
 
90
            want_unchanged=want_unchanged,
 
91
            specific_files=specific_files,
 
92
            extra_trees=extra_trees,
 
93
            require_versioned=require_versioned,
 
94
            include_root=include_root,
 
95
            want_unversioned=want_unversioned,
 
96
            )
 
97
 
 
98
    def iter_changes(self, from_tree, include_unchanged=False,
 
99
                     specific_files=None, pb=None, extra_trees=None,
 
100
                     require_versioned=True, want_unversioned=False):
 
101
        intertree = InterTree.get(from_tree, self)
 
102
        return intertree.iter_changes(include_unchanged, specific_files, pb,
 
103
            extra_trees, require_versioned, want_unversioned=want_unversioned)
 
104
 
 
105
    def conflicts(self):
 
106
        """Get a list of the conflicts in the tree.
 
107
 
 
108
        Each conflict is an instance of bzrlib.conflicts.Conflict.
 
109
        """
 
110
        return _mod_conflicts.ConflictList()
 
111
 
 
112
    def extras(self):
 
113
        """For trees that can have unversioned files, return all such paths."""
 
114
        return []
 
115
 
 
116
    def get_parent_ids(self):
 
117
        """Get the parent ids for this tree.
 
118
 
 
119
        :return: a list of parent ids. [] is returned to indicate
 
120
        a tree with no parents.
 
121
        :raises: BzrError if the parents are not known.
 
122
        """
 
123
        raise NotImplementedError(self.get_parent_ids)
 
124
 
52
125
    def has_filename(self, filename):
53
126
        """True if the tree has given filename."""
54
 
        raise NotImplementedError()
 
127
        raise NotImplementedError(self.has_filename)
55
128
 
56
129
    def has_id(self, file_id):
57
130
        return self.inventory.has_id(file_id)
58
131
 
59
 
    __contains__ = has_id
 
132
    def __contains__(self, file_id):
 
133
        return self.has_id(file_id)
 
134
 
 
135
    def has_or_had_id(self, file_id):
 
136
        return self.inventory.has_id(file_id)
 
137
 
 
138
    def is_ignored(self, filename):
 
139
        """Check whether the filename is ignored by this tree.
 
140
 
 
141
        :param filename: The relative filename within the tree.
 
142
        :return: True if the filename is ignored.
 
143
        """
 
144
        return False
60
145
 
61
146
    def __iter__(self):
62
147
        return iter(self.inventory)
63
148
 
 
149
    def all_file_ids(self):
 
150
        """Iterate through all file ids, including ids for missing files."""
 
151
        return set(self.inventory)
 
152
 
64
153
    def id2path(self, file_id):
 
154
        """Return the path for a file id.
 
155
 
 
156
        :raises NoSuchId:
 
157
        """
65
158
        return self.inventory.id2path(file_id)
66
159
 
 
160
    def is_control_filename(self, filename):
 
161
        """True if filename is the name of a control file in this tree.
 
162
 
 
163
        :param filename: A filename within the tree. This is a relative path
 
164
        from the root of this tree.
 
165
 
 
166
        This is true IF and ONLY IF the filename is part of the meta data
 
167
        that bzr controls in this tree. I.E. a random .bzr directory placed
 
168
        on disk will not be a control file for this tree.
 
169
        """
 
170
        return self.bzrdir.is_control_filename(filename)
 
171
 
 
172
    @needs_read_lock
 
173
    def iter_entries_by_dir(self, specific_file_ids=None, yield_parents=False):
 
174
        """Walk the tree in 'by_dir' order.
 
175
 
 
176
        This will yield each entry in the tree as a (path, entry) tuple.
 
177
        The order that they are yielded is:
 
178
 
 
179
        Directories are walked in a depth-first lexicographical order,
 
180
        however, whenever a directory is reached, all of its direct child
 
181
        nodes are yielded in  lexicographical order before yielding the
 
182
        grandchildren.
 
183
 
 
184
        For example, in the tree::
 
185
 
 
186
           a/
 
187
             b/
 
188
               c
 
189
             d/
 
190
               e
 
191
           f/
 
192
             g
 
193
 
 
194
        The yield order (ignoring root) would be::
 
195
          a, f, a/b, a/d, a/b/c, a/d/e, f/g
 
196
 
 
197
        :param yield_parents: If True, yield the parents from the root leading
 
198
            down to specific_file_ids that have been requested. This has no
 
199
            impact if specific_file_ids is None.
 
200
        """
 
201
        return self.inventory.iter_entries_by_dir(
 
202
            specific_file_ids=specific_file_ids, yield_parents=yield_parents)
 
203
 
 
204
    def iter_references(self):
 
205
        if self.supports_tree_reference():
 
206
            for path, entry in self.iter_entries_by_dir():
 
207
                if entry.kind == 'tree-reference':
 
208
                    yield path, entry.file_id
 
209
 
 
210
    def kind(self, file_id):
 
211
        raise NotImplementedError("Tree subclass %s must implement kind"
 
212
            % self.__class__.__name__)
 
213
 
 
214
    def stored_kind(self, file_id):
 
215
        """File kind stored for this file_id.
 
216
 
 
217
        May not match kind on disk for working trees.  Always available
 
218
        for versioned files, even when the file itself is missing.
 
219
        """
 
220
        return self.kind(file_id)
 
221
 
 
222
    def path_content_summary(self, path):
 
223
        """Get a summary of the information about path.
 
224
 
 
225
        All the attributes returned are for the canonical form, not the
 
226
        convenient form (if content filters are in use.)
 
227
 
 
228
        :param path: A relative path within the tree.
 
229
        :return: A tuple containing kind, size, exec, sha1-or-link.
 
230
            Kind is always present (see tree.kind()).
 
231
            size is present if kind is file and the size of the 
 
232
                canonical form can be cheaply determined, None otherwise.
 
233
            exec is None unless kind is file and the platform supports the 'x'
 
234
                bit.
 
235
            sha1-or-link is the link target if kind is symlink, or the sha1 if
 
236
                it can be obtained without reading the file.
 
237
        """
 
238
        raise NotImplementedError(self.path_content_summary)
 
239
 
 
240
    def get_reference_revision(self, file_id, path=None):
 
241
        raise NotImplementedError("Tree subclass %s must implement "
 
242
                                  "get_reference_revision"
 
243
            % self.__class__.__name__)
 
244
 
 
245
    def _comparison_data(self, entry, path):
 
246
        """Return a tuple of kind, executable, stat_value for a file.
 
247
 
 
248
        entry may be None if there is no inventory entry for the file, but
 
249
        path must always be supplied.
 
250
 
 
251
        kind is None if there is no file present (even if an inventory id is
 
252
        present).  executable is False for non-file entries.
 
253
        """
 
254
        raise NotImplementedError(self._comparison_data)
 
255
 
 
256
    def _file_size(self, entry, stat_value):
 
257
        raise NotImplementedError(self._file_size)
 
258
 
67
259
    def _get_inventory(self):
68
260
        return self._inventory
69
261
 
 
262
    def get_file(self, file_id, path=None):
 
263
        """Return a file object for the file file_id in the tree.
 
264
 
 
265
        If both file_id and path are defined, it is implementation defined as
 
266
        to which one is used.
 
267
        """
 
268
        raise NotImplementedError(self.get_file)
 
269
 
 
270
    def get_file_with_stat(self, file_id, path=None):
 
271
        """Get a file handle and stat object for file_id.
 
272
 
 
273
        The default implementation returns (self.get_file, None) for backwards
 
274
        compatibility.
 
275
 
 
276
        :param file_id: The file id to read.
 
277
        :param path: The path of the file, if it is known.
 
278
        :return: A tuple (file_handle, stat_value_or_None). If the tree has
 
279
            no stat facility, or need for a stat cache feedback during commit,
 
280
            it may return None for the second element of the tuple.
 
281
        """
 
282
        return (self.get_file(file_id, path), None)
 
283
 
 
284
    def get_file_text(self, file_id, path=None):
 
285
        """Return the byte content of a file.
 
286
 
 
287
        :param file_id: The file_id of the file.
 
288
        :param path: The path of the file.
 
289
        If both file_id and path are supplied, an implementation may use
 
290
        either one.
 
291
        """
 
292
        my_file = self.get_file(file_id, path)
 
293
        try:
 
294
            return my_file.read()
 
295
        finally:
 
296
            my_file.close()
 
297
 
 
298
    def get_file_lines(self, file_id, path=None):
 
299
        """Return the content of a file, as lines.
 
300
 
 
301
        :param file_id: The file_id of the file.
 
302
        :param path: The path of the file.
 
303
        If both file_id and path are supplied, an implementation may use
 
304
        either one.
 
305
        """
 
306
        return osutils.split_lines(self.get_file_text(file_id, path))
 
307
 
 
308
    def get_file_mtime(self, file_id, path=None):
 
309
        """Return the modification time for a file.
 
310
 
 
311
        :param file_id: The handle for this file.
 
312
        :param path: The path that this file can be found at.
 
313
            These must point to the same object.
 
314
        """
 
315
        raise NotImplementedError(self.get_file_mtime)
 
316
 
 
317
    def get_file_size(self, file_id):
 
318
        """Return the size of a file in bytes.
 
319
 
 
320
        This applies only to regular files.  If invoked on directories or
 
321
        symlinks, it will return None.
 
322
        :param file_id: The file-id of the file
 
323
        """
 
324
        raise NotImplementedError(self.get_file_size)
 
325
 
 
326
    def get_file_by_path(self, path):
 
327
        return self.get_file(self._inventory.path2id(path), path)
 
328
 
 
329
    def iter_files_bytes(self, desired_files):
 
330
        """Iterate through file contents.
 
331
 
 
332
        Files will not necessarily be returned in the order they occur in
 
333
        desired_files.  No specific order is guaranteed.
 
334
 
 
335
        Yields pairs of identifier, bytes_iterator.  identifier is an opaque
 
336
        value supplied by the caller as part of desired_files.  It should
 
337
        uniquely identify the file version in the caller's context.  (Examples:
 
338
        an index number or a TreeTransform trans_id.)
 
339
 
 
340
        bytes_iterator is an iterable of bytestrings for the file.  The
 
341
        kind of iterable and length of the bytestrings are unspecified, but for
 
342
        this implementation, it is a tuple containing a single bytestring with
 
343
        the complete text of the file.
 
344
 
 
345
        :param desired_files: a list of (file_id, identifier) pairs
 
346
        """
 
347
        for file_id, identifier in desired_files:
 
348
            # We wrap the string in a tuple so that we can return an iterable
 
349
            # of bytestrings.  (Technically, a bytestring is also an iterable
 
350
            # of bytestrings, but iterating through each character is not
 
351
            # performant.)
 
352
            cur_file = (self.get_file_text(file_id),)
 
353
            yield identifier, cur_file
 
354
 
 
355
    def get_symlink_target(self, file_id):
 
356
        """Get the target for a given file_id.
 
357
 
 
358
        It is assumed that the caller already knows that file_id is referencing
 
359
        a symlink.
 
360
        :param file_id: Handle for the symlink entry.
 
361
        :return: The path the symlink points to.
 
362
        """
 
363
        raise NotImplementedError(self.get_symlink_target)
 
364
 
 
365
    def get_canonical_inventory_paths(self, paths):
 
366
        """Like get_canonical_inventory_path() but works on multiple items.
 
367
 
 
368
        :param paths: A sequence of paths relative to the root of the tree.
 
369
        :return: A list of paths, with each item the corresponding input path
 
370
        adjusted to account for existing elements that match case
 
371
        insensitively.
 
372
        """
 
373
        return list(self._yield_canonical_inventory_paths(paths))
 
374
 
 
375
    def get_canonical_inventory_path(self, path):
 
376
        """Returns the first inventory item that case-insensitively matches path.
 
377
 
 
378
        If a path matches exactly, it is returned. If no path matches exactly
 
379
        but more than one path matches case-insensitively, it is implementation
 
380
        defined which is returned.
 
381
 
 
382
        If no path matches case-insensitively, the input path is returned, but
 
383
        with as many path entries that do exist changed to their canonical
 
384
        form.
 
385
 
 
386
        If you need to resolve many names from the same tree, you should
 
387
        use get_canonical_inventory_paths() to avoid O(N) behaviour.
 
388
 
 
389
        :param path: A paths relative to the root of the tree.
 
390
        :return: The input path adjusted to account for existing elements
 
391
        that match case insensitively.
 
392
        """
 
393
        return self._yield_canonical_inventory_paths([path]).next()
 
394
 
 
395
    def _yield_canonical_inventory_paths(self, paths):
 
396
        for path in paths:
 
397
            # First, if the path as specified exists exactly, just use it.
 
398
            if self.path2id(path) is not None:
 
399
                yield path
 
400
                continue
 
401
            # go walkin...
 
402
            cur_id = self.get_root_id()
 
403
            cur_path = ''
 
404
            bit_iter = iter(path.split("/"))
 
405
            for elt in bit_iter:
 
406
                lelt = elt.lower()
 
407
                for child in self.iter_children(cur_id):
 
408
                    try:
 
409
                        child_base = os.path.basename(self.id2path(child))
 
410
                        if child_base.lower() == lelt:
 
411
                            cur_id = child
 
412
                            cur_path = osutils.pathjoin(cur_path, child_base)
 
413
                            break
 
414
                    except NoSuchId:
 
415
                        # before a change is committed we can see this error...
 
416
                        continue
 
417
                else:
 
418
                    # got to the end of this directory and no entries matched.
 
419
                    # Return what matched so far, plus the rest as specified.
 
420
                    cur_path = osutils.pathjoin(cur_path, elt, *list(bit_iter))
 
421
                    break
 
422
            yield cur_path
 
423
        # all done.
 
424
 
 
425
    def get_root_id(self):
 
426
        """Return the file_id for the root of this tree."""
 
427
        raise NotImplementedError(self.get_root_id)
 
428
 
 
429
    def annotate_iter(self, file_id,
 
430
                      default_revision=_mod_revision.CURRENT_REVISION):
 
431
        """Return an iterator of revision_id, line tuples.
 
432
 
 
433
        For working trees (and mutable trees in general), the special
 
434
        revision_id 'current:' will be used for lines that are new in this
 
435
        tree, e.g. uncommitted changes.
 
436
        :param file_id: The file to produce an annotated version from
 
437
        :param default_revision: For lines that don't match a basis, mark them
 
438
            with this revision id. Not all implementations will make use of
 
439
            this value.
 
440
        """
 
441
        raise NotImplementedError(self.annotate_iter)
 
442
 
 
443
    def _get_plan_merge_data(self, file_id, other, base):
 
444
        from bzrlib import versionedfile
 
445
        vf = versionedfile._PlanMergeVersionedFile(file_id)
 
446
        last_revision_a = self._get_file_revision(file_id, vf, 'this:')
 
447
        last_revision_b = other._get_file_revision(file_id, vf, 'other:')
 
448
        if base is None:
 
449
            last_revision_base = None
 
450
        else:
 
451
            last_revision_base = base._get_file_revision(file_id, vf, 'base:')
 
452
        return vf, last_revision_a, last_revision_b, last_revision_base
 
453
 
 
454
    def plan_file_merge(self, file_id, other, base=None):
 
455
        """Generate a merge plan based on annotations.
 
456
 
 
457
        If the file contains uncommitted changes in this tree, they will be
 
458
        attributed to the 'current:' pseudo-revision.  If the file contains
 
459
        uncommitted changes in the other tree, they will be assigned to the
 
460
        'other:' pseudo-revision.
 
461
        """
 
462
        data = self._get_plan_merge_data(file_id, other, base)
 
463
        vf, last_revision_a, last_revision_b, last_revision_base = data
 
464
        return vf.plan_merge(last_revision_a, last_revision_b,
 
465
                             last_revision_base)
 
466
 
 
467
    def plan_file_lca_merge(self, file_id, other, base=None):
 
468
        """Generate a merge plan based lca-newness.
 
469
 
 
470
        If the file contains uncommitted changes in this tree, they will be
 
471
        attributed to the 'current:' pseudo-revision.  If the file contains
 
472
        uncommitted changes in the other tree, they will be assigned to the
 
473
        'other:' pseudo-revision.
 
474
        """
 
475
        data = self._get_plan_merge_data(file_id, other, base)
 
476
        vf, last_revision_a, last_revision_b, last_revision_base = data
 
477
        return vf.plan_lca_merge(last_revision_a, last_revision_b,
 
478
                                 last_revision_base)
 
479
 
 
480
    def _iter_parent_trees(self):
 
481
        """Iterate through parent trees, defaulting to Tree.revision_tree."""
 
482
        for revision_id in self.get_parent_ids():
 
483
            try:
 
484
                yield self.revision_tree(revision_id)
 
485
            except errors.NoSuchRevisionInTree:
 
486
                yield self.repository.revision_tree(revision_id)
 
487
 
 
488
    @staticmethod
 
489
    def _file_revision(revision_tree, file_id):
 
490
        """Determine the revision associated with a file in a given tree."""
 
491
        revision_tree.lock_read()
 
492
        try:
 
493
            return revision_tree.inventory[file_id].revision
 
494
        finally:
 
495
            revision_tree.unlock()
 
496
 
 
497
    def _get_file_revision(self, file_id, vf, tree_revision):
 
498
        """Ensure that file_id, tree_revision is in vf to plan the merge."""
 
499
 
 
500
        if getattr(self, '_repository', None) is None:
 
501
            last_revision = tree_revision
 
502
            parent_keys = [(file_id, self._file_revision(t, file_id)) for t in
 
503
                self._iter_parent_trees()]
 
504
            vf.add_lines((file_id, last_revision), parent_keys,
 
505
                         self.get_file(file_id).readlines())
 
506
            repo = self.branch.repository
 
507
            base_vf = repo.texts
 
508
        else:
 
509
            last_revision = self._file_revision(self, file_id)
 
510
            base_vf = self._repository.texts
 
511
        if base_vf not in vf.fallback_versionedfiles:
 
512
            vf.fallback_versionedfiles.append(base_vf)
 
513
        return last_revision
 
514
 
70
515
    inventory = property(_get_inventory,
71
516
                         doc="Inventory of this Tree")
72
517
 
73
518
    def _check_retrieved(self, ie, f):
 
519
        if not __debug__:
 
520
            return
74
521
        fp = fingerprint_file(f)
75
522
        f.seek(0)
76
 
        
77
 
        if ie.text_size != None:
 
523
 
 
524
        if ie.text_size is not None:
78
525
            if ie.text_size != fp['size']:
79
526
                raise BzrError("mismatched size for file %r in %r" % (ie.file_id, self._store),
80
527
                        ["inventory expects %d bytes" % ie.text_size,
87
534
                     "file is actually %s" % fp['sha1'],
88
535
                     "store is probably damaged/corrupt"])
89
536
 
90
 
 
91
 
    def print_file(self, fileid):
92
 
        """Print file with id `fileid` to stdout."""
93
 
        import sys
94
 
        pumpfile(self.get_file(fileid), sys.stdout)
95
 
        
96
 
        
97
 
    def export(self, dest, format='dir', root=None):
98
 
        """Export this tree."""
99
 
        try:
100
 
            exporter = exporters[format]
101
 
        except KeyError:
102
 
            from bzrlib.errors import BzrCommandError
103
 
            raise BzrCommandError("export format %r not supported" % format)
104
 
        exporter(self, dest, root)
105
 
 
106
 
 
107
 
 
108
 
class RevisionTree(Tree):
109
 
    """Tree viewing a previous revision.
110
 
 
111
 
    File text can be retrieved from the text store.
112
 
 
113
 
    TODO: Some kind of `__repr__` method, but a good one
114
 
           probably means knowing the branch and revision number,
115
 
           or at least passing a description to the constructor.
116
 
    """
117
 
    
118
 
    def __init__(self, store, inv):
119
 
        self._store = store
120
 
        self._inventory = inv
121
 
 
122
 
    def get_file(self, file_id):
123
 
        ie = self._inventory[file_id]
124
 
        f = self._store[ie.text_id]
125
 
        mutter("  get fileid{%s} from %r" % (file_id, self))
126
 
        self._check_retrieved(ie, f)
127
 
        return f
128
 
 
129
 
    def get_file_size(self, file_id):
130
 
        return self._inventory[file_id].text_size
131
 
 
132
 
    def get_file_sha1(self, file_id):
133
 
        ie = self._inventory[file_id]
134
 
        return ie.text_sha1
135
 
 
136
 
    def has_filename(self, filename):
137
 
        return bool(self.inventory.path2id(filename))
138
 
 
139
 
    def list_files(self):
140
 
        # The only files returned by this are those from the version
141
 
        for path, entry in self.inventory.iter_entries():
142
 
            yield path, 'V', entry.kind, entry.file_id
143
 
 
144
 
 
145
 
class EmptyTree(Tree):
146
 
    def __init__(self, root_id):
147
 
        from bzrlib.inventory import Inventory
148
 
        self._inventory = Inventory(root_id)
149
 
 
150
 
    def has_filename(self, filename):
 
537
    @needs_read_lock
 
538
    def path2id(self, path):
 
539
        """Return the id for path in this tree."""
 
540
        return self._inventory.path2id(path)
 
541
 
 
542
    def paths2ids(self, paths, trees=[], require_versioned=True):
 
543
        """Return all the ids that can be reached by walking from paths.
 
544
 
 
545
        Each path is looked up in this tree and any extras provided in
 
546
        trees, and this is repeated recursively: the children in an extra tree
 
547
        of a directory that has been renamed under a provided path in this tree
 
548
        are all returned, even if none exist under a provided path in this
 
549
        tree, and vice versa.
 
550
 
 
551
        :param paths: An iterable of paths to start converting to ids from.
 
552
            Alternatively, if paths is None, no ids should be calculated and None
 
553
            will be returned. This is offered to make calling the api unconditional
 
554
            for code that *might* take a list of files.
 
555
        :param trees: Additional trees to consider.
 
556
        :param require_versioned: If False, do not raise NotVersionedError if
 
557
            an element of paths is not versioned in this tree and all of trees.
 
558
        """
 
559
        return find_ids_across_trees(paths, [self] + list(trees), require_versioned)
 
560
 
 
561
    def iter_children(self, file_id):
 
562
        entry = self.iter_entries_by_dir([file_id]).next()[1]
 
563
        for child in getattr(entry, 'children', {}).itervalues():
 
564
            yield child.file_id
 
565
 
 
566
    def lock_read(self):
 
567
        pass
 
568
 
 
569
    def revision_tree(self, revision_id):
 
570
        """Obtain a revision tree for the revision revision_id.
 
571
 
 
572
        The intention of this method is to allow access to possibly cached
 
573
        tree data. Implementors of this method should raise NoSuchRevision if
 
574
        the tree is not locally available, even if they could obtain the
 
575
        tree via a repository or some other means. Callers are responsible
 
576
        for finding the ultimate source for a revision tree.
 
577
 
 
578
        :param revision_id: The revision_id of the requested tree.
 
579
        :return: A Tree.
 
580
        :raises: NoSuchRevision if the tree cannot be obtained.
 
581
        """
 
582
        raise errors.NoSuchRevisionInTree(self, revision_id)
 
583
 
 
584
    def unknowns(self):
 
585
        """What files are present in this tree and unknown.
 
586
 
 
587
        :return: an iterator over the unknown files.
 
588
        """
 
589
        return iter([])
 
590
 
 
591
    def unlock(self):
 
592
        pass
 
593
 
 
594
    def filter_unversioned_files(self, paths):
 
595
        """Filter out paths that are versioned.
 
596
 
 
597
        :return: set of paths.
 
598
        """
 
599
        # NB: we specifically *don't* call self.has_filename, because for
 
600
        # WorkingTrees that can indicate files that exist on disk but that
 
601
        # are not versioned.
 
602
        pred = self.inventory.has_filename
 
603
        return set((p for p in paths if not pred(p)))
 
604
 
 
605
    def walkdirs(self, prefix=""):
 
606
        """Walk the contents of this tree from path down.
 
607
 
 
608
        This yields all the data about the contents of a directory at a time.
 
609
        After each directory has been yielded, if the caller has mutated the
 
610
        list to exclude some directories, they are then not descended into.
 
611
 
 
612
        The data yielded is of the form:
 
613
        ((directory-relpath, directory-path-from-root, directory-fileid),
 
614
        [(relpath, basename, kind, lstat, path_from_tree_root, file_id,
 
615
          versioned_kind), ...]),
 
616
         - directory-relpath is the containing dirs relpath from prefix
 
617
         - directory-path-from-root is the containing dirs path from /
 
618
         - directory-fileid is the id of the directory if it is versioned.
 
619
         - relpath is the relative path within the subtree being walked.
 
620
         - basename is the basename
 
621
         - kind is the kind of the file now. If unknonwn then the file is not
 
622
           present within the tree - but it may be recorded as versioned. See
 
623
           versioned_kind.
 
624
         - lstat is the stat data *if* the file was statted.
 
625
         - path_from_tree_root is the path from the root of the tree.
 
626
         - file_id is the file_id if the entry is versioned.
 
627
         - versioned_kind is the kind of the file as last recorded in the
 
628
           versioning system. If 'unknown' the file is not versioned.
 
629
        One of 'kind' and 'versioned_kind' must not be 'unknown'.
 
630
 
 
631
        :param prefix: Start walking from prefix within the tree rather than
 
632
        at the root. This allows one to walk a subtree but get paths that are
 
633
        relative to a tree rooted higher up.
 
634
        :return: an iterator over the directory data.
 
635
        """
 
636
        raise NotImplementedError(self.walkdirs)
 
637
 
 
638
    def supports_content_filtering(self):
151
639
        return False
152
640
 
153
 
    def list_files(self):
154
 
        if False:  # just to make it a generator
155
 
            yield None
156
 
    
 
641
    def _content_filter_stack(self, path=None, file_id=None):
 
642
        """The stack of content filters for a path if filtering is supported.
 
643
 
 
644
        Readers will be applied in first-to-last order.
 
645
        Writers will be applied in last-to-first order.
 
646
        Either the path or the file-id needs to be provided.
 
647
 
 
648
        :param path: path relative to the root of the tree
 
649
            or None if unknown
 
650
        :param file_id: file_id or None if unknown
 
651
        :return: the list of filters - [] if there are none
 
652
        """
 
653
        filter_pref_names = filters._get_registered_names()
 
654
        if len(filter_pref_names) == 0:
 
655
            return []
 
656
        if path is None:
 
657
            path = self.id2path(file_id)
 
658
        prefs = self.iter_search_rules([path], filter_pref_names).next()
 
659
        stk = filters._get_filter_stack_for(prefs)
 
660
        if 'filters' in debug.debug_flags:
 
661
            note("*** %s content-filter: %s => %r" % (path,prefs,stk))
 
662
        return stk
 
663
 
 
664
    def _content_filter_stack_provider(self):
 
665
        """A function that returns a stack of ContentFilters.
 
666
 
 
667
        The function takes a path (relative to the top of the tree) and a
 
668
        file-id as parameters.
 
669
 
 
670
        :return: None if content filtering is not supported by this tree.
 
671
        """
 
672
        if self.supports_content_filtering():
 
673
            return lambda path, file_id: \
 
674
                    self._content_filter_stack(path, file_id)
 
675
        else:
 
676
            return None
 
677
 
 
678
    def iter_search_rules(self, path_names, pref_names=None,
 
679
        _default_searcher=None):
 
680
        """Find the preferences for filenames in a tree.
 
681
 
 
682
        :param path_names: an iterable of paths to find attributes for.
 
683
          Paths are given relative to the root of the tree.
 
684
        :param pref_names: the list of preferences to lookup - None for all
 
685
        :param _default_searcher: private parameter to assist testing - don't use
 
686
        :return: an iterator of tuple sequences, one per path-name.
 
687
          See _RulesSearcher.get_items for details on the tuple sequence.
 
688
        """
 
689
        if _default_searcher is None:
 
690
            _default_searcher = rules._per_user_searcher
 
691
        searcher = self._get_rules_searcher(_default_searcher)
 
692
        if searcher is not None:
 
693
            if pref_names is not None:
 
694
                for path in path_names:
 
695
                    yield searcher.get_selected_items(path, pref_names)
 
696
            else:
 
697
                for path in path_names:
 
698
                    yield searcher.get_items(path)
 
699
 
 
700
    def _get_rules_searcher(self, default_searcher):
 
701
        """Get the RulesSearcher for this tree given the default one."""
 
702
        searcher = default_searcher
 
703
        return searcher
157
704
 
158
705
 
159
706
######################################################################
192
739
        # what happened to the file that used to have
193
740
        # this name.  There are two possibilities: either it was
194
741
        # deleted entirely, or renamed.
195
 
        assert old_id
196
742
        if new_inv.has_id(old_id):
197
743
            return 'X', old_inv.id2path(old_id), new_inv.id2path(old_id)
198
744
        else:
209
755
 
210
756
    return 'wtf?'
211
757
 
212
 
    
213
758
 
 
759
@deprecated_function(deprecated_in((1, 9, 0)))
214
760
def find_renames(old_inv, new_inv):
215
761
    for file_id in old_inv:
216
762
        if file_id not in new_inv:
219
765
        new_name = new_inv.id2path(file_id)
220
766
        if old_name != new_name:
221
767
            yield (old_name, new_name)
222
 
            
223
 
 
224
 
 
225
 
######################################################################
226
 
# export
227
 
 
228
 
def dir_exporter(tree, dest, root):
229
 
    """Export this tree to a new directory.
230
 
 
231
 
    `dest` should not exist, and will be created holding the
232
 
    contents of this tree.
233
 
 
234
 
    TODO: To handle subdirectories we need to create the
235
 
           directories first.
236
 
 
237
 
    :note: If the export fails, the destination directory will be
238
 
           left in a half-assed state.
239
 
    """
240
 
    import os
241
 
    os.mkdir(dest)
242
 
    mutter('export version %r' % tree)
243
 
    inv = tree.inventory
244
 
    for dp, ie in inv.iter_entries():
245
 
        kind = ie.kind
246
 
        fullpath = appendpath(dest, dp)
247
 
        if kind == 'directory':
248
 
            os.mkdir(fullpath)
249
 
        elif kind == 'file':
250
 
            pumpfile(tree.get_file(ie.file_id), file(fullpath, 'wb'))
251
 
        else:
252
 
            raise BzrError("don't know how to export {%s} of kind %r" % (ie.file_id, kind))
253
 
        mutter("  export {%s} kind %s to %s" % (ie.file_id, kind, fullpath))
254
 
exporters['dir'] = dir_exporter
255
 
 
256
 
try:
257
 
    import tarfile
258
 
except ImportError:
259
 
    pass
260
 
else:
261
 
    def get_root_name(dest):
262
 
        """Get just the root name for a tarball.
263
 
 
264
 
        >>> get_root_name('mytar.tar')
265
 
        'mytar'
266
 
        >>> get_root_name('mytar.tar.bz2')
267
 
        'mytar'
268
 
        >>> get_root_name('tar.tar.tar.tgz')
269
 
        'tar.tar.tar'
270
 
        >>> get_root_name('bzr-0.0.5.tar.gz')
271
 
        'bzr-0.0.5'
272
 
        >>> get_root_name('a/long/path/mytar.tgz')
273
 
        'mytar'
274
 
        >>> get_root_name('../parent/../dir/other.tbz2')
275
 
        'other'
276
 
        """
277
 
        endings = ['.tar', '.tar.gz', '.tgz', '.tar.bz2', '.tbz2']
278
 
        dest = os.path.basename(dest)
279
 
        for end in endings:
280
 
            if dest.endswith(end):
281
 
                return dest[:-len(end)]
282
 
 
283
 
    def tar_exporter(tree, dest, root, compression=None):
284
 
        """Export this tree to a new tar file.
285
 
 
286
 
        `dest` will be created holding the contents of this tree; if it
287
 
        already exists, it will be clobbered, like with "tar -c".
288
 
        """
289
 
        from time import time
290
 
        now = time()
291
 
        compression = str(compression or '')
292
 
        if root is None:
293
 
            root = get_root_name(dest)
294
 
        try:
295
 
            ball = tarfile.open(dest, 'w:' + compression)
296
 
        except tarfile.CompressionError, e:
297
 
            raise BzrError(str(e))
298
 
        mutter('export version %r' % tree)
299
 
        inv = tree.inventory
300
 
        for dp, ie in inv.iter_entries():
301
 
            mutter("  export {%s} kind %s to %s" % (ie.file_id, ie.kind, dest))
302
 
            item = tarfile.TarInfo(os.path.join(root, dp))
303
 
            # TODO: would be cool to actually set it to the timestamp of the
304
 
            # revision it was last changed
305
 
            item.mtime = now
306
 
            if ie.kind == 'directory':
307
 
                item.type = tarfile.DIRTYPE
308
 
                fileobj = None
309
 
                item.name += '/'
310
 
                item.size = 0
311
 
                item.mode = 0755
312
 
            elif ie.kind == 'file':
313
 
                item.type = tarfile.REGTYPE
314
 
                fileobj = tree.get_file(ie.file_id)
315
 
                item.size = _find_file_size(fileobj)
316
 
                item.mode = 0644
 
768
 
 
769
 
 
770
def find_ids_across_trees(filenames, trees, require_versioned=True):
 
771
    """Find the ids corresponding to specified filenames.
 
772
 
 
773
    All matches in all trees will be used, and all children of matched
 
774
    directories will be used.
 
775
 
 
776
    :param filenames: The filenames to find file_ids for (if None, returns
 
777
        None)
 
778
    :param trees: The trees to find file_ids within
 
779
    :param require_versioned: if true, all specified filenames must occur in
 
780
    at least one tree.
 
781
    :return: a set of file ids for the specified filenames and their children.
 
782
    """
 
783
    if not filenames:
 
784
        return None
 
785
    specified_path_ids = _find_ids_across_trees(filenames, trees,
 
786
        require_versioned)
 
787
    return _find_children_across_trees(specified_path_ids, trees)
 
788
 
 
789
 
 
790
def _find_ids_across_trees(filenames, trees, require_versioned):
 
791
    """Find the ids corresponding to specified filenames.
 
792
 
 
793
    All matches in all trees will be used, but subdirectories are not scanned.
 
794
 
 
795
    :param filenames: The filenames to find file_ids for
 
796
    :param trees: The trees to find file_ids within
 
797
    :param require_versioned: if true, all specified filenames must occur in
 
798
        at least one tree.
 
799
    :return: a set of file ids for the specified filenames
 
800
    """
 
801
    not_versioned = []
 
802
    interesting_ids = set()
 
803
    for tree_path in filenames:
 
804
        not_found = True
 
805
        for tree in trees:
 
806
            file_id = tree.path2id(tree_path)
 
807
            if file_id is not None:
 
808
                interesting_ids.add(file_id)
 
809
                not_found = False
 
810
        if not_found:
 
811
            not_versioned.append(tree_path)
 
812
    if len(not_versioned) > 0 and require_versioned:
 
813
        raise errors.PathsNotVersionedError(not_versioned)
 
814
    return interesting_ids
 
815
 
 
816
 
 
817
def _find_children_across_trees(specified_ids, trees):
 
818
    """Return a set including specified ids and their children.
 
819
 
 
820
    All matches in all trees will be used.
 
821
 
 
822
    :param trees: The trees to find file_ids within
 
823
    :return: a set containing all specified ids and their children
 
824
    """
 
825
    interesting_ids = set(specified_ids)
 
826
    pending = interesting_ids
 
827
    # now handle children of interesting ids
 
828
    # we loop so that we handle all children of each id in both trees
 
829
    while len(pending) > 0:
 
830
        new_pending = set()
 
831
        for file_id in pending:
 
832
            for tree in trees:
 
833
                if not tree.has_or_had_id(file_id):
 
834
                    continue
 
835
                for child_id in tree.iter_children(file_id):
 
836
                    if child_id not in interesting_ids:
 
837
                        new_pending.add(child_id)
 
838
        interesting_ids.update(new_pending)
 
839
        pending = new_pending
 
840
    return interesting_ids
 
841
 
 
842
 
 
843
class InterTree(InterObject):
 
844
    """This class represents operations taking place between two Trees.
 
845
 
 
846
    Its instances have methods like 'compare' and contain references to the
 
847
    source and target trees these operations are to be carried out on.
 
848
 
 
849
    Clients of bzrlib should not need to use InterTree directly, rather they
 
850
    should use the convenience methods on Tree such as 'Tree.compare()' which
 
851
    will pass through to InterTree as appropriate.
 
852
    """
 
853
 
 
854
    # Formats that will be used to test this InterTree. If both are
 
855
    # None, this InterTree will not be tested (e.g. because a complex
 
856
    # setup is required)
 
857
    _matching_from_tree_format = None
 
858
    _matching_to_tree_format = None
 
859
 
 
860
    _optimisers = []
 
861
 
 
862
    def _changes_from_entries(self, source_entry, target_entry,
 
863
        source_path=None, target_path=None):
 
864
        """Generate a iter_changes tuple between source_entry and target_entry.
 
865
 
 
866
        :param source_entry: An inventory entry from self.source, or None.
 
867
        :param target_entry: An inventory entry from self.target, or None.
 
868
        :param source_path: The path of source_entry, if known. If not known
 
869
            it will be looked up.
 
870
        :param target_path: The path of target_entry, if known. If not known
 
871
            it will be looked up.
 
872
        :return: A tuple, item 0 of which is an iter_changes result tuple, and
 
873
            item 1 is True if there are any changes in the result tuple.
 
874
        """
 
875
        if source_entry is None:
 
876
            if target_entry is None:
 
877
                return None
 
878
            file_id = target_entry.file_id
 
879
        else:
 
880
            file_id = source_entry.file_id
 
881
        if source_entry is not None:
 
882
            source_versioned = True
 
883
            source_name = source_entry.name
 
884
            source_parent = source_entry.parent_id
 
885
            if source_path is None:
 
886
                source_path = self.source.id2path(file_id)
 
887
            source_kind, source_executable, source_stat = \
 
888
                self.source._comparison_data(source_entry, source_path)
 
889
        else:
 
890
            source_versioned = False
 
891
            source_name = None
 
892
            source_parent = None
 
893
            source_kind = None
 
894
            source_executable = None
 
895
        if target_entry is not None:
 
896
            target_versioned = True
 
897
            target_name = target_entry.name
 
898
            target_parent = target_entry.parent_id
 
899
            if target_path is None:
 
900
                target_path = self.target.id2path(file_id)
 
901
            target_kind, target_executable, target_stat = \
 
902
                self.target._comparison_data(target_entry, target_path)
 
903
        else:
 
904
            target_versioned = False
 
905
            target_name = None
 
906
            target_parent = None
 
907
            target_kind = None
 
908
            target_executable = None
 
909
        versioned = (source_versioned, target_versioned)
 
910
        kind = (source_kind, target_kind)
 
911
        changed_content = False
 
912
        if source_kind != target_kind:
 
913
            changed_content = True
 
914
        elif source_kind == 'file':
 
915
            if (self.source.get_file_sha1(file_id, source_path, source_stat) !=
 
916
                self.target.get_file_sha1(file_id, target_path, target_stat)):
 
917
                changed_content = True
 
918
        elif source_kind == 'symlink':
 
919
            if (self.source.get_symlink_target(file_id) !=
 
920
                self.target.get_symlink_target(file_id)):
 
921
                changed_content = True
 
922
            # XXX: Yes, the indentation below is wrong. But fixing it broke
 
923
            # test_merge.TestMergerEntriesLCAOnDisk.
 
924
            # test_nested_tree_subtree_renamed_and_modified. We'll wait for
 
925
            # the fix from bzr.dev -- vila 2009026
 
926
            elif source_kind == 'tree-reference':
 
927
                if (self.source.get_reference_revision(file_id, source_path)
 
928
                    != self.target.get_reference_revision(file_id, target_path)):
 
929
                    changed_content = True
 
930
        parent = (source_parent, target_parent)
 
931
        name = (source_name, target_name)
 
932
        executable = (source_executable, target_executable)
 
933
        if (changed_content is not False or versioned[0] != versioned[1]
 
934
            or parent[0] != parent[1] or name[0] != name[1] or
 
935
            executable[0] != executable[1]):
 
936
            changes = True
 
937
        else:
 
938
            changes = False
 
939
        return (file_id, (source_path, target_path), changed_content,
 
940
                versioned, parent, name, kind, executable), changes
 
941
 
 
942
    @needs_read_lock
 
943
    def compare(self, want_unchanged=False, specific_files=None,
 
944
        extra_trees=None, require_versioned=False, include_root=False,
 
945
        want_unversioned=False):
 
946
        """Return the changes from source to target.
 
947
 
 
948
        :return: A TreeDelta.
 
949
        :param specific_files: An optional list of file paths to restrict the
 
950
            comparison to. When mapping filenames to ids, all matches in all
 
951
            trees (including optional extra_trees) are used, and all children of
 
952
            matched directories are included.
 
953
        :param want_unchanged: An optional boolean requesting the inclusion of
 
954
            unchanged entries in the result.
 
955
        :param extra_trees: An optional list of additional trees to use when
 
956
            mapping the contents of specific_files (paths) to file_ids.
 
957
        :param require_versioned: An optional boolean (defaults to False). When
 
958
            supplied and True all the 'specific_files' must be versioned, or
 
959
            a PathsNotVersionedError will be thrown.
 
960
        :param want_unversioned: Scan for unversioned paths.
 
961
        """
 
962
        trees = (self.source,)
 
963
        if extra_trees is not None:
 
964
            trees = trees + tuple(extra_trees)
 
965
        # target is usually the newer tree:
 
966
        specific_file_ids = self.target.paths2ids(specific_files, trees,
 
967
            require_versioned=require_versioned)
 
968
        if specific_files and not specific_file_ids:
 
969
            # All files are unversioned, so just return an empty delta
 
970
            # _compare_trees would think we want a complete delta
 
971
            result = delta.TreeDelta()
 
972
            fake_entry = InventoryFile('unused', 'unused', 'unused')
 
973
            result.unversioned = [(path, None,
 
974
                self.target._comparison_data(fake_entry, path)[0]) for path in
 
975
                specific_files]
 
976
            return result
 
977
        return delta._compare_trees(self.source, self.target, want_unchanged,
 
978
            specific_files, include_root, extra_trees=extra_trees,
 
979
            require_versioned=require_versioned,
 
980
            want_unversioned=want_unversioned)
 
981
 
 
982
    def iter_changes(self, include_unchanged=False,
 
983
                      specific_files=None, pb=None, extra_trees=[],
 
984
                      require_versioned=True, want_unversioned=False):
 
985
        """Generate an iterator of changes between trees.
 
986
 
 
987
        A tuple is returned:
 
988
        (file_id, (path_in_source, path_in_target),
 
989
         changed_content, versioned, parent, name, kind,
 
990
         executable)
 
991
 
 
992
        Changed_content is True if the file's content has changed.  This
 
993
        includes changes to its kind, and to a symlink's target.
 
994
 
 
995
        versioned, parent, name, kind, executable are tuples of (from, to).
 
996
        If a file is missing in a tree, its kind is None.
 
997
 
 
998
        Iteration is done in parent-to-child order, relative to the target
 
999
        tree.
 
1000
 
 
1001
        There is no guarantee that all paths are in sorted order: the
 
1002
        requirement to expand the search due to renames may result in children
 
1003
        that should be found early being found late in the search, after
 
1004
        lexically later results have been returned.
 
1005
        :param require_versioned: Raise errors.PathsNotVersionedError if a
 
1006
            path in the specific_files list is not versioned in one of
 
1007
            source, target or extra_trees.
 
1008
        :param specific_files: An optional list of file paths to restrict the
 
1009
            comparison to. When mapping filenames to ids, all matches in all
 
1010
            trees (including optional extra_trees) are used, and all children
 
1011
            of matched directories are included. The parents in the target tree
 
1012
            of the specific files up to and including the root of the tree are
 
1013
            always evaluated for changes too.
 
1014
        :param want_unversioned: Should unversioned files be returned in the
 
1015
            output. An unversioned file is defined as one with (False, False)
 
1016
            for the versioned pair.
 
1017
        """
 
1018
        lookup_trees = [self.source]
 
1019
        if extra_trees:
 
1020
             lookup_trees.extend(extra_trees)
 
1021
        # The ids of items we need to examine to insure delta consistency.
 
1022
        precise_file_ids = set()
 
1023
        changed_file_ids = []
 
1024
        if specific_files == []:
 
1025
            specific_file_ids = []
 
1026
        else:
 
1027
            specific_file_ids = self.target.paths2ids(specific_files,
 
1028
                lookup_trees, require_versioned=require_versioned)
 
1029
        if specific_files is not None:
 
1030
            # reparented or added entries must have their parents included
 
1031
            # so that valid deltas can be created. The seen_parents set
 
1032
            # tracks the parents that we need to have.
 
1033
            # The seen_dirs set tracks directory entries we've yielded.
 
1034
            # After outputting version object in to_entries we set difference
 
1035
            # the two seen sets and start checking parents.
 
1036
            seen_parents = set()
 
1037
            seen_dirs = set()
 
1038
        if want_unversioned:
 
1039
            all_unversioned = sorted([(p.split('/'), p) for p in
 
1040
                                     self.target.extras()
 
1041
                if specific_files is None or
 
1042
                    osutils.is_inside_any(specific_files, p)])
 
1043
            all_unversioned = deque(all_unversioned)
 
1044
        else:
 
1045
            all_unversioned = deque()
 
1046
        to_paths = {}
 
1047
        from_entries_by_dir = list(self.source.iter_entries_by_dir(
 
1048
            specific_file_ids=specific_file_ids))
 
1049
        from_data = dict((e.file_id, (p, e)) for p, e in from_entries_by_dir)
 
1050
        to_entries_by_dir = list(self.target.iter_entries_by_dir(
 
1051
            specific_file_ids=specific_file_ids))
 
1052
        num_entries = len(from_entries_by_dir) + len(to_entries_by_dir)
 
1053
        entry_count = 0
 
1054
        # the unversioned path lookup only occurs on real trees - where there
 
1055
        # can be extras. So the fake_entry is solely used to look up
 
1056
        # executable it values when execute is not supported.
 
1057
        fake_entry = InventoryFile('unused', 'unused', 'unused')
 
1058
        for target_path, target_entry in to_entries_by_dir:
 
1059
            while (all_unversioned and
 
1060
                all_unversioned[0][0] < target_path.split('/')):
 
1061
                unversioned_path = all_unversioned.popleft()
 
1062
                target_kind, target_executable, target_stat = \
 
1063
                    self.target._comparison_data(fake_entry, unversioned_path[1])
 
1064
                yield (None, (None, unversioned_path[1]), True, (False, False),
 
1065
                    (None, None),
 
1066
                    (None, unversioned_path[0][-1]),
 
1067
                    (None, target_kind),
 
1068
                    (None, target_executable))
 
1069
            source_path, source_entry = from_data.get(target_entry.file_id,
 
1070
                (None, None))
 
1071
            result, changes = self._changes_from_entries(source_entry,
 
1072
                target_entry, source_path=source_path, target_path=target_path)
 
1073
            to_paths[result[0]] = result[1][1]
 
1074
            entry_count += 1
 
1075
            if result[3][0]:
 
1076
                entry_count += 1
 
1077
            if pb is not None:
 
1078
                pb.update('comparing files', entry_count, num_entries)
 
1079
            if changes or include_unchanged:
 
1080
                if specific_file_ids is not None:
 
1081
                    new_parent_id = result[4][1]
 
1082
                    precise_file_ids.add(new_parent_id)
 
1083
                    changed_file_ids.append(result[0])
 
1084
                yield result
 
1085
            # Ensure correct behaviour for reparented/added specific files.
 
1086
            if specific_files is not None:
 
1087
                # Record output dirs
 
1088
                if result[6][1] == 'directory':
 
1089
                    seen_dirs.add(result[0])
 
1090
                # Record parents of reparented/added entries.
 
1091
                versioned = result[3]
 
1092
                parents = result[4]
 
1093
                if not versioned[0] or parents[0] != parents[1]:
 
1094
                    seen_parents.add(parents[1])
 
1095
        while all_unversioned:
 
1096
            # yield any trailing unversioned paths
 
1097
            unversioned_path = all_unversioned.popleft()
 
1098
            to_kind, to_executable, to_stat = \
 
1099
                self.target._comparison_data(fake_entry, unversioned_path[1])
 
1100
            yield (None, (None, unversioned_path[1]), True, (False, False),
 
1101
                (None, None),
 
1102
                (None, unversioned_path[0][-1]),
 
1103
                (None, to_kind),
 
1104
                (None, to_executable))
 
1105
        # Yield all remaining source paths
 
1106
        for path, from_entry in from_entries_by_dir:
 
1107
            file_id = from_entry.file_id
 
1108
            if file_id in to_paths:
 
1109
                # already returned
 
1110
                continue
 
1111
            if file_id not in self.target.all_file_ids():
 
1112
                # common case - paths we have not emitted are not present in
 
1113
                # target.
 
1114
                to_path = None
317
1115
            else:
318
 
                raise BzrError("don't know how to export {%s} of kind %r" %
319
 
                        (ie.file_id, ie.kind))
320
 
 
321
 
            ball.addfile(item, fileobj)
322
 
        ball.close()
323
 
    exporters['tar'] = tar_exporter
324
 
 
325
 
    def tgz_exporter(tree, dest, root):
326
 
        tar_exporter(tree, dest, root, compression='gz')
327
 
    exporters['tgz'] = tgz_exporter
328
 
 
329
 
    def tbz_exporter(tree, dest, root):
330
 
        tar_exporter(tree, dest, root, compression='bz2')
331
 
    exporters['tbz2'] = tbz_exporter
332
 
 
333
 
 
334
 
def _find_file_size(fileobj):
335
 
    offset = fileobj.tell()
336
 
    try:
337
 
        fileobj.seek(0, 2)
338
 
        size = fileobj.tell()
339
 
    except TypeError:
340
 
        # gzip doesn't accept second argument to seek()
341
 
        fileobj.seek(0)
342
 
        size = 0
343
 
        while True:
344
 
            nread = len(fileobj.read())
345
 
            if nread == 0:
346
 
                break
347
 
            size += nread
348
 
    fileobj.seek(offset)
349
 
    return size
 
1116
                to_path = self.target.id2path(file_id)
 
1117
            entry_count += 1
 
1118
            if pb is not None:
 
1119
                pb.update('comparing files', entry_count, num_entries)
 
1120
            versioned = (True, False)
 
1121
            parent = (from_entry.parent_id, None)
 
1122
            name = (from_entry.name, None)
 
1123
            from_kind, from_executable, stat_value = \
 
1124
                self.source._comparison_data(from_entry, path)
 
1125
            kind = (from_kind, None)
 
1126
            executable = (from_executable, None)
 
1127
            changed_content = from_kind is not None
 
1128
            # the parent's path is necessarily known at this point.
 
1129
            changed_file_ids.append(file_id)
 
1130
            yield(file_id, (path, to_path), changed_content, versioned, parent,
 
1131
                  name, kind, executable)
 
1132
        changed_file_ids = set(changed_file_ids)
 
1133
        if specific_file_ids is not None:
 
1134
            for result in self._handle_precise_ids(precise_file_ids,
 
1135
                changed_file_ids):
 
1136
                yield result
 
1137
 
 
1138
    def _get_entry(self, tree, file_id):
 
1139
        """Get an inventory entry from a tree, with missing entries as None.
 
1140
 
 
1141
        If the tree raises NotImplementedError on accessing .inventory, then
 
1142
        this is worked around using iter_entries_by_dir on just the file id
 
1143
        desired.
 
1144
 
 
1145
        :param tree: The tree to lookup the entry in.
 
1146
        :param file_id: The file_id to lookup.
 
1147
        """
 
1148
        try:
 
1149
            inventory = tree.inventory
 
1150
        except NotImplementedError:
 
1151
            # No inventory available.
 
1152
            try:
 
1153
                iterator = tree.iter_entries_by_dir(specific_file_ids=[file_id])
 
1154
                return iterator.next()[1]
 
1155
            except StopIteration:
 
1156
                return None
 
1157
        else:
 
1158
            try:
 
1159
                return inventory[file_id]
 
1160
            except errors.NoSuchId:
 
1161
                return None
 
1162
 
 
1163
    def _handle_precise_ids(self, precise_file_ids, changed_file_ids,
 
1164
        discarded_changes=None):
 
1165
        """Fill out a partial iter_changes to be consistent.
 
1166
 
 
1167
        :param precise_file_ids: The file ids of parents that were seen during
 
1168
            the iter_changes.
 
1169
        :param changed_file_ids: The file ids of already emitted items.
 
1170
        :param discarded_changes: An optional dict of precalculated
 
1171
            iter_changes items which the partial iter_changes had not output
 
1172
            but had calculated.
 
1173
        :return: A generator of iter_changes items to output.
 
1174
        """
 
1175
        # process parents of things that had changed under the users
 
1176
        # requested paths to prevent incorrect paths or parent ids which
 
1177
        # aren't in the tree.
 
1178
        while precise_file_ids:
 
1179
            precise_file_ids.discard(None)
 
1180
            # Don't emit file_ids twice
 
1181
            precise_file_ids.difference_update(changed_file_ids)
 
1182
            if not precise_file_ids:
 
1183
                break
 
1184
            # If the there was something at a given output path in source, we
 
1185
            # have to include the entry from source in the delta, or we would
 
1186
            # be putting this entry into a used path.
 
1187
            paths = []
 
1188
            for parent_id in precise_file_ids:
 
1189
                try:
 
1190
                    paths.append(self.target.id2path(parent_id))
 
1191
                except errors.NoSuchId:
 
1192
                    # This id has been dragged in from the source by delta
 
1193
                    # expansion and isn't present in target at all: we don't
 
1194
                    # need to check for path collisions on it.
 
1195
                    pass
 
1196
            for path in paths:
 
1197
                old_id = self.source.path2id(path)
 
1198
                precise_file_ids.add(old_id)
 
1199
            precise_file_ids.discard(None)
 
1200
            current_ids = precise_file_ids
 
1201
            precise_file_ids = set()
 
1202
            # We have to emit all of precise_file_ids that have been altered.
 
1203
            # We may have to output the children of some of those ids if any
 
1204
            # directories have stopped being directories.
 
1205
            for file_id in current_ids:
 
1206
                # Examine file_id
 
1207
                if discarded_changes:
 
1208
                    result = discarded_changes.get(file_id)
 
1209
                    old_entry = None
 
1210
                else:
 
1211
                    result = None
 
1212
                if result is None:
 
1213
                    old_entry = self._get_entry(self.source, file_id)
 
1214
                    new_entry = self._get_entry(self.target, file_id)
 
1215
                    result, changes = self._changes_from_entries(
 
1216
                        old_entry, new_entry)
 
1217
                else:
 
1218
                    changes = True
 
1219
                # Get this parents parent to examine.
 
1220
                new_parent_id = result[4][1]
 
1221
                precise_file_ids.add(new_parent_id)
 
1222
                if changes:
 
1223
                    if (result[6][0] == 'directory' and
 
1224
                        result[6][1] != 'directory'):
 
1225
                        # This stopped being a directory, the old children have
 
1226
                        # to be included.
 
1227
                        if old_entry is None:
 
1228
                            # Reusing a discarded change.
 
1229
                            old_entry = self._get_entry(self.source, file_id)
 
1230
                        for child in old_entry.children.values():
 
1231
                            precise_file_ids.add(child.file_id)
 
1232
                    changed_file_ids.add(result[0])
 
1233
                    yield result
 
1234
 
 
1235
 
 
1236
class MultiWalker(object):
 
1237
    """Walk multiple trees simultaneously, getting combined results."""
 
1238
 
 
1239
    # Note: This could be written to not assume you can do out-of-order
 
1240
    #       lookups. Instead any nodes that don't match in all trees could be
 
1241
    #       marked as 'deferred', and then returned in the final cleanup loop.
 
1242
    #       For now, I think it is "nicer" to return things as close to the
 
1243
    #       "master_tree" order as we can.
 
1244
 
 
1245
    def __init__(self, master_tree, other_trees):
 
1246
        """Create a new MultiWalker.
 
1247
 
 
1248
        All trees being walked must implement "iter_entries_by_dir()", such
 
1249
        that they yield (path, object) tuples, where that object will have a
 
1250
        '.file_id' member, that can be used to check equality.
 
1251
 
 
1252
        :param master_tree: All trees will be 'slaved' to the master_tree such
 
1253
            that nodes in master_tree will be used as 'first-pass' sync points.
 
1254
            Any nodes that aren't in master_tree will be merged in a second
 
1255
            pass.
 
1256
        :param other_trees: A list of other trees to walk simultaneously.
 
1257
        """
 
1258
        self._master_tree = master_tree
 
1259
        self._other_trees = other_trees
 
1260
 
 
1261
        # Keep track of any nodes that were properly processed just out of
 
1262
        # order, that way we don't return them at the end, we don't have to
 
1263
        # track *all* processed file_ids, just the out-of-order ones
 
1264
        self._out_of_order_processed = set()
 
1265
 
 
1266
    @staticmethod
 
1267
    def _step_one(iterator):
 
1268
        """Step an iter_entries_by_dir iterator.
 
1269
 
 
1270
        :return: (has_more, path, ie)
 
1271
            If has_more is False, path and ie will be None.
 
1272
        """
 
1273
        try:
 
1274
            path, ie = iterator.next()
 
1275
        except StopIteration:
 
1276
            return False, None, None
 
1277
        else:
 
1278
            return True, path, ie
 
1279
 
 
1280
    @staticmethod
 
1281
    def _cmp_path_by_dirblock(path1, path2):
 
1282
        """Compare two paths based on what directory they are in.
 
1283
 
 
1284
        This generates a sort order, such that all children of a directory are
 
1285
        sorted together, and grandchildren are in the same order as the
 
1286
        children appear. But all grandchildren come after all children.
 
1287
 
 
1288
        :param path1: first path
 
1289
        :param path2: the second path
 
1290
        :return: negative number if ``path1`` comes first,
 
1291
            0 if paths are equal
 
1292
            and a positive number if ``path2`` sorts first
 
1293
        """
 
1294
        # Shortcut this special case
 
1295
        if path1 == path2:
 
1296
            return 0
 
1297
        # This is stolen from _dirstate_helpers_py.py, only switching it to
 
1298
        # Unicode objects. Consider using encode_utf8() and then using the
 
1299
        # optimized versions, or maybe writing optimized unicode versions.
 
1300
        if not isinstance(path1, unicode):
 
1301
            raise TypeError("'path1' must be a unicode string, not %s: %r"
 
1302
                            % (type(path1), path1))
 
1303
        if not isinstance(path2, unicode):
 
1304
            raise TypeError("'path2' must be a unicode string, not %s: %r"
 
1305
                            % (type(path2), path2))
 
1306
        return cmp(MultiWalker._path_to_key(path1),
 
1307
                   MultiWalker._path_to_key(path2))
 
1308
 
 
1309
    @staticmethod
 
1310
    def _path_to_key(path):
 
1311
        dirname, basename = osutils.split(path)
 
1312
        return (dirname.split(u'/'), basename)
 
1313
 
 
1314
    def _lookup_by_file_id(self, extra_entries, other_tree, file_id):
 
1315
        """Lookup an inventory entry by file_id.
 
1316
 
 
1317
        This is called when an entry is missing in the normal order.
 
1318
        Generally this is because a file was either renamed, or it was
 
1319
        deleted/added. If the entry was found in the inventory and not in
 
1320
        extra_entries, it will be added to self._out_of_order_processed
 
1321
 
 
1322
        :param extra_entries: A dictionary of {file_id: (path, ie)}.  This
 
1323
            should be filled with entries that were found before they were
 
1324
            used. If file_id is present, it will be removed from the
 
1325
            dictionary.
 
1326
        :param other_tree: The Tree to search, in case we didn't find the entry
 
1327
            yet.
 
1328
        :param file_id: The file_id to look for
 
1329
        :return: (path, ie) if found or (None, None) if not present.
 
1330
        """
 
1331
        if file_id in extra_entries:
 
1332
            return extra_entries.pop(file_id)
 
1333
        # TODO: Is id2path better as the first call, or is
 
1334
        #       inventory[file_id] better as a first check?
 
1335
        try:
 
1336
            cur_path = other_tree.id2path(file_id)
 
1337
        except errors.NoSuchId:
 
1338
            cur_path = None
 
1339
        if cur_path is None:
 
1340
            return (None, None)
 
1341
        else:
 
1342
            self._out_of_order_processed.add(file_id)
 
1343
            cur_ie = other_tree.inventory[file_id]
 
1344
            return (cur_path, cur_ie)
 
1345
 
 
1346
    def iter_all(self):
 
1347
        """Match up the values in the different trees."""
 
1348
        for result in self._walk_master_tree():
 
1349
            yield result
 
1350
        self._finish_others()
 
1351
        for result in self._walk_others():
 
1352
            yield result
 
1353
 
 
1354
    def _walk_master_tree(self):
 
1355
        """First pass, walk all trees in lock-step.
 
1356
 
 
1357
        When we are done, all nodes in the master_tree will have been
 
1358
        processed. _other_walkers, _other_entries, and _others_extra will be
 
1359
        set on 'self' for future processing.
 
1360
        """
 
1361
        # This iterator has the most "inlining" done, because it tends to touch
 
1362
        # every file in the tree, while the others only hit nodes that don't
 
1363
        # match.
 
1364
        master_iterator = self._master_tree.iter_entries_by_dir()
 
1365
 
 
1366
        other_walkers = [other.iter_entries_by_dir()
 
1367
                         for other in self._other_trees]
 
1368
        other_entries = [self._step_one(walker) for walker in other_walkers]
 
1369
        # Track extra nodes in the other trees
 
1370
        others_extra = [{} for i in xrange(len(self._other_trees))]
 
1371
 
 
1372
        master_has_more = True
 
1373
        step_one = self._step_one
 
1374
        lookup_by_file_id = self._lookup_by_file_id
 
1375
        out_of_order_processed = self._out_of_order_processed
 
1376
 
 
1377
        while master_has_more:
 
1378
            (master_has_more, path, master_ie) = step_one(master_iterator)
 
1379
            if not master_has_more:
 
1380
                break
 
1381
 
 
1382
            file_id = master_ie.file_id
 
1383
            other_values = []
 
1384
            other_values_append = other_values.append
 
1385
            next_other_entries = []
 
1386
            next_other_entries_append = next_other_entries.append
 
1387
            for idx, (other_has_more, other_path, other_ie) in enumerate(other_entries):
 
1388
                if not other_has_more:
 
1389
                    other_values_append(lookup_by_file_id(
 
1390
                        others_extra[idx], self._other_trees[idx], file_id))
 
1391
                    next_other_entries_append((False, None, None))
 
1392
                elif file_id == other_ie.file_id:
 
1393
                    # This is the critical code path, as most of the entries
 
1394
                    # should match between most trees.
 
1395
                    other_values_append((other_path, other_ie))
 
1396
                    next_other_entries_append(step_one(other_walkers[idx]))
 
1397
                else:
 
1398
                    # This walker did not match, step it until it either
 
1399
                    # matches, or we know we are past the current walker.
 
1400
                    other_walker = other_walkers[idx]
 
1401
                    other_extra = others_extra[idx]
 
1402
                    while (other_has_more and
 
1403
                           self._cmp_path_by_dirblock(other_path, path) < 0):
 
1404
                        other_file_id = other_ie.file_id
 
1405
                        if other_file_id not in out_of_order_processed:
 
1406
                            other_extra[other_file_id] = (other_path, other_ie)
 
1407
                        other_has_more, other_path, other_ie = \
 
1408
                            step_one(other_walker)
 
1409
                    if other_has_more and other_ie.file_id == file_id:
 
1410
                        # We ended up walking to this point, match and step
 
1411
                        # again
 
1412
                        other_values_append((other_path, other_ie))
 
1413
                        other_has_more, other_path, other_ie = \
 
1414
                            step_one(other_walker)
 
1415
                    else:
 
1416
                        # This record isn't in the normal order, see if it
 
1417
                        # exists at all.
 
1418
                        other_values_append(lookup_by_file_id(
 
1419
                            other_extra, self._other_trees[idx], file_id))
 
1420
                    next_other_entries_append((other_has_more, other_path,
 
1421
                                               other_ie))
 
1422
            other_entries = next_other_entries
 
1423
 
 
1424
            # We've matched all the walkers, yield this datapoint
 
1425
            yield path, file_id, master_ie, other_values
 
1426
        self._other_walkers = other_walkers
 
1427
        self._other_entries = other_entries
 
1428
        self._others_extra = others_extra
 
1429
 
 
1430
    def _finish_others(self):
 
1431
        """Finish walking the other iterators, so we get all entries."""
 
1432
        for idx, info in enumerate(self._other_entries):
 
1433
            other_extra = self._others_extra[idx]
 
1434
            (other_has_more, other_path, other_ie) = info
 
1435
            while other_has_more:
 
1436
                other_file_id = other_ie.file_id
 
1437
                if other_file_id not in self._out_of_order_processed:
 
1438
                    other_extra[other_file_id] = (other_path, other_ie)
 
1439
                other_has_more, other_path, other_ie = \
 
1440
                    self._step_one(self._other_walkers[idx])
 
1441
        del self._other_entries
 
1442
 
 
1443
    def _walk_others(self):
 
1444
        """Finish up by walking all the 'deferred' nodes."""
 
1445
        # TODO: One alternative would be to grab all possible unprocessed
 
1446
        #       file_ids, and then sort by path, and then yield them. That
 
1447
        #       might ensure better ordering, in case a caller strictly
 
1448
        #       requires parents before children.
 
1449
        for idx, other_extra in enumerate(self._others_extra):
 
1450
            others = sorted(other_extra.itervalues(),
 
1451
                            key=lambda x: self._path_to_key(x[0]))
 
1452
            for other_path, other_ie in others:
 
1453
                file_id = other_ie.file_id
 
1454
                # We don't need to check out_of_order_processed here, because
 
1455
                # the lookup_by_file_id will be removing anything processed
 
1456
                # from the extras cache
 
1457
                other_extra.pop(file_id)
 
1458
                other_values = [(None, None) for i in xrange(idx)]
 
1459
                other_values.append((other_path, other_ie))
 
1460
                for alt_idx, alt_extra in enumerate(self._others_extra[idx+1:]):
 
1461
                    alt_idx = alt_idx + idx + 1
 
1462
                    alt_extra = self._others_extra[alt_idx]
 
1463
                    alt_tree = self._other_trees[alt_idx]
 
1464
                    other_values.append(self._lookup_by_file_id(
 
1465
                                            alt_extra, alt_tree, file_id))
 
1466
                yield other_path, file_id, None, other_values