~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/merge.py

  • Committer: aaron.bentley at utoronto
  • Date: 2005-08-27 04:42:41 UTC
  • mfrom: (1092.1.43)
  • mto: (1185.3.4)
  • mto: This revision was merged to the branch mainline in revision 1178.
  • Revision ID: aaron.bentley@utoronto.ca-20050827044241-23d676133b9fc981
Merge of robertc@robertcollins.net-20050826013321-52eee1f1da679ee9

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
# Copyright (C) 2005 Canonical Ltd
 
2
 
 
3
# This program is free software; you can redistribute it and/or modify
 
4
# it under the terms of the GNU General Public License as published by
 
5
# the Free Software Foundation; either version 2 of the License, or
 
6
# (at your option) any later version.
 
7
 
 
8
# This program is distributed in the hope that it will be useful,
 
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
 
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
11
# GNU General Public License for more details.
 
12
 
 
13
# You should have received a copy of the GNU General Public License
 
14
# along with this program; if not, write to the Free Software
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
16
 
 
17
 
 
18
import os.path
 
19
import tempfile
 
20
import shutil
 
21
import errno
 
22
from fetch import greedy_fetch
 
23
 
 
24
import bzrlib.osutils
 
25
import bzrlib.revision
 
26
from bzrlib.merge_core import merge_flex, ApplyMerge3, BackupBeforeChange
 
27
from bzrlib.changeset import generate_changeset, ExceptionConflictHandler
 
28
from bzrlib.changeset import Inventory, Diff3Merge
 
29
from bzrlib.branch import find_branch
 
30
from bzrlib.errors import BzrCommandError, UnrelatedBranches
 
31
from bzrlib.delta import compare_trees
 
32
from bzrlib.trace import mutter, warning
 
33
from bzrlib.fetch import greedy_fetch
 
34
from bzrlib.revision import is_ancestor
 
35
 
 
36
# comments from abentley on irc: merge happens in two stages, each
 
37
# of which generates a changeset object
 
38
 
 
39
# stage 1: generate OLD->OTHER,
 
40
# stage 2: use MINE and OLD->OTHER to generate MINE -> RESULT
 
41
 
 
42
class MergeConflictHandler(ExceptionConflictHandler):
 
43
    """Handle conflicts encountered while merging.
 
44
 
 
45
    This subclasses ExceptionConflictHandler, so that any types of
 
46
    conflict that are not explicitly handled cause an exception and
 
47
    terminate the merge.
 
48
    """
 
49
    def __init__(self, dir, ignore_zero=False):
 
50
        ExceptionConflictHandler.__init__(self, dir)
 
51
        self.conflicts = 0
 
52
        self.ignore_zero = ignore_zero
 
53
 
 
54
    def copy(self, source, dest):
 
55
        """Copy the text and mode of a file
 
56
        :param source: The path of the file to copy
 
57
        :param dest: The distination file to create
 
58
        """
 
59
        s_file = file(source, "rb")
 
60
        d_file = file(dest, "wb")
 
61
        for line in s_file:
 
62
            d_file.write(line)
 
63
        os.chmod(dest, 0777 & os.stat(source).st_mode)
 
64
 
 
65
    def dump(self, lines, dest):
 
66
        """Copy the text and mode of a file
 
67
        :param source: The path of the file to copy
 
68
        :param dest: The distination file to create
 
69
        """
 
70
        d_file = file(dest, "wb")
 
71
        for line in lines:
 
72
            d_file.write(line)
 
73
 
 
74
    def add_suffix(self, name, suffix, last_new_name=None):
 
75
        """Rename a file to append a suffix.  If the new name exists, the
 
76
        suffix is added repeatedly until a non-existant name is found
 
77
 
 
78
        :param name: The path of the file
 
79
        :param suffix: The suffix to append
 
80
        :param last_new_name: (used for recursive calls) the last name tried
 
81
        """
 
82
        if last_new_name is None:
 
83
            last_new_name = name
 
84
        new_name = last_new_name+suffix
 
85
        try:
 
86
            os.rename(name, new_name)
 
87
            return new_name
 
88
        except OSError, e:
 
89
            if e.errno != errno.EEXIST and e.errno != errno.ENOTEMPTY:
 
90
                raise
 
91
            return self.add_suffix(name, suffix, last_new_name=new_name)
 
92
 
 
93
    def conflict(self, text):
 
94
        warning(text)
 
95
        self.conflicts += 1
 
96
        
 
97
 
 
98
    def merge_conflict(self, new_file, this_path, base_lines, other_lines):
 
99
        """
 
100
        Handle diff3 conflicts by producing a .THIS, .BASE and .OTHER.  The
 
101
        main file will be a version with diff3 conflicts.
 
102
        :param new_file: Path to the output file with diff3 markers
 
103
        :param this_path: Path to the file text for the THIS tree
 
104
        :param base_path: Path to the file text for the BASE tree
 
105
        :param other_path: Path to the file text for the OTHER tree
 
106
        """
 
107
        self.add_suffix(this_path, ".THIS")
 
108
        self.dump(base_lines, this_path+".BASE")
 
109
        self.dump(other_lines, this_path+".OTHER")
 
110
        os.rename(new_file, this_path)
 
111
        self.conflict("Diff3 conflict encountered in %s" % this_path)
 
112
 
 
113
    def new_contents_conflict(self, filename, other_contents):
 
114
        """Conflicting contents for newly added file."""
 
115
        self.copy(other_contents, filename + ".OTHER")
 
116
        self.conflict("Conflict in newly added file %s" % filename)
 
117
    
 
118
 
 
119
    def target_exists(self, entry, target, old_path):
 
120
        """Handle the case when the target file or dir exists"""
 
121
        moved_path = self.add_suffix(target, ".moved")
 
122
        self.conflict("Moved existing %s to %s" % (target, moved_path))
 
123
 
 
124
    def rmdir_non_empty(self, filename):
 
125
        """Handle the case where the dir to be removed still has contents"""
 
126
        self.conflict("Directory %s not removed because it is not empty"\
 
127
            % filename)
 
128
        return "skip"
 
129
 
 
130
    def finalize(self):
 
131
        if not self.ignore_zero:
 
132
            print "%d conflicts encountered.\n" % self.conflicts
 
133
            
 
134
def get_tree(treespec, temp_root, label, local_branch=None):
 
135
    location, revno = treespec
 
136
    branch = find_branch(location)
 
137
    if revno is None:
 
138
        revision = None
 
139
    elif revno == -1:
 
140
        revision = branch.last_patch()
 
141
    else:
 
142
        revision = branch.lookup_revision(revno)
 
143
    return branch, get_revid_tree(branch, revision, temp_root, label,
 
144
                                  local_branch)
 
145
 
 
146
def get_revid_tree(branch, revision, temp_root, label, local_branch):
 
147
    if revision is None:
 
148
        base_tree = branch.working_tree()
 
149
    else:
 
150
        if local_branch is not None:
 
151
            greedy_fetch(local_branch, branch, revision)
 
152
            base_tree = local_branch.revision_tree(revision)
 
153
        else:
 
154
            base_tree = branch.revision_tree(revision)
 
155
    temp_path = os.path.join(temp_root, label)
 
156
    os.mkdir(temp_path)
 
157
    return MergeTree(base_tree, temp_path)
 
158
 
 
159
 
 
160
def file_exists(tree, file_id):
 
161
    return tree.has_filename(tree.id2path(file_id))
 
162
    
 
163
 
 
164
class MergeTree(object):
 
165
    def __init__(self, tree, tempdir):
 
166
        object.__init__(self)
 
167
        if hasattr(tree, "basedir"):
 
168
            self.root = tree.basedir
 
169
        else:
 
170
            self.root = None
 
171
        self.tree = tree
 
172
        self.tempdir = tempdir
 
173
        os.mkdir(os.path.join(self.tempdir, "texts"))
 
174
        self.cached = {}
 
175
 
 
176
    def __iter__(self):
 
177
        return self.tree.__iter__()
 
178
 
 
179
    def __contains__(self, file_id):
 
180
        return file_id in self.tree
 
181
 
 
182
    def get_file(self, file_id):
 
183
        return self.tree.get_file(file_id)
 
184
 
 
185
    def get_file_sha1(self, id):
 
186
        return self.tree.get_file_sha1(id)
 
187
 
 
188
    def id2path(self, file_id):
 
189
        return self.tree.id2path(file_id)
 
190
 
 
191
    def has_id(self, file_id):
 
192
        return self.tree.has_id(file_id)
 
193
 
 
194
    def has_or_had_id(self, file_id):
 
195
        if file_id == self.tree.inventory.root.file_id:
 
196
            return True
 
197
        return self.tree.inventory.has_id(file_id)
 
198
 
 
199
    def has_or_had_id(self, file_id):
 
200
        if file_id == self.tree.inventory.root.file_id:
 
201
            return True
 
202
        return self.tree.inventory.has_id(file_id)
 
203
 
 
204
    def readonly_path(self, id):
 
205
        if id not in self.tree:
 
206
            return None
 
207
        if self.root is not None:
 
208
            return self.tree.abspath(self.tree.id2path(id))
 
209
        else:
 
210
            if self.tree.inventory[id].kind in ("directory", "root_directory"):
 
211
                return self.tempdir
 
212
            if not self.cached.has_key(id):
 
213
                path = os.path.join(self.tempdir, "texts", id)
 
214
                outfile = file(path, "wb")
 
215
                outfile.write(self.tree.get_file(id).read())
 
216
                assert(os.path.exists(path))
 
217
                self.cached[id] = path
 
218
            return self.cached[id]
 
219
 
 
220
 
 
221
 
 
222
def merge(other_revision, base_revision,
 
223
          check_clean=True, ignore_zero=False,
 
224
          this_dir=None, backup_files=False, merge_type=ApplyMerge3,
 
225
          file_list=None):
 
226
    """Merge changes into a tree.
 
227
 
 
228
    base_revision
 
229
        tuple(path, revision) Base for three-way merge.
 
230
    other_revision
 
231
        tuple(path, revision) Other revision for three-way merge.
 
232
    this_dir
 
233
        Directory to merge changes into; '.' by default.
 
234
    check_clean
 
235
        If true, this_dir must have no uncommitted changes before the
 
236
        merge begins.
 
237
    all available ancestors of other_revision and base_revision are
 
238
    automatically pulled into the branch.
 
239
    """
 
240
    from bzrlib.revision import common_ancestor, MultipleRevisionSources
 
241
    from bzrlib.errors import NoSuchRevision
 
242
    tempdir = tempfile.mkdtemp(prefix="bzr-")
 
243
    try:
 
244
        if this_dir is None:
 
245
            this_dir = '.'
 
246
        this_branch = find_branch(this_dir)
 
247
        this_rev_id = this_branch.last_patch()
 
248
        if this_rev_id is None:
 
249
            raise BzrCommandError("This branch has no commits")
 
250
        if check_clean:
 
251
            changes = compare_trees(this_branch.working_tree(), 
 
252
                                    this_branch.basis_tree(), False)
 
253
            if changes.has_changed():
 
254
                raise BzrCommandError("Working tree has uncommitted changes.")
 
255
        other_branch, other_tree = get_tree(other_revision, tempdir, "other",
 
256
                                            this_branch)
 
257
        if other_revision[1] == -1:
 
258
            other_rev_id = other_branch.last_patch()
 
259
            other_basis = other_rev_id
 
260
        elif other_revision[1] is not None:
 
261
            other_rev_id = other_branch.lookup_revision(other_revision[1])
 
262
            other_basis = other_rev_id
 
263
        else:
 
264
            other_rev_id = None
 
265
            other_basis = other_branch.last_patch()
 
266
        if base_revision == [None, None]:
 
267
            base_rev_id = common_ancestor(this_rev_id, other_basis, 
 
268
                                          this_branch)
 
269
            if base_rev_id is None:
 
270
                raise UnrelatedBranches()
 
271
            base_tree = get_revid_tree(this_branch, base_rev_id, tempdir, 
 
272
                                       "base", None)
 
273
            base_is_ancestor = True
 
274
        else:
 
275
            base_branch, base_tree = get_tree(base_revision, tempdir, "base")
 
276
            if base_revision[1] == -1:
 
277
                base_rev_id = base_branch.last_patch()
 
278
            elif base_revision[1] is None:
 
279
                base_rev_id = None
 
280
            else:
 
281
                base_rev_id = base_branch.lookup_revision(base_revision[1])
 
282
            if base_rev_id is not None:
 
283
                base_is_ancestor = is_ancestor(this_rev_id, base_rev_id, 
 
284
                                               MultipleRevisionSources(this_branch, 
 
285
                                                                       base_branch))
 
286
            else:
 
287
                base_is_ancestor = False
 
288
        if file_list is None:
 
289
            interesting_ids = None
 
290
        else:
 
291
            interesting_ids = set()
 
292
            this_tree = this_branch.working_tree()
 
293
            for fname in file_list:
 
294
                path = this_branch.relpath(fname)
 
295
                found_id = False
 
296
                for tree in (this_tree, base_tree.tree, other_tree.tree):
 
297
                    file_id = tree.inventory.path2id(path)
 
298
                    if file_id is not None:
 
299
                        interesting_ids.add(file_id)
 
300
                        found_id = True
 
301
                if not found_id:
 
302
                    raise BzrCommandError("%s is not a source file in any"
 
303
                                          " tree." % fname)
 
304
        merge_inner(this_branch, other_tree, base_tree, tempdir, 
 
305
                    ignore_zero=ignore_zero, backup_files=backup_files, 
 
306
                    merge_type=merge_type, interesting_ids=interesting_ids)
 
307
        if base_is_ancestor and other_rev_id is not None:
 
308
            this_branch.add_pending_merge(other_rev_id)
 
309
    finally:
 
310
        shutil.rmtree(tempdir)
 
311
 
 
312
 
 
313
def set_interesting(inventory_a, inventory_b, interesting_ids):
 
314
    """Mark files whose ids are in interesting_ids as interesting
 
315
    """
 
316
    for inventory in (inventory_a, inventory_b):
 
317
        for path, source_file in inventory.iteritems():
 
318
             source_file.interesting = source_file.id in interesting_ids
 
319
 
 
320
 
 
321
def generate_cset_optimized(tree_a, tree_b, interesting_ids=None):
 
322
    """Generate a changeset.  If interesting_ids is supplied, only changes
 
323
    to those files will be shown.  Metadata changes are stripped.
 
324
    """ 
 
325
    cset =  generate_changeset(tree_a, tree_b, interesting_ids)
 
326
    for entry in cset.entries.itervalues():
 
327
        entry.metadata_change = None
 
328
    return cset
 
329
 
 
330
 
 
331
def merge_inner(this_branch, other_tree, base_tree, tempdir, 
 
332
                ignore_zero=False, merge_type=ApplyMerge3, backup_files=False,
 
333
                interesting_ids=None):
 
334
 
 
335
    def merge_factory(file_id, base, other):
 
336
        contents_change = merge_type(file_id, base, other)
 
337
        if backup_files:
 
338
            contents_change = BackupBeforeChange(contents_change)
 
339
        return contents_change
 
340
 
 
341
    this_tree = get_tree((this_branch.base, None), tempdir, "this")[1]
 
342
 
 
343
    def get_inventory(tree):
 
344
        return tree.tree.inventory
 
345
 
 
346
    inv_changes = merge_flex(this_tree, base_tree, other_tree,
 
347
                             generate_cset_optimized, get_inventory,
 
348
                             MergeConflictHandler(base_tree.root,
 
349
                                                  ignore_zero=ignore_zero),
 
350
                             merge_factory=merge_factory, 
 
351
                             interesting_ids=interesting_ids)
 
352
 
 
353
    adjust_ids = []
 
354
    for id, path in inv_changes.iteritems():
 
355
        if path is not None:
 
356
            if path == '.':
 
357
                path = ''
 
358
            else:
 
359
                assert path.startswith('./'), "path is %s" % path
 
360
            path = path[2:]
 
361
        adjust_ids.append((path, id))
 
362
    if len(adjust_ids) > 0:
 
363
        this_branch.set_inventory(regen_inventory(this_branch, this_tree.root,
 
364
                                                  adjust_ids))
 
365
 
 
366
 
 
367
def regen_inventory(this_branch, root, new_entries):
 
368
    old_entries = this_branch.read_working_inventory()
 
369
    new_inventory = {}
 
370
    by_path = {}
 
371
    new_entries_map = {} 
 
372
    for path, file_id in new_entries:
 
373
        if path is None:
 
374
            continue
 
375
        new_entries_map[file_id] = path
 
376
 
 
377
    def id2path(file_id):
 
378
        path = new_entries_map.get(file_id)
 
379
        if path is not None:
 
380
            return path
 
381
        entry = old_entries[file_id]
 
382
        if entry.parent_id is None:
 
383
            return entry.name
 
384
        return os.path.join(id2path(entry.parent_id), entry.name)
 
385
        
 
386
    for file_id in old_entries:
 
387
        entry = old_entries[file_id]
 
388
        path = id2path(file_id)
 
389
        new_inventory[file_id] = (path, file_id, entry.parent_id, entry.kind)
 
390
        by_path[path] = file_id
 
391
    
 
392
    deletions = 0
 
393
    insertions = 0
 
394
    new_path_list = []
 
395
    for path, file_id in new_entries:
 
396
        if path is None:
 
397
            del new_inventory[file_id]
 
398
            deletions += 1
 
399
        else:
 
400
            new_path_list.append((path, file_id))
 
401
            if file_id not in old_entries:
 
402
                insertions += 1
 
403
    # Ensure no file is added before its parent
 
404
    new_path_list.sort()
 
405
    for path, file_id in new_path_list:
 
406
        if path == '':
 
407
            parent = None
 
408
        else:
 
409
            parent = by_path[os.path.dirname(path)]
 
410
        kind = bzrlib.osutils.file_kind(os.path.join(root, path))
 
411
        new_inventory[file_id] = (path, file_id, parent, kind)
 
412
        by_path[path] = file_id 
 
413
 
 
414
    # Get a list in insertion order
 
415
    new_inventory_list = new_inventory.values()
 
416
    mutter ("""Inventory regeneration:
 
417
old length: %i insertions: %i deletions: %i new_length: %i"""\
 
418
        % (len(old_entries), insertions, deletions, len(new_inventory_list)))
 
419
    assert len(new_inventory_list) == len(old_entries) + insertions - deletions
 
420
    new_inventory_list.sort()
 
421
    return new_inventory_list
 
422
 
 
423
merge_types = {     "merge3": (ApplyMerge3, "Native diff3-style merge"), 
 
424
                     "diff3": (Diff3Merge,  "Merge using external diff3")
 
425
              }
 
426