~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/commit.py

  • Committer: Martin Pool
  • Date: 2005-09-22 06:19:33 UTC
  • Revision ID: mbp@sourcefrog.net-20050922061933-4b71d0f1e205b153
- keep track of number of checked revisions

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
1
# Copyright (C) 2005 Canonical Ltd
2
 
 
 
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
 
 
7
#
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
 
 
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
17
 
18
 
 
19
 
# FIXME: "bzr commit doc/format" commits doc/format.txt!
20
 
 
21
 
def commit(branch, message,
22
 
           timestamp=None,
23
 
           timezone=None,
24
 
           committer=None,
25
 
           verbose=True,
26
 
           specific_files=None,
27
 
           rev_id=None,
28
 
           allow_pointless=True):
29
 
    """Commit working copy as a new revision.
30
 
 
31
 
    The basic approach is to add all the file texts into the
32
 
    store, then the inventory, then make a new revision pointing
33
 
    to that inventory and store that.
34
 
 
35
 
    This is not quite safe if the working copy changes during the
36
 
    commit; for the moment that is simply not allowed.  A better
37
 
    approach is to make a temporary copy of the files before
38
 
    computing their hashes, and then add those hashes in turn to
39
 
    the inventory.  This should mean at least that there are no
40
 
    broken hash pointers.  There is no way we can get a snapshot
41
 
    of the whole directory at an instant.  This would also have to
42
 
    be robust against files disappearing, moving, etc.  So the
43
 
    whole thing is a bit hard.
44
 
 
45
 
    This raises PointlessCommit if there are no changes, no new merges,
46
 
    and allow_pointless  is false.
47
 
 
48
 
    timestamp -- if not None, seconds-since-epoch for a
49
 
         postdated/predated commit.
50
 
 
51
 
    specific_files
52
 
        If true, commit only those files.
53
 
 
54
 
    rev_id
55
 
        If set, use this as the new revision id.
56
 
        Useful for test or import commands that need to tightly
57
 
        control what revisions are assigned.  If you duplicate
58
 
        a revision id that exists elsewhere it is your own fault.
59
 
        If null (default), a time/random revision id is generated.
60
 
    """
61
 
 
62
 
    import time, tempfile
63
 
 
64
 
    from bzrlib.osutils import local_time_offset, username
65
 
    from bzrlib.branch import gen_file_id
66
 
    from bzrlib.errors import BzrError, PointlessCommit
67
 
    from bzrlib.revision import Revision, RevisionReference
68
 
    from bzrlib.trace import mutter, note
69
 
    from bzrlib.xml import pack_xml
70
 
 
71
 
    branch.lock_write()
72
 
 
73
 
    try:
74
 
        # First walk over the working inventory; and both update that
75
 
        # and also build a new revision inventory.  The revision
76
 
        # inventory needs to hold the text-id, sha1 and size of the
77
 
        # actual file versions committed in the revision.  (These are
78
 
        # not present in the working inventory.)  We also need to
79
 
        # detect missing/deleted files, and remove them from the
80
 
        # working inventory.
81
 
 
82
 
        work_tree = branch.working_tree()
83
 
        work_inv = work_tree.inventory
84
 
        basis = branch.basis_tree()
85
 
        basis_inv = basis.inventory
86
 
 
87
 
        if verbose:
88
 
            note('looking for changes...')
89
 
 
90
 
        pending_merges = branch.pending_merges()
91
 
 
92
 
        missing_ids, new_inv, any_changes = \
93
 
                     _gather_commit(branch,
94
 
                                    work_tree,
95
 
                                    work_inv,
96
 
                                    basis_inv,
97
 
                                    specific_files,
98
 
                                    verbose)
99
 
 
100
 
        if not (any_changes or allow_pointless or pending_merges):
101
 
            raise PointlessCommit()
102
 
 
103
 
        for file_id in missing_ids:
104
 
            # Any files that have been deleted are now removed from the
105
 
            # working inventory.  Files that were not selected for commit
106
 
            # are left as they were in the working inventory and ommitted
107
 
            # from the revision inventory.
108
 
 
109
 
            # have to do this later so we don't mess up the iterator.
110
 
            # since parents may be removed before their children we
111
 
            # have to test.
112
 
 
113
 
            # FIXME: There's probably a better way to do this; perhaps
114
 
            # the workingtree should know how to filter itbranch.
115
 
            if work_inv.has_id(file_id):
116
 
                del work_inv[file_id]
117
 
 
118
 
 
 
18
# XXX: Can we do any better about making interrupted commits change
 
19
# nothing?  Perhaps the best approach is to integrate commit of
 
20
# AtomicFiles with releasing the lock on the Branch.
 
21
 
 
22
# TODO: Separate 'prepare' phase where we find a list of potentially
 
23
# committed files.  We then can then pause the commit to prompt for a
 
24
# commit message, knowing the summary will be the same as what's
 
25
# actually used for the commit.  (But perhaps simpler to simply get
 
26
# the tree status, then use that for a selective commit?)
 
27
 
 
28
# The newly committed revision is going to have a shape corresponding
 
29
# to that of the working inventory.  Files that are not in the
 
30
# working tree and that were in the predecessor are reported as
 
31
# removed --- this can include files that were either removed from the
 
32
# inventory or deleted in the working tree.  If they were only
 
33
# deleted from disk, they are removed from the working inventory.
 
34
 
 
35
# We then consider the remaining entries, which will be in the new
 
36
# version.  Directory entries are simply copied across.  File entries
 
37
# must be checked to see if a new version of the file should be
 
38
# recorded.  For each parent revision inventory, we check to see what
 
39
# version of the file was present.  If the file was present in at
 
40
# least one tree, and if it was the same version in all the trees,
 
41
# then we can just refer to that version.  Otherwise, a new version
 
42
# representing the merger of the file versions must be added.
 
43
 
 
44
# TODO: Update hashcache before and after - or does the WorkingTree
 
45
# look after that?
 
46
 
 
47
# This code requires all merge parents to be present in the branch.
 
48
# We could relax this but for the sake of simplicity the constraint is
 
49
# here for now.  It's not totally clear to me how we'd know which file
 
50
# need new text versions if some parents are absent.  -- mbp 20050915
 
51
 
 
52
# TODO: Rather than mashing together the ancestry and storing it back,
 
53
# perhaps the weave should have single method which does it all in one
 
54
# go, avoiding a lot of redundant work.
 
55
 
 
56
# TODO: Perhaps give a warning if one of the revisions marked as
 
57
# merged is already in the ancestry, and then don't record it as a
 
58
# distinct parent.
 
59
 
 
60
# TODO: If the file is newly merged but unchanged from the version it
 
61
# merges from, then it should still be reported as newly added
 
62
# relative to the basis revision.
 
63
 
 
64
 
 
65
import os
 
66
import sys
 
67
import time
 
68
import pdb
 
69
 
 
70
from binascii import hexlify
 
71
from cStringIO import StringIO
 
72
 
 
73
from bzrlib.osutils import (local_time_offset, username,
 
74
                            rand_bytes, compact_date, user_email,
 
75
                            kind_marker, is_inside_any, quotefn,
 
76
                            sha_string, sha_strings, sha_file, isdir, isfile,
 
77
                            split_lines)
 
78
from bzrlib.branch import gen_file_id
 
79
from bzrlib.errors import (BzrError, PointlessCommit,
 
80
                           HistoryMissing,
 
81
                           )
 
82
from bzrlib.revision import Revision
 
83
from bzrlib.trace import mutter, note, warning
 
84
from bzrlib.xml5 import serializer_v5
 
85
from bzrlib.inventory import Inventory
 
86
from bzrlib.weave import Weave
 
87
from bzrlib.weavefile import read_weave, write_weave_v5
 
88
from bzrlib.atomicfile import AtomicFile
 
89
 
 
90
 
 
91
def commit(*args, **kwargs):
 
92
    """Commit a new revision to a branch.
 
93
 
 
94
    Function-style interface for convenience of old callers.
 
95
 
 
96
    New code should use the Commit class instead.
 
97
    """
 
98
    ## XXX: Remove this in favor of Branch.commit?
 
99
    Commit().commit(*args, **kwargs)
 
100
 
 
101
 
 
102
class NullCommitReporter(object):
 
103
    """I report on progress of a commit."""
 
104
    def added(self, path):
 
105
        pass
 
106
 
 
107
    def removed(self, path):
 
108
        pass
 
109
 
 
110
    def renamed(self, old_path, new_path):
 
111
        pass
 
112
 
 
113
 
 
114
class ReportCommitToLog(NullCommitReporter):
 
115
    def added(self, path):
 
116
        note('added %s', path)
 
117
 
 
118
    def removed(self, path):
 
119
        note('removed %s', path)
 
120
 
 
121
    def renamed(self, old_path, new_path):
 
122
        note('renamed %s => %s', old_path, new_path)
 
123
 
 
124
 
 
125
class Commit(object):
 
126
    """Task of committing a new revision.
 
127
 
 
128
    This is a MethodObject: it accumulates state as the commit is
 
129
    prepared, and then it is discarded.  It doesn't represent
 
130
    historical revisions, just the act of recording a new one.
 
131
 
 
132
            missing_ids
 
133
            Modified to hold a list of files that have been deleted from
 
134
            the working directory; these should be removed from the
 
135
            working inventory.
 
136
    """
 
137
    def __init__(self,
 
138
                 reporter=None):
 
139
        if reporter is not None:
 
140
            self.reporter = reporter
 
141
        else:
 
142
            self.reporter = NullCommitReporter()
 
143
 
 
144
        
 
145
    def commit(self,
 
146
               branch, message,
 
147
               timestamp=None,
 
148
               timezone=None,
 
149
               committer=None,
 
150
               specific_files=None,
 
151
               rev_id=None,
 
152
               allow_pointless=True,
 
153
               verbose=False):
 
154
        """Commit working copy as a new revision.
 
155
 
 
156
        timestamp -- if not None, seconds-since-epoch for a
 
157
             postdated/predated commit.
 
158
 
 
159
        specific_files -- If true, commit only those files.
 
160
 
 
161
        rev_id -- If set, use this as the new revision id.
 
162
            Useful for test or import commands that need to tightly
 
163
            control what revisions are assigned.  If you duplicate
 
164
            a revision id that exists elsewhere it is your own fault.
 
165
            If null (default), a time/random revision id is generated.
 
166
 
 
167
        allow_pointless -- If true (default), commit even if nothing
 
168
            has changed and no merges are recorded.
 
169
        """
 
170
        mutter('preparing to commit')
 
171
 
 
172
        self.branch = branch
 
173
        self.weave_store = branch.weave_store
 
174
        self.rev_id = rev_id
 
175
        self.specific_files = specific_files
 
176
        self.allow_pointless = allow_pointless
 
177
 
 
178
        if timestamp is None:
 
179
            self.timestamp = time.time()
 
180
        else:
 
181
            self.timestamp = long(timestamp)
 
182
            
119
183
        if rev_id is None:
120
 
            rev_id = _gen_revision_id(time.time())
121
 
        inv_id = rev_id
122
 
 
123
 
        inv_tmp = tempfile.TemporaryFile()
124
 
        pack_xml(new_inv, inv_tmp)
125
 
        inv_tmp.seek(0)
126
 
        branch.inventory_store.add(inv_tmp, inv_id)
127
 
        mutter('new inventory_id is {%s}' % inv_id)
128
 
 
129
 
        # We could also just sha hash the inv_tmp file
130
 
        # however, in the case that branch.inventory_store.add()
131
 
        # ever actually does anything special
132
 
        inv_sha1 = branch.get_inventory_sha1(inv_id)
133
 
 
134
 
        branch._write_inventory(work_inv)
135
 
 
136
 
        if timestamp == None:
137
 
            timestamp = time.time()
138
 
 
139
 
        if committer == None:
140
 
            committer = username()
141
 
 
142
 
        if timezone == None:
143
 
            timezone = local_time_offset()
144
 
 
145
 
        mutter("building commit log message")
146
 
        rev = Revision(timestamp=timestamp,
147
 
                       timezone=timezone,
148
 
                       committer=committer,
149
 
                       message = message,
150
 
                       inventory_id=inv_id,
151
 
                       inventory_sha1=inv_sha1,
152
 
                       revision_id=rev_id)
153
 
 
154
 
        rev.parents = []
155
 
        precursor_id = branch.last_patch()
 
184
            self.rev_id = _gen_revision_id(self.branch, self.timestamp)
 
185
        else:
 
186
            self.rev_id = rev_id
 
187
 
 
188
        if committer is None:
 
189
            self.committer = username(self.branch)
 
190
        else:
 
191
            assert isinstance(committer, basestring), type(committer)
 
192
            self.committer = committer
 
193
 
 
194
        if timezone is None:
 
195
            self.timezone = local_time_offset()
 
196
        else:
 
197
            self.timezone = int(timezone)
 
198
 
 
199
        assert isinstance(message, basestring), type(message)
 
200
        self.message = message
 
201
 
 
202
        self.branch.lock_write()
 
203
        try:
 
204
            self.work_tree = self.branch.working_tree()
 
205
            self.work_inv = self.work_tree.inventory
 
206
            self.basis_tree = self.branch.basis_tree()
 
207
            self.basis_inv = self.basis_tree.inventory
 
208
 
 
209
            self._gather_parents()
 
210
            if len(self.parents) > 1 and self.specific_files:
 
211
                raise NotImplementedError('selected-file commit of merges is not supported yet')
 
212
            self._check_parents_present()
 
213
            
 
214
            self._remove_deleted()
 
215
            self.new_inv = Inventory()
 
216
            self._store_entries()
 
217
            self._report_deletes()
 
218
            self._set_name_versions()
 
219
 
 
220
            if not (self.allow_pointless
 
221
                    or len(self.parents) > 1
 
222
                    or self.new_inv != self.basis_inv):
 
223
                raise PointlessCommit()
 
224
 
 
225
            self._record_inventory()
 
226
            self._record_ancestry()
 
227
            self._make_revision()
 
228
            note('committed r%d {%s}', (self.branch.revno() + 1),
 
229
                 self.rev_id)
 
230
            self.branch.append_revision(self.rev_id)
 
231
            self.branch.set_pending_merges([])
 
232
        finally:
 
233
            self.branch.unlock()
 
234
 
 
235
 
 
236
 
 
237
    def _record_inventory(self):
 
238
        """Store the inventory for the new revision."""
 
239
        inv_text = serializer_v5.write_inventory_to_string(self.new_inv)
 
240
        self.inv_sha1 = sha_string(inv_text)
 
241
        s = self.branch.control_weaves
 
242
        s.add_text('inventory', self.rev_id,
 
243
                   split_lines(inv_text), self.parents)
 
244
 
 
245
 
 
246
    def _record_ancestry(self):
 
247
        """Append merged revision ancestry to the ancestry file.
 
248
 
 
249
        This should be the merged ancestry of all parents, plus the
 
250
        new revision id."""
 
251
        s = self.branch.control_weaves
 
252
        w = s.get_weave_or_empty('ancestry')
 
253
        lines = self._make_ancestry(w)
 
254
        w.add(self.rev_id, self.parents, lines)
 
255
        s.put_weave('ancestry', w)
 
256
 
 
257
 
 
258
    def _make_ancestry(self, ancestry_weave):
 
259
        """Return merged ancestry lines.
 
260
 
 
261
        The lines are revision-ids followed by newlines."""
 
262
        parent_ancestries = [ancestry_weave.get(p) for p in self.parents]
 
263
        new_lines = merge_ancestry_lines(self.rev_id, parent_ancestries)
 
264
        mutter('merged ancestry of {%s}:\n%s', self.rev_id, ''.join(new_lines))
 
265
        return new_lines
 
266
 
 
267
 
 
268
    def _gather_parents(self):
 
269
        pending_merges = self.branch.pending_merges()
 
270
        self.parents = []
 
271
        self.parent_trees = []
 
272
        precursor_id = self.branch.last_revision()
156
273
        if precursor_id:
157
 
            precursor_sha1 = branch.get_revision_sha1(precursor_id)
158
 
            rev.parents.append(RevisionReference(precursor_id, precursor_sha1))
159
 
        for merge_rev in pending_merges:
160
 
            rev.parents.append(RevisionReference(merge_rev))            
161
 
 
162
 
        rev_tmp = tempfile.TemporaryFile()
163
 
        pack_xml(rev, rev_tmp)
 
274
            self.parents.append(precursor_id)
 
275
            self.parent_trees.append(self.basis_tree)
 
276
        self.parents += pending_merges
 
277
        self.parent_trees.extend(map(self.branch.revision_tree, pending_merges))
 
278
 
 
279
 
 
280
    def _check_parents_present(self):
 
281
        for parent_id in self.parents:
 
282
            mutter('commit parent revision {%s}', parent_id)
 
283
            if not self.branch.has_revision(parent_id):
 
284
                warning("can't commit a merge from an absent parent")
 
285
                raise HistoryMissing(self.branch, 'revision', parent_id)
 
286
 
 
287
            
 
288
    def _make_revision(self):
 
289
        """Record a new revision object for this commit."""
 
290
        self.rev = Revision(timestamp=self.timestamp,
 
291
                            timezone=self.timezone,
 
292
                            committer=self.committer,
 
293
                            message=self.message,
 
294
                            inventory_sha1=self.inv_sha1,
 
295
                            revision_id=self.rev_id)
 
296
        self.rev.parent_ids = self.parents
 
297
        rev_tmp = StringIO()
 
298
        serializer_v5.write_revision(self.rev, rev_tmp)
164
299
        rev_tmp.seek(0)
165
 
        branch.revision_store.add(rev_tmp, rev_id)
166
 
        mutter("new revision_id is {%s}" % rev_id)
167
 
 
168
 
        ## XXX: Everything up to here can simply be orphaned if we abort
169
 
        ## the commit; it will leave junk files behind but that doesn't
170
 
        ## matter.
171
 
 
172
 
        ## TODO: Read back the just-generated changeset, and make sure it
173
 
        ## applies and recreates the right state.
174
 
 
175
 
        ## TODO: Also calculate and store the inventory SHA1
176
 
        mutter("committing patch r%d" % (branch.revno() + 1))
177
 
 
178
 
        branch.append_revision(rev_id)
179
 
 
180
 
        branch.set_pending_merges([])
181
 
 
182
 
        if verbose:
183
 
            note("commited r%d" % branch.revno())
184
 
    finally:
185
 
        branch.unlock()
186
 
 
187
 
 
188
 
 
189
 
def _gen_revision_id(when):
 
300
        self.branch.revision_store.add(rev_tmp, self.rev_id, compressed=False)
 
301
        mutter('new revision_id is {%s}', self.rev_id)
 
302
 
 
303
 
 
304
    def _remove_deleted(self):
 
305
        """Remove deleted files from the working inventories.
 
306
 
 
307
        This is done prior to taking the working inventory as the
 
308
        basis for the new committed inventory.
 
309
 
 
310
        This returns true if any files
 
311
        *that existed in the basis inventory* were deleted.
 
312
        Files that were added and deleted
 
313
        in the working copy don't matter.
 
314
        """
 
315
        specific = self.specific_files
 
316
        deleted_ids = []
 
317
        for path, ie in self.work_inv.iter_entries():
 
318
            if specific and not is_inside_any(specific, path):
 
319
                continue
 
320
            if not self.work_tree.has_filename(path):
 
321
                note('missing %s', path)
 
322
                deleted_ids.append(ie.file_id)
 
323
        if deleted_ids:
 
324
            for file_id in deleted_ids:
 
325
                del self.work_inv[file_id]
 
326
            self.branch._write_inventory(self.work_inv)
 
327
 
 
328
 
 
329
    def _find_file_parents(self, file_id):
 
330
        """Return the text versions and hashes for all file parents.
 
331
 
 
332
        Returned as a map from text version to inventory entry.
 
333
 
 
334
        This is a set containing the file versions in all parents
 
335
        revisions containing the file.  If the file is new, the set
 
336
        will be empty."""
 
337
        r = {}
 
338
        for tree in self.parent_trees:
 
339
            if file_id in tree.inventory:
 
340
                ie = tree.inventory[file_id]
 
341
                assert ie.kind == 'file'
 
342
                assert ie.file_id == file_id
 
343
                if ie.text_version in r:
 
344
                    assert r[ie.text_version] == ie
 
345
                else:
 
346
                    r[ie.text_version] = ie
 
347
        return r
 
348
 
 
349
 
 
350
    def _set_name_versions(self):
 
351
        """Pass over inventory and mark new entry version as needed.
 
352
 
 
353
        Files get a new name version when they are new, have a
 
354
        different parent, or a different name from in the
 
355
        basis inventory, or if the file is in a different place
 
356
        to any of the parents."""
 
357
        # XXX: Need to think more here about when the user has
 
358
        # made a specific decision on a particular value -- c.f.
 
359
        # mark-merge.  
 
360
        for path, ie in self.new_inv.iter_entries():
 
361
            old_version = None
 
362
            file_id = ie.file_id
 
363
            for parent_tree in self.parent_trees:
 
364
                parent_inv = parent_tree.inventory
 
365
                if file_id not in parent_inv:
 
366
                    continue
 
367
                parent_ie = parent_inv[file_id]
 
368
                if parent_ie.parent_id != ie.parent_id:
 
369
                    old_version = None
 
370
                    break
 
371
                elif parent_ie.name != ie.name:
 
372
                    old_version = None
 
373
                    break
 
374
                elif old_version is None:
 
375
                    old_version = parent_ie.name_version
 
376
                elif old_version != parent_ie.name_version:
 
377
                    old_version = None
 
378
                    break
 
379
                else:
 
380
                    pass                # so far so good
 
381
            if old_version is None:
 
382
                mutter('new name_version for {%s}', file_id)
 
383
                ie.name_version = self.rev_id
 
384
            else:
 
385
                mutter('name_version for {%s} inherited as {%s}',
 
386
                       file_id, old_version)
 
387
                ie.name_version = old_version
 
388
 
 
389
 
 
390
    def _store_entries(self):
 
391
        """Build revision inventory and store modified files.
 
392
 
 
393
        This is called with new_inv a new empty inventory.  Depending on
 
394
        which files are selected for commit, and which ones have
 
395
        been modified or merged, new inventory entries are built
 
396
        based on the working and parent inventories.
 
397
 
 
398
        As a side-effect this stores new text versions for committed
 
399
        files with text changes or merges.
 
400
 
 
401
        Each entry can have one of several things happen:
 
402
 
 
403
        carry_file -- carried from the previous version (if not
 
404
            selected for commit)
 
405
 
 
406
        commit_nonfile -- no text to worry about
 
407
 
 
408
        commit_old_text -- same text, may have moved
 
409
 
 
410
        commit_file -- new text version
 
411
        """
 
412
        for path, new_ie in self.work_inv.iter_entries():
 
413
            file_id = new_ie.file_id
 
414
            mutter('check %s {%s}', path, new_ie.file_id)
 
415
            if self.specific_files:
 
416
                if not is_inside_any(self.specific_files, path):
 
417
                    mutter('%s not selected for commit', path)
 
418
                    self._carry_file(file_id)
 
419
                    continue
 
420
            if new_ie.kind != 'file':
 
421
                self._commit_nonfile(file_id)
 
422
                continue
 
423
            
 
424
            file_parents = self._find_file_parents(file_id)
 
425
            mutter('parents of %s are %r', path, file_parents)
 
426
            if len(file_parents) == 1:
 
427
                parent_ie = file_parents.values()[0]
 
428
                wc_sha1 = self.work_tree.get_file_sha1(file_id)
 
429
                if parent_ie.text_sha1 == wc_sha1:
 
430
                    # text not changed or merged
 
431
                    self._commit_old_text(file_id, parent_ie)
 
432
                    continue
 
433
            # file is either new, or a file merge; need to record
 
434
            # a new version
 
435
            if len(file_parents) > 1:
 
436
                note('merged %s', path)
 
437
            elif len(file_parents) == 0:
 
438
                note('added %s', path)
 
439
            else:
 
440
                note('modified %s', path)
 
441
            self._commit_file(new_ie, file_id, file_parents)
 
442
 
 
443
 
 
444
    def _commit_nonfile(self, file_id):
 
445
        self.new_inv.add(self.work_inv[file_id].copy())
 
446
 
 
447
 
 
448
    def _carry_file(self, file_id):
 
449
        """Carry the file unchanged from the basis revision."""
 
450
        if self.basis_inv.has_id(file_id):
 
451
            self.new_inv.add(self.basis_inv[file_id].copy())
 
452
 
 
453
 
 
454
    def _commit_old_text(self, file_id, parent_ie):
 
455
        """Keep the same text as last time, but possibly a different name."""
 
456
        ie = self.work_inv[file_id].copy()
 
457
        ie.text_version = parent_ie.text_version
 
458
        ie.text_size = parent_ie.text_size
 
459
        ie.text_sha1 = parent_ie.text_sha1
 
460
        self.new_inv.add(ie)
 
461
 
 
462
 
 
463
    def _report_deletes(self):
 
464
        for file_id in self.basis_inv:
 
465
            if file_id not in self.new_inv:
 
466
                note('deleted %s', self.basis_inv.id2path(file_id))
 
467
 
 
468
 
 
469
    def _commit_file(self, new_ie, file_id, file_parents):                    
 
470
        mutter('store new text for {%s} in revision {%s}',
 
471
               file_id, self.rev_id)
 
472
        new_lines = self.work_tree.get_file(file_id).readlines()
 
473
        self._add_text_to_weave(file_id, new_lines, file_parents)
 
474
        new_ie.text_version = self.rev_id
 
475
        new_ie.text_sha1 = sha_strings(new_lines)
 
476
        new_ie.text_size = sum(map(len, new_lines))
 
477
        self.new_inv.add(new_ie)
 
478
 
 
479
 
 
480
    def _add_text_to_weave(self, file_id, new_lines, parents):
 
481
        self.weave_store.add_text(file_id, self.rev_id, new_lines, parents)
 
482
 
 
483
 
 
484
def _gen_revision_id(branch, when):
190
485
    """Return new revision-id."""
191
 
    from binascii import hexlify
192
 
    from osutils import rand_bytes, compact_date, user_email
193
 
 
194
 
    s = '%s-%s-' % (user_email(), compact_date(when))
 
486
    s = '%s-%s-' % (user_email(branch), compact_date(when))
195
487
    s += hexlify(rand_bytes(8))
196
488
    return s
197
489
 
198
490
 
199
 
def _gather_commit(branch, work_tree, work_inv, basis_inv, specific_files,
200
 
                   verbose):
201
 
    """Build inventory preparatory to commit.
202
 
 
203
 
    Returns missing_ids, new_inv, any_changes.
204
 
 
205
 
    This adds any changed files into the text store, and sets their
206
 
    test-id, sha and size in the returned inventory appropriately.
207
 
 
208
 
    missing_ids
209
 
        Modified to hold a list of files that have been deleted from
210
 
        the working directory; these should be removed from the
211
 
        working inventory.
 
491
 
 
492
    
 
493
def merge_ancestry_lines(rev_id, ancestries):
 
494
    """Return merged ancestry lines.
 
495
 
 
496
    rev_id -- id of the new revision
 
497
    
 
498
    ancestries -- a sequence of ancestries for parent revisions,
 
499
        as newline-terminated line lists.
212
500
    """
213
 
    from bzrlib.inventory import Inventory
214
 
    from bzrlib.osutils import isdir, isfile, sha_string, quotefn, \
215
 
         local_time_offset, username, kind_marker, is_inside_any
216
 
    
217
 
    from bzrlib.branch import gen_file_id
218
 
    from bzrlib.errors import BzrError
219
 
    from bzrlib.revision import Revision
220
 
    from bzrlib.trace import mutter, note
221
 
 
222
 
    any_changes = False
223
 
    inv = Inventory(work_inv.root.file_id)
224
 
    missing_ids = []
225
 
    
226
 
    for path, entry in work_inv.iter_entries():
227
 
        ## TODO: Check that the file kind has not changed from the previous
228
 
        ## revision of this file (if any).
229
 
 
230
 
        p = branch.abspath(path)
231
 
        file_id = entry.file_id
232
 
        mutter('commit prep file %s, id %r ' % (p, file_id))
233
 
 
234
 
        if specific_files and not is_inside_any(specific_files, path):
235
 
            mutter('  skipping file excluded from commit')
236
 
            if basis_inv.has_id(file_id):
237
 
                # carry over with previous state
238
 
                inv.add(basis_inv[file_id].copy())
239
 
            else:
240
 
                # omit this from committed inventory
241
 
                pass
242
 
            continue
243
 
 
244
 
        if not work_tree.has_id(file_id):
245
 
            if verbose:
246
 
                print('deleted %s%s' % (path, kind_marker(entry.kind)))
247
 
                any_changes = True
248
 
            mutter("    file is missing, removing from inventory")
249
 
            missing_ids.append(file_id)
250
 
            continue
251
 
 
252
 
        # this is present in the new inventory; may be new, modified or
253
 
        # unchanged.
254
 
        old_ie = basis_inv.has_id(file_id) and basis_inv[file_id]
255
 
        
256
 
        entry = entry.copy()
257
 
        inv.add(entry)
258
 
 
259
 
        if old_ie:
260
 
            old_kind = old_ie.kind
261
 
            if old_kind != entry.kind:
262
 
                raise BzrError("entry %r changed kind from %r to %r"
263
 
                        % (file_id, old_kind, entry.kind))
264
 
 
265
 
        if entry.kind == 'directory':
266
 
            if not isdir(p):
267
 
                raise BzrError("%s is entered as directory but not a directory"
268
 
                               % quotefn(p))
269
 
        elif entry.kind == 'file':
270
 
            if not isfile(p):
271
 
                raise BzrError("%s is entered as file but is not a file" % quotefn(p))
272
 
 
273
 
            new_sha1 = work_tree.get_file_sha1(file_id)
274
 
 
275
 
            if (old_ie
276
 
                and old_ie.text_sha1 == new_sha1):
277
 
                ## assert content == basis.get_file(file_id).read()
278
 
                entry.text_id = old_ie.text_id
279
 
                entry.text_sha1 = new_sha1
280
 
                entry.text_size = old_ie.text_size
281
 
                mutter('    unchanged from previous text_id {%s}' %
282
 
                       entry.text_id)
283
 
            else:
284
 
                content = file(p, 'rb').read()
285
 
 
286
 
                # calculate the sha again, just in case the file contents
287
 
                # changed since we updated the cache
288
 
                entry.text_sha1 = sha_string(content)
289
 
                entry.text_size = len(content)
290
 
 
291
 
                entry.text_id = gen_file_id(entry.name)
292
 
                branch.text_store.add(content, entry.text_id)
293
 
                mutter('    stored with text_id {%s}' % entry.text_id)
294
 
 
295
 
        if verbose:
296
 
            marked = path + kind_marker(entry.kind)
297
 
            if not old_ie:
298
 
                print 'added', marked
299
 
                any_changes = True
300
 
            elif old_ie == entry:
301
 
                pass                    # unchanged
302
 
            elif (old_ie.name == entry.name
303
 
                  and old_ie.parent_id == entry.parent_id):
304
 
                print 'modified', marked
305
 
                any_changes = True
306
 
            else:
307
 
                print 'renamed', marked
308
 
                any_changes = True
309
 
                        
310
 
    return missing_ids, inv, any_changes
311
 
 
 
501
    if len(ancestries) == 0:
 
502
        return [rev_id + '\n']
 
503
    seen = set(ancestries[0])
 
504
    ancs = ancestries[0][:]    
 
505
    for parent_ancestry in ancestries[1:]:
 
506
        for line in parent_ancestry:
 
507
            assert line[-1] == '\n'
 
508
            if line not in seen:
 
509
                ancs.append(line)
 
510
                seen.add(line)
 
511
    r = rev_id + '\n'
 
512
    assert r not in seen
 
513
    ancs.append(r)
 
514
    return ancs
312
515