~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/commit.py

  • Committer: mbp at sourcefrog
  • Date: 2005-03-22 01:17:38 UTC
  • Revision ID: mbp@sourcefrog.net-20050322011738-5e778270d06836bb
ignore generated changelog

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005 Canonical Ltd
2
 
 
3
 
# This program is free software; you can redistribute it and/or modify
4
 
# it under the terms of the GNU General Public License as published by
5
 
# the Free Software Foundation; either version 2 of the License, or
6
 
# (at your option) any later version.
7
 
 
8
 
# This program is distributed in the hope that it will be useful,
9
 
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
 
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
 
# GNU General Public License for more details.
12
 
 
13
 
# You should have received a copy of the GNU General Public License
14
 
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
 
 
17
 
 
18
 
 
19
 
# FIXME: "bzr commit doc/format" commits doc/format.txt!
20
 
 
21
 
def commit(branch, message,
22
 
           timestamp=None,
23
 
           timezone=None,
24
 
           committer=None,
25
 
           verbose=True,
26
 
           specific_files=None,
27
 
           rev_id=None,
28
 
           allow_pointless=True):
29
 
    """Commit working copy as a new revision.
30
 
 
31
 
    The basic approach is to add all the file texts into the
32
 
    store, then the inventory, then make a new revision pointing
33
 
    to that inventory and store that.
34
 
 
35
 
    This is not quite safe if the working copy changes during the
36
 
    commit; for the moment that is simply not allowed.  A better
37
 
    approach is to make a temporary copy of the files before
38
 
    computing their hashes, and then add those hashes in turn to
39
 
    the inventory.  This should mean at least that there are no
40
 
    broken hash pointers.  There is no way we can get a snapshot
41
 
    of the whole directory at an instant.  This would also have to
42
 
    be robust against files disappearing, moving, etc.  So the
43
 
    whole thing is a bit hard.
44
 
 
45
 
    This raises PointlessCommit if there are no changes, no new merges,
46
 
    and allow_pointless  is false.
47
 
 
48
 
    timestamp -- if not None, seconds-since-epoch for a
49
 
         postdated/predated commit.
50
 
 
51
 
    specific_files
52
 
        If true, commit only those files.
53
 
 
54
 
    rev_id
55
 
        If set, use this as the new revision id.
56
 
        Useful for test or import commands that need to tightly
57
 
        control what revisions are assigned.  If you duplicate
58
 
        a revision id that exists elsewhere it is your own fault.
59
 
        If null (default), a time/random revision id is generated.
60
 
    """
61
 
 
62
 
    import time, tempfile
63
 
 
64
 
    from bzrlib.osutils import local_time_offset, username
65
 
    from bzrlib.branch import gen_file_id
66
 
    from bzrlib.errors import BzrError, PointlessCommit
67
 
    from bzrlib.revision import Revision, RevisionReference
68
 
    from bzrlib.trace import mutter, note
69
 
    from bzrlib.xml import pack_xml
70
 
 
71
 
    branch.lock_write()
72
 
 
73
 
    try:
74
 
        # First walk over the working inventory; and both update that
75
 
        # and also build a new revision inventory.  The revision
76
 
        # inventory needs to hold the text-id, sha1 and size of the
77
 
        # actual file versions committed in the revision.  (These are
78
 
        # not present in the working inventory.)  We also need to
79
 
        # detect missing/deleted files, and remove them from the
80
 
        # working inventory.
81
 
 
82
 
        work_tree = branch.working_tree()
83
 
        work_inv = work_tree.inventory
84
 
        basis = branch.basis_tree()
85
 
        basis_inv = basis.inventory
86
 
 
87
 
        if verbose:
88
 
            note('looking for changes...')
89
 
 
90
 
        pending_merges = branch.pending_merges()
91
 
 
92
 
        missing_ids, new_inv, any_changes = \
93
 
                     _gather_commit(branch,
94
 
                                    work_tree,
95
 
                                    work_inv,
96
 
                                    basis_inv,
97
 
                                    specific_files,
98
 
                                    verbose)
99
 
 
100
 
        if not (any_changes or allow_pointless or pending_merges):
101
 
            raise PointlessCommit()
102
 
 
103
 
        for file_id in missing_ids:
104
 
            # Any files that have been deleted are now removed from the
105
 
            # working inventory.  Files that were not selected for commit
106
 
            # are left as they were in the working inventory and ommitted
107
 
            # from the revision inventory.
108
 
 
109
 
            # have to do this later so we don't mess up the iterator.
110
 
            # since parents may be removed before their children we
111
 
            # have to test.
112
 
 
113
 
            # FIXME: There's probably a better way to do this; perhaps
114
 
            # the workingtree should know how to filter itbranch.
115
 
            if work_inv.has_id(file_id):
116
 
                del work_inv[file_id]
117
 
 
118
 
        if rev_id is None:
119
 
            rev_id = _gen_revision_id(branch, time.time())
120
 
        inv_id = rev_id
121
 
 
122
 
        inv_tmp = tempfile.TemporaryFile()
123
 
        pack_xml(new_inv, inv_tmp)
124
 
        inv_tmp.seek(0)
125
 
        branch.inventory_store.add(inv_tmp, inv_id)
126
 
        mutter('new inventory_id is {%s}' % inv_id)
127
 
 
128
 
        # We could also just sha hash the inv_tmp file
129
 
        # however, in the case that branch.inventory_store.add()
130
 
        # ever actually does anything special
131
 
        inv_sha1 = branch.get_inventory_sha1(inv_id)
132
 
 
133
 
        branch._write_inventory(work_inv)
134
 
 
135
 
        if timestamp == None:
136
 
            timestamp = time.time()
137
 
 
138
 
        if committer == None:
139
 
            committer = username(branch)
140
 
 
141
 
        if timezone == None:
142
 
            timezone = local_time_offset()
143
 
 
144
 
        mutter("building commit log message")
145
 
        rev = Revision(timestamp=timestamp,
146
 
                       timezone=timezone,
147
 
                       committer=committer,
148
 
                       message = message,
149
 
                       inventory_id=inv_id,
150
 
                       inventory_sha1=inv_sha1,
151
 
                       revision_id=rev_id)
152
 
 
153
 
        rev.parents = []
154
 
        precursor_id = branch.last_patch()
155
 
        if precursor_id:
156
 
            precursor_sha1 = branch.get_revision_sha1(precursor_id)
157
 
            rev.parents.append(RevisionReference(precursor_id, precursor_sha1))
158
 
        for merge_rev in pending_merges:
159
 
            rev.parents.append(RevisionReference(merge_rev))            
160
 
 
161
 
        rev_tmp = tempfile.TemporaryFile()
162
 
        pack_xml(rev, rev_tmp)
163
 
        rev_tmp.seek(0)
164
 
        branch.revision_store.add(rev_tmp, rev_id)
165
 
        mutter("new revision_id is {%s}" % rev_id)
166
 
 
167
 
        ## XXX: Everything up to here can simply be orphaned if we abort
168
 
        ## the commit; it will leave junk files behind but that doesn't
169
 
        ## matter.
170
 
 
171
 
        ## TODO: Read back the just-generated changeset, and make sure it
172
 
        ## applies and recreates the right state.
173
 
 
174
 
        ## TODO: Also calculate and store the inventory SHA1
175
 
        mutter("committing patch r%d" % (branch.revno() + 1))
176
 
 
177
 
        branch.append_revision(rev_id)
178
 
 
179
 
        branch.set_pending_merges([])
180
 
 
181
 
        if verbose:
182
 
            note("commited r%d" % branch.revno())
183
 
    finally:
184
 
        branch.unlock()
185
 
 
186
 
 
187
 
 
188
 
def _gen_revision_id(branch, when):
189
 
    """Return new revision-id."""
190
 
    from binascii import hexlify
191
 
    from bzrlib.osutils import rand_bytes, compact_date, user_email
192
 
 
193
 
    s = '%s-%s-' % (user_email(branch), compact_date(when))
194
 
    s += hexlify(rand_bytes(8))
195
 
    return s
196
 
 
197
 
 
198
 
def _gather_commit(branch, work_tree, work_inv, basis_inv, specific_files,
199
 
                   verbose):
200
 
    """Build inventory preparatory to commit.
201
 
 
202
 
    Returns missing_ids, new_inv, any_changes.
203
 
 
204
 
    This adds any changed files into the text store, and sets their
205
 
    test-id, sha and size in the returned inventory appropriately.
206
 
 
207
 
    missing_ids
208
 
        Modified to hold a list of files that have been deleted from
209
 
        the working directory; these should be removed from the
210
 
        working inventory.
211
 
    """
212
 
    from bzrlib.inventory import Inventory
213
 
    from bzrlib.osutils import isdir, isfile, sha_string, quotefn, \
214
 
         local_time_offset, username, kind_marker, is_inside_any
215
 
    
216
 
    from bzrlib.branch import gen_file_id
217
 
    from bzrlib.errors import BzrError
218
 
    from bzrlib.revision import Revision
219
 
    from bzrlib.trace import mutter, note
220
 
 
221
 
    any_changes = False
222
 
    inv = Inventory(work_inv.root.file_id)
223
 
    missing_ids = []
224
 
    
225
 
    for path, entry in work_inv.iter_entries():
226
 
        ## TODO: Check that the file kind has not changed from the previous
227
 
        ## revision of this file (if any).
228
 
 
229
 
        p = branch.abspath(path)
230
 
        file_id = entry.file_id
231
 
        mutter('commit prep file %s, id %r ' % (p, file_id))
232
 
 
233
 
        if specific_files and not is_inside_any(specific_files, path):
234
 
            mutter('  skipping file excluded from commit')
235
 
            if basis_inv.has_id(file_id):
236
 
                # carry over with previous state
237
 
                inv.add(basis_inv[file_id].copy())
238
 
            else:
239
 
                # omit this from committed inventory
240
 
                pass
241
 
            continue
242
 
 
243
 
        if not work_tree.has_id(file_id):
244
 
            if verbose:
245
 
                print('deleted %s%s' % (path, kind_marker(entry.kind)))
246
 
                any_changes = True
247
 
            mutter("    file is missing, removing from inventory")
248
 
            missing_ids.append(file_id)
249
 
            continue
250
 
 
251
 
        # this is present in the new inventory; may be new, modified or
252
 
        # unchanged.
253
 
        old_ie = basis_inv.has_id(file_id) and basis_inv[file_id]
254
 
        
255
 
        entry = entry.copy()
256
 
        inv.add(entry)
257
 
 
258
 
        if old_ie:
259
 
            old_kind = old_ie.kind
260
 
            if old_kind != entry.kind:
261
 
                raise BzrError("entry %r changed kind from %r to %r"
262
 
                        % (file_id, old_kind, entry.kind))
263
 
 
264
 
        if entry.kind == 'directory':
265
 
            if not isdir(p):
266
 
                raise BzrError("%s is entered as directory but not a directory"
267
 
                               % quotefn(p))
268
 
        elif entry.kind == 'file':
269
 
            if not isfile(p):
270
 
                raise BzrError("%s is entered as file but is not a file" % quotefn(p))
271
 
 
272
 
            new_sha1 = work_tree.get_file_sha1(file_id)
273
 
 
274
 
            if (old_ie
275
 
                and old_ie.text_sha1 == new_sha1):
276
 
                ## assert content == basis.get_file(file_id).read()
277
 
                entry.text_id = old_ie.text_id
278
 
                entry.text_sha1 = new_sha1
279
 
                entry.text_size = old_ie.text_size
280
 
                mutter('    unchanged from previous text_id {%s}' %
281
 
                       entry.text_id)
282
 
            else:
283
 
                content = file(p, 'rb').read()
284
 
 
285
 
                # calculate the sha again, just in case the file contents
286
 
                # changed since we updated the cache
287
 
                entry.text_sha1 = sha_string(content)
288
 
                entry.text_size = len(content)
289
 
 
290
 
                entry.text_id = gen_file_id(entry.name)
291
 
                branch.text_store.add(content, entry.text_id)
292
 
                mutter('    stored with text_id {%s}' % entry.text_id)
293
 
 
294
 
        if verbose:
295
 
            marked = path + kind_marker(entry.kind)
296
 
            if not old_ie:
297
 
                print 'added', marked
298
 
                any_changes = True
299
 
            elif old_ie == entry:
300
 
                pass                    # unchanged
301
 
            elif (old_ie.name == entry.name
302
 
                  and old_ie.parent_id == entry.parent_id):
303
 
                print 'modified', marked
304
 
                any_changes = True
305
 
            else:
306
 
                print 'renamed', marked
307
 
                any_changes = True
308
 
                        
309
 
    return missing_ids, inv, any_changes
310
 
 
311