~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/commit.py

  • Committer: Martin Pool
  • Date: 2005-09-02 01:56:05 UTC
  • Revision ID: mbp@sourcefrog.net-20050902015604-3e3003f71665950b
- message typo

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
# Copyright (C) 2005 Canonical Ltd
 
2
 
 
3
# This program is free software; you can redistribute it and/or modify
 
4
# it under the terms of the GNU General Public License as published by
 
5
# the Free Software Foundation; either version 2 of the License, or
 
6
# (at your option) any later version.
 
7
 
 
8
# This program is distributed in the hope that it will be useful,
 
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
 
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
11
# GNU General Public License for more details.
 
12
 
 
13
# You should have received a copy of the GNU General Public License
 
14
# along with this program; if not, write to the Free Software
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
16
 
 
17
 
 
18
 
 
19
# FIXME: "bzr commit doc/format" commits doc/format.txt!
 
20
 
 
21
def commit(branch, message,
 
22
           timestamp=None,
 
23
           timezone=None,
 
24
           committer=None,
 
25
           verbose=True,
 
26
           specific_files=None,
 
27
           rev_id=None,
 
28
           allow_pointless=True):
 
29
    """Commit working copy as a new revision.
 
30
 
 
31
    The basic approach is to add all the file texts into the
 
32
    store, then the inventory, then make a new revision pointing
 
33
    to that inventory and store that.
 
34
 
 
35
    This is not quite safe if the working copy changes during the
 
36
    commit; for the moment that is simply not allowed.  A better
 
37
    approach is to make a temporary copy of the files before
 
38
    computing their hashes, and then add those hashes in turn to
 
39
    the inventory.  This should mean at least that there are no
 
40
    broken hash pointers.  There is no way we can get a snapshot
 
41
    of the whole directory at an instant.  This would also have to
 
42
    be robust against files disappearing, moving, etc.  So the
 
43
    whole thing is a bit hard.
 
44
 
 
45
    This raises PointlessCommit if there are no changes, no new merges,
 
46
    and allow_pointless  is false.
 
47
 
 
48
    timestamp -- if not None, seconds-since-epoch for a
 
49
         postdated/predated commit.
 
50
 
 
51
    specific_files
 
52
        If true, commit only those files.
 
53
 
 
54
    rev_id
 
55
        If set, use this as the new revision id.
 
56
        Useful for test or import commands that need to tightly
 
57
        control what revisions are assigned.  If you duplicate
 
58
        a revision id that exists elsewhere it is your own fault.
 
59
        If null (default), a time/random revision id is generated.
 
60
    """
 
61
 
 
62
    import time, tempfile
 
63
 
 
64
    from bzrlib.osutils import local_time_offset, username
 
65
    from bzrlib.branch import gen_file_id
 
66
    from bzrlib.errors import BzrError, PointlessCommit
 
67
    from bzrlib.revision import Revision, RevisionReference
 
68
    from bzrlib.trace import mutter, note
 
69
    from bzrlib.xml import pack_xml
 
70
 
 
71
    branch.lock_write()
 
72
 
 
73
    try:
 
74
        # First walk over the working inventory; and both update that
 
75
        # and also build a new revision inventory.  The revision
 
76
        # inventory needs to hold the text-id, sha1 and size of the
 
77
        # actual file versions committed in the revision.  (These are
 
78
        # not present in the working inventory.)  We also need to
 
79
        # detect missing/deleted files, and remove them from the
 
80
        # working inventory.
 
81
 
 
82
        work_tree = branch.working_tree()
 
83
        work_inv = work_tree.inventory
 
84
        basis = branch.basis_tree()
 
85
        basis_inv = basis.inventory
 
86
 
 
87
        if verbose:
 
88
            # note('looking for changes...')
 
89
            # print 'looking for changes...'
 
90
            # disabled; should be done at a higher level
 
91
            pass
 
92
 
 
93
        pending_merges = branch.pending_merges()
 
94
 
 
95
        missing_ids, new_inv, any_changes = \
 
96
                     _gather_commit(branch,
 
97
                                    work_tree,
 
98
                                    work_inv,
 
99
                                    basis_inv,
 
100
                                    specific_files,
 
101
                                    verbose)
 
102
 
 
103
        if not (any_changes or allow_pointless or pending_merges):
 
104
            raise PointlessCommit()
 
105
 
 
106
        for file_id in missing_ids:
 
107
            # Any files that have been deleted are now removed from the
 
108
            # working inventory.  Files that were not selected for commit
 
109
            # are left as they were in the working inventory and ommitted
 
110
            # from the revision inventory.
 
111
 
 
112
            # have to do this later so we don't mess up the iterator.
 
113
            # since parents may be removed before their children we
 
114
            # have to test.
 
115
 
 
116
            # FIXME: There's probably a better way to do this; perhaps
 
117
            # the workingtree should know how to filter itbranch.
 
118
            if work_inv.has_id(file_id):
 
119
                del work_inv[file_id]
 
120
 
 
121
        if rev_id is None:
 
122
            rev_id = _gen_revision_id(branch, time.time())
 
123
        inv_id = rev_id
 
124
 
 
125
        inv_tmp = tempfile.TemporaryFile()
 
126
        pack_xml(new_inv, inv_tmp)
 
127
        inv_tmp.seek(0)
 
128
        branch.inventory_store.add(inv_tmp, inv_id)
 
129
        mutter('new inventory_id is {%s}' % inv_id)
 
130
 
 
131
        # We could also just sha hash the inv_tmp file
 
132
        # however, in the case that branch.inventory_store.add()
 
133
        # ever actually does anything special
 
134
        inv_sha1 = branch.get_inventory_sha1(inv_id)
 
135
 
 
136
        branch._write_inventory(work_inv)
 
137
 
 
138
        if timestamp == None:
 
139
            timestamp = time.time()
 
140
 
 
141
        if committer == None:
 
142
            committer = username(branch)
 
143
 
 
144
        if timezone == None:
 
145
            timezone = local_time_offset()
 
146
 
 
147
        mutter("building commit log message")
 
148
        rev = Revision(timestamp=timestamp,
 
149
                       timezone=timezone,
 
150
                       committer=committer,
 
151
                       message = message,
 
152
                       inventory_id=inv_id,
 
153
                       inventory_sha1=inv_sha1,
 
154
                       revision_id=rev_id)
 
155
 
 
156
        rev.parents = []
 
157
        precursor_id = branch.last_patch()
 
158
        if precursor_id:
 
159
            precursor_sha1 = branch.get_revision_sha1(precursor_id)
 
160
            rev.parents.append(RevisionReference(precursor_id, precursor_sha1))
 
161
        for merge_rev in pending_merges:
 
162
            rev.parents.append(RevisionReference(merge_rev))            
 
163
 
 
164
        rev_tmp = tempfile.TemporaryFile()
 
165
        pack_xml(rev, rev_tmp)
 
166
        rev_tmp.seek(0)
 
167
        branch.revision_store.add(rev_tmp, rev_id)
 
168
        mutter("new revision_id is {%s}" % rev_id)
 
169
 
 
170
        ## XXX: Everything up to here can simply be orphaned if we abort
 
171
        ## the commit; it will leave junk files behind but that doesn't
 
172
        ## matter.
 
173
 
 
174
        ## TODO: Read back the just-generated changeset, and make sure it
 
175
        ## applies and recreates the right state.
 
176
 
 
177
        ## TODO: Also calculate and store the inventory SHA1
 
178
        mutter("committing patch r%d" % (branch.revno() + 1))
 
179
 
 
180
        branch.append_revision(rev_id)
 
181
 
 
182
        branch.set_pending_merges([])
 
183
 
 
184
        if verbose:
 
185
            # disabled; should go through logging
 
186
            # note("commited r%d" % branch.revno())
 
187
            # print ("commited r%d" % branch.revno())
 
188
            pass
 
189
    finally:
 
190
        branch.unlock()
 
191
 
 
192
 
 
193
 
 
194
def _gen_revision_id(branch, when):
 
195
    """Return new revision-id."""
 
196
    from binascii import hexlify
 
197
    from bzrlib.osutils import rand_bytes, compact_date, user_email
 
198
 
 
199
    s = '%s-%s-' % (user_email(branch), compact_date(when))
 
200
    s += hexlify(rand_bytes(8))
 
201
    return s
 
202
 
 
203
 
 
204
def _gather_commit(branch, work_tree, work_inv, basis_inv, specific_files,
 
205
                   verbose):
 
206
    """Build inventory preparatory to commit.
 
207
 
 
208
    Returns missing_ids, new_inv, any_changes.
 
209
 
 
210
    This adds any changed files into the text store, and sets their
 
211
    test-id, sha and size in the returned inventory appropriately.
 
212
 
 
213
    missing_ids
 
214
        Modified to hold a list of files that have been deleted from
 
215
        the working directory; these should be removed from the
 
216
        working inventory.
 
217
    """
 
218
    from bzrlib.inventory import Inventory
 
219
    from bzrlib.osutils import isdir, isfile, sha_string, quotefn, \
 
220
         local_time_offset, username, kind_marker, is_inside_any
 
221
    
 
222
    from bzrlib.branch import gen_file_id
 
223
    from bzrlib.errors import BzrError
 
224
    from bzrlib.revision import Revision
 
225
    from bzrlib.trace import mutter, note
 
226
 
 
227
    any_changes = False
 
228
    inv = Inventory(work_inv.root.file_id)
 
229
    missing_ids = []
 
230
    
 
231
    for path, entry in work_inv.iter_entries():
 
232
        ## TODO: Check that the file kind has not changed from the previous
 
233
        ## revision of this file (if any).
 
234
 
 
235
        p = branch.abspath(path)
 
236
        file_id = entry.file_id
 
237
        mutter('commit prep file %s, id %r ' % (p, file_id))
 
238
 
 
239
        if specific_files and not is_inside_any(specific_files, path):
 
240
            mutter('  skipping file excluded from commit')
 
241
            if basis_inv.has_id(file_id):
 
242
                # carry over with previous state
 
243
                inv.add(basis_inv[file_id].copy())
 
244
            else:
 
245
                # omit this from committed inventory
 
246
                pass
 
247
            continue
 
248
 
 
249
        if not work_tree.has_id(file_id):
 
250
            if verbose:
 
251
                print('deleted %s%s' % (path, kind_marker(entry.kind)))
 
252
                any_changes = True
 
253
            mutter("    file is missing, removing from inventory")
 
254
            missing_ids.append(file_id)
 
255
            continue
 
256
 
 
257
        # this is present in the new inventory; may be new, modified or
 
258
        # unchanged.
 
259
        old_ie = basis_inv.has_id(file_id) and basis_inv[file_id]
 
260
        
 
261
        entry = entry.copy()
 
262
        inv.add(entry)
 
263
 
 
264
        if old_ie:
 
265
            old_kind = old_ie.kind
 
266
            if old_kind != entry.kind:
 
267
                raise BzrError("entry %r changed kind from %r to %r"
 
268
                        % (file_id, old_kind, entry.kind))
 
269
 
 
270
        if entry.kind == 'directory':
 
271
            if not isdir(p):
 
272
                raise BzrError("%s is entered as directory but not a directory"
 
273
                               % quotefn(p))
 
274
        elif entry.kind == 'file':
 
275
            if not isfile(p):
 
276
                raise BzrError("%s is entered as file but is not a file" % quotefn(p))
 
277
 
 
278
            new_sha1 = work_tree.get_file_sha1(file_id)
 
279
 
 
280
            if (old_ie
 
281
                and old_ie.text_sha1 == new_sha1):
 
282
                ## assert content == basis.get_file(file_id).read()
 
283
                entry.text_id = old_ie.text_id
 
284
                entry.text_sha1 = new_sha1
 
285
                entry.text_size = old_ie.text_size
 
286
                mutter('    unchanged from previous text_id {%s}' %
 
287
                       entry.text_id)
 
288
            else:
 
289
                content = file(p, 'rb').read()
 
290
 
 
291
                # calculate the sha again, just in case the file contents
 
292
                # changed since we updated the cache
 
293
                entry.text_sha1 = sha_string(content)
 
294
                entry.text_size = len(content)
 
295
 
 
296
                entry.text_id = gen_file_id(entry.name)
 
297
                branch.text_store.add(content, entry.text_id)
 
298
                mutter('    stored with text_id {%s}' % entry.text_id)
 
299
 
 
300
        if verbose:
 
301
            marked = path + kind_marker(entry.kind)
 
302
            if not old_ie:
 
303
                print 'added', marked
 
304
                any_changes = True
 
305
            elif old_ie == entry:
 
306
                pass                    # unchanged
 
307
            elif (old_ie.name == entry.name
 
308
                  and old_ie.parent_id == entry.parent_id):
 
309
                print 'modified', marked
 
310
                any_changes = True
 
311
            else:
 
312
                print 'renamed', marked
 
313
                any_changes = True
 
314
                        
 
315
    return missing_ids, inv, any_changes
 
316
 
 
317