~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/commit.py

  • Committer: Martin Pool
  • Date: 2005-05-03 02:39:45 UTC
  • Revision ID: mbp@sourcefrog.net-20050503023945-542829ff748301e8
- more documentation of revfile+annotation

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005 Canonical Ltd
2
 
 
3
 
# This program is free software; you can redistribute it and/or modify
4
 
# it under the terms of the GNU General Public License as published by
5
 
# the Free Software Foundation; either version 2 of the License, or
6
 
# (at your option) any later version.
7
 
 
8
 
# This program is distributed in the hope that it will be useful,
9
 
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
 
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
 
# GNU General Public License for more details.
12
 
 
13
 
# You should have received a copy of the GNU General Public License
14
 
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
 
 
17
 
 
18
 
 
19
 
def commit(branch, message, timestamp=None, timezone=None,
20
 
           committer=None,
21
 
           verbose=True,
22
 
           specific_files=None,
23
 
           rev_id=None):
24
 
    """Commit working copy as a new revision.
25
 
 
26
 
    The basic approach is to add all the file texts into the
27
 
    store, then the inventory, then make a new revision pointing
28
 
    to that inventory and store that.
29
 
 
30
 
    This is not quite safe if the working copy changes during the
31
 
    commit; for the moment that is simply not allowed.  A better
32
 
    approach is to make a temporary copy of the files before
33
 
    computing their hashes, and then add those hashes in turn to
34
 
    the inventory.  This should mean at least that there are no
35
 
    broken hash pointers.  There is no way we can get a snapshot
36
 
    of the whole directory at an instant.  This would also have to
37
 
    be robust against files disappearing, moving, etc.  So the
38
 
    whole thing is a bit hard.
39
 
 
40
 
    timestamp -- if not None, seconds-since-epoch for a
41
 
         postdated/predated commit.
42
 
 
43
 
    specific_files
44
 
        If true, commit only those files.
45
 
    """
46
 
 
47
 
    import os, time, tempfile
48
 
 
49
 
    from inventory import Inventory
50
 
    from osutils import isdir, isfile, sha_string, quotefn, \
51
 
         local_time_offset, username, kind_marker, is_inside_any
52
 
    
53
 
    from branch import gen_file_id
54
 
    from errors import BzrError
55
 
    from revision import Revision
56
 
    from trace import mutter, note
57
 
 
58
 
    branch._need_writelock()
59
 
 
60
 
    ## TODO: Show branch names
61
 
 
62
 
    # TODO: Don't commit if there are no changes, unless forced?
63
 
 
64
 
    # First walk over the working inventory; and both update that
65
 
    # and also build a new revision inventory.  The revision
66
 
    # inventory needs to hold the text-id, sha1 and size of the
67
 
    # actual file versions committed in the revision.  (These are
68
 
    # not present in the working inventory.)  We also need to
69
 
    # detect missing/deleted files, and remove them from the
70
 
    # working inventory.
71
 
 
72
 
    work_tree = branch.working_tree()
73
 
    work_inv = work_tree.inventory
74
 
    inv = Inventory()
75
 
    basis = branch.basis_tree()
76
 
    basis_inv = basis.inventory
77
 
    missing_ids = []
78
 
 
79
 
    print 'looking for changes...'
80
 
    for path, entry in work_inv.iter_entries():
81
 
        ## TODO: Cope with files that have gone missing.
82
 
 
83
 
        ## TODO: Check that the file kind has not changed from the previous
84
 
        ## revision of this file (if any).
85
 
 
86
 
        entry = entry.copy()
87
 
 
88
 
        p = branch.abspath(path)
89
 
        file_id = entry.file_id
90
 
        mutter('commit prep file %s, id %r ' % (p, file_id))
91
 
 
92
 
        if specific_files and not is_inside_any(specific_files, path):
93
 
            if basis_inv.has_id(file_id):
94
 
                # carry over with previous state
95
 
                inv.add(basis_inv[file_id].copy())
96
 
            else:
97
 
                # omit this from committed inventory
98
 
                pass
99
 
            continue
100
 
 
101
 
        if not work_tree.has_id(file_id):
102
 
            note('deleted %s%s' % (path, kind_marker(entry.kind)))
103
 
            mutter("    file is missing, removing from inventory")
104
 
            missing_ids.append(file_id)
105
 
            continue
106
 
 
107
 
        inv.add(entry)
108
 
 
109
 
        if basis_inv.has_id(file_id):
110
 
            old_kind = basis_inv[file_id].kind
111
 
            if old_kind != entry.kind:
112
 
                raise BzrError("entry %r changed kind from %r to %r"
113
 
                        % (file_id, old_kind, entry.kind))
114
 
 
115
 
        if entry.kind == 'directory':
116
 
            if not isdir(p):
117
 
                raise BzrError("%s is entered as directory but not a directory"
118
 
                               % quotefn(p))
119
 
        elif entry.kind == 'file':
120
 
            if not isfile(p):
121
 
                raise BzrError("%s is entered as file but is not a file" % quotefn(p))
122
 
 
123
 
            new_sha1 = work_tree.get_file_sha1(file_id)
124
 
 
125
 
            old_ie = basis_inv.has_id(file_id) and basis_inv[file_id]
126
 
            if (old_ie
127
 
                and old_ie.text_sha1 == new_sha1):
128
 
                ## assert content == basis.get_file(file_id).read()
129
 
                entry.text_id = old_ie.text_id
130
 
                entry.text_sha1 = new_sha1
131
 
                entry.text_size = old_ie.text_size
132
 
                mutter('    unchanged from previous text_id {%s}' %
133
 
                       entry.text_id)
134
 
            else:
135
 
                content = file(p, 'rb').read()
136
 
 
137
 
                entry.text_sha1 = sha_string(content)
138
 
                entry.text_size = len(content)
139
 
 
140
 
                entry.text_id = gen_file_id(entry.name)
141
 
                branch.text_store.add(content, entry.text_id)
142
 
                mutter('    stored with text_id {%s}' % entry.text_id)
143
 
                if not old_ie:
144
 
                    note('added %s' % path)
145
 
                elif (old_ie.name == entry.name
146
 
                      and old_ie.parent_id == entry.parent_id):
147
 
                    note('modified %s' % path)
148
 
                else:
149
 
                    note('renamed %s' % path)
150
 
 
151
 
 
152
 
    for file_id in missing_ids:
153
 
        # Any files that have been deleted are now removed from the
154
 
        # working inventory.  Files that were not selected for commit
155
 
        # are left as they were in the working inventory and ommitted
156
 
        # from the revision inventory.
157
 
        
158
 
        # have to do this later so we don't mess up the iterator.
159
 
        # since parents may be removed before their children we
160
 
        # have to test.
161
 
 
162
 
        # FIXME: There's probably a better way to do this; perhaps
163
 
        # the workingtree should know how to filter itbranch.
164
 
        if work_inv.has_id(file_id):
165
 
            del work_inv[file_id]
166
 
 
167
 
 
168
 
    if rev_id is None:
169
 
        rev_id = _gen_revision_id(time.time())
170
 
    inv_id = rev_id
171
 
 
172
 
    inv_tmp = tempfile.TemporaryFile()
173
 
    inv.write_xml(inv_tmp)
174
 
    inv_tmp.seek(0)
175
 
    branch.inventory_store.add(inv_tmp, inv_id)
176
 
    mutter('new inventory_id is {%s}' % inv_id)
177
 
 
178
 
    branch._write_inventory(work_inv)
179
 
 
180
 
    if timestamp == None:
181
 
        timestamp = time.time()
182
 
 
183
 
    if committer == None:
184
 
        committer = username()
185
 
 
186
 
    if timezone == None:
187
 
        timezone = local_time_offset()
188
 
 
189
 
    mutter("building commit log message")
190
 
    rev = Revision(timestamp=timestamp,
191
 
                   timezone=timezone,
192
 
                   committer=committer,
193
 
                   precursor = branch.last_patch(),
194
 
                   message = message,
195
 
                   inventory_id=inv_id,
196
 
                   revision_id=rev_id)
197
 
 
198
 
    rev_tmp = tempfile.TemporaryFile()
199
 
    rev.write_xml(rev_tmp)
200
 
    rev_tmp.seek(0)
201
 
    branch.revision_store.add(rev_tmp, rev_id)
202
 
    mutter("new revision_id is {%s}" % rev_id)
203
 
 
204
 
    ## XXX: Everything up to here can simply be orphaned if we abort
205
 
    ## the commit; it will leave junk files behind but that doesn't
206
 
    ## matter.
207
 
 
208
 
    ## TODO: Read back the just-generated changeset, and make sure it
209
 
    ## applies and recreates the right state.
210
 
 
211
 
    ## TODO: Also calculate and store the inventory SHA1
212
 
    mutter("committing patch r%d" % (branch.revno() + 1))
213
 
 
214
 
 
215
 
    branch.append_revision(rev_id)
216
 
 
217
 
    note("commited r%d" % branch.revno())
218
 
 
219
 
 
220
 
 
221
 
def _gen_revision_id(when):
222
 
    """Return new revision-id."""
223
 
    from binascii import hexlify
224
 
    from osutils import rand_bytes, compact_date, user_email
225
 
 
226
 
    s = '%s-%s-' % (user_email(), compact_date(when))
227
 
    s += hexlify(rand_bytes(8))
228
 
    return s
229
 
 
230