~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/commit.py

  • Committer: Martin Pool
  • Date: 2005-05-16 02:19:13 UTC
  • Revision ID: mbp@sourcefrog.net-20050516021913-3a933f871079e3fe
- patch from ddaa to create api/ directory 
  before building API docs

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
# Copyright (C) 2005 Canonical Ltd
 
2
 
 
3
# This program is free software; you can redistribute it and/or modify
 
4
# it under the terms of the GNU General Public License as published by
 
5
# the Free Software Foundation; either version 2 of the License, or
 
6
# (at your option) any later version.
 
7
 
 
8
# This program is distributed in the hope that it will be useful,
 
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
 
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
11
# GNU General Public License for more details.
 
12
 
 
13
# You should have received a copy of the GNU General Public License
 
14
# along with this program; if not, write to the Free Software
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
16
 
 
17
 
 
18
 
 
19
def commit(branch, message, timestamp=None, timezone=None,
 
20
           committer=None,
 
21
           verbose=True,
 
22
           specific_files=None,
 
23
           rev_id=None):
 
24
    """Commit working copy as a new revision.
 
25
 
 
26
    The basic approach is to add all the file texts into the
 
27
    store, then the inventory, then make a new revision pointing
 
28
    to that inventory and store that.
 
29
 
 
30
    This is not quite safe if the working copy changes during the
 
31
    commit; for the moment that is simply not allowed.  A better
 
32
    approach is to make a temporary copy of the files before
 
33
    computing their hashes, and then add those hashes in turn to
 
34
    the inventory.  This should mean at least that there are no
 
35
    broken hash pointers.  There is no way we can get a snapshot
 
36
    of the whole directory at an instant.  This would also have to
 
37
    be robust against files disappearing, moving, etc.  So the
 
38
    whole thing is a bit hard.
 
39
 
 
40
    timestamp -- if not None, seconds-since-epoch for a
 
41
         postdated/predated commit.
 
42
 
 
43
    specific_files
 
44
        If true, commit only those files.
 
45
    """
 
46
 
 
47
    import os, time, tempfile
 
48
 
 
49
    from inventory import Inventory
 
50
    from osutils import isdir, isfile, sha_string, quotefn, \
 
51
         local_time_offset, username, kind_marker, is_inside_any
 
52
    
 
53
    from branch import gen_file_id
 
54
    from errors import BzrError
 
55
    from revision import Revision
 
56
    from trace import mutter, note
 
57
 
 
58
    branch._need_writelock()
 
59
 
 
60
    ## TODO: Show branch names
 
61
 
 
62
    # TODO: Don't commit if there are no changes, unless forced?
 
63
 
 
64
    # First walk over the working inventory; and both update that
 
65
    # and also build a new revision inventory.  The revision
 
66
    # inventory needs to hold the text-id, sha1 and size of the
 
67
    # actual file versions committed in the revision.  (These are
 
68
    # not present in the working inventory.)  We also need to
 
69
    # detect missing/deleted files, and remove them from the
 
70
    # working inventory.
 
71
 
 
72
    work_tree = branch.working_tree()
 
73
    work_inv = work_tree.inventory
 
74
    inv = Inventory()
 
75
    basis = branch.basis_tree()
 
76
    basis_inv = basis.inventory
 
77
    missing_ids = []
 
78
 
 
79
    print 'looking for changes...'
 
80
    for path, entry in work_inv.iter_entries():
 
81
        ## TODO: Cope with files that have gone missing.
 
82
 
 
83
        ## TODO: Check that the file kind has not changed from the previous
 
84
        ## revision of this file (if any).
 
85
 
 
86
        entry = entry.copy()
 
87
 
 
88
        p = branch.abspath(path)
 
89
        file_id = entry.file_id
 
90
        mutter('commit prep file %s, id %r ' % (p, file_id))
 
91
 
 
92
        if specific_files and not is_inside_any(specific_files, path):
 
93
            if basis_inv.has_id(file_id):
 
94
                # carry over with previous state
 
95
                inv.add(basis_inv[file_id].copy())
 
96
            else:
 
97
                # omit this from committed inventory
 
98
                pass
 
99
            continue
 
100
 
 
101
        if not work_tree.has_id(file_id):
 
102
            note('deleted %s%s' % (path, kind_marker(entry.kind)))
 
103
            mutter("    file is missing, removing from inventory")
 
104
            missing_ids.append(file_id)
 
105
            continue
 
106
 
 
107
        inv.add(entry)
 
108
 
 
109
        if basis_inv.has_id(file_id):
 
110
            old_kind = basis_inv[file_id].kind
 
111
            if old_kind != entry.kind:
 
112
                raise BzrError("entry %r changed kind from %r to %r"
 
113
                        % (file_id, old_kind, entry.kind))
 
114
 
 
115
        if entry.kind == 'directory':
 
116
            if not isdir(p):
 
117
                raise BzrError("%s is entered as directory but not a directory"
 
118
                               % quotefn(p))
 
119
        elif entry.kind == 'file':
 
120
            if not isfile(p):
 
121
                raise BzrError("%s is entered as file but is not a file" % quotefn(p))
 
122
 
 
123
            new_sha1 = work_tree.get_file_sha1(file_id)
 
124
 
 
125
            old_ie = basis_inv.has_id(file_id) and basis_inv[file_id]
 
126
            if (old_ie
 
127
                and old_ie.text_sha1 == new_sha1):
 
128
                ## assert content == basis.get_file(file_id).read()
 
129
                entry.text_id = old_ie.text_id
 
130
                entry.text_sha1 = new_sha1
 
131
                entry.text_size = old_ie.text_size
 
132
                mutter('    unchanged from previous text_id {%s}' %
 
133
                       entry.text_id)
 
134
            else:
 
135
                content = file(p, 'rb').read()
 
136
 
 
137
                entry.text_sha1 = sha_string(content)
 
138
                entry.text_size = len(content)
 
139
 
 
140
                entry.text_id = gen_file_id(entry.name)
 
141
                branch.text_store.add(content, entry.text_id)
 
142
                mutter('    stored with text_id {%s}' % entry.text_id)
 
143
                if not old_ie:
 
144
                    note('added %s' % path)
 
145
                elif (old_ie.name == entry.name
 
146
                      and old_ie.parent_id == entry.parent_id):
 
147
                    note('modified %s' % path)
 
148
                else:
 
149
                    note('renamed %s' % path)
 
150
 
 
151
 
 
152
    for file_id in missing_ids:
 
153
        # Any files that have been deleted are now removed from the
 
154
        # working inventory.  Files that were not selected for commit
 
155
        # are left as they were in the working inventory and ommitted
 
156
        # from the revision inventory.
 
157
        
 
158
        # have to do this later so we don't mess up the iterator.
 
159
        # since parents may be removed before their children we
 
160
        # have to test.
 
161
 
 
162
        # FIXME: There's probably a better way to do this; perhaps
 
163
        # the workingtree should know how to filter itbranch.
 
164
        if work_inv.has_id(file_id):
 
165
            del work_inv[file_id]
 
166
 
 
167
 
 
168
    if rev_id is None:
 
169
        rev_id = _gen_revision_id(time.time())
 
170
    inv_id = rev_id
 
171
 
 
172
    inv_tmp = tempfile.TemporaryFile()
 
173
    inv.write_xml(inv_tmp)
 
174
    inv_tmp.seek(0)
 
175
    branch.inventory_store.add(inv_tmp, inv_id)
 
176
    mutter('new inventory_id is {%s}' % inv_id)
 
177
 
 
178
    branch._write_inventory(work_inv)
 
179
 
 
180
    if timestamp == None:
 
181
        timestamp = time.time()
 
182
 
 
183
    if committer == None:
 
184
        committer = username()
 
185
 
 
186
    if timezone == None:
 
187
        timezone = local_time_offset()
 
188
 
 
189
    mutter("building commit log message")
 
190
    rev = Revision(timestamp=timestamp,
 
191
                   timezone=timezone,
 
192
                   committer=committer,
 
193
                   precursor = branch.last_patch(),
 
194
                   message = message,
 
195
                   inventory_id=inv_id,
 
196
                   revision_id=rev_id)
 
197
 
 
198
    rev_tmp = tempfile.TemporaryFile()
 
199
    rev.write_xml(rev_tmp)
 
200
    rev_tmp.seek(0)
 
201
    branch.revision_store.add(rev_tmp, rev_id)
 
202
    mutter("new revision_id is {%s}" % rev_id)
 
203
 
 
204
    ## XXX: Everything up to here can simply be orphaned if we abort
 
205
    ## the commit; it will leave junk files behind but that doesn't
 
206
    ## matter.
 
207
 
 
208
    ## TODO: Read back the just-generated changeset, and make sure it
 
209
    ## applies and recreates the right state.
 
210
 
 
211
    ## TODO: Also calculate and store the inventory SHA1
 
212
    mutter("committing patch r%d" % (branch.revno() + 1))
 
213
 
 
214
 
 
215
    branch.append_revision(rev_id)
 
216
 
 
217
    note("commited r%d" % branch.revno())
 
218
 
 
219
 
 
220
 
 
221
def _gen_revision_id(when):
 
222
    """Return new revision-id."""
 
223
    from binascii import hexlify
 
224
    from osutils import rand_bytes, compact_date, user_email
 
225
 
 
226
    s = '%s-%s-' % (user_email(), compact_date(when))
 
227
    s += hexlify(rand_bytes(8))
 
228
    return s
 
229
 
 
230